Skip to main content

Vos robots d'intelligence artificielle font preuve de partialité ? La diligence raisonnable peut l'éradiquer. (Intelligence artificielle et éthique, partie 3)

Roland Alston, Appian
October 4, 2018

[caption id="pièce jointe_34316" align="alignleft" width=305]Joanna Bryson, experte en intelligence artificielle Joanna Bryson, experte en intelligence artificielle et informaticienne à l'Université de Bath, au Royaume-Uni.[/caption]

(Voici le dernier épisode de notre série en trois parties sur l'intelligence artificielle. Notre invitée n'est autre que Joanna Bryson (@j2bryson), que Cognilytica classe dans son Top 50 des influenceurs en matière d'intelligence artificielle à suivre sur Twitter.) Lisez la partie 2 ici.

Dans les deux précédents épisodes, Joanna Bryson perçait l'écran de fumée sur la résistance à la réglementation de l'intelligence artificielle et étudiait l'importance de la diligence raisonnable dans le processus de développement logiciel.

Dans cette dernière partie, Joanna Bryson revient sur le défi de l'éradication de la partialité liée à l'intelligence artificielle, explique pourquoi les machines ne vont pas prendre le contrôle du monde et révèle le secret de la réussite de l'intelligence artificielle.

Nous espérons que vous apprécierez cet échange.

Appian : Vous avez dit que vous ne pensez pas qu'une entreprise ayant pour vocation « d'aller vite et de faire de la casse » puisse fournir des preuves de sa diligence raisonnable si des problèmes surviennent avec ses logiciels. Quel enseignement les chefs d'entreprise et les responsables informatiques doivent-ils en tirer ?

Joanna Bryson : Quel que soit votre secteur d'activité, vous devez être en mesure de démontrer que vous avez suivi des méthodes de développement de logiciels extrêmement rigoureuses, y compris à l’aide de l'apprentissage automatique.

Si vous gérez une banque et que vous avez un problème de comptabilité, vous n'examinez pas les synapses du cerveau de votre comptable. Vous vous demandez : « La comptabilité a-t-elle été tenue correctement » ?

Et je pense qu'il peut en être de même avec l'apprentissage automatique : voici les données que j’ai utilisées. Voici comment je les ai formées. Voici comment j’ai utilisé les meilleures pratiques. C'est ainsi que l'on réduit le risque et que l'on se protège.

Nous n'avons pas besoin de nouvelles réglementations pour l’intelligence artificielle

Appian : Cela nous ramène à la question de la réglementation de l'intelligence artificielle.

Joanna Bryson : Si nous pouvons faire comprendre aux entreprises que c'est ce à quoi l'on s'attend, que c'est tout à fait normal... Au Royaume-Uni, nous ne pensons pas avoir besoin d'une nouvelle législation. Nous devons simplement aider les gens à comprendre comment appliquer la législation en vigueur à l'industrie du logiciel.

https://twitter.com/j2bryson/status/1045693197396135936

Appian : Cela dit, pensez-vous que l’approche européenne du RGPD (Règlement général sur la protection des données) est un modèle à suivre ?

Joanna Bryson : Rien n’est parfait, mais je pense que le RGPD ouvre la voie à la politique en matière d'intelligence artificielle. Nous pouvons toujours l'améliorer. Mais si nous ne l'améliorons pas, nous devrions simplement l'adopter (rires).

C’est drôle, parce que les Européens se posent tous ces questions : « pourquoi n’avons-nous pas d'entreprises comme Facebook, pourquoi n’avons-nous pas Google, pourquoi n’avons-nous pas de grandes entreprises de ce type en Europe ? »... Le fait que ces entreprises extraordinairement puissantes se trouvent aux États-Unis ne signifie pas nécessairement qu'elles font quelque chose de bien.

La question est de savoir si l'on veut qu'autant d'argent, de pouvoir et de connaissances soient réunis dans une seule grande entreprise.

Et je pense que c’est l'une des principales raisons pour lesquelles Microsoft prend l'éthique et l'intelligence artificielle au sérieux. L'entreprise a déjà été confrontée à une affaire d'antitrust. Elle est très consciente des risques potentiels de l'intelligence artificielle. Et elle cherche à faire autorité sur la question de la gouvernance (et peut-être y parvient-elle).

Les leaders du numérique donnent la priorité à la gouvernance de l'intelligence artificielle

Appian : Certaines des grandes entreprises technologiques font les bons choix en ce qui concerne l'intelligence artificielle et la gouvernance ?Joanna Bryson : Je n’aurais pas dit cela il y a 5 ans. Mais les décision prises par Microsoft et Google au cours des 18 derniers mois se sont révélées intéressantes.

Appian : Passons à un autre sujet d’actualité : la partialité des algorithmes. Est-ce la réalité ou simplement une mode ?Joanna Bryson : L'apprentissage automatique impliquera les mêmes partis pris que ce que les psychologues appellent les partis pris implicites, lorsque les êtres humains les expriment.Appian : Avez-vous un exemple en tête ?

Joanna Bryson : Relativement parlant, les noms de femmes sont plus associés à des termes qui font référence à la maison. Tandis que les noms d'hommes sont plus associés à des termes faisant référence à la carrière. C'est donc le test d’association implicite que des psychologues ont réalisé.

Si vous élaborez l'intelligence artificielle grâce à l'apprentissage automatique, par exemple, vous allez vous retrouver avec les mêmes préjugés que nous avons déjà. Mais ce n'est que l'une des trois façons d'introduire des préjugés dans l'IA.

https://twitter.com/j2bryson/status/1044332545893109761

Quand l'intelligence artificielle file un mauvais coton

Appian : Dans quelle mesure faut-il s'inquiéter de la partialité en intelligence artificielle ?

Joanna Bryson : Je suis très inquiète à ce sujet. Une de mes histoires préférées sur la partialité de l'intelligence artificielle concerne les distributeurs de savon qui ne donneront pas de savon si vous n’avez pas une certaine couleur de peau. [Les informations affirment que les capteurs infrarouges n'ont pas été conçus pour détecter les peaux foncées.] Les habitants d'Asie du Sud finiraient par utiliser du papier toilette pour obtenir du savon au distributeur.

En d'autres termes, aucune des personnes qui ont testé ces distributeurs n'était asiatique. Elles étaient toutes étonnamment caucasiennes (rires).

Cela n'a tout simplement aucun sens. Mais c'est le type de partialités le plus facile à corriger. Et c'est l'un des points positifs de l’intelligence artificielle.

Lorsqu'il est question de partialités implicites humaines, il est plus difficile de déterminer ce qu'elles cachent. Mais avec l'intelligence artificielle, comme en cas d'accidents impliquant des véhicules autonomes, vous pouvez consulter les journaux de données et voir ce que l'intelligence artificielle a compris et saisir pourquoi elle a agi ainsi.

Appian : Êtes-vous préoccupée par les situations où la partialité est délibérément intégrée dans l'intelligence artificielle ?

Joanna Bryson : ...Pour moi, c'est le type de partialité que les gens ne perçoivent pas, celui où l'on intègre délibérément la partialité dans son processus. Ce n'est pas l'algorithme qui est mauvais. C'est quelqu'un qui franchit la porte et qui dit : « Je viens d'être élu, je veux baisser les impôts, et pour ceux qui n'ont pas voté pour moi dépouillons-les de leur argent. »

Un algorithme diminue les prestations d'invalidité

Une affaire étrange a eu lieu dans l'Idaho. L'État a créé un algorithme d'attribution des prestations d’invalidité. Cependant, la formule a entraîné une baisse soudaine des prestations d'invalidité pour de nombreuses personnes, dans certains cas allant jusqu'à 42 %. Lorsque les bénéficiaires se sont plaints, l'État a refusé de divulguer la formule, affirmant qu'il s’agissait d'une propriété intellectuelle.

Appian : Que s'est-il passé ?

Bryan : L'ACLU (American Civil Liberties Union) a repris l'affaire et a obtenu gain de cause lors d'une procédure régulière et a contraint l'État à révéler sa formule d’attribution des prestations. Et ça a été catastrophique. Il se passe la même chose avec les programmes de récidive.

Certains juges utilisent un logiciel d'intelligence artificielle capable de prédire la probabilité qu’une personne récidive. Les logiciels derrière ces programmes de récidive sont pires que tout ce que peut inventer un universitaire. On ne peut comprendre comment ils peuvent faire de si mauvaises prédictions.

Vous devez vous demander ce qu'ils font mal. Sont-ils vraiment si mauvais en programmation ? Ou peut-être cette programmation partiale est-elle intentionnelle ?C’est pourquoi j'ai dit plus tôt que la chose la plus importante [en intelligence artificielle] est la responsabilisation. La seule façon de déterminer si un être humain a introduit une partialité, et qu'il ne s'agit pas simplement d'une erreur, c'est grâce à la responsabilisation et à la journalisation.

https://twitter.com/j2bryson/status/1043612582844792832

L'intelligence artificielle ne va pas prendre le contrôle du monde

Appian : Changeons de sujet une minute. Nous avons fait d'énormes progrès avec l'automatisation intelligente. Nous sommes arrivés au point où des machines utilisent des algorithmes sophistiqués pour imiter le comportement humain. Mais cela les rend-il intelligentes ?

Joanna Bryson : Pour moi, un thermostat est intelligent. Si vous définissez l'intelligence comme le fait d'être humain, quel est le but de cela ? Il existe différents types d'intelligence. Mais je pense que ce qui compte vraiment pour les gens, c'est la responsabilité morale et la tolérance morale.

Appian : La responsabilité morale ? La tolérance morale ? Que cela signifie-t-il ?Joanna Bryson : La responsabilité morale renvoie aux personnes ou éléments responsables des actes d'un agent. La tolérance morale renvoie aux « personnes » ou « éléments » dont la société est responsable.

Maintenant que nous pouvons avoir cette conversation, les deux choses dont les gens se soucient le plus sont :

    • L'intelligence artificielle va-t-elle nous ressembler ?

    • Devons-nous craindre qu'elle prenne le contrôle du monde ?

Appian : Devrions-nous nous inquiéter d'une apocalypse due à l'intelligence artificielle ? L'intelligence artificielle est-elle en train de prendre le contrôle du monde ?

Joanna Bryson : Je ne crois pas qu'une machine, quelle qu'elle soit, puisse conquérir le monde. Le monde est immense. Grâce à la coopération, pourtant, l'humanité est très efficace pour ce qui est de prendre le contrôle de l'ensemble de l'écosystème.C'est nous qui changeons la société grâce à l'intelligence artificielle. Comment réglementer tout cela ? Comment modifier les lois pour protéger les gens, maintenant que nous avons le Big Data et que nous savons toutes ces choses à son sujet ?

La fragmentation va s'aggraver avec l'explosion de l'intelligence artificielle

Appian : Malgré les progrès que vous avez mentionnés, les sceptiques continuent de critiquer l'intelligence artificielle, prétendant qu'il ne s'agit que d'une mode et de science-fiction. Certains détracteurs affirment qu'il ne s'agit que d'apprentissage automatique avancé et d'intelligence augmentée, et pas de véritable intelligence artificielle. Que pensez-vous de cet argument ?

Joanna Bryson : Si vous voulez dire par là qu'il n'existe aucune intelligence artificielle qui ressemble trait pour trait à une personne, nous n'obtiendrons jamais ce résultat. Quel que soit l'objet que l'on fabrique avec du silicium et des fils, il aura autant de conscience phénoménologique qu'un rat. Et nous empoisonnons les rats.

L'un des problèmes que nous rencontrons avec l'évolution de l'intelligence artificielle est la fragmentation. Imaginez comme nos communautés seraient différentes si tout le monde sortait et parlait aux autres. Le problème de la fragmentation est apparu en raison des technologies de communication. Et il va s'aggraver avec l'essor de l'intelligence artificielle.

https://twitter.com/UniofBath/status/1042093599041757185

Appian : Terminons notre entretien avec quelques questions supplémentaires... Dans tous les échanges que vous avez eus avec des dirigeants d'entreprises et des responsables des politiques publiques, quelle est l'idée fausse la plus répandue au sujet de l'intelligence artificielle ?

Joanna Bryson : Il y a plusieurs choses. L'une d'elles reprend un point que j'ai mentionné plus tôt dans notre entretien, à savoir la crainte de voir l'intelligence artificielle perdre de sa magie si elle est réglementée.Non, on peut réglementer l'intelligence artificielle. Et on peut réglementer son fonctionnement.

Une autre idée fausse est que l'on perd la propriété intellectuelle ou l’innovation, si l'on réglemente l'intelligence artificielle.

Mais la médecine est un secteur très réglementé, et la propriété intellectuelle y est 10 fois plus présente que dans l’industrie technologique. Une grande partie de la résistance à la réglementation provient de personnes qui sont réfractaires au changement. Elles ne se rendent pas compte que la réglementation peut réellement les aider.

Alors, quand je discute avec de très grandes entreprises, ce que je souhaite avant tout leur communiquer, c'est l'importance de la responsabilisation et de la prise en main de leur processus de développement logiciel. Et l'apprentissage automatique est simplement un autre outil de la boîte à outils.

Ce qui signifie que vous devez procéder à votre ingénierie des systèmes plus soigneusement. Vous devez connaître la provenance de vos bibliothèques.

Qu'il s'agisse des bibliothèques de logiciels vers lesquelles vous créez des liens ou des bibliothèques de données grâce auxquelles vous vous formez, vous devez savoir d'où elles proviennent et qui y a accès.

Il est temps de comprendre comment intégrer l'intelligence artificielle dans nos vies

Appian : Finalement, quelles sont vos attentes par rapport à l’intelligence artificielle pour 2019 et au-delà ?

Joanna Bryson : Je pense qu'il est important de comprendre que l'intelligence artificielle est partout. Et les plus grands défis auxquels nous sommes confrontés aujourd'hui sont les conséquences politiques, économiques et sociales de cette situation.

Nous avons fait un grand pas en avant entre 2007 et 2017 en termes de capacités d'intelligence artificielle. Parce que nous possédions plus de données, nous nous sommes améliorés en apprentissage automatique.À long terme, je pense que cela permettra d'accélérer notre rythme de progression.

Mais, à court terme, je pense que le taux d'accélération va quelque peu ralentir.

C'est donc maintenant le meilleur moment pour comprendre comment intégrer l'intelligence artificielle dans nos vies.