Skip to main content

Note aux dirigeants : Joanna Bryson dénonce les critiques à l'encontre de la réglementation de l'IA (IA et éthique, partie 2)

Roland Alston, Appian
September 27, 2018

[caption id="pièce jointe_34316" align="alignleft" width=305] Joanna Bryson, experte en intelligence artificielle et informaticienne à l'Université de Bath, au Royaume-Uni.[/caption]

(Voici le deuxième épisode de notre série sur l'intelligence artificielle. Notre invitée n'est autre que Joanna Bryson (@j2bryson), que Cognilytica classe dans son Top 50 des influenceurs en matière d'intelligence artificielle à suivre sur Twitter.) Lisez la partie 1 ici.

Comment la demande de crédit a-t-elle été refusée ? Pourquoi cette personne s'est-elle vue refuser sa libération conditionnelle ? De quelle manière les prestations d'invalidité de ces personnes ont-elle été réduites ?

Et pourquoi les ordinateurs tirant leur apprentissage des humains voient automatiquement certains mots professionnels comme masculins et d'autres comme féminins ?

Et ainsi de suite.

Voici ce qu'il se passe. Les cadres supérieurs subissent toujours plus de pression lorsqu'il s'agit de gagner la confiance des clients pour les décisions automatisées qui affectent déjà de nombreux aspects de leurs vies.

Des études montrent que plus de la moitié des utilisateurs mondiaux (53 %) pense que nous avons besoin d'être davantage éduqués en ce qui concerne le rôle de l'IA dans la société.

En d'autres termes, de nombreux utilisateurs se méfient déjà de l'IA.

Et un manque de confiance dans la manière dont celle-ci répond à nos attentes en matière d'écoute pourrait attiser encore davantage toute cette crainte et cette aversion.

La bonne nouvelle ?

Nombre des variables qui encadrent l'utilisation éthique de l'IA sont souvent directement liées aux choix que nous faisons lors du développement de nos technologies.

C'est en tout cas ce qu'affirme Joanna Bryson, experte en intelligence artificielle et informaticienne à l'Université de Bath, au Royaume-Uni.

Mme Bryson a récemment co-signé une étude sur l'IA (publiée dans Science magazine), qui révèle que les ordinateurs peuvent être aussi partiaux que les humains si leur IA est entraînée sans aucun recours à la diligence raisonnable.

Éradiquer la partialité liée à l'IA

L'étude a confirmé que lorsque des algorithmes captent la signification de certains mots à partir d'énormes piles de données, ils adoptent des stéréotypes très proches de ceux que nous entretenons.

C'est l'une des nombreuses raisons pour laquelle Mme Bryson pense qu'il est essentiel de donner la priorité à la diligence raisonnable dans le cadre du développement de systèmes d'IA.

Il ne s'agit pas de créer de nouvelles réglementations, mais plutôt d'utiliser celles qui existent déjà pour forcer les personnes qui développent l'IA, en sont propriétaires ou l'utilisent à rendre des comptes pour leurs activités.

En résumé, Mme Bryson accorde de l'importance à l'utilisation éthique de l'IA.

Nous espérons que vous apprécierez cet échange.

Appian : Êtes-vous optimiste par rapport à l'impact de l'IA sur la société ? Plusieurs personnes pensent que le développement de l'IA va créer une vague de perte d'emplois apocalyptique. Que pensez-vous de cet argument ?

Mme Bryson : Certaines personnes me trouvent optimiste, car je n'ai pas les mêmes peurs que tout le monde. D'autres pensent au contraire que je suis une pessimiste complètement technophobe.

Pourquoi la gouvernance de l'IA doit devenir une priorité

Appian : Qu'est-ce qui vous inquiète concernant l'avenir de l'IA, qu'est-ce qui vous empêche de dormir la nuit ?

Mme Bryson : Je ne veux pas d'un futur dans lequel nous ne pourrions pas être nous-mêmes, dans lequel toutes nos informations personnelles seraient en ligne et dans lequel nous pourrions être sanctionnés pour cela ; c'est ce qui m'inquiète réellement pour le moment. Je suis donc bien consciente des aspects négatifs de cet « état de surveillance ».

Pour autant, je ne vois pas vraiment comment nous pourrions y échapper. À terme, tout le monde pourra savoir qui nous sommes, ce que nous faisons, ce que nous avons fait et ce que nous avons tendance à faire.

Appian : J'ai lu quelque part que l'IA reflétait les valeurs de notre culture. Qu'il nous était impossible de faire bon usage de l'IA si nous n'étions pas disposés à bien nous comporter nous-mêmes. Mais alors, comment y parvenir ? Comment faire bon usage de l'IA ?

Mme Bryson :

Je pense que ce sur quoi nous devons nous concentrer, et ce qui est en train de devenir le plus important, est en fait la manière dont nous gérons notre gouvernance de l'IA. Comment coordonnons-nous nos actions par l'intermédiaire de la gouvernance pour protéger les individus ?

https://twitter.com/j2bryson/status/1036645253695057920

Les algorithmes doivent-ils être régulés ?

Appian : Quels conseils donneriez-vous alors aux entreprises concernant le développement de l'IA ?

Mme Bryson : Le plus important, ce pour quoi je me bats actuellement pour les entreprises et les régulateurs, est que nous avons besoin d'une plus grande responsabilisation en ce qui concerne l'IA ; et je sais que nous pouvons y parvenir.

Appian : Mais il existe également un argument solide contre la réglementation de l'IA ; elle pourrait freiner l'innovation. Que pensez-vous de cet argument ?

Mme Bryson :

Nous avons reçu énormément de poudre aux yeux en ce qui concerne l'IA. Il y a seulement deux ans, des ingénieurs qualifiés faisaient entendre leur voix et déclaraient que si une réglementation était appliquée, l'apprentissage profond (la « potion magique » de l'innovation en matière d'IA) serait perdu.

Aujourd'hui, de grandes entreprises technologiques telles que Microsoft déclarent croire à l'établissement d'une réglementation pour l'IA.

https://twitter.com/ipfconline1/status/1029625414178807809

Je pense qu'il est important de prendre conscience qu'il est possible d'assurer le suivi et de documenter le respect ou le non-respect de la diligence raisonnable dans le cadre du développement de l'IA. Ce processus n'est pas différent de ceux qui peuvent avoir cours dans toutes les autres industries. Jusqu'ici, l'IA était simplement parvenue à ne pas se faire remarquer.

Plus que jamais, nous avons besoin de transparence en matière d'IA

Appian : Quels sont les dangers d'un manque de transparence dans l'utilisation de l'IA ? Quels sont les risques ?

Mme Bryson :

Aujourd'hui, nombreuses sont les personnes qui diffusent du code sans même savoir à quelles bibliothèques [de codes] est relié le leur, d'où viennent ces bibliothèques et si oui ou non elles sont risquées ou possèdent des portes dérobées.

Nous devons simplement nous montrer plus prudents. Prenons le pont (Morandi) qui s'est effondré en Italie en août dernier. Si vous n'avez aucune idée de la qualité des matériaux utilisés pour le projet de construction ou si vous ne savez pas si oui ou non il a été décidé de faire l'impasse sur certaines étapes, alors vous ne pouvez pas vraiment garantir la solidité de votre pont.

Aujourd'hui, il existe des lois à ce sujet, que ce soit pour les ponts ou les bâtiments.  Mais si vous retournez quelques siècles en arrière, n'importe quelle personne assez riche pouvait construire un bâtiment à l'emplacement de son choix.

De nos jours, si vous souhaitez ériger un bâtiment, vous devez passer devant la commission d'urbanisme. Vos architectes doivent être agréés. Et si toute cette procédure a été mise en place, c'est parce que les bâtiments sont importants. S'ils ne sont pas bien construits, ils s'effondrent et provoquent la mort de plusieurs personnes.

Êtes-vous capable de défendre votre logiciel ?

Appian : Et vous pensez donc que les logiciels doivent être traités de la même manière ?

Mme Bryson : Ce n'était pas le cas auparavant, mais c'est ce qu'il se passe depuis peu. Nous devons donc nous soumettre à certaines procédures pour nous assurer que les innovations que nous développons sont bien pérennes.

Nous devons être capables de prouver que nous pouvons défendre notre logiciel. Et nous devons également rendre des comptes pour les actions effectuées par celui-ci.

https://youtu.be/8Ja_7Fx2MmU

L'importance de la prévoyance raisonnable

Appian : Demander aux entreprises de rendre des comptes pour les logiciels qu'elles créent, voilà une notion intéressante. Mais comment cela pourrait-il fonctionner en pratique ?

Mme Bryson : Vous savez, j'ai entendu une très bonne anecdote à ce sujet. Presque toutes les voitures en circulation renferment au moins un peu d'IA. Elle vous permet notamment de réguler votre vitesse et vous aide à rester sur votre file.

Malheureusement, en Allemagne, un homme a eu une attaque alors qu'il conduisait. Mais c'était un genre d'attaque précis : ses mains sont restées sur le volant et il avait toujours les yeux ouverts.

Il existe donc un grand nombre d'éléments d'IA qui vous surveillent pour éviter que vous ne vous endormiez au volant. Dans ce cas, la voiture a estimé que le conducteur allait bien. L'IA l'a donc fait rester sur sa voie et a continué à faire avancer la voiture tout droit. Mais cela s'est soldé par un terrible accident.

Le parquet s'est tourné vers le constructeur automobile pour déterminer les torts de celui-ci. Mais le constructeur a pu prouver que les bonnes pratiques avaient été suivies et convaincre le parquet qu'il n'y avait pas lieu d'ouvrir une enquête.

Appian : Quelle leçon peuvent donc en tirer les chefs d'entreprise qui ont déjà adopté l'intelligence artificielle ou qui songent à le faire ?

Mme Bryson : Je ne pense pas qu'une entreprise ayant pour vocation « d'aller vite et de faire de la casse » puisse fournir des preuves de sa diligence si des problèmes surviennent avec ses logiciels.

Lisez la 3e partie de notre entretien avec Johanna Bryson.