Skip to main content

Haben Ihre KI-Bots Vorurteile? Rechenschaftspflicht kann Abhilfe schaffen. (KI-Ethik, Teil 3)

Roland Alston, Appian
October 4, 2018

Joanna Bryson, KI-Expertin
Joanna Bryson, KI-Expertin und Informatikerin an der britischen University of Bath.

(Dies ist die letzte Episode aus unserer dreiteiligen Serie zum Thema k¸nstliche Intelligenz mit der Informatikerin Joanna Bryson [@j2bryson]. Sie ist laut Cognilytica eine der Top-50-Einflusspersonen im Bereich KI, denen man auf Twitter folgen sollte.) Lesen Sie den zweiten Teil hier.

In den letzten beiden Ausgaben r‰umte Bryson mit einigen Mythen rund um die Regulierung der KI auf und erl‰uterte die Bedeutung der Sorgfaltspflicht bei der Softwareentwicklung.

Zum krˆnenden Abschluss geht Bryson in diesem Teil noch einmal darauf ein, wie schwierig es ist, Vorurteile in der KI auszur‰umen, warum Maschinen nicht die Welt erobern werden und worin das Geheimnis f¸r den Erfolg der KI liegt.

Viel Spafl beim Lesen.

Appian: Sie haben gesagt, dass ein Unternehmen Ihrer Meinung nach die Einhaltung seiner Sorgfaltspflicht nicht belegen kann, wenn es einfach nur nach dem Prinzip ÑAugen zu und durch" drauf los entwickelt und sp‰ter etwas mit der Software nicht klappt. Was sollten Unternehmen und IT-F¸hrungskr‰fte daraus mitnehmen?

Bryson: Egal in welcher Branche Sie arbeiten ñ Sie sollten in der Lage sein zu belegen, dass Sie bei der Softwareentwicklung und auch beim Einsatz von maschinellem Lernen sorgf‰ltig vorgegangen sind.

Wenn Sie Chef einer Bank sind und ein buchhalterisches Problem haben, schauen Sie nicht auf die Synapsen im Gehirn Ihres Buchhalters. Stattdessen fragen Sie sich: ÑWurde bei der Buchhaltung alles richtig gemacht?"Dasselbe gilt meiner Meinung nach f¸r maschinelles Lernen: Diese Daten habe ich verwendet. So lief das Training ab. Diese Best Practices habe ich ber¸cksichtigt. So kˆnnen Sie Risiken minimieren und sich selbst sch¸tzen.

Wir brauchen keine neuen Regulierungen f¸r KI

Appian: Das bringt uns zur¸ck zur Frage der Regulierung von KI.

Bryson: Wenn wir es schaffen, Unternehmen zu vermitteln, was von ihnen erwartet wird, dass das die Normalit‰t istÖ dann brauchen wir im Vereinigten Kˆnigreich meiner Meinung nach keine neuen Vorschriften. Wir m¸ssen nur daf¸r sorgen, dass allen klar ist, wie die bestehenden gesetzlichen Vorgaben auf die Softwarebrache angewendet werden kˆnnen.

https://twitter.com/j2bryson/status/1045693197396135936

Appian: Denken Sie also, dass der europ‰ische Ansatz der DSGVO (Datenschutz-Grundverordnung) ein Vorbild ist, dem wir folgen sollten?

Bryson: Perfektion gibt es nicht, aber ich denke, dass die DSGVO im Hinblick auf KI-Strategien in die richtige Richtung weist. Verbesserungen sind immer mˆglich. Aber wenn wir nichts verbessern, sollten wir die Verordnung wenigstens umsetzen (lacht).

Es ist komisch, da sich in Europa alle fragen: ÑWarum haben wir keine Unternehmen wie Facebook, warum haben wir kein Google, warum haben wir nicht so grofle Firmen in Europa?" Dass es in den USA diese unglaublich m‰chtigen Unternehmen gibt, heiflt nicht unbedingt, dass da etwas besser l‰uft.

Die Frage ist, ob es w¸nschenswert ist, dass so viel Geld, Macht oder Wissen bei nur einem groflen Unternehmen liegen?

Ich glaube, das ist einer der Hauptgr¸nde, warum Microsoft ethische Fragen der KI so ernst nimmt. Das Unternehmen hat das Kartelldrama schon hinter sich. Man ist sich bewusst, welche Haftungsfragen KI mit sich bringen kann. Und man freut sich darauf, in Governance-Fragen der reife Erwachsene unter den Halbstarken zu seinñ und vielleicht ist Microsoft das auch tats‰chlich.

Digitale F¸hrungskr‰fte priorisieren KI-Governance

Appian: Bewegen sich also einige der Tech-Riesen in Sachen KI und Governance in die richtige Richtung?

Bryson: Vor f¸nf Jahren h‰tte ich das noch nicht gesagt. Aber in den letzten anderthalb Jahren haben sie (Microsoft und Google) einige interessante Schritte unternommen.

Appian: Kommen wir zu einem anderen aktuellen Thema ñ Vorurteile von Algorithmen. Gibt es sie oder ist das nur ein Mythos?

Bryson:Bei maschinellem Lernen kˆnnen genau dieselben Vorurteile vorkommen, die Psychologen beim Menschen implizite Vorurteile nennen.

Appian: Kˆnnten Sie daf¸r ein Beispiel nennen?

Bryson: Relativ gesehen, werden die Namen von Frauen st‰rker mit eher h‰uslichen Begriffen assoziiert. M‰nnernamen werden hingegen eher mit karriereorientierten Begriffen in Verbindung gebracht. Das ist ein Test f¸r implizite Assoziationen, den Psychologen durchgef¸hrt haben.

Das ist ein gutes Beispiel daf¸r, wie Vorurteile, die wir bereits haben, beim Training von KI durch maschinelles Lernen verankert werden. Das ist jedoch nur einer von drei Wegen, auf denen Vorurteile in der KI zum Tragen kommen kˆnnen.

https://twitter.com/j2bryson/status/1044332545893109761

Umbr¸che durch KI

Appian: Wie besorgniserregend sind Vorurteile gegen KI?

Bryson: Ich bin sehr besorgt dar¸ber. Eine besonders pr‰gnante Geschichte ¸ber Vorurteile gegen KI ist der Seifenspender, der nur Seife abgibt, wenn man eine bestimmte Hautfarbe hat. [Nachrichtenberichten zufolge waren die Infrarotsensoren nicht darauf ausgelegt, dunklere Hauttˆne zu erkennen.] Deshalb haben Menschen in S¸dasien schliefllich Toilettenpapier verwendet, um Seife aus dem Seifenspender zu bekommen.

Mit anderen Worten: Keine der Testpersonen kam aus Asien. Sie waren alle extrem weifl (lacht).

Das ist total verr¸ckt. Aber diese Arten von Vorurteilen sind am leichtesten zu beheben. Das ist genau genommen einer der Vorteile bei KI.

Bei Menschen ist es schwerer zu sagen, was hinter impliziten Vorurteilen steckt. Bei KI kann man hingegen einfach schauen, was wahrgenommen wurde und warum die KI so reagiert hat, wie sie reagiert hat, wenn zum Beispiel ein selbstfahrendes Auto einen Unfall verursacht.

Appian: Bef¸rchten Sie, dass Vorurteile bewusst in KI integriert werden kˆnnten?

Bryson: Ö Genau diese Art von Vorurteilen der KI ist es meiner Meinung nach, die viele ¸bersehen: der bewusste Einsatz von Vorurteilen im Prozess. Es geht nicht darum, dass der Algorithmus bˆse ist. Es geht darum, dass jemand auf die Idee kommen kˆnnte zu sagen: ÑIch wurde gerade gew‰hlt und will jetzt Steuern k¸rzen. Und alle, die nicht f¸r mich gew‰hlt haben, werden nun daf¸r zahlen."

Einschnitte bei Leistungen durch fehlerhaften Algorithmus

Es gab einen absurden Fall in Idaho: Der Bundesstaat hat einen Algorithmus zur Berechnung von Leistungen bei Erwerbsunf‰higkeit entwickelt. Durch die Formel sanken die Leistungen jedoch plˆtzlich f¸r viele Personen ñ bei manchen um bis zu 42%. Als sich die Leistungsempf‰nger beschwerten, weigerte sich der Bundesstaat, die Formel offenzulegen, da es sich um geistiges Eigentum handle.

Appian: Was ist dann passiert?

Bryson: Die B¸rgerrechtsunion ACLU (American Civil Liberties Union) hat sich der Sache angenommen und in einem rechtsstaatlichen Verfahren durchgesetzt, dass der Bundesstaat die Formel offenlegen musste, die der Berechnung zugrunde lag. Und es war schlicht und einfach Pfusch. ƒhnliches ist bei Programmen zur R¸ckf‰lligkeit zu beobachten.

Einige Richter nutzen KI-Software, mit der berechnet werden kann, wie wahrscheinlich es ist, dass eine Person erneut straff‰llig wird. Die dahinterstehende Software ist schlechter als das, was jeder Wissenschaftler leisten kann. Wir verstehen nicht, wie sie eine so schlechte Vorhersage treffen kˆnnen.

Man muss sich also fragen, was da schief l‰uft. Kˆnnen die wirklich so schlecht programmieren? Oder werden hier bewusst Vorurteile programmiert?

Genau aus dem Grund habe ich vorhin gesagt, dass die Rechenschaftspflicht das Wichtigste [bei der KI] ist. Wir kˆnnen nur feststellen, ob Vorurteile bewusst eingebaut wurden oder ob es sich nur um einen Fehler handelt, wenn der Rechenschaftspflicht nachgekommen und alles entsprechend dokumentiert wird.

https://twitter.com/j2bryson/status/1043612582844792832

KI wird die Welt nicht erobern

Appian: Gehen wir einmal einen Schritt weiter. Wir haben in Sachen intelligenter Automatisierung enorme Fortschritte zu verzeichnen. Wir sind an einem Punkt angelangt, an dem Maschinen intelligente Algorithmen verwenden, um menschliches Verhalten nachzuahmen. Doch sind sie deshalb intelligent?

Bryson: In meinen Augen ist ein Thermostat intelligent. Was bringt es, wenn Sie Intelligenz als etwas Menschliches definieren? Es gibt viele verschiedene Arten von Intelligenz. Was die Menschen aber wirklich interessiert, ist moralische Handlungsf‰higkeit und moralische Passivit‰t.

Appian: Moralische Handlungsf‰higkeit? Moralische Passivit‰t? Was bedeutet das?

Bryson: Moralische Handlungsf‰higkeit bezieht sich darauf, wer oder was daf¸r verantwortlich ist, wie ein Akteur handelt.Moralische Passivit‰t bezieht sich darauf, f¸r Ñwen" oder Ñwas" eine Gesellschaft verantwortlich ist.

Da wir schon dabei sind ñ die Menschen interessieren sich am meisten f¸r die folgenden beiden Fragen:

    • Wird KI so sein wie wir?

    • M¸ssen wir bef¸rchten, dass KI die Welt erobert?

Appian: Stehen wir also vor einer KI-Apokalypse? Wird KI die Welt erobern?

Bryson: Ich glaube nicht, dass eine Maschine die Welt erobern kann. Die Welt ist doch ziemlich grofl. Gemeinsam schafft es die Menschheit aber doch recht gut, das gesamte ÷kosystem zu beherrschen.

Wir sind es, die die Gesellschaft durch den Einsatz von KI ver‰ndern. Welche Regulierungen sollten wir hier also vornehmen? Welche Gesetzes‰nderungen sind vor dem Hintergrund von Big Data und dem umfassenden Wissen ¸ber die Menschen notwendig, um sie zu sch¸tzen?

Verst‰rkte Fragmentierung durch die Zunahme von KI

Appian: Trotz der Fortschritte, die Sie angesprochen haben, reden Zweifler KI nach wie vor klein und behaupten, es handle sich nur um einen Hype und Science-Fiction-Fantasien. Einige Kritiker sagen, dass wir nur von fortschrittlicherem maschinellem Lernen und erweiterter Intelligenz sprechen kˆnnen, nicht aber von wahrer KI. Was sagen Sie dazu?

Bryson: Wenn Sie damit nur sagen wollen, dass KI nicht aussieht, wie ein Mensch, dann ist das auch etwas, wohin wir nicht kommen werden. Nichts, was man aus Silizium und Dr‰hten herstellt, wird auch nur das ph‰nomenologische Bewusstsein einer Ratte haben. Und wir vergiften Ratten.

Eines der Probleme, das uns bei der Entwicklung von KI begegnet, ist Fragmentierung. Stellen Sie sich vor, wie es unsere Gemeinschaften ver‰ndern w¸rde, wenn alle rauskommen und miteinander reden w¸rden. Das Problem der Fragmentierung ist durch die Kommunikationstechnologien entstanden. Und das Problem wird sich mit dem Aufstieg der KI noch versch‰rfen.

https://twitter.com/UniofBath/status/1042093599041757185

Appian: Ich habe noch ein paar abschlieflende Fragen ... Wenn Sie an Ihre vielen Gespr‰che mit Vertretern der Wirtschaft und der Politik denken, was ist der grˆflte Irrglaube im Hinblick auf KI?

Bryson: Hier gibt es verschiedene Punkte. Einer bezieht sich auf das, was ich vorhin bereits gesagt habe: Die Angst, dass die KI ihren Zauber verliert, wenn sie reguliert wird.

Aber Sie kˆnnen KI regulieren. Und Sie kˆnnen sie entsprechend ihrer Leistung regulieren.

Ein anderer Irrglaube ist, dass geistiges Eigentum oder Innovation durch eine Regulierung der KI verloren gehen.

Dabei ist die Medizin sehr stark reguliert und verzeichnet zehn Mal mehr geistiges Eigentum als die Tech-Branche. H‰ufig geht der Widerstand gegen Regulierungen von denjenigen aus, die sich nicht ver‰ndern wollen. Sie sehen nicht, dass Regulierung ihnen auch helfen kann.

Wenn ich also mit richtig groflen Unternehmen spreche, versuche ich vor allem zu vermitteln, wie wichtig Verantwortung ist und dass sie ihren Softwareentwicklungsprozess in den Griff bekommen m¸ssen. Maschinelles Lernen ist da nur ein Instrument in der Toolbox.

Sie m¸ssen also bei der Entwicklung ihrer Systeme sorgf‰ltiger sein. Es ist wichtig zu verstehen, woher Ihre Bibliotheken kamen.

Egal, ob Sie ¸ber Softwarebibliotheken sprechen, mit denen Sie eine Verkn¸pfung herstellen, oder ¸ber Datenbibliotheken, die Sie f¸r das Training nutzen ñ Sie m¸ssen wissen, woher sie kommen und wer darauf zugreifen kann.

Zeit zu verstehen, wie wir KI in unser Leben integrieren kˆnnen

Appian: Zu guter Letzt: Was sind Ihre Erwartungen im Hinblick auf KI f¸r 2019 und dar¸ber hinaus?Bryson: Ich denke, es ist wichtig zu verstehen, dass KI ¸berall ist. Die grˆflte Herausforderung besteht darin, dass wir derzeit die politischen, wirtschaftlichen und sozialen Folgen davon zu sp¸ren bekommen.

Von 2007 bis 2017 haben die Funktionen von KI einen riesigen Sprung gemacht. Das lag daran, dass wir mehr Daten zur Verf¸gung hatten und bei maschinellem Lernen besser geworden sind.

Auf lange Sicht wird das unseren Fortschritt beschleunigen.

Kurzfristig denke ich jedoch, dass wir etwas langsamer vorankommen werden.

Dies ist also der Moment, um herauszufinden, wie wir KI in unser Leben integrieren kˆnnen.