Skip to main content

Künstliche Intelligenz: Von Science-Fiction zu Alexa

Marcelo Andrieu, Technical Product Marketing Manager
March 13, 2018

Schon seit jeher her beflügelt Künstliche Intelligenz (KI/AI) die Fantasie von Science-Fiction-Fans wie mir. Als Forschungsgebiet ist KI bereits seit Mitte der 1950er Jahre Teil der akademischen Welt.

Seit damals wird KI (AI) ebenso als der Schlüssel zur Zukunft unserer Zivilisation gepriesen wie als nichts weiter als Unterhaltung für Nerds abgetan.

Im Laufe der letzten Jahre jedoch hat KI wirklich Fuß gefasst. Einen wesentlichen Anteil an dieser Entwicklung haben die Verfügbarkeit leistungsfähiger, günstigerer und schnellerer Rechenkapazitäten, das Aufkommen des Internet of Things und die Flut an Daten, die in Form von Bildern, Texten, Nachrichten, Dokumenten, Transaktionen, Mapping und sonstigen Informationen erzeugt wird.

Viele Unternehmen setzen massiv auf KI, beispielsweise um hochqualifizierten Mitarbeitern routinemäßige, sich wiederholende Aufgaben abzunehmen, die keine besonderen Qualifikationen erfordern. In diesem Sinne prognostiziert die International Data Corporation, dass die Ausgaben für KI und maschinelles Lernen von 8 Mrd. USD im Jahr 2016 auf 47 Mrd. USD im Jahr 2020 steigen werden.

Man muss sich nur umsehen, um zu erkennen, dass KI-Anwendungen Einzug in den Mainstream halten: von allgemeineren Technologien in den Bereichen Spracherkennung und -verarbeitung bis hin zu industrieller Automatisierung und Robotik. Und Anwendungsfälle gibt es in Hülle und Fülle, darunter:

    • Finanzdienstleistungen

    • Kundendienst

    • Gesundheitswesen

    • Arzneimittelforschung

    • Genomforschung

In jüngster Zeit beginnt KI sogar auf dem Gebiet wissensbasierter Arbeit und im Kreativbereich wie z. B. bei bildender Kunst, Musik, Bildern und dem Verfassen von Drehbüchern für Videos und Spielfilme Fuß zu fassen.

Generell fallen viele dieser KI-Anwendungen in die Kategorie der „beschränkten künstlichen Intelligenz“. Technologien, die bestimmte Ausgaben ebenso gut wie – oder gelegentlich auch besser als – Menschen verrichten, z. B. das Klassifizieren von Bildmaterial auf Pinterest und die Gesichtserkennung auf Facebook.

Diese Technologien verfügen über einige Aspekte menschlicher Intelligenz (auf die ich gleich eingehen werde). Aber wie? Woher kommt diese Intelligenz?

Zurück zu den Wurzeln – Was ist Künstliche Intelligenz?

John McCarthy, einer der Gründerväter der KI, definierte KI wie folgt:

„die Wissenschaft und Technik der Herstellung intelligenter Maschinen, insbesondere intelligenter Computerprogramme“.

Anders gesagt, eine Möglichkeit, entweder die Hardware oder die Software, die darauf ausgeführt wird, zu intelligentem Denken zu befähigen, das dem der Menschen ähnlich ist.

Es läuft also alles darauf hinaus zu verstehen, wie unser Gehirn funktioniert, wie wir lernen, Entscheidungen treffen und handeln, wenn wir versuchen, ein Problem zu lösen – und diese Erkenntnisse dann zu nutzen, um „intelligente“ Software und Systeme zu entwickeln.

Was ist Intelligenz?

Für unsere Zwecke können wir die Definition von Intelligenz verwenden, die im Artikel Artificial Intelligence - Intelligent Systems herausgearbeitet wurde:

„Die Fähigkeit eines Systems zu kalkulieren, Schlüsse zu ziehen, Zusammenhänge und Analogien wahrzunehmen, aus Erfahrung zu lernen, Informationen zu speichern und aus dem Speicher abzurufen, Probleme zu lösen, komplexe Ideen zu verstehen, natürliche Sprache fließend zu verwenden sowie zu klassifizieren, generalisieren und sich an neue Situationen anzupassen.“

Wenn wir also von Intelligenz in stark vereinfachter Form sprechen, dann beinhaltet dies tatsächlich mehrere hochkomplexe Funktionen:

    • Lernen

    • Schlussfolgern

    • Probleme lösen

    • Wahrnehmen

    • Sprachliche Intelligenz

Das ist einiges. Heute tendieren wir dazu, ein System als „künstlich intelligent“ zu bezeichnen, wenn es über mindestens eine dieser „Intelligenzen“ verfügt. Aber natürlich gilt: je mehr, desto besser.

Lernen ist von besonderem Interesse, da wir diesen Systemen die Fähigkeit geben möchten, eigenständig zu lernen.

Maschinelles Lernen

Bei maschinellem Lernen in seiner simpelsten Form geht es darum, „Modelle“ zu entwerfen. Modelle bestehen aus Algorithmen, die Daten verwenden, um aus diesen zu lernen und eine „Schlussfolgerung“ oder Vorhersage über etwas zu produzieren.

Anstatt Softwarefunktionen zu programmieren, um eine bestimmte Aufgabe zu erfüllen, wird die intelligente Maschine mithilfe von Daten und Modellen „trainiert“, die ihr die Fähigkeit verleihen zu lernen, wie sie eine Schlussfolgerung, einen Beschluss, eine Vorhersage liefert.

Eine der bisher ausgefeiltesten Anwendungen für maschinelles Lernen ist Bilderkennung und -klassifizierung. Früher war ein erheblicher manueller Programmieraufwand erforderlich, damit dies funktionierte. Programmierer schrieben Klassifizierer, die – Sie ahnen es schon – dabei halfen, Bilder zu klassifizieren.

So verwendeten sie beispielsweise Kantenerkennungscode, um zu ermitteln, wo ein Objekt anfing und aufhörte, Formerkennungscode, um zu bestimmen, ob das Objekt eine bestimmte Anzahl an Seiten oder Segmenten hatte, und weitere Klassifizierer, um Buchstaben, Zahlen oder Symbole zu erkennen.

Mithilfe all dieser Klassifizierer schrieben Programmierer Algorithmen, die ein Bild „verstehen“ und z. B. ermitteln sollten: „Dieses Objekt ist ein STOPP-Schild“. Das Ergebnis war gut, aber nicht umwerfend. Ein Beispiel für so ein nicht ganz so umwerfendes Resultat? An einem nebligen Tag, an dem das STOPP-Schild nicht klar sichtbar ist, oder wenn ein Ast einen Teil davon verdeckt, gab das System nicht das erwartete Resultat aus. Ziemlich beängstigend, oder?

Doch all das sollte sich drastisch ändern.

Deep Learning – Neuronen in Schichten

Neurale Netzwerke basieren auf unserer Interpretation der Verbindungen zwischen Neuronen in unserem Gehirn. Während sich echte Neuronen richtungsunabhängig mit anderen Neuronen verbinden können, sofern sie nur nah genug beisammen liegen, zeichnen sich künstliche neurale Netzwerke durch spezifische Ebenen, Verbindungen und Richtungen aus, in die Daten sich fortbewegen.In einem neuralen Netzwerk werden Daten in die erste Ebene von Neuronen eingespeist. Jedes einzelne Neuron leitet seine Ausgabedaten dann an die zweite Ebene weiter. Die zweite Ebene übernimmt, erledigt seine entsprechende Arbeit, und so weiter, bis dann die letzte Ebene erreicht ist und das endgültige Ergebnis erzeugt wird. Jedes Neuron im Netzwerk weist seinem Input ein „Gewicht“ zu, worüber definiert wird, wie genau oder ungenau es in Bezug auf die durchgeführte Aufgabe ist.  Das Endergebnis wird dann durch die aggregierte Summe dieser Gewichtungen bestimmt. Das neurale Netzwerk erzeugt einen „Wahrscheinlichkeitsvektor“, eine basierend auf den Gewichtungen wohlbegründete Vermutung.

https://youtu.be/aircAruvnKk

Das Netzwerk liefert fortlaufend richtige und falsche Antworten und wird so „angelernt“. In unserem obigen Beispiel mit dem „Stoppschild“ muss es erst Tausende oder Millionen von Bildern sehen, bis die Gewichtungen der Neuroneninputs so fein abgestimmt sind, dass es in den meisten Fällen die richtige Antwort liefert, ganz egal, ob es regnerisch oder nebelig ist. Zu diesem Zeitpunkt hat das neurale Netzwerk gelernt bzw. sich selbst beigebracht, wie ein Stoppschild aussehen sollte; oder wie sich ein Gesicht in Facebook, ein Hund, ein Fisch oder ein Katze erkennen lässt, was genau das ist, was Andrew Ng bei Google getan hat.https://www.youtube.com/watch?v=IHZwWFHWa-w

Ng machte seine neuralen Netzwerke wirklich groß bzw. „tief“. Er erhöhte die Anzahl an Neuronen und Ebenen und verarbeitete riesige Datenmengen (er verwendete mehr als 10 Millionen Bilder aus YouTube-Videos) im System, um die Neuronen entsprechend anzulernen. Daher auch der Begriff „Deep Learning“. Das Ergebnis? Eine Bilderkennung, die in einigen Fällen genauso gut, wenn nicht sogar besser, als die eines Menschen ist.Aber die Arbeit mit Bildern ist nur die Spitze des Eisbergs. Das Deep Learning hat viele andere praktische Anwendungen möglich gemacht, darunter „intelligente Dinge“ wie fahrerlose Autos, eine bessere Gesundheitsvorsorge, Filmempfehlungen, Expertensysteme, Chat-Fenster und vieles mehr.

KI braucht Daten – eine Menge Daten

Alles dreht sich um die Daten. Die durch KI ermöglichte Leistungsstärke im Bereich Deep Learning hat ihren Ursprung in der Fähigkeit, Muster in großen Datenmengen zu erkennen und zu extrahieren. Dies macht das Verständnis von Datensätzen zum entscheidenden Faktor.

Die meisten großen Fortschritte im Bereich KI (AI) in jüngster Zeit wurden erst durch die Verfügbarkeit einer erhöhten Rechenleistung, Fortschritte bei Modellierung und Algorithmen und enormen Verbesserungen der Datensätze möglich gemacht. Wir haben Zugriff auf große Datenmengen. Das ist die gute Nachricht.

Was ist aber die schlechte Nachricht? Im Rahmen spezifischer KI-Anwendungsfälle gibt es gute Daten und schlechte Daten (und für den Fall, dass Sie sich fragen: Ja, es gibt sogar „falsche“ Daten). Tatsache ist, dass die Sammlung, Klassifizierung und Kennzeichnung von Daten zum Anlernen der Modelle sich als sehr schwieriger und teurer Teil der KI-Reise erweist.

Es gibt Tools wie Facets, ein Open-Source-Tool für die Datenvisualisierung, das Ihnen dabei hilft, Ihre Datensätze für das maschinelle Lernen, deren Eigenschaften und die Interaktionen zwischen verschiedenen Datenelementen zu verstehen.

Häufig starten Unternehmen ihre KI-Projekte, sind sich aber nicht darüber bewusst, wie wichtig gute Datensätze sind (was nicht das gleiche ist, wie einfach nur über enorm viele Daten zu verfügen). Sobald man sich dann tief im Projekt befindet, kann dies zu einem nur sehr schwer zu lösenden Problem werden. Es gibt zahlreiche Beispiele für Fehler, die genau hierauf zurückzuführen sind – auch von den ganz großen Unternehmen.

Sich die Finger schmutzig machen

Sie können den typischen KI-Prozess in eine Abfolge von Schritten unterteilen:

    • Datenerfassung

    • Datenaufbereitung

    • Auswahl des Modells

    • Trainieren des Modells

    • Auswertung

    • Parameter-Tuning

    • Schlussfolgerung oder Vorhersage

Es gibt ein hervorragendes Video von Yufeng G, das diesen Prozess in einer einfachen und leicht verständlichen Form als eine Reihe von sieben Schritten beschreibt. Schauen Sie es sich an. Sein Artikel zum Thema Maschinelles Lernen (und das dazugehörige Video) lässt sich sehr gut lesen (und anschauen).https://www.youtube.com/watch?v=nKW8Ndu7Mjw

Tools und Frameworks

TensorFlow is probably the most popular deep learning framework today. TensorFlow is an open source library originally developed by the Google Brain Team, and the TensorFlow team has created a large number of models, many of which include trained model weights. Some great examples are the Object Detection API or tf-seq2sec for translation services. The Tensorflow Image Recognition Tutorial and Tensorflow Playground are good places where to start pulling AI strings.

There are other powerful frameworks, of course, like Caffe, PyTorch, and BigDL. They keep getting better and are quickly gaining users and use cases.

New Deep Learning tools are being developed to simplify neural network architecture definition and parameter tuning, distributed training, and model deployment and management.

Also, simulators, such as digital twins, allow developers to accelerate development of AI systems and the reinforcement learning libraries that integrate with them (check out the RL library that's part of RISE Lab's Ray - it’s an awesome example).

Aufgaben für maschinelles Lernen

Allgemein betrachtet lassen sich die Hauptaufgaben für maschinelles Lernen in vier Gruppen unterteilen:

    • Überwachtes Lernen: wird verwendet, um eine Funktion aus gelabelten Daten zu folgern. Das Ziel besteht darin, die besten Modellparameter zu finden, um unbekannte Labels bei anderen Objekten präzise vorherzusagen. Falls das Label eine Zahl ist, wird die Aufgabe als Regression bezeichnet. Falls das Label in einen relativ kleinen und definierten Wertebereich fällt, ist es eine Klassifizierung.

    • Unüberwachtes Lernen: wird verwendet, wenn uns begrenzte Informationen oder Labels über die Objekte zur Verfügung stehen. In diesem Fall gruppieren wir Objekte in Clustern, indem wir Gemeinsamkeiten zwischen ihnen finden.

    • Halb-überwachtes Lernen: wird verwendet, wenn wir sowohl gelabelte als auch ungelabelte Objekte haben. Dieser Ansatz kann die Genauigkeit dank der Mischung der Trainingsdaten erheblich verbessern.

    • Bestärkendes Lernen – Wir könnten es auch „Lernen durch Adaption“ nennen. Stellen Sie sich das Ganze als ein Spiel vor, bei dem man Punkte für jeden Zug erhält. Sie machen Ihren ersten Zug und versuchen, mit diesem Zug die maximale Anzahl an Punkten zu erzielen. Dies wirkt sich auf die Umwelt aus, woraus Sie sich daran anpassen. Dann machen Sie Ihren nächsten Zug und versuchen erneut, die Punkte zu maximieren. Sie wiederholen diesen Vorgang, bis Sie ein bestimmtes Punkteziel erreicht haben. Diese Aufgabe ist ziemlich weitreichend. Wenn Sie mehr erfahren möchten, dann nehmen Sie die blaue Pille und klicken auf den Link. Sagen Sie aber nicht, ich hätte Sie nicht gewarnt.

Algorithmen

Im Laufe der Jahre wurden verschiedene Algorithmen entwickelt, um verschiedene Arten von Anwendungsfällen zu lösen, darunter Entscheidungsbaum-Lernen, induktive logische Programmierung, bestärkendes Lernen, Bayessche Netze und Clustering, um nur einige wenige zu nennen.

Zu den am häufigsten verwendeten Algorithmen gehören:

    • Lineare Regression und linearer Klassifizierer: einfach und sehr nützlich in vielen Fällen, in denen komplexere Algorithmen zu viel des Guten wären.

    • Logistische Regression: der einfachste, nichtlineare Klassifizierer, der lineare Parameter und nichtlineare Sigmoid-Funktionalität kombiniert.

    • Entscheidungsbaum: dieser algorithmische Ansatz ähnelt im Prinzip der Art und Weise, wie wir Menschen Entscheidungen treffen.

    • K-Means: ein sehr leicht verständlicher Algorithmus, der ursprünglich von der Signalverarbeitung abgeleitet wurde und bei dem eine Reihe von Objekten in Cluster unterteilt wird, wobei jedes Objekt zum Cluster mit dem nächstgelegenen Mittel gehört.

Für diejenigen, die an Programmierung interessiert sind, empfiehlt sich die englische Lektüre von Machine Learning Algorithms and Sample Code and AI Tools, Platforms, Libraries are good reads..

Anwendungsbereiche von KI

KI wird verstärkt und in einer Reihe verschiedener Bereiche in Geschäftsprozesse integriert. Um nur einige zu nennen:

    • Vertrieb und CRM-Anwendungen

    • Zahlungen und Zahlungdienstleistungen

    • Logistik und Lieferung

    • Kundenempfehlungen

    • Fertigungsindustrie

Ein Beispiel: Northface nutzt IBM Watson, um Verbrauchern zu helfen, anhand von Ort, Geschlecht und bevorzugten Aktivitäten zu bestimmen, welches Outfit am besten für sie ist. Super, wenn Sie vorhaben, im November im Norden Norwegens wandern zu gehen.

PayPal setzt auf Modelle zur Betrugserkennung, um die digitalen Transaktionen von Kunden zu schützen. Dank des Einsatzes von Deep Learning für die Transaktionssicherheit hat PayPal seine Betrugsquote auf 0,32 % gesenkt und liegt damit ca. 1 % unter dem Branchendurchschnitt.

KI findet fast überall Verbreitung, doch einige Gebiete sollten besonders hervorgehoben werden:

    • Sehvermögen. Diese Systeme „sehen“, verstehen und interpretieren visuellen Input. Unterstützung bei der Patientendiagnose oder Gesichtserkennung für „Personen von besonderem Interesse“ sind gute Beispiele.

    • Spracherkennung. Hören und Verstehen natürlicher Sprache, Umgang mit Akzenten, Lärm, Tonfall etc. Denken Sie an automatisierte Übersetzung, Sprache-zu-Text-Umwandlung, Spracheingabe für Geräte.

    • Handschrifterkennung

    • Expertensysteme. Anwendungen, die KI und Daten integrieren, um Endanwendern Erklärung und Beratung zu bieten.

Was kommt als Nächstes

KI hat aktuell ohne jeden Zweifel ein erhebliches Momentum, was zu einem guten Teil auf das Zusammenspiel begünstigender Faktoren wie enormer, kostengünstiger Rechenleistung, Zugang zu gewaltigen Mengen an Daten, praktisch unbegrenztem Speicherplatz und Fortschritten im Hinblick auf Modelle und Algorithmen zurückzuführen ist.

Unternehmen in sämtlichen Branchen finden mit atemberaubender Geschwindigkeit neue Anwendungsfälle, in denen KI erfolgreich eingesetzt werden kann.

Kurzfristig scheinen jedoch jene Szenarien und Anwendungsfälle die höchste Erfolgsquote und Akzeptanz zu genießen, die einen unmittelbaren und messbaren Einfluss oder eine Kapitalrendite liefern. „Verbesserte Kundenbindung“ ist schön und gut, aber es handelt sich dabei um einen weniger handfesten Vorteil als spräche man von „5–10 % weniger verlorenen Paketen“ oder „Upsell-Wahrscheinlichkeitssteigerung um 8 %“.

Auch wenn es noch ein weiter Weg zur KI vom Science-Fiction-Kaliber ist, so ist es doch offensichtlich, dass erhebliche Fortschritte gemacht und Unternehmen wie Verbrauchern bereits reale Vorteile geboten werden.

Tut mir leid, ich muss los. Alexa ruft mich.

Falls Sie schon ein Early Adopter von KI sind oder einer werden möchten, sollten Sie sich dieses Webinar anschauen:

So helfen Sie Ihrem Unternehmen, ein Early Adopter von KI zu werden

Viel Spaß beim Deep Learning.