KI für den kleinen Geldbeutel: warum jetzt der richtige Zeitpunkt zum Einsteigen ist

Unser Senior Consultant Maximilian berät Kunden beim Einsatz künstlicher Intelligenz und beschäftigt sich mit Themen rund um Machine Learning, Deep Learning und Data Mining. Heute erklärt er, wie künstliche Intelligenz auch mit erschwinglichem Aufwand und Budget nutzbar wird. Und er verrät, warum jetzt der richtige Einstiegszeitpunkt für kleine Firmen und Projekte ist – gerade, weil wir uns regelmäßig über Alexa oder Google Home ärgern.

Maximilian FranzkeMaximilian Franzke berät bei Ray Sono seit zwei Jahren Kunden bei der Gestaltung datengetriebener Technikprojekte. Am Institut für Informatik der Universität München promoviert er zum Thema "Querying and Mining Heterogeneous Spatial, Social, and Temporal Data".

 

Der Begriff künstliche Intelligenz (KI) hat es vom Kino in den Alltag geschafft. Wir denken nicht mehr automatisch (nur) an Skynet aus dem Film „Terminator“ oder an „I, Robot“ und „Interstellar“. Vielmehr ist es heute auch IBMs Watson, der uns begeistert, wenn er bei „Jeopardy!" gewinnt. Oder Alexa, die uns ärgert – wenn sie nicht das tut, was wir wollen.

Denn täglich kommen wir durch Siri, Alexa, Google Home oder Cortana bereits mit künstlicher Intelligenz in Kontakt. Aber jeder, der schon mal laut geworden ist („Alexa, nein!") weiß, wie weit der Weg zu digitalen Assistenten noch ist.

Und da liegt das Problem: Die „wahre“ künstliche Intelligenz, so glauben wir, ist nur was für die Großen. Sie arbeitet mit mysteriösen Methoden fern des Alltags in abgeschirmten Rechenzentren, heißt AlphaGo oder eben Watson.

Doch so ist es nicht. Denn KI wird „anfassbar“, für den Alltag hochrelevant und damit auch anwendbar für kleinere Projekte und Budgets. Das Thema KI umfasst schon heute vielseitig nutzbare Methoden und Techniken für digitale Services und Produkte. Doch bevor wir dazu kommen, wie jeder von uns seine Systeme smarter machen kann, unterscheiden wir erst einmal Äpfel von Birnen. Was bedeutet eigentlich...

Künstliche Intelligenz

Hinter dem Begriff künstliche Intelligenz (englisch: artificial intelligence, AI) steht keine bestimmte Technologie. Vielmehr beschreibt er als Überbegriff das Vorhaben, die menschliche oder natürliche Intelligenz durch künstliche Prozesse auch in Maschinen abzubilden.

Während Computer früher in erster Linie beim Berechnen und Speichern von Daten glänzten, sind sie nun in der Lage, Probleme zu lösen, die bisher ausschließlich im Bereich der menschlichen Intelligenz lagen: Spracherkennung, Bilderkennung, Persönlichkeits- und Stimmungsanalyse oder auch selbstfahrende Autos. Vielleicht gelangen wir schon bald an den Punkt, an dem Computer diese Aufgaben nicht nur besser als wir Menschen erledigen, sondern auch „intelligenter“ sind. Prognosen und Diskussionen darüber, wie die Welt dann aussehen könnte, sind überaus spannend.

Machine Learning und Deep Learning

Willkommen beim konkreten Anwendungsfall. Beim maschinellen Lernen geht es im Wesentlichen darum, einem Programm beizubringen, wie es bekannte Muster und Regeln erkennt und lernt. Diese Methode wird häufig im Kontext von Klassifizierungsproblemen eingesetzt. Dabei soll ein Objekt, eine Aktion oder eine Handlung anhand verschiedener gemessener Attribute einer Kategorie zugeordnet werden.

  • Eine Kreditkartentransaktion könnte beispielsweise als legitim oder betrügerisch bewertet werden.
  • Bei der Text- und Handschrifterkennung muss ein gelesenes Symbol einem Buchstaben oder einer Ziffer zugeordnet werden.
  • Besucher einer Website können anhand ihrer Verlaufshistorie verschiedenen Personas zugeordnet und es können ihnen daraufhin dezidierte Inhalte ausgespielt werden.

Beim Anlernen der Algorithmen möchte man genau wie beim Menschen verhindern, dass das Programm die Antworten einfach nur auswendig lernt (man spricht hier vom „Overfitten“ eines Modells), sondern die (bestenfalls relativ einfach formulierbaren) Regeln erfasst. Im Idealfall besitzt der lernende Mensch oder Algorithmus danach das entsprechende Abstraktionsvermögen, auch neue Fälle in der entsprechenden Problemklasse zu lösen.

MerkmaleTechniken des Machine Learning können dabei helfen, Daten anhand verschiedener Merkmale zu sortieren und zu kategorisieren.

 

Als Lernmethoden gibt es grundsätzlich zwei Arten: das überwachte und das unüberwachte Lernen.

Beim überwachten Lernen gibt man ein Set an Trainingsdaten vor, die bereits entsprechenden Kategorien zugeordnet sind. Stellen wir uns als Beispiel einen Stapel Urlaubsfotos vor, bestehend aus Strandbildern und Aufnahmen vom Städtetrip. Dazu wird eine Reihe von relevanten Attributen vorgegeben, die der Algorithmus berücksichtigen soll – etwa die Menge der blauen Pixel in einem Foto und seine GPS-Position.

Die Maschine beginnt nun, sich selbst zu konfigurieren, indem sie die Attribute der Trainingsdaten analysiert und intern versucht, ein generisches Modell zu schaffen. Mit einem zweiten Set an Daten, den Testdaten, lässt sich überprüfen, wie zuverlässig das Modell gelernt wurde – das Programm sollte nun die Testdaten mehr oder weniger verlässlich kategorisieren. So lässt sich auch die Qualität von unterschiedlich konfigurierten Modellen vergleichen. Den Schritt der Modellerstellung kann man beliebig oft wiederholen und auch variieren, bis man ein Modell gefunden hat, welches im Benchmark mit den Testdaten am besten abschneidet – mitunter ein langwieriger Prozess.

Beim unüberwachten Lernen werden nur die Daten selbst analysiert. Das System versucht dann, sie einzuteilen, zum Beispiel in Gruppen. Das hilft, Häufungen, Strukturen und Muster in den Daten zu identifizieren. In unserem Beispiel würde das unüberwachte Lernen etwa feststellen, dass es eine Häufung von Fotos mit einem hohen Blauanteil gibt (die Strandfotos) und eine zweite Häufung mit einem geringeren Blauanteil (die Städtefotos). Werden nun auch noch die Standortinformationen berücksichtigt, können die Häufungen noch detaillierter beschrieben und abgegrenzt werden. In diesem Bereich konnten in den letzten Jahren große Fortschritte durch Deep Learning erreicht werden, einen Teilbereich des Machine Learning. Hierbei erstellt der Algorithmus in mehreren Schritten neue Bedeutungsschichten und kann so ähnliche Strukturen in den Daten finden und erkennen.

Data Mining

Data Mining betrachtet Daten als einen Rohstoff, der extrahiert und aufbereitet werden kann. Zum Beispiel kann man eine bestehende unstrukturierte Datensammlung (etwa einen Data Lake) nach Mustern durchforsten, um festzustellen, an welchem Wochentag besonders häufig bestimmte Aktionen durchgeführt werden – dieses Beispiel ist noch sehr nah am Bereich Analytics.

Überlagung von DatenAuf der Suche nach Mustern bei der Überlagerung von Daten.

 

Bei aufwendigeren Ansätzen versucht man, nicht vorhandene oder schwer messbare Daten durch andere Merkmale abzubilden, und prüft dann, ob diese Annäherung eine gute Korrelation zu demjenigen Merkmal hat, das man eigentlich haben möchte. So war Google in der Lage, anhand der Suchanfragen von Nutzern einen Trend über die Ausbreitung von Grippe zu ermitteln.

Noch abstrakter formuliert ist es sogar so, dass Daten aus Daten erzeugt werden können: Für Google Maps etwa werden Gebäudedaten aus Satellitenbildern und Place-Informationen aus Street-View-Daten generiert; aus der Kombination dieser Gebäudedaten mit den Place-Daten wiederum können Daten über Areas of Interest erzeugt werden

AI as a Service

Jetzt wird’s auch für die Nicht-Technik-Gurus spannend. Denn glücklicherweise muss heute niemand mehr sein eigenes Spracherkennungsprogramm entwickeln, trainieren, testen und betreiben, wenn er einen einfachen Alexa-Skill entwickeln möchte.

Diverse Anbieter, darunter auch die großen Bekannten aus der Tech-Industrie, bieten Machine-Learning-relevante Dienste als nutzbare und gegebenenfalls kostenpflichtige Softwareschnittstelle an, die dann in eigenen Projekten verwendet werden kann. Amazon hat dazu Dienste in seinem AWS-Angebot, Microsoft stellt das Azure Machine Learning Studio bereit und Google hat beispielsweise die Cloud Machine Learning Engine. Auch Apple ist stark im Bereich Machine Learning aktiv und veröffentlicht zum Beispiel das Apple Machine Learning Journal.

Der große Vorteil ist, dass Funktionen, die früher undenkbar und unglaublich komplex waren, nun einfach wie eine Softwarebibliothek in eigenen Projekten verwendet werden können. In der Regel entstehen dabei geringe Kosten je Funktionsaufruf (wobei sich die Kosten natürlich je nach Projektgröße entsprechend multiplizieren können). Aufgezeichnete Sprachdateien können so ganz einfach transkribiert werden, und vom Nutzer bereitgestellte Fotos lassen sich unkompliziert durch einen dieser Dienste analysieren, taggen und kategorisieren. Ohne selbst eine eigene Bilddatenbank anlegen und ein Modell trainieren zu müssen, kann man so zum Beispiel herausfinden, ob der Nutzer ein Urlaubsfoto vom Strand hochgeladen hat oder ob der Inhalt doch eher jugendschutzrelevant ist (Fun Fact: Algorithmen tun sich recht schwer, den Unterschied zwischen den Kurven eines menschlichen Körpers und denen einer Düne zu erkennen).

Der Vorteil und auch ein großer Nachteil daran sind, dass die Technologie und das Know-how beim Dienstanbieter liegen. Je mehr Anwender diese Dienste nutzen, desto mehr kann der Anbieter seine Modelle verfeinern, womit sein technologischer Vorsprung anwächst.

Üblicherweise enthalten diese Dienste wenig Domänenwissen, also Informationen über ein bestimmtes Anwendungsgebiet: Zwar können manche Dienste etwa prominente Personen auf Fotos erkennen, aber ein Parkettverkäufer wird diesen Dienst (noch) nicht nutzen können, um Bilder von verschiedenen Holzfußböden analysieren zu lassen. Hier kann man allerdings andere Dienste nutzen, die es ermöglichen, eigene Modelle zu trainieren.
Dabei bringt man, wie oben beim überwachten Lernen beschrieben, eigenes Referenzdatenmaterial mit. Um das Training der Maschine kümmert sich dann der Anbieter.

Damit sind wir nun endlich an einem Punkt angekommen, bei dem man kein Multimillionen-Budget mehr benötigt, um „intelligente“ Zusatz-Features in Applikationen, Webseiten und Dienste zu integrieren. Es ist gelungen, eine Trennung zwischen der Benutzung und der Entwicklung von intelligenten Maschinen einzuführen. Diese Abstraktionsschicht bewirkt, dass das zur Verfügung stehende Toolset für die Entwicklung spannender neuer Apps erweitert wird – ähnlich wie auch die Internetverbindung und das Kameramodul bei Smartphones zum Standard geworden sind. Künstliche Intelligenz ist damit greifbarer und praktikabler geworden und wechselt nun vom Spielfeld der innovativen Visionen und Demos zu Anwendungen, die uns im Alltag begleiten werden.

Warum ist das für mich wichtig?

Wer in Zukunft konkurrenzfähig bleiben will, sollte sich jetzt Gedanken machen, wie sich die Entwicklungen der künstlichen Intelligenz auf die eigene Branche auswirken werden.

Schon heute werden diese einfach zu verwendenden Tools und Services bei neuen Produkten und Diensten eingesetzt. Aufgaben, die vorher durch User oder Mitarbeiter gelöst werden mussten, übernehmen nun immer zuverlässiger skalierende automatisierte Systeme. Dies erfordert auch in der Konzeption neuer Produkte Ansätze, die mögliche Verarbeitung der Daten durch KI zu berücksichtigen.

Diejenigen, die bereits jetzt angefangen haben, ihre Modelle zu trainieren, werden dieses anwendungsspezifische Know-how permanent verfeinern und vertiefen können. User lernen durch den Umgang mit digitalen Assistenten das Verhalten von intelligenten Diensten und passen ihre Erwartungshaltung an. Aufgaben, die früher manuell erledigt werden mussten, wie die Nachbearbeitung von Fotos oder die Zusammenstellung eines Urlaubsfilms, geschehen nun vollautomatisch und legen damit die Latte höher, wenn es darum geht, beeindruckende Produkte und Präsentationen zu erstellen.

Durch den selbstverstärkenden Effekt werden die lernenden Modelle stetig besser, bis es nicht mehr praktikabel ist, nicht-smarte Dienste in Konkurrenz treten zu lassen. Der Vorsprung, den sich die jetzigen Dienste dadurch sichern, ist nur schwer einzuholen.

Maximilian Franzke, 13.07.2018