Künstliche Wandelbarkeit - oder wie Gamer und Influencer die Wissenschaft voran treiben...

~
1
Minuten Lesezeit
Gepostet am:
9.2.19

Gerade eben lief eine tolle Ausgabe meiner Lieblingsradiosendung: "Forschung AKTUELL" im Deutschlandfunk. Wie so oft in den letzten Monaten ging es um "KI" und "Algorithmen" und dies brachte mich auf den Gedanken, einige wenige meiner persönlichen Beobachtungen hierzu aus der Sicht eines Algorithmikers, Wissenschaftlers, aber eben auch eines Nutzers hier einmal zusammenzutragen.

KI - Künstliche Intelligenz - Was ist eigentlich intelligent daran?

Intelligenz allgemein kann vielleicht gesehen werden als „die Fähigkeit, sich dem Wandel anzupassen“. Das ist sicherlich nur eine Meinung oder, eher noch, nur eine Facette. Das sah auch der langjährige Inhaber des Lucasischen Lehrstuhl für Mathematik, Stephen Hawking, so, der vor nunmehr fast einem Jahr verstorben ist.

Dies ist vielleicht gerade die Definition von Intelligenz, die am ehesten auch nur im Ansatz den Begriff "Künstliche Intelligenz (KI)" rechtfertigt, wenn man sich diese "neuen" "Wunderwaffen" der Digitalisierung ansieht. Denn ja, die KI-Algorithmen sind wandelbar und können sich grundsätzlich auch selbständig neuen Gegebenheiten anpassen. Sie können in gewissen Maßen lernen. Dies ist allerdings noch immer recht anwendungsspezifisch und auch mehr oder weniger erfolgreich. Früher nannte man dies dann oft einfach Statistik. Aber damit an dieser Stelle kein falscher Eindruck entsteht, etwas mehr als Statistik ist KI schon. In den vergangenen Monaten hat Prof. Christian Bauckhage, ein sehr renommierter KI-Forscher, das Missverständnis für mich in mehreren Vorträgen wunderbar auf den Punkt gebracht. Mit echter "natürlicher" Intelligenz hat die computerwissenschaftliche Methodik KI auch laut ihm recht wenig zu tun. Ich empfehle seine Vorträge hiermit wärmstens. Aber was kann KI denn dann nun heute, und noch viel wichtiger, was nicht? Und warum kommt dies gerade jetzt auf?

Wenn man den Praxis-Beispielen aus Vorträgen auf den einschlägigen Computer-Science-Konferenzen der letzten Jahren glauben schenkt (und ich habe einige besucht), dann wissen wir überspitzt ausgedrückt im Wesentlichen eines:

"Ja, KI kann wirklich sehr gut erkennen ob eine Katze auf einem Foto ist oder nicht!"

OK, das ist zu wenig gesagt: Deep-Learning Methoden aus dem Bereich der KI können beispielsweise auch hervorragend Menschen auf Bildern erkennen und zuordnen. Dies ist ein Anwendungsbeispiel, in dem die Stärken tiefer neuronaler Netze auf außerordentliche Weise ausgespielt werden können. Und um das auch klar zu sagen: Die Ergebnisse sind beeindruckend.

Aber warum ist das Thema gerade jetzt wieder aufgekommen? Ja, KI ist tatsächlich nichts neues, wirklich gar nicht. KI Theorien und auch Anwendungen gibt es schon seit Jahrzehnten. KI kam so richtig auf in der Mitte des vergangenen Jahrhunderts. Was hat sich also verändert? Es gab in den vergangenen 15 Jahren einige kleinere wissenschaftliche Durchbrüche, die sicherlich einen Beitrag dazu geleistet haben, aber im Wesentlichen hat eine Tatsache dazu beigetragen, dass KI heute in aller Munde ist:

Wir können KI heute nutzen!

Dies beruht unter anderem auf zwei sehr grundlegenden technologischen Entwicklungen:

1.) Es gibt heute Computer mit der entsprechenden Leistung neuronale Netze zu berechnen, zu trainieren und auszuwerten. Bereits das Nachbilden grundlegender Funktionsprinzipien des Gehirns benötigt Rechenleistungen, die noch vor 20 Jahren schlicht und einfach nicht vorhanden waren. Und hier kommen die Gamer ins Spiel. Denn quasi finanziert durch die Computerspiele-Industrie und derer Nutzer haben Unternehmen wie NVIDIA heute Grafikkartenchips entwickelt, die neben atemberaubender Spielegrafik auch fantastisch neuronale Netze rechnen können. Die parallele Rechenleistung, welche insbesondere die Grafikkartenprozessoren heute mitbringen, beflügelt auch die Forschung und Entwicklung in dem Bereich, da sie "Realisatoren" der Technologie für kleines Geld bereit stellt. Der Massenmarkt für die Grafikkarten macht es (mit) möglich.

Danke liebe Gamer!

Vor 13 Jahren habe ich selber auf dieser Basis angefangen, meine GPU (Graphics Processing Unit) "umzufunktionieren", um mathematische Modelle auf ihr zu rechnen. Die parallele Rechenleistung meiner kleinen Grafikkarte war für solche Anwendungen schon damals meinem normalen Prozessor, der CPU (Central Processing Unit), weit voraus. Das Ganze hat sich, gerade für KI-Methoden, noch deutlich weiter entwickelt. Man könnte sagen: dank der Technik können wir heute die Methoden rechnen, die Menschen vor 30 Jahren bereits entwickelt hatten, aber nicht die Rechenleistung zur Umsetzung hatten.

2.) Es existieren heute die Datenmengen, die es braucht, um solche Netze zu trainieren. Denn ohne Beispiele aus denen man lernen kann, kann KI auch nichts... es bleiben lernende Systeme. Diese Datenmengen wiederum sind verfügbar, weil die Welt heute vernetzt ist und auch nicht zuletzt, weil Unmengen von Menschen ihre Daten im Netzt bereitstellen, so zum Beispiel durch Fotos in sozialen Netzwerken. Mit der Flut an Bilddaten wiederum kann man die KI hervorragend trainieren Objekte, oder Katzen, auf Bildern zu erkennen.

Danke liebe Influencer!

Und durch Alexa, Siri und Co. macht die Spracherkennung in den letzten Jahren auch nochmal einen erheblichen Sprung, dank der Daten. Im Endeffekt ermöglicht auch hier diese neue Art der Nutzung einen großen Fortschritt in der entsprechenden Forschung.

Aber was kann denn nun KI und was nicht?

Jetzt hier alle möglichen Bereiche zu erläutern würde den Rahmen des Artikels und auch den meines Wissens durchaus sprengen. Hier nur ein paar wenige Beispiele:

OK: Bilder klassifizieren. Ja, das kann KI bereits! Das können Menschen aber auch (ich behaupte mal) sogar NOCH besser!

Kann KI Rechenaufgaben lösen? Prinzipiell schon, aber das geht effizienter, durch klassische Algorithmen. Hier ist kein Lerneffekt nötig, weil wir genau wissen, wie es geht. Das ist direkte deterministische Mathematik. Einfach gesagt: Ich kann umgehend und ohne Schwierigkeiten die Rechenschritte aufschreiben, die zur Lösung einer Rechenaufgabe nötig sind. Versuchen Sie das doch mal für den Prozess: Wie erkenne ich, ob eine Katze auf einem rechteckigen Raster aus Pixeln ist. Eine Menge von Bildern mit der Klassifizierung "Katze" oder "Keine Katze" in ein neuronales Netz zu laden ist da tatsächlich einfacher. Für konkrete Rechenaufgaben sind KI Methoden also nicht nötig, direkte (nicht-lernende) Algorithmen können das besser.

Beide bisher genannten Beispiele sind vermutlich Extreme. Dazwischen existiert ein bunter Blumenstrauss von Möglichkeiten in dem, meiner Meinung nach, die Kombination von KI und klassischer Algorithmik den Mehrwert für algorithmische Unterstützung im Arbeitsalltag und auch im privaten Leben liefern kann.

Zum Schluss sei mir eine Einordnung in eigener Sache erlaubt:

Mit meinem Team bei adiutaByte kombinieren wir aktuell beispielsweise die verschiedenen Disziplinen, um Planer bei der täglichen Touren- und Dienstplanung in der ambulanten Pflege zu unterstützen. Die Kombinationsmöglichkeiten für die Erstellung eines solchen Tourenplans sind unermesslich hoch und die Einbeziehung von Verkehrsprognosen und Wettereinflüssen für einen Menschen alleine so nicht optimal machbar und in jedem Fall außerordentlich zeitraubend. Algorithmik aus dem Bereich der mathematischen Optimierung (hier: Kombinatorik), mit der wir uns hauptsächlich beschäftigen, ist hier ein wunderbares Hilfsmittel um dem "Wust" an Möglichkeiten durch mathematische Konzepte schnell Herr zu werden.

Für bestimmte Ausprägungen von Plänen entscheidet sich am Ende der Planer, aber er spart sich täglich Stunden des stressigen "Dienstplan-Sudoku" und konzentriert sich wieder auf seine eigentliche Aufgabe. KI kann solche Probleme aktuell nicht gut lösen - Kombinatorik schon! KI hilft uns aber, vorab die "richtigen" Planvorschläge als Lösungen aus den Algorithmen der Kombinatorik auszuwählen und dem Planer bereitzustellen, gewissermaßen als "Vorab-Filter". Darüber hinaus nutzen wir KI, um sogenannte "Cluster" in den Daten zu erkennen. Nicht mehr, aber auch nicht weniger.

Ganz zum Schluss noch:

Wann immer wir über KI sprechen und diese einsetzen, muss auch die Algorithmen-Ethik immer im Vordergrund stehen. Wenn unsere Verfahren Planvorschläge bereitstellen, muss klar und transparent sein, welche Auswirkungen sowie Vor- und Nachteile verschiedene Pläne haben. Das muss aus meiner und unserer Sicht immer an erster Stelle stehen. Hiermit wird die Algorithmik und die KI zum Hilfsmittel für den Menschen

UND DER MENSCH BLEIBT ENTSCHEIDER!


alle Bilder unterliegen der Pixabay Lizenz