Künstliche Wandelbarkeit - oder wie Gamer und Influencer die Wissenschaft voran treiben...

Artificial changeability - or how gamers and influencers can even drive science forward

~
10
[[de]]Minuten Lesezeit[[en]]minutes reading
·
[[de]]Gepostet am: [[en]]Posted at:
9.2.2019

Gerade eben lief eine tolle Ausgabe meiner Lieblingsradiosendung: "Forschung AKTUELL" im Deutschlandfunk. Wie so oft in den letzten Monaten ging es um "KI" und "Algorithmen" und dies brachte mich auf den Gedanken, einige wenige meiner persönlichen Beobachtungen hierzu aus der Sicht eines Algorithmikers, Wissenschaftlers, aber eben auch eines Nutzers hier einmal zusammenzutragen.

KI - Künstliche Intelligenz - Was ist eigentlich intelligent daran?

Intelligenz allgemein kann vielleicht gesehen werden als „die Fähigkeit, sich dem Wandel anzupassen“. Das ist sicherlich nur eine Meinung oder, eher noch, nur eine Facette. Das sah auch der langjährige Inhaber des Lucasischen Lehrstuhl für Mathematik, Stephen Hawking, so, der vor nunmehr fast einem Jahr verstorben ist.

Dies ist vielleicht gerade die Definition von Intelligenz, die am ehesten auch nur im Ansatz den Begriff "Künstliche Intelligenz (KI)" rechtfertigt, wenn man sich diese "neuen" "Wunderwaffen" der Digitalisierung ansieht. Denn ja, die KI-Algorithmen sind wandelbar und können sich grundsätzlich auch selbständig neuen Gegebenheiten anpassen. Sie können in gewissen Maßen lernen. Dies ist allerdings noch immer recht anwendungsspezifisch und auch mehr oder weniger erfolgreich. Früher nannte man dies dann oft einfach Statistik. Aber damit an dieser Stelle kein falscher Eindruck entsteht, etwas mehr als Statistik ist KI schon. In den vergangenen Monaten hat Prof. Christian Bauckhage, ein sehr renommierter KI-Forscher, das Missverständnis für mich in mehreren Vorträgen wunderbar auf den Punkt gebracht. Mit echter "natürlicher" Intelligenz hat die computerwissenschaftliche Methodik KI auch laut ihm recht wenig zu tun. Ich empfehle seine Vorträge hiermit wärmstens. Aber was kann KI denn dann nun heute, und noch viel wichtiger, was nicht? Und warum kommt dies gerade jetzt auf?

Wenn man den Praxis-Beispielen aus Vorträgen auf den einschlägigen Computer-Science-Konferenzen der letzten Jahren glauben schenkt (und ich habe einige besucht), dann wissen wir überspitzt ausgedrückt im Wesentlichen eines:

"Ja, KI kann wirklich sehr gut erkennen ob eine Katze auf einem Foto ist oder nicht!"

OK, das ist zu wenig gesagt: Deep-Learning Methoden aus dem Bereich der KI können beispielsweise auch hervorragend Menschen auf Bildern erkennen und zuordnen. Dies ist ein Anwendungsbeispiel, in dem die Stärken tiefer neuronaler Netze auf außerordentliche Weise ausgespielt werden können. Und um das auch klar zu sagen: Die Ergebnisse sind beeindruckend.

Aber warum ist das Thema gerade jetzt wieder aufgekommen? Ja, KI ist tatsächlich nichts neues, wirklich gar nicht. KI Theorien und auch Anwendungen gibt es schon seit Jahrzehnten. KI kam so richtig auf in der Mitte des vergangenen Jahrhunderts. Was hat sich also verändert? Es gab in den vergangenen 15 Jahren einige kleinere wissenschaftliche Durchbrüche, die sicherlich einen Beitrag dazu geleistet haben, aber im Wesentlichen hat eine Tatsache dazu beigetragen, dass KI heute in aller Munde ist:

Wir können KI heute nutzen!

Dies beruht unter anderem auf zwei sehr grundlegenden technologischen Entwicklungen:

1.) Es gibt heute Computer mit der entsprechenden Leistung neuronale Netze zu berechnen, zu trainieren und auszuwerten. Bereits das Nachbilden grundlegender Funktionsprinzipien des Gehirns benötigt Rechenleistungen, die noch vor 20 Jahren schlicht und einfach nicht vorhanden waren. Und hier kommen die Gamer ins Spiel. Denn quasi finanziert durch die Computerspiele-Industrie und derer Nutzer haben Unternehmen wie NVIDIA heute Grafikkartenchips entwickelt, die neben atemberaubender Spielegrafik auch fantastisch neuronale Netze rechnen können. Die parallele Rechenleistung, welche insbesondere die Grafikkartenprozessoren heute mitbringen, beflügelt auch die Forschung und Entwicklung in dem Bereich, da sie "Realisatoren" der Technologie für kleines Geld bereit stellt. Der Massenmarkt für die Grafikkarten macht es (mit) möglich.

Danke liebe Gamer!

Vor 13 Jahren habe ich selber auf dieser Basis angefangen, meine GPU (Graphics Processing Unit) "umzufunktionieren", um mathematische Modelle auf ihr zu rechnen. Die parallele Rechenleistung meiner kleinen Grafikkarte war für solche Anwendungen schon damals meinem normalen Prozessor, der CPU (Central Processing Unit), weit voraus. Das Ganze hat sich, gerade für KI-Methoden, noch deutlich weiter entwickelt. Man könnte sagen: dank der Technik können wir heute die Methoden rechnen, die Menschen vor 30 Jahren bereits entwickelt hatten, aber nicht die Rechenleistung zur Umsetzung hatten.

2.) Es existieren heute die Datenmengen, die es braucht, um solche Netze zu trainieren. Denn ohne Beispiele aus denen man lernen kann, kann KI auch nichts... es bleiben lernende Systeme. Diese Datenmengen wiederum sind verfügbar, weil die Welt heute vernetzt ist und auch nicht zuletzt, weil Unmengen von Menschen ihre Daten im Netzt bereitstellen, so zum Beispiel durch Fotos in sozialen Netzwerken. Mit der Flut an Bilddaten wiederum kann man die KI hervorragend trainieren Objekte, oder Katzen, auf Bildern zu erkennen.

Danke liebe Influencer!

Und durch Alexa, Siri und Co. macht die Spracherkennung in den letzten Jahren auch nochmal einen erheblichen Sprung, dank der Daten. Im Endeffekt ermöglicht auch hier diese neue Art der Nutzung einen großen Fortschritt in der entsprechenden Forschung.

Aber was kann denn nun KI und was nicht?

Jetzt hier alle möglichen Bereiche zu erläutern würde den Rahmen des Artikels und auch den meines Wissens durchaus sprengen. Hier nur ein paar wenige Beispiele:

OK: Bilder klassifizieren. Ja, das kann KI bereits! Das können Menschen aber auch (ich behaupte mal) sogar NOCH besser!

Kann KI Rechenaufgaben lösen? Prinzipiell schon, aber das geht effizienter, durch klassische Algorithmen. Hier ist kein Lerneffekt nötig, weil wir genau wissen, wie es geht. Das ist direkte deterministische Mathematik. Einfach gesagt: Ich kann umgehend und ohne Schwierigkeiten die Rechenschritte aufschreiben, die zur Lösung einer Rechenaufgabe nötig sind. Versuchen Sie das doch mal für den Prozess: Wie erkenne ich, ob eine Katze auf einem rechteckigen Raster aus Pixeln ist. Eine Menge von Bildern mit der Klassifizierung "Katze" oder "Keine Katze" in ein neuronales Netz zu laden ist da tatsächlich einfacher. Für konkrete Rechenaufgaben sind KI Methoden also nicht nötig, direkte (nicht-lernende) Algorithmen können das besser.

Beide bisher genannten Beispiele sind vermutlich Extreme. Dazwischen existiert ein bunter Blumenstrauss von Möglichkeiten in dem, meiner Meinung nach, die Kombination von KI und klassischer Algorithmik den Mehrwert für algorithmische Unterstützung im Arbeitsalltag und auch im privaten Leben liefern kann.

Zum Schluss sei mir eine Einordnung in eigener Sache erlaubt:

Mit meinem Team bei adiutaByte kombinieren wir aktuell beispielsweise die verschiedenen Disziplinen, um Planer bei der täglichen Touren- und Dienstplanung in der ambulanten Pflege zu unterstützen. Die Kombinationsmöglichkeiten für die Erstellung eines solchen Tourenplans sind unermesslich hoch und die Einbeziehung von Verkehrsprognosen und Wettereinflüssen für einen Menschen alleine so nicht optimal machbar und in jedem Fall außerordentlich zeitraubend. Algorithmik aus dem Bereich der mathematischen Optimierung (hier: Kombinatorik), mit der wir uns hauptsächlich beschäftigen, ist hier ein wunderbares Hilfsmittel um dem "Wust" an Möglichkeiten durch mathematische Konzepte schnell Herr zu werden.

Für bestimmte Ausprägungen von Plänen entscheidet sich am Ende der Planer, aber er spart sich täglich Stunden des stressigen "Dienstplan-Sudoku" und konzentriert sich wieder auf seine eigentliche Aufgabe. KI kann solche Probleme aktuell nicht gut lösen - Kombinatorik schon! KI hilft uns aber, vorab die "richtigen" Planvorschläge als Lösungen aus den Algorithmen der Kombinatorik auszuwählen und dem Planer bereitzustellen, gewissermaßen als "Vorab-Filter". Darüber hinaus nutzen wir KI, um sogenannte "Cluster" in den Daten zu erkennen. Nicht mehr, aber auch nicht weniger.

Ganz zum Schluss noch:

Wann immer wir über KI sprechen und diese einsetzen, muss auch die Algorithmen-Ethik immer im Vordergrund stehen. Wenn unsere Verfahren Planvorschläge bereitstellen, muss klar und transparent sein, welche Auswirkungen sowie Vor- und Nachteile verschiedene Pläne haben. Das muss aus meiner und unserer Sicht immer an erster Stelle stehen. Hiermit wird die Algorithmik und die KI zum Hilfsmittel für den Menschen

UND DER MENSCH BLEIBT ENTSCHEIDER!


alle Bilder unterliegen der Pixabay Lizenz

Just now a great edition of my favorite radio show: "Forschung AKTUELL" was on Deutschlandfunk. As so often in the last months it was about "AI" and "Algorithms" and this gave me the idea to collect some of my personal observations from the point of view of an algorithmist, scientist, but also from the point of view of a user.

AI - Artificial Intelligence - What is actually intelligent about it?

Intelligence in general can perhaps be seen as "the ability to adapt to change". This is certainly just an opinion or, more likely, just a facet. This was also the view of Stephen Hawking, the long-time holder of the Lucasian Chair of Mathematics, who died almost a year ago.

This is perhaps the very definition of intelligence that best justifies the term "artificial intelligence (AI)" when looking at these "new" "wonder weapons" of digitization. After all, the AI algorithms are changeable and can, in principle, adapt to new conditions independently. They can learn to a certain extent. However, this is still quite application-specific and also more or less successful. In the past this was often simply called statistics. But to avoid giving the wrong impression, something more than statistics is AI. In the past months, Prof. Christian Bauckhage, a very renowned AI researcher, has wonderfully summed up the misunderstanding for me in several lectures. According to him, the computer science methodology of AI has very little to do with real "natural" intelligence. I warmly recommend his lectures. But what can AI do today, and more importantly, what can it not do? And why is this coming up right now?

If you believe the practical examples from lectures at the relevant computer science conferences of recent years (and I have attended some of them), then, to put it bluntly, we essentially know one thing:

"Yes, AI can really see very well if a cat is on a photo or not!"

OK, that's not saying enough: Deep learning methods from the field of AI, for example, can also recognize and assign people on images very well. This is an application example in which the strengths of deep neural networks can be played out in an extraordinary way. And to be clear: the results are impressive.

But why has this topic come up again just now? Yes, AI is actually nothing new, really nothing. AI theories and applications have been around for decades. AI really came up in the middle of the last century. So what has changed? There have been some small scientific breakthroughs in the past 15 years, which certainly contributed to this, but essentially one fact has contributed to the fact that AI is on everyone's lips today:

We can use AI today!

This is based among other things on two very fundamental technological developments:

1.) Today there are computers with the power to calculate, train and evaluate neural networks. Even the reproduction of basic functional principles of the brain requires computing power that was simply not available 20 years ago. And this is where gamers come into play. Because quasi financed by the computer games industry and its users, companies like NVIDIA have today developed graphics card chips that can calculate not only breathtaking game graphics but also fantastic neural networks. The parallel computing power that today's graphics card processors, in particular, bring with them also spurs research and development in this area, as they provide "realizers" of the technology for little money. The mass market for graphics cards makes this possible (with).

Thanks dear gamers!

13 years ago, I started to "rebuild" my GPU (Graphics Processing Unit) on this basis to calculate mathematical models on it. The parallel computing power of my small graphics card was already then far ahead of my normal processor, the CPU (Central Processing Unit), for such applications. The whole thing has developed even further, especially for AI methods. One could say: thanks to technology, we can now calculate methods that people had already developed 30 years ago, but did not have the computing power to implement them.

2.) Today, there are the amounts of data needed to train such networks. Because without examples to learn from, AI cannot do anything... they remain learning systems. This amount of data is available because the world today is networked and also because a huge number of people provide their data on the network, for example through photos in social networks. With the flood of image data, in turn, AI can be trained to recognize objects, or cats, in images.

Thanks dear Influencer!

And thanks to Alexa, Siri and Co., speech recognition has also made a considerable leap forward in recent years, thanks to the data. The bottom line is that this new way of using it also allows a great leap forward in the corresponding research.

But what can AI do and what cannot?

To explain all possible areas here would go beyond the scope of this article and also beyond the scope of my knowledge. Here are just a few examples:

OK: Classify images. Yes, AI can already do that! But humans can do that also (I claim) even better!

Can AI solve computational problems? In principle, yes, but this can be done more efficiently, using classical algorithms. No learning effect is necessary here, because we know exactly how it works. This is direct deterministic mathematics. Simply put: I can immediately and without difficulty write down the calculation steps that are necessary to solve a calculation task. Why don't you try this for the process: How can I tell if a cat is on a rectangular grid of pixels. Loading a lot of images with the classification "cat" or "no cat" into a neural network is actually easier. For concrete computational tasks AI methods are not necessary, direct (non-learning) algorithms can do it better.

Both examples mentioned so far are probably extremes. In between there is a colorful bouquet of possibilities in which, in my opinion, the combination of AI and classical algorithmics can provide the added value for algorithmic support in everyday work and private life.

Finally, I would like to allow a classification in my own case:

With my team at adiutaByte, for example, we are currently combining the various disciplines to support planners in their daily tour and shift planning in home care. The combination possibilities for the creation of such a tour plan are immeasurably high, and the inclusion of traffic forecasts and weather influences is not optimally feasible for one person alone and in any case extremely time-consuming. Algorithmics from the field of mathematical optimization (here: combinatorics), which we mainly deal with, is here a wonderful tool to quickly master the "jumble" of possibilities through mathematical concepts.

In the end, the planner decides on certain characteristics of schedules, but he saves hours of the stressful " schedule sudoku" every day and concentrates again on his actual task. AI is currently not able to solve such problems well - combinatorics can! But AI helps us to select the "right" schedule suggestions as solutions from the algorithms of combinatorics in advance and to provide them to the planner, so to speak as a "pre-filter". Furthermore, we use AI to recognize so-called "clusters" in the data. No more, but also no less.

Right at the end:

Whenever we talk about AI and use it, algorithmic ethics must always be in the foreground. When our procedures provide plan proposals, it must be clear and transparent what effects, advantages and disadvantages different plans have. This must always be the first priority from my and our point of view. This is how algorithmics and AI become a tool for human

AND THE HUMAN BEING REMAINS THE DECISION-MAKER!


all pictures are licensed by Pixabay

Download PDF

[[de]]Diese Beiträge könnten Sie auch interessieren:[[en]] These articles may also be of interest to you:

[[de]]Mit Absenden des Kontaktformulars werden die von Ihnen angegebenen Daten verarbeitet, um mit Ihnen in Kontakt zu treten und Ihre Anfrage zu bearbeiten. Mehr Informationen zur Verarbeitung und zum Datenschutz bei adiutaByte können Sie unserer [[en]]By submitting the contact form, the data you provide will be processed in order to contact you and process your request. More information on processing and data protection at adiutaByte can be found in our [[de]]Datenschutzerklärung (beinhaltet Informationen zum Widerrufsrecht) [[en]]privacy policy (contains information about cancellation right [[de]]entnehmen.[[en]].
[[de]]* Pflichtfeld[[en]]* Mandatory input field
Danke für Ihre Anfrage, wir melden uns schnellstmöglich bei Ihnen!
Da ist wohl etwas schiefgegangen, bitte versuchen Sie es erneut oder senden Sie uns eine Mail an kontakt@adiutabyte.de .
[[de]]Sie wollen Ihre Tourenplanung optimal gestalten?[[en]]You want to optimize your tour planning?
[[de]]* Zur Bestätigung Ihrerseits erhalten Sie im Anschluss eine E-Mail * [[en]]* For your confirmation you will receive an e-mail *
Vielen Dank für Ihre Anfrage!
Oops! Something went wrong while submitting the form.