Hallo Oliver, KI oder AI, was ist es denn nun?
Das ist das Gleiche, Künstliche Intelligenz (KI) oder Artificial Intelligence (AI). Als ich studierte, gab es einen Professor, der sagte immer künftige Informatik …
Haha, künftige Informatik.
Ja, künftig, also das, was in ein paar Jahren erreicht sein wird. Vor 20 bis 25 Jahren waren wir da sehr optimistisch. Immerhin schlug 1997 der Computer Deep Blue Garry Kasparov im Schach und bewies damit, dass Computer in bestimmten Bereichen den Menschen überlegen sind.
Wollte dein Professor damals mit dem Begriff „künftige Informatik” andeuten, dass Informatik selbst von Computern gemacht wird?
Nein, eher dass Techniken, die ursprünglich als KI galten und aufregend waren, dann in den Kanon von „einfacher” Informatik überführt und als selbstverständlich hingenommen werden.
Hat man damals immer KI mit Neuronalen Netzen gleichgesetzt?
Nein, KI was schon immer mehr als Machine Learning (ML) und Neuronale Netze sind ja sogar nur ein Spezialgebiet von ML. Damals in den 90ern hatten Neuronale Netze nur einen hidden Layer, also es wurden mit einer Schicht Neuronen aus Eingaben Ausgaben erzeugt. Zum Trainieren mehreren Schichten gab es viel zu wenig Rechenkapazität. Diese einfachen Neuronalen Netze konnten nicht allzu viel.
Dann schlief das Thema KI bis nach 2010. Bis die Firma Google diesen kanadischen Professor zu sich holte.
Das war Geoffrey Hinton, der kam etwa 2012/2013 zu Google und bekam dort sehr viel Rechenpower zur Verfügung gestellt. Hinton war einer der Ersten, die den Backpropagation-Algorithmus auf mehrschichtige Neuronale Netze anwendete. 2007 veröffentlichte er einen Artikel zum „unsupervised learning” auf Bilddaten. Bei Google konnte er diese Forschung auf deren immense Bilddaten anwenden und so entstanden dann unter anderem diese „Journey on the Deep Dream“-Videos (siehe QR-Code), auf denen man sehen kann, wie eine KI nach der Betrachtung sehr vieler Google-Bilder Repräsentationen von tierähnlichen Katzenwesen „träumt”. Dazu hat man einfach die von den Bildern „trainierte” KI auf weißes Rauschen schauen lassen und aus den entstehenden Bildern einen Film gemacht.
Das sieht dann aus, als ob ein Computer halluziniert.
Was ist denn Backpropagation genau?
Backpropagation ist ein Algorithmus, mit dem man mehrschichtige Neuronale Netze trainieren kann. Dabei schaut man sich von der Ausgangsseite des Netzwerkes an, welche Verbindungen zu Neuronen in der vorangegangenen Schicht den größten Einfluss auf das gewünschte Ergebnis haben. Die Gewichtung dieser Verbindungen setzt man etwas herauf, die Verbindungen, die einen negativen Einfluss auf das Ergebnis haben, setzt man etwas herab. Das Ganze wiederholt man durch alle Schichten des Neuronalen Netzes bis zur Eingabeschicht rekursiv. Darum Backpropagation. Im Prinzip stärkt man so die relevanten Schaltungen zur korrekten Erkennung eines Dings, ähnlich dem, wie das Hirn kleiner Kinder lernt. Alles, was auf mehrlagigen Schichten Neuronaler Netze lernt, fasst man dann unter dem Begriff Deep Learning zusammen.
Was war der erste Erfolg von KI?
Das hängt immer davon ab, wie man KI definiert, aber ich würde sagen, die Maschine, die Schach auf einem übermenschlichen Niveau spielen konnte. Das war in den 90er Jahren.
„Sobald man die Leistung eines Computers für gegeben hält, nimmt man sie nicht mehr als intelligent wahr“
Das war Deep Blue, oder? Ein traditionell aufgebauter Computer, keine KI?
Wie gesagt, sobald man die Leistung eines Computers für gegeben hält, nimmt man sie nicht mehr als intelligent wahr. Damals wurde diese Leistung allerdings als KI wahrgenommen, auch wenn kein Machine Learning und schon gar keine Neuronalen Netze benutzt wurden.
Viel später gab es dann AlphaGo, das den besten Go-Spieler der Welt schlug. Wie funktionierte das?
Dies ist erst ein paar Jahre her und technisch deutlich näher an dem dran, was wir heute als KI bezeichnen würden. Ein Neuronales Netz wird durch eine große Anzahl von Spielen gegen sich selbst trainiert. Man könnte diesen Ansatz eine spezielle Art des Reinforcements Learnings nennen. Ich habe den Wettkampf damals live gesehen. Die Kommentatoren des Spiels beschrieben AlphaGo mit immer persönlicheren Worten wie „jetzt denkt er …” oder „das frustriert ihn ...”
… das ist ja der totale Turing-Test!
Das kommt schon hin, intuitiv prüft der Turing-Test, ob man eine vermeintlich intelligente Maschine von einem Menschen unterscheiden kann. Und das war hier zum Teil erfüllt, wenn auch nur für den Fall des Go-Spiels.
Die Kommentatoren wussten ja, dass es eine Maschine ist, und besprachen Alpha-Go dennoch wie ein lebendes Wesen ...
Umso erstaunlicher ...
Heute ist KI in vielen Systemen im Einsatz, bei Siri oder der Fotoerkennung in meinem Fotoprogramm. KI ist also im Alltag weit verbreitet …
Ich spreche lieber von Machine Learning, aber das ist tatsächlich in sehr vielen Bereichen für uns sichtbar oder unsichtbar im Einsatz. Neben den von dir genannten Themen auch im Bereich Empfehlung oder bei Betrugserkennung.
Du unterscheidest zwischen Machine Learning und KI?
Das wird oft synonym verwendet, aber KI klingt aufregender, daher findet der Begriff häufig in weniger sachlichen Kontexten Anwendung. Etwas korrekter ist Machine Learning ein Pfeiler von KI. Viele Leute hoffen, gerade mithilfe von Machine Learning wirklich intelligente Systeme zu erschaffen.
Bedeutet KI, dass sich ein System situativ anpassen kann?
Wie man KI definiert, hängt von der Definition des Begriffs der Intelligenz ab, daher ist der Begriff für mich schwierig zu greifen. Mit Sicherheit gibt es zurzeit kein System, das dem Anspruch gerecht werden würde, sich universell intelligent zu verhalten, wenn man gängige Definitionen von Intelligenz zugrunde legt.
Machine Learning als Vorstufe zur KI? Liegt die Stärke von ML darin, dass ich eine einmal erlernte Sache unendlich häufig einfach kopieren kann, korrekt?
Das ist ein guter Punkt, trainierte Modelle können einfach in Produktion gebracht und multipliziert werden. Noch einfacher als Roboter, die den Menschen bei einfachen mechanischen Aufgaben ja bereits verdrängt haben.
Reinforcement Learning versus Supervised Learning?
Das passt auf jeden Fall gut für Systeme, die mit Supervised Learning trainiert werden. Dort gibt es eine Trainingsphase, die mit bekannten Daten durchlaufen wird, und in der nächsten Phase wird das vorerst fertig trainierte Modell dann ausgerollt. Beim Reinforcement Learning lässt man Algorithmen Experimente auf einer simulierten Welt ausführen und trainiert mit den daraus gewonnenen Erkenntnissen. Am Ende kann man genau wie beim Supervised Learning ein trainiertes Modell in Produktion bringen.
„Ich glaube nicht daran, dass wir (in den nächsten Jahren) sichere, selbstfahrende Autos in einer deutschen Großstadt sinnvoll im Einsatz sehen werden“
So werden mächtige Algorithmen gebaut. Nun neigen wir ja dazu, technischen Fortschritt etwas zu überschätzen. Etwa bei selbstfahrenden Autos …
Ich glaube nicht daran, dass wir (in den nächsten Jahren) sichere, selbstfahrende Autos in einer deutschen Großstadt sinnvoll im Einsatz sehen werden. Die Umgebung ist einfach zu komplex, um die Ansprüche an Sicherheit auf der einen Seite und schnellen Transport auf der anderen Seite zu erfüllen.
Wir hatten 2018 in Deutschland etwa 3275 Verkehrstote. Können KI und selbstfahrende Autos hier helfen?
Das war ja eine der Hoffnungen, aber die Erwartungen sind aus meiner Sicht so nicht erfüllbar. Tatsächlich autonome Autos existieren zwar und sie sind sicher, allerdings müssen sie sich beim Fahren dazu so konservativ verhalten, dass sie in komplexeren Situationen nicht mehr funktionieren und stehen bleiben oder bei Überforderung an den Straßenrand fahren. Das macht ihren Einsatz wenig praktikabel.
Wenn KI-Autos weniger Menschen überfahren würden, etwa nur die Hälfte, wäre das akzeptabel?
Zum einen ist es schwer zu sagen, ob das überhaupt der Fall wäre, und zum anderen wäre ein solches Experiment ethisch fragwürdig. Die Frage einer Schuld ist auch nicht geklärt und gesellschaftlich geht man immer noch davon aus, dass diese Systeme gar keine Verkehrstoten mehr fordern. Jeder Tote durch ein selbstfahrendes Auto wäre erst einmal ein Skandal.
In China werden angeblich Menschen schon durch Maschinen überwacht und bestraft, wenn sie zu häufig bei Rot über die Ampel gehen. Wäre das ein guter Weg zur ordentlicheren Gesellschaft? Oder sind Verkehrstote der Preis der Freiheit?
Ich fürchte, dass bei schnell fließendem, individuellem Verkehr immer Menschen zu schaden kommen werden.
Kannst du dir vorstellen, dass Computer Wut oder Frust erleben? Würde eine KI versuchen, Schmerz zu vermeiden?
Reinforcement Learning kommt dem wohl am nächsten. Hier wird ein Neuronales Netz trainiert, indem Bestrafungen vermieden oder Belohnungen angestrebt werden. Diese Belohnungen oder Bestrafungen werden aber von Menschen vorgegeben. Die Frage, ob Maschinen Gefühle haben, ist für mich technisch nicht sinnvoll stellbar. Im Falle von AlphaGo wurde der Maschine allerdings schon ein menschliches Innenleben zugesprochen, da sie sich menschenähnlich verhalten hat.
Lernen wir uns durch KI als Mensch besser kennen? Dekompilieren wir uns selbst?
Bei mir persönlich ist das tatsächlich so. Gerade Reinforcement Learning hat Parallelen zu dem, wie ich selbst lerne. Beispielsweise das Phänomen der Übergeneralisierung, wo viele von uns anhand von 2 bis 3 Fallbeispielen auf eine ganze Gruppe von Menschen schließen, ist am Beispiel von Supervised Machine Learning viel klarer ersichtlich.
Du hast KIs beobachtet und was bei zu starkem Learning passiert und dir daraufhin Gedanken über deine eigene Vorurteilsbildung gemacht?
So ist es in der Tat. Ich glaube, wir als Menschen neigen zu Übergeneralisierung und überschätzen gerade in komplexen Kontexten unsere Intuition. Man könnte sagen, die Maschine bringt mich zum Denken ...
Immerhin haben wir mit unserer 80-Watt-Birne auf dem Kopf noch eine Zeit lang einen Vorteil in der Energieeffizienz gegenüber Computern, oder?
Das ist sicherlich richtig. Machine Learning mit Neuronalen Netzen erfordert gerade beim Training sehr viel Energie. Bei der Nutzung der trainierten Modelle ist das aber nicht mehr im selben Ausmaß richtig. Hier reicht häufig ein mobiles Gerät wie ein Smartphone aus.
„Maschinen haben keine intrinsische Motivation“
KI gepaart mit Reproduktion, wären wir dann nicht bei einem sehr schnellen Darwinismus einer schnell lernenden künstlichen Spezies? Sind dann unsere Tage als Menschen gezählt?
Maschinen haben keine intrinsische Motivation oder eben nur diejenige, die wir ihnen vorgeben. Aber selbst, wenn wir das als Ziel von lernenden Systemen ausgeben würden, gehe ich nicht davon aus, irgendetwas in dieser Richtung zu erleben.
Computer wollen nix, sagst du, aber was, wenn die nun neugierig werden, also eine Gier auf Neues bekommen, so wie wir Menschen? Wenn man also Neugier mit Reproduktion paart, dann hat man doch die Voraussetzung für eine darwinistische Evolution geschaffen ...
Du kannst bereits jetzt Neugierde, also den Wunsch auf Wahrnehmung von bisher nicht Erlebtem, als Motivation in Reinforcement-Learning-Systeme einsetzen. Dies ist aber immer nur in sehr begrenzten Teilen einer simulierten Welt möglich. Ein solches System in die echte Welt gesetzt, ist zum einen technisch bisher nicht denkbar und zum anderen würde es dann wohl auch ein paar Millionen Jahre experimentieren müssen. Ich sehe dem also gelassen entgegen.
Was ist das nächste große Ding, das wir im KI-Bereich sehen werden.
Es passieren nur wenige große Dinge und diese sind häufig nicht das entscheidende. Würde man jetzt in allen Bereichen die „langweiligen” Dinge umsetzen, die mit Machine Learning heute schon möglich sind, lebten wir bereits in einer völlig anderen Welt.
Oliver, vielen Dank für das Gespräch.