Am Anfang stand die Logik. Die Software „General Problem Solver“ von Herbert A. Simon aus dem Jahr 1959 sollte eigentlich das Ende aller Probleme der Menschheit einläuten. Gefüttert mit Fakten und unterstützt von einer Technologie mit dem Namen Means-End-Analysis verblüffte diese Software die Welt. Während GPS jedoch mathematische Rätsel wie die „Türme von Hanoi“ elegant löste, scheiterte es gnadenlos an den Problemen der realen Welt. Und trotzdem schrieb diese Software Geschichte: Sie war das erste Computerprogramm, das sein Wissen (die Knowledge Base) von seiner Strategie, wie diese Probleme zu lösen sind (die Solving Engine), trennte.
„Das logikbasierte Paradigma der KI hielt sich in der Forschung fast 50 Jahre“
Die Logik eines Commander Data wurde von den KI-Forschern – angesichts der realen Welt – Schritt für Schritt immer weiter aufgeweicht und durch Logiken wie zum Beispiel Grammatiken, die Fuzzy-Logik oder die Allensche Zeitlogik ergänzt. Dieses logikbasierte Paradigma der KI hielt sich in der Forschung fast 50 Jahre – bis hin zu IBM Watson. Dabei sind viele erfolgreiche und nützliche Anwendungen entstanden, welche auch heute die IT prägen, zum Beispiel die Regeln, mit denen Microsoft Outlook einkommende E-Mails sortiert. Die hohen Erwartungen an einen „General Problem Solver“ konnten, trotz aller Erfolge, jedoch nie erfüllt werden. Die Kreativität aber, so die damalige Meinung, bleibt einzig den Menschen vorbehalten, Maschinen denken logisch. Am Anfang stand die Statistik. Das „Perceptron“ wurde als einfache mathematische Nachbildung eines menschlichen Neurons 1943 in einem Papier von dem Neurowissenschaftler Warren McCulloch und dem Logiker Walter Pitts vorgestellt. Dahinter steckt die Idee, ein solches künstliches Neuron durch äußere Reize so zu trainieren, dass es über Wahrscheinlichkeiten bestimmte Eingabe/Ausgabe-Parameter erlernen kann. Auf diesem Paradigma basieren die KI-Ansätze, die aktuell die Schlagzeilen beherrschen und uns mit ihren Ergebnissen verblüffen. Sie erzeugen Bilder, Musik und auch Texte auf Basis von menschlichen Anfragen. Die Ergebnisse sind beeindruckend und auch ohne jeden Zweifel sehr kreativ. Die Kommentare in den sozialen Medien überschlagen sich. Denn viele dieser Softwaresysteme können genau das, was bei den früheren KI-Ansätzen gefehlt hat – mit den Problemen der realen Welt umgehen: Stelle eine beliebige Anfrage und du erhältst ein Ergebnis, welches dich mit großer Wahrscheinlichkeit überzeugen wird. Faszinierend, oder?
„Statistische Autovervollständiger neigen dazu zu halluzinieren“
Das Problem dabei ist, dass hier die Logik fehlt und Fakten irrelevant scheinen. Es zählt nur der schöne Schein, weniger das Sein. Dies mag bei Grafiken und Musik keine Rolle spielen, sie sollen ja durch eben diesen Schein überzeugen. Bei Texten ist dies aber etwas anderes. So musste META seine Wissenschafts-KI Galactica nach wenigen Stunden wieder vom Netz nehmen, weil sie wissenschaftliche Papiere erfand, welche auf den ersten Blick glaubwürdig, auf den zweiten Blick aber völliger Unsinn waren. Ähnlich ist es mit Chat GPT – wie auch die Entwickler selbst warnen. Solche statistischen „Autovervollständiger auf Steroiden“ neigen dazu zu halluzinieren, das heißt, Dinge einfach zu erfinden. Selbst bei einfacher Arithmetik wie der Rechnung 2+2 besteht hier immer die Gefahr des Scheiterns, wie viele Beispiele im Netz zeigen. Diesen Systemen fehlt genau das, was die KI-Systeme der ersten Generation hatten: ein Verständnis von Bedeutung. Dafür sind sie aber sehr kreativ und beweisen „Mut zur Lücke“. Im Unternehmensalltag kann man mit einem kreativen Buzzword-Bingo und überzeugendem Auftreten bei völliger Ahnungslosigkeit weit kommen. So werden sich auch sicher vernünftige Anwendungen für diese Systeme finden lassen. Für eine Künstliche Intelligenz reicht dies aber bei Weitem nicht aus. Noch fehlt hierfür eine Theorie – nach Marvin Minsky eine Society of Mind, die alle KI-Ansätze vereint. Oder kurz: Commander Data muss Violine spielen.