Es ist ein alter Kampf, den Experten der Künstlichen Intelligenz mithilfe von Robotaxis, intelligenten Assistenten und DeepFakes austragen: „Symbolisten“ gegen „Subsymbolisten“. Sie veröffentlichen Fachartikel und laden zu wissenschaftlichen Konferenzen ein. Man könnte meinen, sie bekämpfen sich wie die Magier. In Wahrheit jedoch versuchen sie, jeder auf seine Weise, eine der wichtigsten Fragen der Menschheit zu beantworten „Wer bin ich? Und warum eigentlich?“
„‚Symbolisten‘ gegen ‚Subsymbolisten‘“
Am Anfang der Künstlichen Intelligenz standen die Symbolisten. Ihr Verständnis menschlicher Intelligenz beruht auf Logik. Sie folgen der Idee, dass menschliches Denken auf einer übergeordneten logisch-begrifflichen Ebene nur durch eine Verarbeitung von Symbolen – Hund, Katze, Maus – simuliert werden kann. Symbolisten sammeln deshalb Symbole/Fakten, sie versuchen, die Zusammenhänge zu klären und alles in einem abstrakten Modell abzubilden. Basierend auf dieser Repräsentation der Welt können dann mathematische Operationen definiert werden, die es erlauben, logische Schlussfolgerungen zu ziehen – zu denken.
Subsymbolisten hingegen nehmen sich das menschliche Gehirn mit seinen Milliarden Neuronen und Verbindungen als Vorbild. Sie bauen große Netze auf, die die Struktur des Gehirns mathematisch nachbilden sollen. Diese Netze werden durch „Stimuli“ – zum Beispiel Bilder – trainiert, wodurch sich bestimmte Verbindungen verstärken und andere abschwächen. Nach dem Training kann das Netz dann auf neue Stimuli reagieren – denken. Das Netz und der Algorithmus selbst kommen dabei ohne explizite Symbole aus. Sie sind „subsymbolisch“ und „erschaffen Symbole“ quasi aus sich selbst heraus. Am Anfang der Künstlichen Intelligenz waren die symbolischen, regelbasierten Verfahren klar im Vorteil. Mit dem Sieg von Deep Blue gegen Kasparow 1996 war die symbolische KI auf dem Höhepunkt. Seit dem Sieg von AlphaGo gegen Lee Sedol in 2016 hat aber die subsymbolische KI in der interessierten Öffentlichkeit deutlich die Nase vorn. Trotz großer Ambitionen und Ankündigungen konnte aber keine der beiden KI-Schulen bisher einen wirklichen Sieg erringen. Zwar konnten beide Schulen wirklich beeindruckende Ergebnisse in speziellen Fachgebieten vorweisen, aber von einem Verständnis menschlicher Intelligenz und deren Simulation durch eine Maschine sind wir noch immer sehr weit entfernt.
„Um das Spiel zu gewinnen, muss der Spieler beides beherrschen“
Die Frage nach der menschlichen Intelligenz und ihrer künstlichen Kopie reicht sehr weit in erkenntnistheoretische Fragen hinein, die uns schon seit den Anfängen der Philosophie beschäftigen. Beispielsweise kritisiert der amerikanische Philosoph Hubert Dreyfus die Idee einer „starken KI“ aufbauend auf den Werken von Martin Heidegger. Der amerikanische Philosoph John Searle versucht, mit seinem „Chinesischen Zimmer“ die Behauptung zu widerlegen, dass Maschinen allein dadurch Bewusstsein erlangen könnten, dass sie einen geeigneten Algorithmus ausführen. Sehr schnell sind wir dann bei Themen wie dem Verhältnis zwischen Materie und Geist, dem Ursprung des Bewusstseins oder den Grenzen der Erkenntnis. Also den ganz großen Fragen … Am Ende ist es mit der (schwachen) KI aber einfach wie mit einem guten Fußballer: Die Technik am Ball lernt er durch Übung (subsymbolisch) im Training. Die Taktik und Spielstrategie lernt er (symbolisch) durch den Trainer in der Spielerbesprechung. Aber um das Spiel zu gewinnen, muss er beides beherrschen. Philosophische Werke zu verfassen gehört nicht zu seinen Aufgaben.