Sie haben SAS Institute vor 45 Jahren gegründet. Was waren aus Ihrer Sicht die wichtigsten technologischen Entwicklungen in dieser Zeit?
Goodnight: Aus meiner Perspektive erinnere ich mich gern an den schmalen SAS-Layer oberhalb der jeweiligen Betriebssysteme. Diese Multi-Vendor-Architektur erlaubte es uns schon Mitte der 80er, unsere Software unabhängig von den Hardware-Vendoren anzubieten. Die SAS-Programme liefen damit auf den damals gängigen Mainframes, den Mini-Computern und auch auf den 16-Bit-PCs. Das war für uns ein großer Durchbruch. Ein anderer wichtiger Meilenstein war 2009. Damals fragte mich in Singapur ein Banker, ob wir nicht die Risikoberechnungen seiner Bank beschleunigen können. Die finden zum Beispiel statt, wenn eine Transaktion geprüft wird. Da gilt es viele Kriterien zu prüfen, was damals durchaus seine Zeit dauerte – bis zu 18 Stunden. Mit Hilfe von massiv parallelem Computing konnten wir diese Zeit auf 15 Minuten verkürzen. Heute bieten wir unsere Analytics-Suite Viya in der vierten Generation an. Es ist die umfangreichste Analytics-Lösung, die heute auf dem Markt ist.
"Cloud-Computing ist eigentlich nichts anderes als eine moderne Form des Time-Sharing-Verfahrens, das schon in den 60er-Jahren genutzt wurde."
Das sind Durchbrüche in der SAS-Welt gewesen. Was ist mit den generellen technologischen Entwicklungen? Sie haben weder Künstliche Intelligenz, das Internet oder Cloud-Computing erwähnt.
Goodnight: Ach wissen Sie … Cloud-Computing ist eigentlich nichts anderes als eine moderne Form des Time-Sharing-Verfahrens, das schon in den 60er-Jahren genutzt wurde.
Also eigentlich nicht sehr beeindruckend?
Goodnight: Im Laufe der Zeit wechseln die Prämissen. Das Time Sharing funktionierte damals mit Mainframes in Rechenzentren und dummen Terminals praktisch ohne eigene Rechenkapazität. Dann kamen die PCS und das Client-Server-Zeitalter. Jetzt funktioniert alles zunehmend über Browser auf der Endbenutzerseite. Das heißt, wir kehren im Prinzip wieder zum zentralen Ansatz und den dummen Terminals zurück.
Also verhalten Sie sich gegenüber neuen Trends nach dem Motto „Ruhig bleiben und weiterarbeiten“?
Goodnight: Es gibt Leute, die immer den neuesten Dingen folgen, auch wenn es nicht die besten sind. Ich gehöre nicht zu diesen Menschen. Zum Beispiel die Programmiersprache „C“. Sie ist nach 50 Jahren immer noch schneller als die zahlreichen interpretierten modernen Programmiersprachen.
Ja schon, aber die Hardware ist viel leistungsfähiger geworden, da spielt doch eine schnelle Programmiersprache keine so große Rolle mehr, oder?
Goodnight: Das kommt wohl auf die Komplexität der Aufgabe an. (lacht) Und wenn Sie die in Quasi-Echtzeit lösen müssen, dann ist das schon sehr bedeutsam. Aber klar, als wir in den 70ern CPUs hatten, die 300 Instruktionen per Sekunde bewältigten, dachten wir, das sei schnell. Und natürlich denken wir das heute wieder bei aktuellen Rechenkernen, die mehrere Milliarden Instruktionen pro Sekunde schaffen. Aber wie gesagt, die Aufgaben werden auch sehr viel komplexer, die wir mit den Bausteinen lösen müssen.
Angesichts der rasanten Entwicklung, die BI und Analytics in den letzten 30 Jahren genommen haben: Was vermissen Sie immer noch?
Goodnight: Meine Güte! Ich wüsste nicht, was. Wir können mit AI wirklich schon eine Menge machen. In der Medizin arbeiten wir zum Beispiel mit der Universität von Amsterdam an der automatischen Erkennung von Krebstumoren oder daran, die Therapie von diabetischer Retinopathie zu automatisieren. Da ist AI wirklich extrem hilfreich, oder bei der Umwandlung von Sprache in Texte und umgekehrt. Aber dass AIs bald die Weltherrschaft übernehmen werden, halte ich für leicht übertrieben.
"Ich für meinen Teil habe noch keine Kostenreduktion durch die Cloud erlebt. Im Gegenteil, IT wird teurer, weil Cloud zusätzlich und nicht anstelle von On-Prem-Kapazitäten genutzt wird."
Teilen Sie denn den Enthusiasmus in Bezug auf Artificial Intelligence?
Goodnight: Der AI-Hype war in der letzten Zeit zu groß. Sie ist wirklich gut für visuelle und textlich orientierte Problemstellungen. Aber ob die vielen Milliarden Dollar, die dort investiert werden sollen, wirklich gut angelegt sein werden, lässt sich noch nicht absehen.
Können Sie sich vorstellen, dass es wieder einen sogenannten „AI-Winter“ geben wird, weil die Künstliche Intelligenz die Erwartungen nicht erfüllen kann und Forschung und Förderung wieder eingefroren werden, wie damals in den 90er-Jahren?
Goodnight: In den 90ern waren AI-Programme noch regelbasiert. Das war sehr umständlich und langsam. Heute verfügt man über riesige neuronale Netze, die man trainiert. Das ist eine ganz andere Qualität.
Wie groß ist der Einfluss von AI und Machine Learning auf BI und Analytics?
Goodnight: Einige der Machine-Learning-Modelle können einige der Vorhersagemodelle verbessern, die wir heute benutzen. Das sind keine riesigen Sprünge, aber es handelt sich um spürbare Verbesserungen bei der Genauigkeit. Neben ihren Fähigkeiten in der visuellen und textbasierten Analyse kann uns AI wirklich helfen, bei den Prognosefähigkeiten besser zu werden.
Hat die Pandemie die Nutzung von BI- und Analytics-Software verändert?
Goodnight: Sie hat sich durch Covid-19 verändert. Die Leute sind sich des Themas und der Leistungen von Analytics sehr viel bewusster als vor der Pandemie. Denken Sie nur an die Prognosen über die Zahl der Infizierten oder die Belegung von Krankenhaus- und Intensivbetten. Banken und Versicherungen mussten das neue Risiko in ihren Bewertungen von Krediten und Policen berücksichtigen. Aber das gilt für alle weitreichenden Ereignisse oder Entwicklungen. So kann man sagen, dass auch der Klimawandel Analytics und BI beeinflusst. Auch seine Auswirkungen müssen berücksichtigt und analysiert werden.
James "Jim" Goodnight
"Die Leute sind sich des Themas und der Leistungen von Analytics sehr viel bewusster als vor der Pandemie"
Stichwort Digitalisierung und digitale Transformation. Die Deutschen betrachten sich in dieser Beziehung als Nachzügler. Haben Sie da Tipps für uns, wie wir uns verbessern können?
Goodnight: Auf der ganzen Welt versuchen die Unternehmen, ihre Digitalisierung voranzutreiben. Ich sehe da eigentlich keine großen Unterschiede zwischen den Regionen. Außerdem bedeutet Digitalisierung für jedes Unternehmen etwas anderes. Auf der ganzen Welt setzen Unternehmen sehr viel mehr und ausgefeiltere Prognosemodelle ein. Das gilt auch für Deutschland. Ähnlich populär ist die Digitalisierung der Risikomodelle für Banken und Versicherungen. Also ich sehe keine großen Unterschiede zwischen den USA und Europa.
"Aber dass Sie bald die Weltherrschaft übernehmen werden, halte ich für leicht übertrieben"
Sie sind jetzt 55 Jahre im IT-Geschäft. Was sagen Ihnen Ihr Bauchgefühl und Ihre Erfahrungen über das „nächste große Ding“ in BI und Analytics? Was wird das Ihrer Meinung nach sein?
Goodnight: Schwer zu sagen. Ich habe mich immer bemüht, nicht weiter als zwei Jahre nach vorn zu schauen. Das ist die Zeitspanne, die wir benötigen, um auf neue Entwicklungen zu reagieren, neue Sachen zu entwickeln. Selbst Bill Gates hat in seinem berühmten Buch „The road ahead“ das Internet nicht vorausgesehen. Deshalb bleiben die Prognosen über die mittel- und langfristige Technologieentwicklung notwendigerweise vage. In Sachen Cloud frage ich mich aber manchmal schon, ob tatsächlich alle Unternehmen in die Cloud wechseln werden. Ich für meinen Teil habe noch keine Kostenreduktion durch die Cloud erlebt. Im Gegenteil, IT wird teurer, weil Cloud zusätzlich und nicht anstelle von On-Prem-Kapazitäten genutzt wird. Das gilt vor allem, wenn die Unternehmen die gleiche Menge Leute in der IT beschäftigen wie heute. Aber wir machen natürlich auch Cloud, weil unsere Kunden das wollen.
Tatsächlich die Kunden? Ich habe den Eindruck, dass die Anbieter sich in den letzten zehn Jahren sehr darum bemüht haben, die Kunden von der Cloud zu überzeugen. Sie sei schneller, flexibler, billiger und sicherer …
Goodnight: … und die Anbieter würden doch niemals lügen, oder?(lacht)
Herr Goodnight, ganz herzlichen Dank für das Gespräch!