Ich frage in die Runde, was interessiert Sie an KI besonders?
Nils Röttger: Es ist vor allem das Ungewisse. Es gibt noch so viele Fragen, die beantwortet werden wollen.
Vor allem müssen wir Tester die Frage „Wie testen wir KI?“ beantworten! Eine andere wäre: „Wie gehen wir als Tester damit um, wenn es nicht mehr ‚Richtig oder Falsch’ gibt, sondern nur noch Wahrscheinlichkeiten.“
Christian Spindler: Es gibt ein großes Spektrum von Anwendungen, in denen sich diese Frage der Verantwortung – Mensch oder Maschine – stellt. Die Bewertung sollte aus meiner Sicht stets rational erfolgen. Hierzu gibt es gute Verfahren, beispielsweise das Benchmarking der KI gegenüber dem Menschen. Man nehme eine Gruppe von Experten auf einem Gebiet und messe ihre Performance (insbesondere die Qualität ihrer Ergebnisse) für eine bestimmte Aufgabe. Dann lasse man die KI dieselbe Aufgabe lösen. Schneidet die KI im Schnitt besser ab als die Gruppe von Experten, gibt es einen rationalen Grund, die Aufgabe der KI zu überlassen.
Mit dieser Methode kommen Sie ziemlich weit. Natürlich gibt es Grenzbeispiele, wie das berühmte Gedankenspiel, bei dem ein Fahrzeug nur die Wahl hat, entweder eine junge Person links oder eine alte Person rechts zu überfahren und der Fahrer (Mensch oder Maschine) entscheiden muss. Diese Fragen sind ethischer Natur mit Folgen für die technische Umsetzung, nicht primär ein Ausschlusskriterium für KI.
Elena Holsten: Das Ökosystem muss stimmen – ein Ökosystem, wo KI als Instrument mehrwertbringend eingesetzt werden kann, ist noch nicht gewachsen. Ein Ökosystem, wo alle Akteure entlang der Wertschöpfungskette Systemvoraussetzung mitbringen, die es wiederum ermöglichen, beispielsweise innerhalb einer Produktionslandschaft oder auch in unternehmensübergreifenden Anwendungen auf Basis von KI-Verfahren/-Methoden zu realisieren.
„Jede neue Technologie birgt auch Gefahren. Wir Tester müssen diesen Gefahren entgegenwirken“
Glauben Sie, dass uns KI helfen wird, die Welt sicherer zu machen?
Elena Holsten: Wenn wir uns dieses Ziel zur Aufgabe machen, dann Ja! Es liegt an uns, wie wir KI als Instrument einsetzen.
Christian Spindler: Auf der einen Seite kommt beim Thema Sicherheit und KI die Überwachungstechnologie des Social Scorings in China oder auch von PRISM in den USA in den Sinn. Der jüngste Fall des US-Unternehmens ClearView, welches Milliarden von Gesichtsaufnahmen im Netz zusammengetragen und mittels KI Personen zuordenbar gemacht hat, schürt diese Bedenken.
Nach meiner Meinung bekämpft man Verbrechen und Terrorismus am nachhaltigsten mit Bildung und Perspektiven, anstelle mit KI-gestützter Überwachung.
Ich hatte kürzlich das Vergnügen, mit dem amerikanischen Start-up One Concern zu sprechen. Das Unternehmen nutzt KI, um in Katastrophenfällen Rettungskräfte gezielt zu lenken, aber auch die Schadensbeurteilung von Versicherungen zu verbessern.
Nils Röttger: Jede neue Technologie birgt auch Gefahren. Wir Tester müssen diesen Gefahren entgegenwirken. Ich kann mir viele KI-basierte Systeme vorstellen, die uns alle betreffen und vermutlich die Welt objektiv sicherer machen werden: Straßenverkehr, Medizin oder auch Agrarwirtschaft. Allerdings müssen diese Systeme vorher gut getestet worden sein.
Mit dem Klimawandel kommen auf Industrie und Technik große Aufgaben zu. Software-Tester sind nicht gerade die erste Gruppe, die einem in den Sinn kommt, wenn es um die Verhinderung des drohenden Klimakollaps geht. Dennoch oder gerade darum die Frage: Wird Qualitätssicherung und der Einsatz von KI für das Klima bei Software-Testern diskutiert?
Nils Röttger: KI wird definitiv bei komplexen Dingen wie dem Klima einen großen Beitrag leisten können. Wir Tester müssen trotzdem unbedingt kritisch bleiben und dürfen den Ergebnissen der KI-basierten Systeme nicht uneingeschränkt trauen. Ob das Ganze der Nachhaltigkeit im Sinne von Umweltschutz usw. dient, muss sich dann erst noch zeigen. Immerhin verschlingen solche KI-Systeme auch eine Menge Energie.
Hier könnten wir Tester zum Beispiel die Frage aufwerfen, ob für das jeweilige Problem überhaupt eine KI benötigt wird. Das Thema KI wird ja auch ein wenig gehypt. Manche einfachen mathematischen Probleme werden mit komplexen neuronalen Netzen bearbeitet, nur damit KI draufsteht.
In den Arbeitsgruppen, in denen ich teilnehme, diskutieren wir momentan weniger das Klima sondern mehr die Ansätze, eine KI vernünftig zu testen.
„Der optimale Energieverbrauch von Maschinen bestimmt die Qualität eines Produktes mit“
Christian Spindler: In unserem Unternehmen ist die Bekämpfung des Klimawandels durch Datentechnologie die Mission. In unserem automatisierten „ESG-Accounting” setzen wir KI in der Datenaufbereitung und -integration ein. ESG steht hier für „Environmental, Social, Govenmental“-Kriterien, die Unternehmen beeinflussen (Impacts) und von denen sie beeinflusst werden (Risiken).
Auch bei der Analyse von Risiken und Optionen und bei der Präsentation von Ergebnissen hilft KI mit. Software-Testing ist wichtig, um diese Prozesse zu sichern, aber auch Modelle zu validieren und Datenintegration robust zu gestalten. Insofern halte ich die Arbeit von Software-Testern an unserem Produkt für einen direkten Beitrag zu unserer Transformation in eine Net-Zero-Carbon-Gesellschaft.
Elena Holsten: Ich bemerke, dass die Fragen zum Energieverbrauch immer stärker in den Fokus rücken. Produktqualität und Qualitätssicherung werden in dieser Hinsicht neu definiert. Der optimale Energieverbrauch von Maschinen bestimmt die Qualität eines Produktes mit. Wir sprechen hier über Anwendungen wie Messen von Energieverbräuchen pro Schritt oder Teilschritt eines Produktionsprozesses. In unserem Unternehmen streben wir nach Energieeffizienz durch Wechselwirkung zwischen Produktion und technischer Gebäudeausrüstung.
Können wir überhaupt etwas testen, was intelligenter ist als wir?
Nils Röttger: Ein klares JA! Wir MÜSSEN die KI testen, die in der jeweiligen Disziplin schlauer ist als wir. Sie kann nämlich nicht über den Tellerrand blicken. Wir können das!
Christian Spindler: Wir können das, nur dürfen wir nicht hoffen, dass diese Intelligenz in allen Situationen so reagiert, wie wir es uns wünschen.
KI ist nicht alles in der Softwareentwicklung. Googles lesenswertes Paper „Hidden Technical Debt in Machine Learning Systems“ von 2015 zeigt eindrucksvoll die Vielzahl an Komponenten, die es benötigt, um KI zum Laufen zu bringen. Große Teile der Softwareinfrastruktur, und damit auch des Testbedarfs, haben mit den eigentlichen KI-Algorithmen nichts zu tun.
Elena Holsten: Ich würde die Frage nicht so formulieren – die Art des Testing wird sich ändern, die Testing-Tools als solche werden sich auch ändern, es wird Schwerpunkt-Verschiebungen geben. Ein weiterer Impuls an dieser Stelle: Es ist zurzeit üblich, testgetrieben zu entwickeln. Des Weiteren müssen Testing-Tools entwickelt werden, die den Herausforderungen und auch Anforderungen einer auf Basis von KI entwickelten Anwendung überhaupt erst gerecht werden. An Jobs für Software-Tester wird es in naher Zukunft nicht fehlen.
Nils Röttger: Da bin ich kritischer. KI als Technologie wird viele Jobs besser und effizienter ausführen können als wir Menschen und somit da Arbeitsplätze kosten, wo es um viel Geld geht. Manche Jobs müssen aber vielleicht gar nicht schneller erledigt werden als jetzt. Für uns QAler bedeutet das zum einen, dass wir uns mit für uns neuen Themen wie Stochastik oder neuronalen Netzen beschäftigen müssen. Zum anderen müssen wir noch mehr über den Tellerrand hinausschauen und die richtigen Fragen stellen.
„An Jobs für Software-Tester wird es in naher Zukunft nicht fehlen“
Christian Spindler: Oftmals wird die Frage nach mehr oder weniger Jobs mit dem Argument beantwortet, dass in jeder industriellen Revolution mehr Jobs entstanden sind, als verloren gingen, und es der Gesellschaft in einer neuen Phase der Entwicklung besser ging. Diese Ansicht teile ich grundsätzlich, und zwar aus drei Gründen:
Zunächst halte ich die menschliche Kreativität und Neugier für unbegrenzt. Hat es vor der Entstehung des Cyber Space das Tätigkeitsfeld Cyber Security gegeben? Die Welt ist auf absehbare Zeit komplex genug, um neue Betätigungsfelder entstehen zu lassen, die nicht unmittelbar durch KI ausgeübt werden können.
Zweitens wird KI in sozialen, empathischen Berufen per Definition einer menschlichen Bezugsperson stets unterlegen sein. Nicht, weil ein humanoider Roboter mit perfekter künstlicher Haut und hervorragendem Empathie-Algorithmus nicht eine menschliche Betreuung perfekt simulieren könnte, sondern weil wir als Menschen schlicht wissen, dass wir es mit einem Roboter zu tun haben und eine menschliche Bezugsperson bevorzugen würden (ist dies eigentlich eine neue Form von Rassismus)? Gewiss, man wird es sich leisten können müssen, von realen Menschen betreut zu werden. Vielleicht entwickelt sich hier ein Statussymbol?
Elena Holsten: Und Drittens?
Christian Spindler: Drittens sehe ich unsere Entwicklung als Menschheit gerade an mehreren Kipppunkten zugleich angelangt. Die Frage nach der Automatisierung breiter Teile unseres Arbeitslebens ist einer davon. Weitere sind die Limitierung des Planeten hinsichtlich Aufnahme von CO2 und Bereitstellung natürlicher Dienstleistungen wie Wasser, Rohstoffe (insbesondere Kalium und Phosphat) sowie Land und Biodiversität.
Es ist spannend, dass die Diskussion um nachhaltiges Wirtschaften und die Diskussion um Entkopplung von Denkarbeitszeit und
Produktivität zeitgleich stattfinden. Im besten Falle nutzen die westlichen Gesellschaften (mit zeitlichem Abstand natürlich auch der Rest der Welt) diese Koinzidenz um zu einem nachhaltigen Lebensstil zu finden, in dem Software-Tester für ihren spannenden Beruf ebenso Raum haben wie für soziale Begegnungen, Kreativität und Neugier.
Elena Holsten: Jede Art von Weiterentwicklung ist eine Chance – es war niemals anders, unsere Gesellschaft lebt davon, dass
wir uns stets im Wandel befinden. Es ist der natürliche Wechsel, der evolutionären Zyklen unterliegt. Hier passt als Abschluss der Satz der Ökonomin, Minouche Shafik, wunderbar:
“In the past, jobs were about muscles, now they’re about brains, but in future they’ll be about the heart.”
Vielen Dank für das Gespräch!
iSQI und GASQ
Die Alliance 4 Qualification setzt sich weltweit für Weiterbildung auf der Grundlage von internationalen Standards ein. Das Unternehmen entwickelt hochwertige Ausbildungs- und Zertifizierungsprogramme mit dem Fokus auf lebenslanges Lernen. Die Zertifizierung zur künstlichen Intelligenz “Artificial Intelligence and Software Testing” versetzt Software-Tester in die Lage, künstliche Intelligenz in den Testprozess einzubeziehen. Sie ist in dieser Hinsicht einzigartig auf dem Markt und wird von den Zertifizierungsunternehmen iSQI (International Software Testing Institute) und GASQ (Global Association for Software Quality) angeboten.