German Testing Magazin 3/2025: Call for Articles – KI als Testunterstützung
- 13.09.2025
- 5 min read
Künstliche Intelligenz ist allgegenwärtig. Auch im Testen. Von Testfallerzeugung über Risikopriorisierung bis zur Auswertung von Logfiles: KI-Werkzeuge versprechen Tempo, Qualität und bessere Entscheidungen. Gleichzeitig entstehen neue Fragen rund um Daten, Compliance, Erklärbarkeit und Team-Skills. Das alles klingt auf dem Papier alles immer sehr gut. Aber wie sieht es in der Realität aus? Was funktioniert wirklich? Und was gar nicht? In der nächsten Ausgabe des German Testing Magazin 3/2025 möchten wir mit dem Schwerpunkt „KI als Testunterstützung“ auf den Grund gehen – und laden dich ein, deine Erfahrungen zu teilen.
Welche praktischen Ansätze funktionieren wirklich? Wo liegen Grenzen? Welche Metriken belegen den Nutzen? Teile deine Erkenntnisse, Tools und Referenzen mit der Community!
KI im Testen – vom Hype zur Wertschöpfung
KI-gestützte Verfahren können Tests schneller, zielgerichteter und datenbasierter machen. Sagen die Marketing-Seiten. Entscheidend ist der Praxisbezug: nachvollziehbare Setups, klare Artefakte, wiederholbare Ergebnisse und Lessons Learned aus echten Projekten. Genau diese Beiträge suchen wir.
Wir suchen Beiträge, die eines oder mehrere der folgenden Themen aufgreifen:
- Use Cases aus der Praxis: Testfallgenerierung, Testdatenvorschläge, Risikobewertung, Defekt-Deduplication, Log-/Trace-Analyse, Frontend-/API-Checks mit KI, Exploratives Testen mit KI-Co-Pilot.
- Best Practices & Referenzen: Architektur-Patterns, Prompt-/Context-Engineering im Test, Guardrails, Evaluations-Frameworks, Benchmarking und Vergleichstests.
- Daten & Compliance: Umgang mit sensiblen Daten, Anonymisierung, Synthetic Data, On-Prem vs. Cloud, Auditierbarkeit, Erklärbarkeit der Ergebnisse.
- Tooling & Integration: Einbindung in CI/CD, Pipeline-Beispiele, API-/Agent-Patterns, Orchestrierung, Versionierung von Prompts/Policies.
- Qualität & Metriken: Messbare Effekte auf Abdeckung, Defect Yield, Zeit-zu-Feedback, Flaky-Rate, Kosten/Nutzen; typische Anti-Patterns und Failure Modes.

Was wir besonders schätzen
- Konkrete Artefakte: Beispiel-Prompts, Policies, Pipelines, Code-/Config-Snippets, Screenshots.
- Nachvollziehbare Zahlen: Vorher/Nachher-Metriken, Kosten- und Zeitgewinne, Fehlerraten.
- Referenzen: Links zu Repos, Demos, Whitepapers, Studien oder öffentlich zugänglichen Ergebnissen.
- Ehrliche Learnings: Grenzen, Risiken, Fehlschläge – und wie ihr sie gelöst habt.
Beiträge können praxisnah, konzeptionell oder forschungsbasiert sein – wichtig ist, dass sie fundierte Einblicke geben und zum Diskurs beitragen.
Wir freuen uns auf deine Einreichung von spannenden und interessanten Artikeln.
Ein Beitrag sollte einen Umfang von ca. 8.000 bis 10.000 Zeichen (inkl. Leerzeichen) haben und möglichst ein bis zwei Abbildungen pro Seite (bei zwei bis vier Heftseiten) enthalten. Kürzere oder längere Beiträge sind prinzipiell auch möglich, sollten aber mit der Redaktion abgestimmt werden.
Bei Rückfragen bzgl. der Eignung deines Beitrags zum German Testing Magazin kannst du uns auch gerne ein kurzes Abstract deinses Beitrages senden. Dann geben wir dir umgehend Feedback.
Bitte schicke deine Abstracts oder schon reviewfähigen Beiträge bis zum 19. September 2025 an gtm@sigs-datacom.de.

Bitte orientieren Sie sich bei der Erstellung Ihres Beitrags an unseren Autorenrichtlinien.
Informationen zum German Testing Magazin:
Das Magazin richtet sich an alle Testing-Verantwortlichen, Qualitätsmanager, Software-Architekten und IT-Entwickler, die am Softwareherstellungsprozess beteiligt sind.
Das German Testing Magazin berichtet praxisnah und unabhängig, worauf es heute im Testing ankommt, beleuchtet aktuelle Trends, Hintergründe und Prozesse und liefert Ihnen einen Überblick über den aktuellen Markt.