KI in der Qualitätssicherung: Neudefinition von Vertrauen, Rechenschaftspflicht und Innovation

Einblick
März 20, 2025
9 Minuten lesen

Autor

Nagarro Turntable_Speaker_Thomas Steirer

Thomas Steirer ist Chief Technology Officer (CTO) bei Nagarro. Sein Schwerpunkt liegt auf der Entwicklung skalierbarer und nachhaltiger Lösungen, die in erster Linie darauf ausgerichtet sind, wertvolle Informationen zu liefern.

Künstliche Intelligenz (KI) entwickelt sich in einem Tempo, das herkömmliche Ansätze für Qualität, Zuverlässigkeit und Verantwortlichkeit in Frage stellt. KI arbeitet heute in komplexen, dynamischen Umgebungen, die sich auf alles auswirken, von Finanzsystemen bis hin zu kritischen Infrastrukturen. Da KI immer autonomer wird und sich von vordefinierten Aufgaben entfernt, sind eine transparentere Governance, messbare Leistungsstandards und ein strengerer ethischer Rahmen erforderlich.

"Wenn Sie in der Region Wien leben und öffentliche Verkehrsmittel, Online-Banking oder Flugreisen nutzen, haben Sie wahrscheinlich schon mit Systemen interagiert, an deren reibungslosem Betrieb ich mitgewirkt habe - zumindest die meiste Zeit über. Diese Erfahrung hat mein Denken über Softwarequalität geprägt und darüber, was es wirklich bedeutet, wenn ein System "gut" ist. Sie bietet eine einzigartige Perspektive, die ich "destruktive Kreativität" nenne. Wenn ich ein neues Produkt oder Programm sehe, bewundere ich es nicht nur instinktiv. Ich frage mich zuerst: "Das ist cool... Wie kann ich es zerstören?"

Die Herausforderung besteht heute nicht nur darin, die Fähigkeiten der KI zu verbessern, sondern auch sicherzustellen, dass ihre Entscheidungen messbar und erklärbar sind und mit den Erwartungen übereinstimmen.

Fehlersuche in der Zukunft: KI in der Qualitätssicherung

Die herkömmliche Qualitätssicherung (QS) ist seit langem durch Präzision definiert - Systeme werden streng auf Funktionalität, Zuverlässigkeit, Leistung und viele andere Qualitätskriterien geprüft, wie in Normen wie ISO 25010 definiert. QS-Methoden basieren auf "destruktiver Kreativität", bei der Software unter Stress getestet wird, um Schwachstellen aufzudecken und eine reibungslose Ausführung in geschäftskritischen Bereichen wie dem Bankwesen, dem Transportwesen und der industriellen Automatisierung sicherzustellen.

Doch die KI hat diesen Ansatz grundlegend verändert. Generative KI geht über feste, deterministische Ergebnisse hinaus und ermöglicht kontextbezogene, adaptive Entscheidungen. Da generative KI-Modelle immer leistungsfähiger werden, reichen traditionelle Bewertungsmaßstäbe wie Genauigkeit und Präzision nicht mehr aus. Der Schwerpunkt liegt zunehmend auf der Bewertung von Fähigkeiten wie Argumentation, Generalisierung und kontextbezogenem Verständnis.

Wenn man beispielsweise nach dem Einfluss der Französischen Revolution auf das Bäckerhandwerk fragt, gibt es keine "einzig richtige Antwort", sondern eine Mischung aus historischen Interpretationen, kulturellen Erkenntnissen, spekulativen Zusammenhängen und der Kunst, exzellente Baguettes herzustellen. Einige der Antworten, die KI auf diese Frage gibt, können nützlich sein, während andere irreführend sind. Und es könnte unmöglich sein, sie zu unterscheiden, ohne die "richtige" Antwort vorher zu kennen.

Was wir für "richtig", "nützlich" oder sogar "akzeptabel" halten, hängt ganz von unseren Erwartungen ab. Es liegt auf der Hand, dass das Definieren, Verbalisieren und Überprüfen unserer Erwartungen ein schwieriger Prozess ist - selbst wenn es um die Kommunikation zwischen gut ausgebildeten Menschen geht, selbst im Zusammenhang mit herkömmlichen Softwaresystemen. Für einen Laien, der mit einer KI interagiert, kann dies geradezu unmöglich sein.

Dieser Wandel erfordert eine Neudefinition von Softwarequalität, die über reine Korrektheit hinausgeht. Hervorragende Qualität muss nun auch Anpassungsfähigkeit, kreative Interpretation und kontextbezogene Genauigkeit umfassen, damit KI-gesteuerte Systeme die Entscheidungsfindung verbessern und nicht verschleiern.

KI ist keine exakte Wissenschaft - wie können wir sie messen?


Die Art der KI-Leistung stellt eine einzigartige Herausforderung dar: Wie können wir ihre Qualität messen, wenn die Antworten probabilistisch und dialogorientiert sind und nicht algorithmisch und/oder numerisch? Herkömmliche Software hält sich an eine klare Erfolgs-Misserfolgs-Metrik, aber KI arbeitet in einem Spektrum der Variabilität.

Nehmen wir autonome Fahrzeuge: Es ist offensichtlich, dass es unrealistisch ist, keine Unfälle zu erwarten. Die praktischere Frage ist: Woran sollen sie gemessen werden? Sollte der Maßstab ein durchschnittlicher Autofahrer, ein Oldtimer-Liebhaber oder ein Fahrsicherheitsausbilder sein? Die Definition von Erfolg im Bereich der künstlichen Intelligenz bedeutet, dass man vom Perfektionismus zum Pragmatismus übergehen muss, d. h. vernünftige, reale Standards setzen muss, anstatt sich auf theoretische Ideale zu verlassen oder umgekehrt keine Standards zu haben.

Dieser Mangel an klaren Maßstäben gilt auch für selbstfahrende Autos und KI-gesteuerte Entscheidungsfindung in verschiedenen Bereichen. Der 2024 AI Index Report des Human-Centered Artificial Intelligence (HAI) Institute in Stanford weist auf einen erheblichen Mangel an Standardisierung bei der Berichterstattung über verantwortungsvolle KI hin und unterstreicht die Herausforderungen, denen sich Unternehmen bei der Schaffung klarer Governance-Rahmen stellen müssen. Dies wirft zentrale Fragen auf: Wenn ein KI-gesteuerter Chatbot eine Anfrage falsch interpretiert oder ein selbstfahrendes Fahrzeug einen Fehler macht, wer trägt dann die Verantwortung - der Entwickler, das einsetzende Unternehmen oder das KI-System selbst?

Ohne einen klaren Rahmen für Rechenschaftspflicht und KI-Governance wird das Vertrauen in KI fragil bleiben, was letztlich ihre breite Einführung verlangsamt und ihr volles Potenzial einschränkt.

KI-Tests neu denken

Da KI-gesteuerte Systeme immer interaktiver werden - sei es durch Chatbots, virtuelle Assistenten oder Entscheidungsfindungsmaschinen - muss sich die Art und Weise, wie wir sie testen, weiterentwickeln. Herkömmliche QS-Methoden, wie z. B. geskriptete Testfälle und KI-Selbstbewertung, reichen nicht mehr aus. Die Branche muss dazu übergehen, KI-Systeme anhand der folgenden Schlüsselfragen zu validieren:

  • Wie genau und wahrheitsgetreu sind die von KI generierten Antworten?
  • Sind diese Systeme wirklich rechenschaftspflichtig, und halten sie sich an ethische Standards?
  • Welche Sicherheitsvorkehrungen gibt es, um Verzerrungen, Fehlinformationen oder unbeabsichtigte Folgen zu verhindern?

Die Tests müssen über die funktionale Korrektheit hinausgehen und den Kontext, die ethischen Implikationen und die langfristige Zuverlässigkeit berücksichtigen. Dies bedeutet, dass Simulationen der realen Welt, kontinuierliche Überwachung und menschliche Validierung in den Kreislauf einbezogen werden müssen, um sicherzustellen, dass KI-Systeme vertrauenswürdig und anpassungsfähig bleiben und die Erwartungen der Nutzer erfüllen. Da sich KI weiterentwickelt, muss unser Ansatz zu ihrer Messung auch die Fähigkeit umfassen, faire, transparente und verantwortungsvolle Entscheidungen zu treffen.

AI für die Qualitätssicherung

Zerstörerische Kreativität: KI, der wir vertrauen können


Die Bewältigung des Wandels der KI erfordert eine Menge destruktiver Kreativität - eine Denkweise, die Annahmen aktiv in Frage stellt, etablierte Modelle auf den Prüfstand stellt und sich an die wachsende Komplexität der KI anpasst. Dabei geht es nicht um schrittweise Verbesserungen, sondern um grundlegende Veränderungen in der Art und Weise, wie wir Qualität, Zuverlässigkeit und Verantwortlichkeit in KI-gesteuerten Systemen definieren.

Anstatt KI als makellose Einheit zu betrachten, müssen Unternehmen sie als ein sich entwickelndes Werkzeug sehen, das in vielerlei Hinsicht eher einem "Mitarbeiter" als einem herkömmlichen Softwaresystem gleicht. KI wird versagen, aber sie kann auch lernen und sich verbessern - aber nur durch rigoroses Hinterfragen, Testen und ethisches Design wird sie zu einem vertrauenswürdigen Partner bei der Entscheidungsfindung.

KI auf dem Weg in eine Zukunft des Vertrauens

In dem Maße, in dem KI die Branchen durchdringt, sind Unternehmensleiter, Regulierungsbehörden und Entwickler dafür verantwortlich, strenge ethische Richtlinien und eine transparente KI-Governance zu schaffen. Bei der Zukunft der KI geht es nicht nur darum, was sie erreichen kann, sondern auch darum, sicherzustellen, dass sie innerhalb eines Rahmens von Verantwortlichkeit, Fairness und menschenzentriertem Design funktioniert.

Laut einer Studie des Global Economic Research Institute aus dem Jahr 2024 wird KI bis 2030 schätzungsweise 15,7 Billionen Dollar zur Weltwirtschaft beitragen. Mehr als 70 % der Führungskräfte sind jedoch immer noch besorgt über das Vertrauen und die ethischen Risiken im Zusammenhang mit dem Einsatz von KI. Die Qualitätssicherung hat sich längst über einen rein technischen Prozess hinaus entwickelt - sie ist zu einer Philosophie geworden, die Vertrauen, Integrität und ethische Innovation in den Vordergrund stellt. Im Bereich der KI ist dies heute wichtiger denn je. KI muss die Effizienz optimieren und die Werte aufrechterhalten, die die Technologie zu einem Wegbereiter des Fortschritts und nicht der Unsicherheit machen.

Das erfordert viel mehr Gehirnschmalz, um unsere Erwartungen zu formulieren und zu überprüfen, ob sie erfüllt werden.

Die Zukunft der KI-gesteuerten Systeme liegt in unserer Hand. Es liegt an uns, das Steuer in die Hand zu nehmen und dafür zu sorgen, dass KI nicht nur ein Werkzeug für die Automatisierung ist, sondern eine Kraft für sinnvolle Veränderungen, verantwortungsvolle Innovation und unerschütterliches Vertrauen.

Sind Sie neugierig auf die sich entwickelnde Rolle der KI in der Qualitätssicherung?


Sehen Sie sich den TEDx Talk von Thomas Steirer an, in dem er erklärt, wie KI das Testen von Software verändert, die Komplexität der Überprüfung von KI-generierten Ergebnissen und die Herausforderungen bei der Festlegung von Erwartungen in einer autonomen Welt. Vom Vertrauensdilemma bei KI-gesteuerten Entscheidungen bis hin zu den Auswirkungen des maschinellen Lernens auf das tägliche Leben - seine Erkenntnisse zwingen uns, die Definition von Softwarequalität in einer Zeit zu überdenken, in der die Antworten nicht immer schwarz-weiß sind. Verpassen Sie nicht diesen Vortrag, der zum Nachdenken anregt!

 

Sehen Sie den TEDx Talk von Thomas Steirer über KI in der Qualitätssicherung

 
Kontakt aufnehmen

Erforschung von AI in der Qualitätssicherung