AI-Agenten können mehr als nur Fragen zu beantworten. Sie analysieren Situationen, treffen Entscheidungen, greifen auf Tools zu und führen Aktionen aus. Genau das macht sie nützlich, und zugleich risikobehaftet: Fehler wirken oft plausibel, bleiben lange unentdeckt und zeigen sich erst im Ergebnis. Das stellt Teams vor andere Herausforderungen als beim klassischen Softwaretesting.
In diesem Webinar zeigen wir, wie sich AI-Agenten sinnvoll und strukturiert testen lassen – vom Reasoning über einzelne Aktionen bis hin zum End-to-End-Ergebnis. Wir beleuchten typische Fehlerbilder in agentischen Systemen, zeigen, warum klassische Testmethoden hier an ihre Grenzen stoßen, und machen deutlich, wie sich Risiken frühzeitig sichtbar machen lassen.
Im Fokus steht außerdem, die Qualitätsbewertung jenseits von Trefferquoten, einschließlich adversarialer Testszenarien wie Prompt Injection, Datenlecks und Boundary Violations.
Das nehmen Teilnehmende mit:
- Ein Verständnis dafür, wie AI-Agenten „unter der Haube“ funktionieren
- Klarheit, warum verschiedene Agententypen unterschiedliche Teststrategien brauchen
- Konkrete Ansätze, um Outputs, Aktionen und End-to-End-Ergebnisse belastbar zu bewerten
Melden Sie sich jetzt für unser Webinar an und erfahren Sie, wie AI-Agenten richtig getestet werden können.
Passt der Termin nicht in Ihren Zeitplan? Melden Sie sich gerne trotzdem an, das Recording senden wir Ihnen nach dem Webinar zu.