L'IA dans l'assurance qualité : redéfinir la confiance, la responsabilité et l'innovation

insight
20 mars, 2025
9 minutes de lecture

Auteur

Nagarro Turntable_Speaker_Thomas Steirer

 

Thomas Steirer est Chief Technology Officer (CTO) chez Nagarro. Il se concentre sur le développement de solutions évolutives et durables, conçues principalement pour fournir des informations de valeur.

L’intelligence artificielle (IA) progresse à un rythme qui remet en question les approches traditionnelles en matière de qualité, de fiabilité et de responsabilité. L’IA évolue désormais dans des environnements complexes et dynamiques qui impactent tout, des systèmes financiers aux infrastructures critiques. À mesure que l’IA devient de plus en plus autonome et s’éloigne des tâches prédéfinies, il devient nécessaire d’instaurer une gouvernance plus transparente, des normes de performance mesurables et un cadre éthique plus strict.

"Si vous vivez dans la région de Vienne et que vous utilisez les transports en commun, les services bancaires en ligne ou le transport aérien, il y a de fortes chances que vous ayez interagi avec des systèmes dont j'ai contribué à assurer le bon fonctionnement. L’IA évolue désormais dans des environnements complexes et dynamiques qui impactent tout, des systèmes financiers aux infrastructures critiques. À mesure que l’IA devient de plus en plus autonome et s’éloigne des tâches prédéfinies, il devient nécessaire d’instaurer une gouvernance plus transparente, des normes de performance mesurables et un cadre éthique plus strict.

Le défi aujourd’hui n’est pas seulement d’améliorer les capacités de l’IA, mais aussi de s’assurer que ses décisions soient mesurables, explicables et alignées sur les attentes.

Déboguer le futur : l'IA dans l'assurance qualité

L’assurance qualité (QA) traditionnelle a longtemps été définie par la précision : les systèmes sont rigoureusement testés pour leur fonctionnalité, leur fiabilité, leurs performances et de nombreux autres critères de qualité, comme le définissent les normes telles que ISO 25010. Les méthodes de QA reposent sur la “créativité destructive”, où le logiciel est testé sous contrainte pour découvrir les vulnérabilités et garantir un fonctionnement fluide dans des secteurs critiques comme la banque, les transports ou l’automatisation industrielle.

Mais l’IA a fondamentalement perturbé cette approche. L’IA générative dépasse les résultats fixes et déterministes pour entrer dans une prise de décision contextuelle et adaptative. À mesure que les modèles d’IA générative deviennent plus performants, les métriques traditionnelles comme la précision ou l’exactitude ne suffisent plus. L’évaluation se concentre désormais davantage sur des capacités telles que le raisonnement, la généralisation et la compréhension contextuelle.

Par exemple, si l’on demande quelle a été l’influence de la Révolution française sur le commerce de la boulangerie, il n’existe pas de “réponse unique correcte”, mais plutôt un mélange d’interprétations historiques, d’aperçus culturels, de contextes spéculatifs et de l’art de faire d’excellentes baguettes. Certaines réponses générées par l’IA peuvent être utiles, d’autres trompeuses. Et il peut être impossible de les différencier sans connaître la “bonne” réponse à l’avance.


Ce que nous jugeons “correct”, “utile” ou même “acceptable” dépend entièrement de nos attentes. Définir, verbaliser et vérifier nos attentes est un processus complexe, même dans le cadre de la communication entre humains hautement qualifiés, et encore plus avec des systèmes logiciels traditionnels. Pour un non-initié interagissant avec une IA, cela peut être carrément impossible.

Ce changement exige une redéfinition de la qualité logicielle, qui dépasse la simple exactitude. L’excellence doit désormais inclure l’adaptabilité, l’interprétation créative et la précision contextuelle, afin que les systèmes pilotés par l’IA améliorent, plutôt qu’ils n’obscurcissent, la prise de décision.

L'IA n'est pas une science exacte, comment la mesurer ?

 

La nature probabiliste des performances de l’IA pose un défi unique : comment mesurer sa qualité lorsque les réponses sont probabilistes et conversationnelles plutôt qu’algorithmiques ou numériques ? Les logiciels traditionnels suivent une métrique claire succès/échec, mais l’IA opère dans un spectre de variabilité.

Prenons les véhicules autonomes : il est évident qu’il est irréaliste de s’attendre à zéro accident. La question plus pratique est : par rapport à quoi doivent-ils être évalués ? Un conducteur moyen, un passionné de voitures classiques ou un instructeur de sécurité routière ? Définir le succès en intelligence artificielle implique de passer du perfectionnisme au pragmatisme, c'est-à-dire fixer des standards raisonnables et réalistes plutôt que de se baser sur des idéaux théoriques ou, à l’inverse, de ne fixer aucun standard.

Ce manque de références claires concerne aussi les voitures autonomes et la prise de décision pilotée par l’IA dans divers secteurs. Le rapport 2024 AI Index du Stanford Human-Centered Artificial Intelligence (HAI) Institute souligne l’absence significative de normalisation dans les rapports sur l’IA responsable, ce qui met en évidence les défis pour les organisations qui veulent établir des cadres de gouvernance clairs. Cela soulève des questions cruciales : si un chatbot piloté par l’IA interprète mal une requête ou qu’un véhicule autonome commet une erreur, qui est responsable : le développeur, l'entreprise qui le déploie ou le système d'IA lui-même ?

Sans cadre clair de responsabilité et de gouvernance de l'IA, la confiance restera fragile, ralentissant son adoption généralisée et limitant son plein potentiel.

Repenser les tests d'IA

À mesure que les systèmes pilotés par l'IA deviennent plus interactifs, que ce soit par le biais de chatbots, d'assistants virtuels ou de moteurs de prise de décision, la manière de les tester doit évoluer. Les méthodes traditionnelles de QA, comme les tests scénarisés ou l’auto-évaluation par l’IA, ne suffisent plus. L’industrie doit valider les systèmes d’IA selon les questions clés suivantes :

  • Quel est le degré de précision et de véracité des réponses générées par IA ?
  • Ces systèmes sont-ils réellement responsables et respectent-ils les normes éthiques ?
  • Quelles mesures de protection sont en place pour éviter les biais, la désinformation ou les conséquences involontaires ?

Les tests doivent dépasser la simple correction fonctionnelle et prendre en compte le contexte, les implications éthiques et la fiabilité à long terme. Cela implique des simulations réalistes, une surveillance continue et une validation humaine en boucle pour garantir que les systèmes d’IA restent fiables, adaptables et répondent aux attentes des utilisateurs. À mesure que l’IA évolue, notre approche de sa mesure doit inclure la capacité à prendre des décisions équitables, transparentes et responsables.

L'IA pour l'assurance qualité

Créativité destructive : construire une IA digne de confiance


Gérer la transformation de l’IA exige beaucoup de créativité destructive, un état d’esprit qui remet activement en question les hypothèses, teste les modèles établis et s’adapte à la complexité croissante de l’IA. Il ne s’agit pas d’améliorations incrémentales, mais de changements fondamentaux dans la façon dont nous définissons la qualité, la fiabilité et la responsabilité des systèmes pilotés par l’IA.

Au lieu de considérer l'IA comme une entité sans faille, les organisations doivent la voir comme un outil évolutif, plus proche d’un “employé” que d’un logiciel traditionnel. L’IA échouera, mais elle peut aussi apprendre et s’améliorer — mais seulement grâce à des questionnements rigoureux, des tests et une conception éthique, elle pourra devenir un partenaire de confiance dans la prise de décision.

L'IA vers un futur de confiance

À mesure que l’IA s’infiltre dans les industries, les dirigeants, régulateurs et développeurs ont la responsabilité de créer des directives éthiques strictes et une gouvernance transparente. L’avenir de l’IA ne dépend pas seulement de ce qu’elle peut accomplir, mais aussi de son fonctionnement dans un cadre de responsabilité, d’équité et de conception centrée sur l’humain.

Selon une étude 2024 du Global Economic Research Institute, l’IA devrait contribuer à hauteur de 15,7 trillions de dollars à l’économie mondiale d’ici 2030. Pourtant, plus de 70 % des dirigeants restent préoccupés par la confiance et les risques éthiques liés au déploiement de l’IA. L'assurance qualité a depuis longtemps dépassé le cadre purement technique, elle est devenue une philosophie priorisant la confiance, l’intégrité et l’innovation éthique. Dans l’IA, cela devient plus crucial que jamais. L’IA doit optimiser l’efficacité tout en respectant les valeurs qui font de la technologie un vecteur de progrès, et non d’incertitude.

Cela exige beaucoup de réflexion pour exprimer nos attentes et vérifier qu’elles sont respectées.

L’avenir des systèmes pilotés par l’IA est entre nos mains. Il nous revient de prendre le volant et de faire en sorte que l’IA ne soit pas seulement un outil d’automatisation, mais une force de changement significatif, d’innovation responsable et de confiance durable.

 

Curieux du rôle évolutif de l’IA dans l’assurance qualité ? 


Regardez le TEDx Talk de Thomas Steirer, où il explique comment l’IA transforme les tests logiciels, la complexité de la vérification des résultats générés par l’IA et les défis liés à la définition des attentes dans un monde autonome. De la problématique de la confiance dans les décisions pilotées par l’IA à l’impact du machine learning sur la vie quotidienne, ses insights nous poussent à repenser la définition de la qualité logicielle à une époque où les réponses ne sont pas toujours noires ou blanches. Une conférence à ne pas manquer !

 

 

Regardez le TEDx de Thomas Steirer sur l'IA dans l'assurance qualité

 
Prendre contact

Explorer l'IA dans l'assurance qualité