La IA en la garantía de calidad: redefinición de la confianza, la responsabilidad y la innovación

visión
20 de marzo de 2025
9 min leer

Autor

Nagarro Turntable_Speaker_Thomas Steirer

Thomas Steirer es Director de Tecnología (CTO) en Nagarro. Se centra en el desarrollo de soluciones escalables y sostenibles diseñadas principalmente para proporcionar información valiosa.

La inteligencia artificial (IA) se está acelerando a un ritmo que desafía los enfoques convencionales de la calidad, la fiabilidad y la responsabilidad. La IA opera ahora en entornos complejos y dinámicos que afectan a todo, desde los sistemas financieros hasta las infraestructuras críticas. A medida que la IA se vuelve cada vez más autónoma y se aleja de las tareas predefinidas, se hace necesaria una gobernanza más transparente , normas de rendimiento mensurables y un marco ético más estricto.

"Si vive en la región de Viena y utiliza el transporte público, la banca en línea o el transporte aéreo, lo más probable es que haya interactuado con sistemas que yo he ayudado a garantizar que funcionen sin problemas, al menos la mayor parte del tiempo. Esta experiencia ha moldeado mi forma de pensar sobre la calidad del software y lo que realmente significa que un sistema sea "bueno". Proporciona una perspectiva única, que yo llamo "creatividad destructiva". Cuando veo un nuevo producto o programa, mi instinto no es sólo admirarlo. Primero me pregunto: "Qué guay... ¿Cómo lo rompo?".

El reto actual no es solo mejorar las capacidades de la IA, sino también garantizar que sus decisiones sean medibles, explicables y estén alineadas con las expectativas.

Depurar el futuro: La IA en el control de calidad

La garantía de calidad (GC) tradicional se ha definido durante mucho tiempo por la precisión: los sistemas se someten a pruebas rigurosas de funcionalidad, fiabilidad, rendimiento y muchos otros criterios de calidad, tal y como se definen en normas como ISO 25010. Los métodos de aseguramiento de la calidad se basan en la "creatividad destructiva", en la que el software se prueba bajo presión para descubrir vulnerabilidades y garantizar una ejecución perfecta en áreas críticas para la empresa como la banca, el transporte y la automatización industrial.

Pero la IA ha trastocado radicalmente este planteamiento. La IA generativa va más allá de los resultados fijos y deterministas para adoptar decisiones contextuales y adaptativas. A medida que los modelos de IA generativa se vuelven más capaces, las métricas de evaluación tradicionales, como la exactitud y la precisión, ya no son suficientes. Cada vez se presta más atención a la evaluación de capacidades como el razonamiento, la generalización y la comprensión contextual.

Por ejemplo, cuando se pregunta por la influencia de la Revolución Francesa en el comercio de la panadería, no hay una "única respuesta correcta", sino más bien una mezcla de interpretaciones históricas, percepciones culturales, contextos especulativos y el arte de hacer excelentes baguettes. Algunas de las respuestas que genera la IA al responder a esta pregunta pueden ser útiles, mientras que otras son engañosas. Y puede resultar imposible diferenciarlas sin conocer de antemano la respuesta "correcta".

Lo que consideramos "correcto", "útil" o incluso "aceptable" depende totalmente de nuestras expectativas. Evidentemente, definir, verbalizar y comprobar nuestras expectativas es un proceso complicado, incluso cuando se trata de la comunicación entre seres humanos altamente capacitados, incluso en el contexto de los sistemas de software tradicionales. Para un lego en la materia que interactúa con una IA, puede resultar francamente imposible.

Este cambio exige una redefinición de la calidad del software que vaya más allá de la mera corrección. La excelencia debe incluir ahora adaptabilidad, interpretación creativa y precisión contextual para que los sistemas basados en IA mejoren la toma de decisiones en lugar de ofuscarla.

La IA no es una ciencia exacta: ¿cómo medirla?


La naturaleza del rendimiento de la IA plantea un reto único: ¿cómo podemos medir su calidad cuando las respuestas son probabilísticas y conversacionales en lugar de algorítmicas y/o numéricas? El software tradicional se adhiere a una métrica clara de éxito-fracaso, pero la IA opera en un espectro de variabilidad.

Tomemos el ejemplo de los vehículos autónomos: es obvio que no es realista esperar que no haya accidentes. La cuestión más práctica es: ¿con respecto a qué deben medirse? ¿Debe tomarse como referencia a un conductor medio, a un aficionado a los coches clásicos o a un instructor de seguridad al volante? Definir el éxito de la inteligencia artificial significa pasar del perfeccionismo al pragmatismo, es decir, establecer normas razonables para el mundo real en lugar de basarse en ideales teóricos o, a la inversa, no tener normas.

Esta falta de puntos de referencia claros se extiende a los coches autoconducidos y a la toma de decisiones basada en la IA en diversos sectores. El Informe sobre el Índice de Inteligencia Artificial 2024, elaborado por el Instituto de Inteligencia Artificial Centrada en el Ser Humano (HAI) de Stanford, pone de manifiesto una importante falta de normalización en la elaboración de informes responsables sobre IA, lo que subraya los retos a los que se enfrentan las organizaciones a la hora de establecer marcos de gobernanza claros. Esto plantea cuestiones fundamentales: Si un chatbot basado en IA malinterpreta una solicitud o un vehículo autoconducido se equivoca, ¿quién es responsable: el desarrollador, la empresa que lo despliega o el propio sistema de IA?

Sin un marco claro para la rendición de cuentas y la gobernanza de la IA, la confianza en la IA seguirá siendo frágil, lo que en última instancia frenará su adopción generalizada y limitará todo su potencial.

Replanteamiento de las pruebas de IA

A medida que los sistemas basados en IA se vuelven más interactivos -ya sea a través de chatbots, asistentes virtuales o motores de toma de decisiones-, la forma en que los probamos debe evolucionar. Los métodos tradicionales de control de calidad, como los casos de prueba guionizados y la autoevaluación de la IA, ya no son suficientes. El sector debe pasar a validar los sistemas de IA en función de las siguientes preguntas clave:

  • ¿Hasta qué punto son precisas y veraces las respuestas generadas por la IA?
  • ¿Son estos sistemas verdaderamente responsables y cumplen las normas éticas?
  • ¿Qué salvaguardias existen para evitar la parcialidad, la desinformación o las consecuencias imprevistas?

Las pruebas deben ir más allá de la corrección funcional y tener en cuenta el contexto, las implicaciones éticas y la fiabilidad a largo plazo. Esto significa incorporar simulaciones del mundo real, supervisión continua y validación humana en el bucle para garantizar que los sistemas de IA sigan siendo fiables y adaptables y satisfagan las expectativas de los usuarios. A medida que la IA evoluciona, nuestro enfoque para medirla debe incluir la capacidad de tomar decisiones justas, transparentes y responsables.

AI para el control de calidad

Creatividad destructiva: Construir una IA en la que podamos confiar


Gestionar la transformación de la IA requiere mucha creatividad destructiva, una mentalidad que desafíe activamente los supuestos, ponga a prueba los modelos establecidos y se adapte a la complejidad evolutiva de la IA. No se trata de mejoras graduales, sino de cambios fundamentales en la forma de definir la calidad, la fiabilidad y la responsabilidad de los sistemas basados en IA.

En lugar de considerar la IA como una entidad impecable, las organizaciones deben verla como una herramienta en evolución, en muchos aspectos más parecida a un "empleado" que a un sistema de software tradicional. La IA fallará, pero también puede aprender y mejorar, pero sólo a través de un cuestionamiento riguroso, pruebas y un diseño ético se convertirá en un socio de confianza en la toma de decisiones.

La IA, camino de un futuro de confianza

A medida que la IA impregna las industrias, los líderes empresariales, los reguladores y los desarrolladores son responsables de crear directrices éticas estrictas y una gobernanza transparente de la IA. El futuro de la IA no solo depende de lo que pueda conseguir, sino también de garantizar que funcione dentro de un marco de responsabilidad, equidad y diseño centrado en el ser humano.

Se calcula que la IA aportará 15,7 billones de dólares a la economía mundial en 2030, según un estudio realizado en 2024 por el Global Economic Research Institute. Sin embargo, más del 70% de los ejecutivos siguen preocupados por la confianza y los riesgos éticos asociados a la implantación de la IA. La garantía de calidad lleva mucho tiempo evolucionando más allá de un proceso puramente técnico: se ha convertido en una filosofía que da prioridad a la confianza, la integridad y la innovación ética. En la IA, esto es más crucial que nunca. La IA debe optimizar la eficiencia y defender los valores que hacen de la tecnología un factor de progreso, no de incertidumbre.

Esto requiere mucha más capacidad intelectual para articular nuestras expectativas y validar que se están cumpliendo.

El futuro de los sistemas basados en IA está en nuestras manos. Depende de nosotros tomar el volante y garantizar que la IA no sea solo una herramienta de automatización, sino una fuerza para el cambio significativo, la innovación responsable y la confianza inquebrantable.

¿Siente curiosidad por la evolución del papel de la IA en el control de calidad?


Vea la charla TEDx de Thomas Steirer, en la que explica cómo la IA está transformando las pruebas de software, la complejidad de verificar los resultados generados por la IA y los retos de establecer expectativas en un mundo autónomo. Desde el dilema de la confianza en las decisiones impulsadas por la IA hasta el impacto del aprendizaje automático en la vida cotidiana, sus ideas nos empujan a replantearnos la definición de la calidad del software en un momento en el que las respuestas no siempre son blancas o negras. No se pierda esta charla que invita a la reflexión.

 

Vea la charla TEDx de Thomas Steirer sobre la IA en el control de calidad

 
Póngase en contacto

Explore la IA en el control de calidad