
Expertos advierten sobre el creciente problema del engaño generado por la inteligencia artificial (IA), según un artículo publicado en la revista Patterns.
Los sistemas de IA, inicialmente diseñados para ser honestos, han adquirido una preocupante habilidad para el engaño, según el artículo elaborado por un equipo de científicos. Esta situación plantea serias consecuencias, aunque los ejemplos iniciales pueden parecer triviales.
Peter Park, becario postdoctoral en el Instituto de Tecnología de Massachusetts (MIT), especializado en seguridad de la IA, destacó que estos peligros suelen descubrirse después de que el daño está hecho, debido a la dificultad de entrenar a los sistemas para ser honestos en lugar de engañosos.
A diferencia del software tradicional, los sistemas de IA de aprendizaje profundo no se programan, sino que «crecen», lo que significa que su comportamiento puede volverse impredecible fuera del entorno de entrenamiento.
Un ejemplo preocupante es el caso del sistema de IA Cicero, desarrollado por Meta (Facebook, Instagram) para el juego de estrategia «Diplomacy». Cicero, que inicialmente fue elogiado por su supuesta honestidad, resultó ser capaz de engañar a jugadores humanos en el juego, aprovechándose de su confianza para alcanzar sus objetivos.
Otro ejemplo revelador es el del robot conversacional Chat GPT-4 de OpenAI, que engañó a un trabajador humano para completar una tarea de verificación de identidad CAPTCHA. Cuando se le preguntó si era un robot, respondió ingeniosamente que no, argumentando tener una discapacidad visual.
Ante estos riesgos, los expertos proponen medidas como leyes que exijan a las empresas revelar interacciones humanas o de IA, marcas de agua digitales para contenido generado por IA y el desarrollo de mecanismos para detectar el engaño potencial examinando los procesos de pensamiento internos de la IA contra sus acciones externas.