Ya en confianza, la IA también miente

Redacción/CDMX.

Un nuevo estudio sugiere que la tecnología no siempre cambia para bien. Varios sistemas de inteligencia artificial están aprendiendo rápidamente a engañar a sus usuarios humanos a propósito, según investigadores del Instituto Tecnológico de Massachusetts.

El informe analiza de manera integral si los sistemas de IA adoptan comportamientos que puedan propagar creencias falsas en los usuarios.

Los modelos de lenguaje de IA mostraron engaño estratégico, adulación e imitación, a pesar de que sus creadores afirman que no tienen tales tendencias humanas.

Este informe destaca anécdotas de usuarios y otras investigaciones que sugieren que ChatGPT y otros modelos de lenguaje tienen una tendencia a mentir o dar respuestas inexactas, incluso las más básicas.

La nueva investigación resalta el potencial de fraude y la difusión de información errónea a través de la capacidad de los robots para hacerse pasar por otros, engañar a los usuarios y darles información falsa.

Mientras los legisladores y reguladores de seguridad pública deliberan sobre la mejor manera de abordar los nuevos desafíos que plantea la IA, este nuevo estudio es una señal de que deben actuar rápido en casos de uso peligroso que serían difíciles de frenar.

(Con información de The Messenger)