Europol alerta por uso de ChatGPT para delinquir

Redacción/CDMX

En noviembre de 2022, OpenAI lanzó ChatGPT y desde entonces, millones de internautas han probado la plataforma de IA en donde se ha generado toda clase de contenidos.

Sin embargo, muchos de estos usuarios han tenido acceso a ChatGPT con fines delictivos.

Así lo asegura la fuerza policial de la Unión Europea, Europol, quien advirtió en un comunicado sobre el uso indebido de chatbot con intentos de phishing, desinformación y ciberdelincuencia.

A medida que se mejoran activamente las capacidades de los LLM (modelos de lenguaje extenso) como ChatGPT, la posible explotación de este tipo de sistemas de inteligencia artificial por parte de los delincuentes ofrece una perspectiva sombría, advierten.

La capacidad de ChatGPT para redactar textos muy realistas lo convierte en una herramienta útil para fines de phishing. Con su capacidad para reproducir patrones de lenguaje para suplantar el estilo de habla de individuos o grupos específicos, los delincuentes podrían usar el chatbot para atacar a las víctimas, asegura el organismo.

Desde su apertura, los usuarios han encontrado las formas de evitar el sistema de filtro de contenido de OpenAI, el que evita (en principio) que la IA te ofrezca información dañina o delictiva.

Por ejemplo, algunos cibernautas han conseguido instrucciones sobre cómo crear una bomba casera o cómo cometer delitos y pedir orientación paso a paso.

De acuerdo a Europol:

Si un delincuente potencial no sabe nada sobre un área delictiva en particular, ChatGPT puede acelerar significativamente el proceso de investigación al ofrecer información clave que luego se puede explorar más en pasos posteriores.

Como tal, ChatGPT se puede usar para aprender sobre una gran cantidad de posibles áreas criminales sin conocimiento previo, que van desde cómo entrar a una casa, hasta terrorismo, cibercrimen y abuso sexual infantil.

La agencia explica que esta información ya estaba en la red antes de la llegada de la plataforma, pero mencionan que el modelo facilita encontrar y comprender cómo llevar a cabo delitos específicos.

Por último, Europol recuerda la capacidad de ChatGPT para generar código, incluso código malicioso y aumenta el riesgo de ciberdelincuencia al reducir las habilidades técnicas necesarias para crear malware, y que para un delincuente potencial con poco conocimiento técnico, “este es un recurso invaluable”. 

(Con información de GIZMODO)