Redacción/CDMX
Los chatbots son esa nueva tecnología que aporta imágenes, videos, música y códigos de programación.
Han sido utilizados recientemente para realizar distintas tareas, sin embargo, entre más se interactúa con ellos pueden incurrir en falsedades, a esto ha dado en llamársele alucinaciones.
Un problema si se piensa que empresas como Google y The Associated Press les han apostado a las inteligencias artificiales para la redacción de noticias.
Los lingüistas e investigadores concuerdan en que los errores de las IA cada día se van a amplificar.
Emily Bender profesora de lingüística y directora del Laboratorio de Lingüística Computacional de la Universidad de Washington menciona que esto es imposible de arreglar, ya que, podría afectar a la tecnología y a los distintos rubros en las que se utilizan.
Fundadores y presidentes de las diferentes IA han opinado al respecto, mostrándose comprometidos con sus creaciones, aunque nerviosos de que esos pequeños errores se salgan de control.
Todos coinciden en que es un problema que se puede solucionar, algunos como Shane Orlick, presidente de Jasper AI, ven a esto como una ventaja, ya que según sus palabras “Jasper creó una visión de las historias o ángulos que ellos – los usuarios – nunca habrían pensado”.
Daniela Amoide, cofundadora y presidenta de Anthropic – desarrollador de chatbot Claude 2-, menciona “no creo que haya un modelo hoy en día que no sufra alguna alucinación”.
Sam Altman, director general de OpenAI, indica que “Nos llevará un año y medio, dos años. Algo así. Pero en ese momento ya no seguiremos hablando de ellas” refiriéndose a las alucinaciones.
Por su parte Bill Gates, cofundador de Microsoft, citó un articulo de OpenAI de los investigadores del Instituto Federal Suizo de Tecnología en Zúrich, los cuales en 2022 mencionaron que habían desarrollado un método para detectar el contenido alucinado de ChatGTP y eliminarlo automáticamente.
(Con información de Los Angeles Times y Deutsche Welle)