Redacción/CDMX
¿Los partidos políticos podrían utilizar modelos de lenguaje de inteligencia artificial como ChatGPT para inducir a los votantes?
El senador estadounidense Josh Hawley le hizo esta pregunta al director ejecutivo de OpenAI, Sam Altman, en una audiencia sobre inteligencia artificial en el Senado el 15 de mayo pasado.
Altman respondió que, de hecho, le preocupaba que algunas personas pudieran usar modelos de lenguaje para manipular, persuadir y participar en interacciones personales con los votantes.
Si los tecnólogos políticos desarrollaran una máquina, llamada, por ejemplo Clogger: una campaña política en una caja negra. Esta perseguiría incansablemente un solo objetivo:
Maximizar las posibilidades que su candidato para que gane la elección.
Su tarea sería, cambiar el comportamiento de votación de las personas.
Así como los anunciantes utilizan el historial de navegación para orientar los anuncios comerciales, Clogger prestaría atención individualmente en los votantes.
Los mensajes que enviaría el sistema tendrían como único objetivo maximizar el porcentaje de votos y probablemente diseñaría estrategias para lograr este objetivo en las que ningún activista humano habría pensado.
Estos mensajes, no necesariamente tendrían una carga política sino estarían relacionados con los intereses de los votantes, podrían enviar mensajes desagradables para que coincidan con los spots de sus rivales o manipular los grupos de amigos de los votantes en redes sociales para dar la sensación de que sus círculos sociales apoyan a su candidato.
Clogger no tiene respeto por la verdad, pues no sabe lo que es verdadero o falso, su objetivo es cambiar el voto, no proporcionar información precisa.
En el caso estadounidense, si los republicanos adoptaran Clogger, los demócratas podrían recurrir a una máquina que podría llamarse Dogger y entonces sería una guerra de máquinas.
Así, el presidente podría ser electo no por sus propuestas políticas sino porque tenía la IA más eficaz.
El riesgo es que alguien electo de esa manera podría seguir los mensajes y comportamientos que la máquina predice que maximizarían sus posibilidades de reelección.
Por lo pronto, los reguladores de la Unión Europea ya revisaron el borrador de la Ley de Inteligencia Artificial del Parlamento Europeo para designar los “sistemas de IA para influir en los votantes en las campañas” como de “alto riesgo” y sujetos a escrutinio regulatoria.
Y, en caso extremo, en una posible regulación, se exigiría un descargo de responsabilidad de la publicidad como “Este anuncio generado por IA fue pagado por el Comité de San Jones para el Congreso”.
(Con información de The Conversation)