barra head

'Economía de la Intención': Un estudio advierte sobre los peligros de los agentes conversacionales impulsados por IA

'Economía de la Intención': Un estudio advierte sobre los peligros de los agentes conversacionales impulsados por IA

La investigación argumenta que el potencialmente "lucrativo pero preocupante" mercado emergente para "señales digitales de intención" podría, en un futuro cercano, influir en todo, desde la compra de entradas de cine hasta la votación por candidatos políticos.

Herramientas conversacionales antropomórficas

Nuestra creciente familiaridad con chatbots, tutores digitales y otros llamados agentes de IA "antropomórficos" (incluidas las novias virtuales) abrirá el acceso a grandes cantidades de datos psicológicos y comportamentales íntimos, a menudo obtenidos a través de diálogos conversacionales informales. Estos datos ayudarán a habilitar una nueva gama de "tecnologías persuasivas", agregó el artículo.

Esto permitirá que las empresas que gestionan estas herramientas impulsadas por IA sean cada vez más capaces de anticipar los deseos de los usuarios y construir "nuevos niveles de confianza y comprensión" para influir en ellos, señalaron los dos coautores del documento.

Sin control, eso podría permitir "manipulación social a escala industrial", argumentaron los autores, del Centro Leverhulme para el Futuro de la Inteligencia de Cambridge, en el artículo publicado en la Harvard Data Science Review.

Se caracteriza cómo este sector emergente —denominado "economía de la intención"— perfilará los estilos de atención y comunicación de los usuarios y los conectará con patrones de comportamiento y elecciones que hacen.

"Las herramientas de IA ya están siendo desarrolladas para elucidar, inferir, recopilar, registrar, entender, prever y, en última instancia, manipular y comercializar los planes y propósitos humanos," dijo el coautor Yaqub Chaudhary.

Comercio de intenciones humanas

La nueva IA dependerá de lo que se llaman Modelos de Lenguaje Grande (LLM) para dirigir el ritmo, la política, el vocabulario, la edad, el género, la historia en línea y hasta las preferencias por la adulación y la ingratiación de un usuario, según la investigación.

Eso se vincularía con otras tecnologías de IA emergentes que buscan lograr un objetivo determinado, como vender un viaje al cine, o dirigir conversaciones hacia plataformas particulares, anunciantes, empresas e incluso organizaciones políticas.

El coautor Jonnie Penn advirtió: "A menos que se regule, la economía de la intención tratará tus motivaciones como la nueva moneda."

"Será una fiebre del oro para quienes dirijan, orienten y vendan intenciones humanas," agregó.

"Deberíamos comenzar a considerar el impacto probable que tendría un mercado así en las aspiraciones humanas, incluidas elecciones libres y justas, una prensa libre y una competencia de mercado justa, antes de convertirnos en víctimas de sus consecuencias no intencionadas."

Penn señaló que la conciencia pública sobre el tema es "la clave para asegurar que no tomemos el camino equivocado".

Categorías:

¿Te gusta? ¡Puntúalo!

9 votos

Noticias relacionadas