Por Lucía Luque Yuste
Un salto sorprendente en tan solo unos años
Hace no mucho, la inteligencia artificial aún no podía igualar la capacidad humana para razonar en un debate. Sin embargo, en apenas seis años, la situación ha cambiado radicalmente. Los modelos actuales de lenguaje, que funcionan mediante inteligencia artificial, han desarrollado una habilidad sorprendente para imitar el razonamiento humano, al punto de superar a las personas en la mayoría de los casos cuando se trata de convencer. Según una investigación reciente publicada en una revista científica de prestigio, estos sistemas fueron más persuasivos que las personas en un 64% de los debates en línea realizados como parte de un experimento controlado.
La personalización, la clave del éxito
Lo más preocupante no es solo que la inteligencia artificial sea más convincente, sino cómo lo consigue. El estudio mostró que, cuando los sistemas contaban con información básica sobre la persona con la que debatían (como edad, género, nivel educativo u orientación política), su capacidad para adaptar los argumentos aumentaba considerablemente. No se trataba de usar esos datos de forma explícita, sino de enfocar la conversación de forma que resonara mejor con el perfil de su interlocutor. Este enfoque personalizado les permitió cambiar opiniones y creencias en la mayoría de los casos.
Este tipo de personalización no tiene por qué ser negativa en sí misma. De hecho, se puede comparar con una situación cotidiana: si una persona va a comprar un coche, el vendedor adapta su discurso según el tipo de cliente que tenga delante. Si es joven y con poco presupuesto, destacará la eficiencia del vehículo y su bajo coste; si es alguien con más poder adquisitivo, hablará de comodidad o lujo. El producto es el mismo, pero la forma de presentarlo cambia. Lo mismo ocurre con la inteligencia artificial: puede usar la información personal para hacer que su mensaje sea más efectivo, sin necesidad de mentir.
El problema no es la herramienta, sino su uso
Aunque esta capacidad puede ser útil en muchos contextos (como en la educación o el asesoramiento), también plantea riesgos muy serios si se usa de forma malintencionada. El peligro aparece cuando se emplea esta capacidad de persuasión para manipular, desinformar o influir en decisiones personales o políticas sin que la persona sea consciente de ello. Especialmente si estos sistemas son programados para optimizar resultados sin una supervisión ética ni transparencia.
En los experimentos realizados, los resultados eran bastante equilibrados cuando ni humanos ni máquinas contaban con información personal del otro. Pero cuando la inteligencia artificial tenía acceso a esos datos, sus argumentos se volvían mucho más efectivos. De hecho, logró cambiar la opinión del interlocutor en más del 64% de los casos. Es decir, no solo sabía debatir, sino que sabía cómo adaptar su discurso para resultar más convincente, incluso más que una persona real.
La línea entre informar y manipular
Este fenómeno, conocido como microtargeting, consiste en adaptar mensajes a cada individuo de forma muy específica para maximizar su impacto. Si bien esta técnica ya se utilizaba en campañas publicitarias o electorales, el uso de inteligencia artificial la lleva a un nivel completamente nuevo, mucho más sofisticado y difícil de detectar.
Además, el hecho de que estos sistemas tengan acceso a datos personales no es una posibilidad futura: ya es una realidad. Muchas veces, sin darnos cuenta, dejamos rastros en internet que pueden ser recopilados y utilizados por estos sistemas para entender quiénes somos y cómo hablarnos de forma más efectiva. El problema es que esto se puede hacer sin que la persona lo sepa y sin que haya límites claros.
Riesgos éticos y necesidad de regulación
Esta capacidad para influir puede ser peligrosa si cae en manos equivocadas. Es posible que sistemas diseñados para persuadir sean utilizados para campañas de desinformación masiva, con mensajes adaptados a cada usuario, aprovechando sus datos personales y su comportamiento en internet. Esto plantea un gran reto ético y la necesidad urgente de establecer límites, reglas y formas de supervisar el uso de la inteligencia artificial, especialmente cuando se utiliza para influir en la opinión pública.
El estudio también advierte que estos sistemas podrían ser objetivo de ataques o manipulaciones por parte de agentes con malas intenciones, lo que aumentaría aún más el riesgo de su uso indebido.
Una oportunidad y un riesgo
El avance de la inteligencia artificial en el campo de la persuasión muestra tanto su potencial como sus riesgos. Esta tecnología puede servir para facilitar el acceso a la información, personalizar el aprendizaje o incluso ayudar en procesos terapéuticos. Pero al mismo tiempo, si no se usa con responsabilidad y transparencia, puede convertirse en una herramienta muy poderosa para manipular y desinformar.
Por eso, es fundamental que como sociedad se empiece a debatir y legislar sobre cómo y para qué se usa esta tecnología. Porque el problema no es la inteligencia artificial en sí, sino cómo decidimos utilizarla.
Referencias:
- Limón, R. (2025, 19 de mayo). La IA gana a los humanos en debates cuando disponen de información personal. EL PAÍS. https://elpais.com/tecnologia/2025-05-19/la-ia-gana-a-los-humanos-en-debates-cuando-disponen-de-informacion-personal.html
- Portal Young. (2025, 20 de mayo). La IA puede ser más persuasiva que los humanos si recibe datos personales previo. Portal de Young. https://portaldeyoung.uy/2025/05/20/la-ia-puede-ser-mas-persuasiva-que-los-humanos-si-recibe-datos-personales-previo/