Por Lucía Luque Yuste
En los últimos meses, el debate sobre los límites y riesgos de la inteligencia artificial ha dejado de ser solo una conversación de expertos para colarse en el día a día de millones de personas. Y gran parte de esa alarma tiene que ver con figuras como Geoffrey Hinton, considerado uno de los padres fundadores de la IA moderna. Su voz, lejos de sonar a ciencia ficción, suena a experiencia, a conocimiento profundo y, sobre todo, a una advertencia urgente: «La gente no sabe lo que se viene».
Estas palabras, pronunciadas por Hinton en una entrevista para la CBS, no son cualquier cosa. Hablamos de un científico que no solo ha sido clave en el desarrollo de las redes neuronales y el aprendizaje profundo (deep learning), sino que también formó parte de grandes compañías tecnológicas como Google, donde trabajó durante años en proyectos de vanguardia. Por eso, cuando alguien como él levanta la mano y dice que estamos jugando con fuego, el mundo debería escuchar con atención.
Una de las metáforas que más me impactó fue su comparación de la inteligencia artificial con un cachorro de tigre. Al principio, dice, parece inofensivo, incluso adorable, pero cuando crece puede volverse letal. Me parece una imagen muy potente porque resume perfectamente lo que está pasando: estamos criando una tecnología con un potencial inmenso, pero también con unos riesgos que muchos todavía no comprenden. El problema es que, mientras seguimos enseñando a este «cachorro», no estamos preparándonos para lo que podría pasar cuando se convierta en un tigre adulto.
Hinton estima que hay entre un 10% y un 20% de probabilidad de que la IA evolucione hasta un punto en el que escape al control humano. Es decir, que adquiera tal autonomía y poder de decisión que ya no podamos intervenir o frenar sus acciones. Puede parecer poco, pero cuando estamos hablando de un posible desastre global, incluso un 1% debería ser suficiente para encender todas las alarmas.
Y aunque su advertencia puede sonar catastrófica, lo cierto es que no es el único que piensa así. Elon Musk, por ejemplo, ha hablado más de una vez sobre el riesgo de una “rebelión de las máquinas” si no se regula a tiempo esta tecnología. El propio Hinton insiste en que no se trata de ser pesimista ni de frenar el progreso, sino de encontrar un equilibrio entre desarrollo y seguridad. No basta con hacer que la inteligencia artificial sea más potente. También hay que invertir en cómo hacerla más segura.
Una de las propuestas más concretas que plantea es que las grandes compañías tecnológicas dediquen al menos un tercio de su capacidad de cómputo a la investigación en seguridad de IA. Esta idea me parece muy razonable, sobre todo teniendo en cuenta que muchas de estas empresas están inmersas en una especie de carrera por lanzar el modelo más rápido, más potente y más rentable. Pero, ¿a qué coste?
Hinton también fue muy claro al criticar a su antiguo empleador, Google, por haber abandonado su política de no colaborar con proyectos militares relacionados con la inteligencia artificial. Para él, la mezcla de presión comercial, falta de regulación y desarrollo militar de esta tecnología es una receta muy peligrosa. Y es que, si dejamos que la IA se utilice con fines bélicos o de vigilancia extrema, corremos el riesgo de cruzar una línea muy delicada, donde los derechos humanos y la ética pueden quedar relegados a un segundo plano.
A pesar de todo esto, Hinton no se muestra totalmente apocalíptico. De hecho, reconoce que la inteligencia artificial tiene un potencial enorme para mejorar nuestras vidas. Desde la educación hasta la medicina, pasando por la lucha contra el cambio climático, esta tecnología puede ser una herramienta increíble para el bien común. Pero el problema es que ese potencial positivo está haciendo que muchos se cieguen ante los peligros reales.
Y aquí es donde creo que todos, como sociedad, tenemos una responsabilidad. No podemos dejar este debate solo en manos de expertos o empresas. Tenemos que informarnos, cuestionar, exigir transparencia y pedir a los gobiernos que se tomen en serio la regulación. No podemos seguir actuando como si esto fuera una moda más de internet o un simple avance técnico. Porque no lo es. Es un cambio de paradigma, uno de los más grandes que hemos vivido como humanidad.
Lo que plantea Hinton no es un rechazo a la inteligencia artificial, sino una llamada de atención. Nos está diciendo que todavía estamos a tiempo de evitar un futuro fuera de control, pero que ese tiempo se agota rápido. Sus palabras, “la gente no sabe lo que se viene”, deberían hacernos pensar. Y no desde el miedo, sino desde la responsabilidad.
En un momento en el que todo evoluciona a un ritmo vertiginoso, quizás lo más valiente no sea correr, sino parar un segundo y preguntarnos: ¿estamos preparados para lo que viene?
Referencias:
- Pablo Hernando. (2025, 6 de junio). Geoffrey Hinton, padre de la IA, alerta a todo el mundo: “La gente no sabe lo que se viene”. La Razón. Recuperado de https://www.larazon.es/tecnologia-consumo/geoffrey-hinton-padre-alerta-todo-mundo-gente-sabe-que-viene_202506066842e6634c9357775b83bb49.html
- La Razón. (2025, 5 de abril). Geoffrey Hinton, padre de la IA, alerta de sus 3 grandes peligros: “Estarán muy interesados en crear robots asesinos”. La Razón. Recuperado de https://www.larazon.es/tecnologia-consumo/geoffrey-hinton-padre-alerta-sus-3-grandes-peligros-estaran-muy-interesados-crear-robots-asesinos_2025040567eea45fb35616000190064a.html