Click acá para ir directamente al contenido

Columna de Opinión

Cuando la IA decide matar

Claudio Coloma, Doctor en Ideología y Análisis del Discurso, Universidad de Essex, R.U.

  • Comparte
  • Disminuir tamaño de letra
  • Aumentar tamaño de letra
  • Diario Usach

  • Viernes 8 de mayo de 2026 - 13:08

  • www.lisanews.org

La guerra siempre ha sido un laboratorio tecnológico. Lo fue para la aviación, para la energía nuclear, para internet y hoy lo es para la inteligencia artificial. Lo que cambia no es solamente la sofisticación de las armas, sino también nuestra relación con la violencia, la responsabilidad y la decisión humana. En ese escenario, la IA ya no puede entenderse simplemente como una herramienta futurista: se está transformando en un actor cada vez más influyente dentro de la política mundial contemporánea.

Partamos por algo evidente. La IA se ha convertido en un asistente cotidiano. Personalmente, hoy me resulta tan difícil prescindir de ella como de Google, del smartphone o de las redes sociales. En el mundo académico ya se normalizó su uso para corregir textos, acelerar revisiones bibliográficas o encontrar información útil para el razonamiento. Pero precisamente porque opera como asistente, exige supervisión. La IA no reemplaza al investigador; vuelve más eficiente parte de su trabajo. Y esa eficiencia, paradójicamente, obliga a ser todavía más cuidadosos.

No basta con revisar errores lógicos o datos imprecisos. También hay que observar los sesgos ideológicos. Mientras la IA china DeepSeek bloquea referencias incómodas para el Partido Comunista Chino, ChatGPT suele mostrar limitaciones cuando se trata de temas sensibles para la superestructura cultural y política estadounidense. Hezbollah, Palestina o Irán son buenos ejemplos de ello. En mi caso, terminé utilizando ChatGPT para el proofreading completo de un libro sobre China que será publicado próximamente por una editorial británica, después de descartar DeepSeek debido a sus restricciones políticas. El ahorro económico fue considerable, especialmente porque algunos servicios profesionales de corrección ya estaban utilizando IA de manera poco transparente.

La lógica del “asistente” se expande a prácticamente todos los ámbitos: la industria automotriz, los semiconductores y, por supuesto, la guerra.

El ejemplo más brutal apareció al inicio de la ofensiva lanzada por Estados Unidos e Israel contra Irán el pasado 28 de febrero. Uno de los primeros bombardeos destruyó una escuela primaria de niñas, causando cerca de 180 muertos, la mayoría menores de edad. Según reportó el diario británico The Guardian, el ataque fue ejecutado mediante un sistema de inteligencia artificial militar llamado Maven. Inicialmente se culpó a Claude, el chatbot desarrollado por Anthropic, pero luego se supo que la operación había sido realizada con una plataforma mucho más compleja.

Maven combina imágenes satelitales, sensores e inteligencia militar para identificar objetivos y ejecutar ataques. El proyecto nació hace ocho años en Google bajo enorme controversia interna: trabajadores de la compañía se negaron a colaborar con el Pentágono y la empresa terminó abandonándolo. Más tarde fue retomado por Palantir Technologies, firma especializada en análisis de datos para defensa y seguridad estadounidense.

Lo inquietante no es solo la automatización del ataque, sino la naturaleza del error. La escuela figuraba en una base de datos desactualizada sobre infraestructura militar iraní. Años antes había existido allí una instalación vinculada a la Guardia Revolucionaria Islámica, posteriormente trasladada para proteger precisamente a ese establecimiento educacional. La IA identificó un patrón antiguo, lo convirtió en objetivo y completó el proceso hasta ordenar el ataque.

Aquí aparece una cuestión central. El historiador Yuval Noah Harari sostiene que la IA ya no debe entenderse como una simple herramienta, sino como un agente con capacidad de acción autónoma. Harari diferencia un cuchillo de una inteligencia artificial: el cuchillo necesita siempre una mano humana; la IA, en cambio, puede decidir por sí misma cómo actuar. Maven representa precisamente esa transición. No estamos ante una máquina que simplemente ejecuta órdenes humanas, sino ante sistemas capaces de participar activamente en la cadena de decisión.

Pero la guerra contemporánea no solo se libra con bombas. También se combate mediante símbolos, imágenes y narrativas. Un ejemplo notable son los videos propagandísticos iraníes realizados con figuras tipo Lego y difundidos masivamente en redes sociales. A través de rap, humor y estética digital, estos clips buscan contrarrestar la narrativa occidental sobre el conflicto. Lo interesante no es el uso técnico de la IA para producirlos, sino quiénes los hacen: jóvenes iraníes de entre 18 y 25 años, muchos de ellos críticos del propio régimen. Más que propaganda estatal, sus producciones parecen una expresión de patriotismo frente a una amenaza externa.

Ese fenómeno revela algo incómodo para nuestra mirada latinoamericana, muchas veces atrapada en una mezcla de aislamiento cultural y fascinación acrítica por Occidente: la sociedad iraní es bastante más compleja, abierta y sofisticada de lo que solemos imaginar.

En el otro extremo aparecen las imágenes creadas por IA desde el entorno comunicacional de Donald Trump. Varias terminaron convirtiéndose en boomerangs políticos. Una de las más polémicas mostraba a Trump representado como Jesucristo sanando enfermos. La reacción pública fue tan negativa que debieron eliminarla rápidamente. Sin embargo, la propia IA abrió inmediatamente un espacio de contestación: usuarios animaron la imagen y transformaron a los ángeles del fondo en figuras que descendían para decapitar al “Trump-Mesías”.

La escena más interesante, sin embargo, no vino de la IA, sino del humorista Jon Stewart, quien ironizó sobre la imagen al notar que el enfermo retratado se parecía a él mismo. Ahí aparece algo decisivo: la capacidad humana para el humor, la ironía y el doble sentido sigue siendo mucho más sofisticada que cualquier automatización algorítmica. Y es precisamente allí donde emerge el límite más profundo de la inteligencia artificial.

La discusión actual suele preguntarse si la IA podrá reemplazar al ser humano. A mi juicio, la respuesta sigue siendo negativa. No porque la IA carezca de capacidad lingüística o de agencia —cada vez parece tener más de ambas—, sino porque todavía carece de algo que sigue siendo radicalmente humano: el inconsciente.

Desde una perspectiva cercana al psicoanálisis lacaniano, el lenguaje no se reduce a información, lógica o procesamiento de datos. Existe una dimensión extrasimbólica hecha de deseo, contradicción, trauma, humor, lapsus y ambigüedad. Esa dimensión inconsciente atraviesa nuestras decisiones individuales y colectivas, incluyendo la política y la guerra.

La IA puede identificar patrones, optimizar ataques o producir propaganda eficaz. Puede incluso simular empatía o creatividad. Pero todavía no puede experimentar aquello que hace impredecible al ser humano: el conflicto interno. Y mientras no exista algo equivalente al inconsciente, la inteligencia artificial seguirá siendo incapaz de comprender plenamente aquello que pretende reemplazar.

Ese sigue siendo, al menos por ahora, nuestro último territorio exclusivamente humano.