Nuevo estudio: es casi seguro que haya una guerra entre humanos e inteligencia artificial

Fuente y enlace 

Introducción breve

El artículo de El Confidencial aborda un estudio internacional que advierte sobre los riesgos crecientes de un eventual conflicto entre humanos y sistemas de inteligencia artificial avanzada. El informe no se limita al terreno militar, sino que plantea la posibilidad de una "guerra fría algorítmica", donde los sistemas autónomos podrían tomar decisiones estratégicas que escapan al control humano. El debate central se articula en torno a la necesidad de marcos regulatorios y éticos que prevengan escenarios catastróficos, frente al avance acelerado de la IA en contextos bélicos, económicos y políticos.


Análisis filosófico

1. Creatividad (Bergson, Whitehead)

  • Bergson: La aparición de la IA como posible agente bélico refleja una desviación del élan vital, donde la creatividad humana, en lugar de orientar la vida hacia la innovación vital y colectiva, se convierte en instrumento de destrucción.

  • Whitehead: El proceso de creación tecnológica debería tender a una armonía entre lo nuevo y lo existente. Aquí se observa lo contrario: un desequilibrio, donde lo creado amenaza al creador, revelando un fracaso en la síntesis entre avance técnico y sostenibilidad humana.

2. Disrupción y poder (Deleuze, Foucault)

  • Deleuze: La IA introduce una línea de fuga que escapa al control del Estado-nación y desestabiliza estructuras militares tradicionales. Sin embargo, esta diferencia no necesariamente abre nuevas posibilidades emancipadoras, sino que podría cerrar horizontes mediante el control automatizado y el devenir bélico de la técnica.

  • Foucault: El artículo muestra cómo el discurso sobre la IA se convierte en un nuevo régimen de verdad, donde la seguridad y el poder militar justifican la producción tecnológica. El conocimiento (algorítmico) ya no es neutro: está íntimamente imbricado en estrategias de dominación global.

3. Ética y responsabilidad (Hans Jonas)

  • Jonas advierte que el principio de responsabilidad exige prever los efectos a largo plazo de nuestras acciones tecnológicas. El estudio refleja precisamente lo contrario: una carrera hacia el dominio técnico sin un horizonte claro de responsabilidad intergeneracional. La posibilidad de que la IA decida sobre la vida y la muerte revela la urgencia de una ética del futuro.

4. Sistemas y complejidad (Luhmann, Morin)

  • Luhmann: Los sistemas militares y tecnológicos funcionan de manera autopoiética, generando dinámicas internas que se autorrefuerzan. El artículo muestra cómo la carrera algorítmica se convierte en un circuito cerrado: cada avance exige nuevas respuestas, incrementando la complejidad sin salida aparente.

  • Morin: Este escenario evidencia la necesidad de un pensamiento complejo: no se trata solo de armas, sino de economía, geopolítica, cultura y ética entrelazadas. El estudio resalta la fragmentación del debate actual, carente de una visión integral.

5. Tecnología, transparencia, autoexplotación (Byung-Chul Han)

  • El discurso sobre la “inevitabilidad” de la IA bélica reproduce la lógica de la autoexplotación: los Estados se ven forzados a invertir en tecnologías destructivas por miedo a quedar rezagados. Además, la opacidad algorítmica contradice la retórica de la transparencia digital, creando un escenario de vigilancia y desconfianza estructural.


Identificación de oportunidades y riesgos

Oportunidades:

  • El artículo visibiliza la necesidad urgente de regulación internacional.

  • Estimula el debate filosófico y político sobre la agencia de las máquinas.

  • Invita a reconsiderar los límites de la innovación tecnológica.

Riesgos:

  • Normalización discursiva de la guerra algorítmica como inevitable.

  • Ausencia de un marco ético sólido en la toma de decisiones tecnológicas.

  • Reforzamiento de relaciones de poder asimétricas entre países y corporaciones.

  • Potencial desplazamiento de la responsabilidad humana hacia la máquina.


Conclusión

El texto revela un momento crítico: la humanidad proyecta en la inteligencia artificial su impulso creativo, pero en lugar de orientarlo hacia la vida y la armonía, lo redirige hacia la disrupción bélica y el control. Desde Jonas, emerge la urgencia de una ética de la responsabilidad; desde Foucault, la constatación de que el discurso sobre IA legitima nuevas formas de poder; y desde Morin, la necesidad de un pensamiento complejo que integre seguridad, ética y futuro común. El riesgo no es solo la guerra entre humanos e inteligencias artificiales, sino la renuncia a nuestra propia responsabilidad en la configuración de lo que vendrá.