Las grandes tecnológicas se lanzan al negocio de la guerra: así se militariza Silicon Valley

 Fuente y enlace


1. Introducción breve

El artículo de El País expone cómo las grandes tecnológicas de Silicon Valley —entre ellas OpenAI, Google, Microsoft, Meta o Anthropic— intensifican su colaboración con el ejército, tanto de EE. UU. como de Israel, mediante contratos, integración de ejecutivos y desarrollo de sistemas (como IA, realidad mixta y servicios en la nube). Bajo el impulso de Trump y su promesa de invertir 1 billón de dólares (2026), el sector vive una militarización acelerada, generando controversias éticas, protestas internas y riesgos en ciberseguridad y en el uso de datos personales.

2. Análisis filosófico

A. Creatividad (Bergson, Whitehead)

  • Bergson apreciaría la creatividad como fuerza vital que impulsa la innovación tecnológica. Pero en este contexto, la vitalidad creadora se ve cooptada para el desarrollo de armas. Surge la pregunta: ¿puede la libertad creativa auténtica subsistir dentro de la lógica del armamento?

  • Whitehead destacaría cómo la tecnología no es solo herramienta, sino parte de un proceso relacional y complejo entre agentes humanos, máquinas y decisiones sociales. Aquí la máquina militar-IA se convierte en actor dentro de un sistema de fuerzas entrelazadas.

B. Disrupción o poder (Deleuze, Foucault)

  • Deleuze entendería esta militarización como una forma de biopoder, donde el control y la vigilancia —facilitados por IA— se integran en los flujos de poder del Estado.

  • Foucault, por su parte, identificaría estructuras de poder disciplinario y saber-poder: el conocimiento tecnológico, al militarizarse, se vuelve instrumento de dominio, reforzando la vigilancia sobre cuerpos y poblaciones.

C. Ética y responsabilidad (Hans Jonas)

La máxima ética de Jonas, «actuar de modo que los efectos de tu acción sean compatibles con la permanencia de una vida humana real en la Tierra», sugiere que el desarrollo de armas con IA debe enfrentarse a una responsabilidad profunda. El riesgo de daños colaterales, datos sin consentimiento y uso en conflictos como Gaza plantean dilemas que Jonas habría catalogado como morales, no técnicos.

D. Sistemas complejos (Luhmann, Morin)

  • Luhmann observaría cómo se entrelazan sistemas funcionalmente distintos: la defensa y la innovación tecnológica. Su autopoiésis —funcionamiento autónomo— se quiebra, dando paso a ecosistemas híbridos problemáticos.

  • Morin insistiría en la necesidad de pensamiento complejo: no podemos separar la IA militar del ámbito civil, político y social. Ignorar las interdependencias lleva a decisiones reduccionistas y peligrosas.

E. Tecnología, transparencia y autoexplotación (Byung‑Chul Han)

Byung‑Chul Han describiría una forma de autoexplotación que se integra en estos empleados: bajo promesas de propósito estratégico, tecnólogos aceptan trabajar para fines militares, asumiendo una norma autoimpuesta de eficiencia al servicio del poder, sin suficiente transparencia sobre consecuencias éticas.


3. Identificación de oportunidades y riesgos

Oportunidades

  • Potencial para desarrollar tecnologías de defensa con mayor capacidad, rapidez y adaptabilidad en contextos de emergencia.

  • Alineación estratégica frente a posibles amenazas externas (competencia geopolítica con China, automatización).

Riesgos

  • Éxitos epistémicos que ocultan daños: pérdida de autonomía tecnológica civil por alianzas profundas con lo militar.

  • Desbordes éticos: violaciones de privacidad, consentimiento inadecuado, uso en entornos civiles y genocidios (como señala el informe de la ONU sobre Gaza).

  • Sesgos del sistema de poder: decisiones tecnológicas cooptadas por intereses económicos y estratégicos, que cancelan posibles usos pacíficos.

  • Fragmentación del espacio público: falta de regulación y transparencia limita la responsabilidad democrática.


4. Interpretación coherente

La militarización de Silicon Valley no es un episodio aislado sino un continuum histórico: desde la Guerra Fría, las tecnologías han avanzado de la mano del Pentágono. Hoy, este entrelazamiento se densifica, ampliando los poderes disciplinarios y estratégicos de los sistemas de IA. Esta simbiosis tecnológico-militar tensiona la creatividad con el odio bélico, la transparencia con la violencia digital, y la ética con el poder.


5. Conclusión

  • Riesgos: cooptación de la innovación hacia fines armamentistas, invisibilización de consecuencias sociales, consolidación del complejo industrial-tecnológico-militar.

  • Oportunidades: presencia de tecnólogos críticos dentro de las corporaciones, posibilidad de filtros éticos internos y demanda social reguladora.

  • Hallazgos conceptuales: importante diseccionar cómo la filosofía puede guiar la reconversión de la innovación hacia usos benevolentes, preservar alternativas civiles y democratizar decisiones tecnológicas.