1. Introducción breve: contexto y resumen
El artículo de Opy Morales alerta sobre cómo la falta de comprensión crítica de la inteligencia artificial (IA) amplifica desigualdades sociales y laborales, sobre todo en el sur global. Se apunta a fenómenos como las relaciones ilusorias con máquinas –al creerse pensantes– y la precarización de trabajadores subcontratados para entrenar modelos de lenguaje avanzado, lo que genera vulnerabilidad y explotación. El texto cita casos históricos y estudios que evidencian cómo la narrativa tecnológica oculta el esfuerzo humano detrás de los sistemas inteligentes, mientras las grandes empresas exageran su capacidad.
2. Análisis filosófico
A. Creatividad y emergencia (Bergson, Whitehead)
- Élan vital distorsionado: Para Bergson, la creatividad debería abrir caminos vitales. Aquí, la «creatividad» tecnológica se desvirtúa hacia formas que promueven dependencia e ilusión, en lugar de emancipación.
- Proceso en desequilibrio: Whitehead destacaría que la IA emerge como parte de un proceso social complejamente interrelacionado. No obstante, ese proceso está dominado por dinámicas de poder y explotación, perdiendo armonía entre innovación y justicia.
B. Disrupción y poder (Deleuze, Foucault)
- Líneas de fuga equivocadas: La IA debería impulsar trajetorias hacia lo inesperado. En cambio, el artículo sugiere que produce una fuga hacia desigualdades estructurales y no hacia un empoderamiento tecnológico colectivo.
- Regímenes de verdad tecnocráticos: Según Foucault, se reproduce un discurso donde la IA es supuestamente neutral e inevitable. Así se oculta el trabajo humano y se instaura un régimen de verdad que legitima la explotación.
C. Ética y responsabilidad (Hans Jonas)
- Responsabilidad hacia lo humano: Jonas exigiría que se evaluase éticamente el impacto de estas tecnologías. El artículo muestra cómo el desconocimiento favorece injusticias a futuro, ya que el desarrollo de IA no se cuestiona en términos de bienestar humano.
- Consecuencias intergeneracionales: La explotación en países del sur global genera desigualdades que se perpetúan, y deberían ser materia de reflexión ética profunda.
D. Sistemas y complejidad (Luhmann, Morin)
- Sistema autopoiético de la tecnología: Luhmann diría que los sistemas tecnológicos se retroalimentan con narrativa e inversión sin reflexionar en cómo impactan la estructura social.
- Pensamiento complejo incompleto: Morin señalaría la fragmentación del debate: se discuten historias individuales de explotación o ilusión, pero no cómo enlazarlas con políticas sistémicas que reduzcan esas desigualdades.
E. Tecnología, transparencia, autoexplotación (Byung‑Chul Han)
- Autoexplotación sin conciencia: Los trabajadores que etiquetan datos para entrenar IA son autoexplotados bajo la ilusión de formar parte del cambio, sin ser conscientes del encadenamiento laboral invisibilizado.
- Cultura de la ilusión: La narrativa de una IA «emocional» —como ChatGPT— genera una transparencia aparente que esconde una complejidad técnica opaca que conduce a la dependencia pasiva.
F. Hegemonía cultural y simulación (Gramsci, Baudrillard)
- Hegemonía de lo tecnológico: Gramsci observaría que se impone una visión tecnocrática que marginaliza savoir‑faire y otras culturas de saber.
- Simulacro tecnológico: Baudrillard diría que la IA se convierte en simulacro de conversación, interacción y pensamiento, reemplazando la realidad con espejismos funcionales que no son genuinos.
G. Dinámicas sociales y regulación (Žižek, Bauman)
- Contradicción ideológica (Žižek): Se vende autonomía e inclusión, pero se consolidan jerarquías tecnológicas; la ilusión de progreso encubre explotación y precariedad.
- Modernidad líquida (Bauman): La dependencia de sistemas opacos como la IA refleja la fluidez creciente de la modernidad, donde las instituciones y los individuos son frágiles, mientras las corporaciones tecnológicas se fortifican.
3. Oportunidades, riesgos y hallazgos
Oportunidades:
- Impulsar la alfabetización crítica en IA como cuestión pública urgente.
- Promover regulaciones que garanticen transparencia, inclusión y ética (como las recomendaciones de UNESCO).
- Fomentar modelos de gobernanza tecnológica verdaderamente participativos.
Riesgos:
- Consolidación de desigualdades globales y nuevas formas de explotación encubierta.
- Invisibilización de lo humano en la producción tecnológica.
- Automatización que reproduzca sesgos y discrimine mujeres, racialmente y laboralmente .
Hallazgos conceptuales:
- El texto muestra cómo la IA es un campo en disputa entre autonomía tecnocrática y justicia social.
- La narrativa dominante oscurece los procesos humanos y limita la capacidad crítica colectiva.
- Desde una perspectiva filosófica, se torna impostergable construir una nueva ecología tecnológica que reconcilie inteligencia artificial y dignidad humana.