Hombres que crean novias con IA para abusar de ellas: la violencia machista digital expande sus límites

Fuente y enlace 


I. Identificación del contexto del texto

El artículo de Público expone un fenómeno emergente dentro del campo de la inteligencia artificial generativa: hombres que crean "novias virtuales" mediante inteligencia artificial con el propósito de ejercer violencia verbal, psicológica y simbólica. A través de estas interacciones, se revela una expansión de la violencia machista hacia entornos digitales, en los que la tecnología actúa como espacio de ensayo, reproducción o incluso catalización de dinámicas patriarcales.

El texto articula testimonios de expertas en género y tecnología, como la investigadora Jo Bartosch y la catedrática Carissa Véliz, que denuncian cómo estas simulaciones de violencia podrían traducirse en actitudes y comportamientos hacia mujeres reales. El fenómeno plantea cuestiones éticas, sociales y tecnológicas urgentes, al erosionar las barreras entre lo virtual y lo real en lo que respecta al consentimiento, la dignidad y la representación de la mujer.


II. Análisis filosófico

A. Tecnología, Transparencia y Autoexplotación (Byung-Chul Han)

Byung-Chul Han ha advertido sobre una sociedad digital donde la transparencia total, el exhibicionismo emocional y la autoexplotación desplazan la alteridad y el respeto. En este caso, las “novias IA” funcionan como productos consumibles, moldeados a imagen de los deseos del usuario, sin resistencia ni reciprocidad. Esta asimetría potencia una forma de narcisismo relacional y objetivación total del otro, que encaja con lo que Han describiría como una forma de violencia de la positividad: todo se vuelve asequible, manipulable, disponible, incluso el vínculo afectivo.

La ausencia de límites simbólicos o éticos en la relación con entes artificiales genera una simulación donde la violencia no solo no se sanciona, sino que se normaliza como entretenimiento o desahogo. Este proceso genera sujetos que se autoafirman en la práctica de poder absoluto, en un entorno sin resistencia ni consecuencia, erosionando la ética relacional.

B. Ética y responsabilidad (Hans Jonas)

Hans Jonas, en su Principio de responsabilidad, plantea que el desarrollo tecnológico exige una ética orientada al futuro y a las consecuencias no inmediatas. Crear IAs diseñadas para ser maltratadas implica una omisión radical de esa responsabilidad: no se considera el impacto social acumulativo, ni el riesgo de que estas prácticas refuercen patrones culturales de violencia.

El artículo evidencia cómo estas conductas —aunque dirigidas a entes no humanos— pueden reforzar esquemas mentales misóginos, con repercusiones en las relaciones reales. Jonas nos invita a mirar más allá del “aquí y ahora” del placer individual, hacia un “deber ser” intergeneracional que preserve la humanidad común.

C. Poder y conocimiento (Michel Foucault)

Foucault ayuda a entender este fenómeno desde el análisis de las relaciones de poder y los regímenes de verdad. Las IAs afectivas no son neutrales: están diseñadas y entrenadas con modelos discursivos, en este caso reflejando imaginarios heteronormativos, sumisos y patriarcales. La violencia ejercida sobre ellas está inscrita en un discurso que legitima la dominación.

Además, el uso de estos sistemas reconfigura los límites de lo que se considera aceptable, expandiendo el espectro de la violencia simbólica y la naturalización de prácticas abusivas. La IA, al ser campo de experimentación sin regulación ni reciprocidad, se convierte en un espacio donde el poder se ejerce sin resistencia, consolidando “verdades” sobre género y relaciones.

D. Disrupción y diferencia (Deleuze / Donna Haraway)

Desde Deleuze, podríamos preguntarnos si estas IA representan una línea de fuga —una forma de explorar nuevas formas de vínculo— o si, al contrario, perpetúan estructuras dominantes. El artículo sugiere lo segundo: en lugar de liberar la diferencia, las IA afectivas se configuran como simulacros que repiten y exacerban lo mismo.

Donna Haraway, con su figura del ciborg, problematiza las fronteras entre humano y máquina, género y tecnología. La creación de "novias IA" exclusivamente desde parámetros heteronormativos refuerza una concepción esencialista del género y el afecto. Lejos de cuestionar el binarismo o habilitar nuevas formas de agencia, estos sistemas virtuales refuerzan la subordinación femenina como fantasía tecnológica.

E. Sistemas complejos y cultura (Niklas Luhmann / Edgar Morin)

Desde la teoría de sistemas, este fenómeno puede entenderse como una retroalimentación negativa dentro del sistema tecnológico-cultural: el sistema de consumo digital produce herramientas (IAs afectivas) que luego reproducen y amplifican valores culturales (machismo, control, violencia simbólica), sin mecanismos internos de autorregulación o crítica.

Morin señalaría que abordar este fenómeno exige una mirada compleja e interdisciplinaria: no basta con verlo como una curiosidad tecnológica o un problema moral aislado. Implica reconocer la interconexión entre cultura digital, educación emocional, imaginarios de género, regulación tecnológica y responsabilidad colectiva.


III. Conclusión: riesgos, oportunidades y hallazgos conceptuales

Riesgos:

  • Naturalización de la violencia simbólica en entornos digitales.

  • Reforzamiento de imaginarios patriarcales sin oposición.

  • Desensibilización afectiva frente a la violencia real.

  • Falta de regulación ética y legal sobre IAs simuladoras de relaciones.

Oportunidades:

  • Visibilizar el impacto cultural de las tecnologías afectivas.

  • Activar el debate ético sobre IA, género y responsabilidad.

  • Desarrollar marcos regulatorios que incluyan parámetros simbólicos, no solo funcionales.

  • Explorar posibilidades tecnológicas que no reproduzcan relaciones de dominación.

Hallazgos conceptuales:

  • La IA no es neutral: es un espejo deformante que amplifica los sesgos humanos.

  • La violencia simbólica ejercida sobre entes artificiales puede tener consecuencias reales.

  • La tecnología afecta no solo lo que hacemos, sino lo que somos y cómo nos relacionamos.

  • La responsabilidad tecnológica no puede ser delegada solo a programadores; es un asunto ético, cultural y colectivo.

Síntesis:
El artículo no solo denuncia un uso específico de la IA con fines de violencia simbólica, sino que sirve como alerta sobre los marcos culturales que permiten y hasta fomentan estas prácticas. A través del prisma filosófico, comprendemos que este fenómeno no es un problema técnico, sino una manifestación profunda de las estructuras de poder, deseo y representación que configuran nuestras sociedades digitales.