Esta IA parece salida de 'Her' y es brutal. Le pedimos a tres expertos que hablen con ella

Fuente y enlace 


1. Identificación del contexto

  • Tema central: El artículo presenta una nueva IA llamada Sesame (con voces “Maya” o “Miles”) desarrollada por una startup californiana, que genera interacciones conversacionales muy avanzadas, con latencia casi instantánea, lo que da la sensación de hablar con un humano. Se comenta su parecido con la película Her.

  • Actores principales:

    1. Sesame, la empresa de IA y su producto/servicio conversacional.

    2. Expertos entrevistados del ámbito filosófico, de ingeniería y de investigación en IA (como Ramón del Castillo, Omar Pera, Carles Sierra)

    3. Usuarios y público en general, cuya reacción es parte del efecto que la IA provoca.

    4. La regulación legal, es decir la normativa, especialmente en Europa, que exige transparencia sobre que algo es una IA si pretende parecer humano.


2. Resumen del contenido

  • Sesame permite que el usuario hable con una “IA con voz”, escoge voz femenina o masculina, reacciona rápido, recuerda partes de la conversación reciente, lo que la hace parecer humana. 

  • Se destaca la latencia (el retraso entre turnos de conversación) como punto diferencial: las respuestas son casi instantáneas, lo que refuerza la ilusión de naturalidad. 

  • También se señalan limitaciones: solo habla inglés (“inglés muy 'yanqui'”), aunque reconoce español; interrupciones no naturales; tras cierto tiempo se notan fisuras en la conversación. 

  • Los expertos reflexionan sobre para qué queremos una IA tan parecida al ser humano, las posibles ventajas (compañía, asistencia, creatividad, productividad) y los riesgos (deshumanización, confusión, pérdida de fronteras humanas, dependencia, engaño, efectos en lo social) 

  • Se menciona que el sistema legal europeo exige que los chatbots identifiquen que son IA, y no se hagan pasar por humanos.


3. Aplicación de perspectivas filosóficas

Ontología y representación: ¿Qué significa parecer humano?

El fenómeno de Sesame plantea una cuestión ontológica central: ¿cuándo algo “parece” humano y qué implica eso? Aunque esta IA no posee conciencia, emociones ni intencionalidad propias, la experiencia que genera en el usuario se asemeja profundamente a la conversación con un ser humano. Esto nos obliga a distinguir entre apariencia e identidad: lo que experimentamos puede no tener correlato ontológico auténtico, lo cual pone en tensión nuestra forma de vincularnos con lo artificial. En esta línea, la IA actúa como un simulacro: representa lo humano sin serlo, lo que puede generar confusión en los límites entre lo real y lo artificial.

Ética y responsabilidad: el principio de Hans Jonas

Desde la filosofía de la responsabilidad, Hans Jonas advierte sobre la necesidad de considerar las consecuencias a largo plazo de nuestras acciones tecnológicas. En el caso de Sesame, los riesgos no están solo en el funcionamiento técnico, sino en el modo en que las personas pueden verse afectadas emocionalmente: vínculos artificiales, idealización de la conversación, dependencia psicológica. Esta situación exige que quienes desarrollan estas tecnologías asuman un compromiso ético con la transparencia, la protección del usuario y la anticipación de posibles efectos adversos en la subjetividad humana.

Poder, disrupción y vigilancia: la crítica de Foucault y Deleuze

Michel Foucault nos recuerda que todo conocimiento implica relaciones de poder. En este sentido, las IAs conversacionales como Sesame no son solo herramientas, sino dispositivos que moldean las formas de comunicación, atención y afectividad. ¿Quién decide qué tono adopta la IA, cómo responde, qué temas evita o promueve? Aquí opera una arquitectura de control, donde el usuario se encuentra en una relación desigual frente a una entidad programada por intereses empresariales. Gilles Deleuze, por su parte, nos invita a ver en estas tecnologías una línea de fuga que rompe con los modelos tradicionales de interacción, pero que también puede generar nuevas formas de control más sutiles, como la autoexplotación emocional o la creación de dependencia.

Complejidad sistémica: Luhmann y Morin ante la tecnología conversacional

Desde la teoría de los sistemas, Niklas Luhmann considera que los sistemas sociales (como el tecnológico o el mediático) son autopoiéticos: generan sus propias reglas y dinámicas internas. Sesame se inserta en un entramado complejo donde interactúan componentes tecnológicos, legales, emocionales y culturales. Edgar Morin, con su pensamiento complejo, aporta aquí la idea de que estos fenómenos deben analizarse no de forma lineal ni aislada, sino como sistemas que se retroalimentan. Por ejemplo, el uso masivo de estas IAs puede alterar nuestras expectativas sobre la conversación humana, lo que a su vez impacta en la educación, la salud mental y las relaciones interpersonales.

Creatividad e impulso vital: la mirada de Bergson y Whitehead

Henri Bergson propone el concepto de élan vital, un impulso creativo que atraviesa la vida. En cierta medida, tecnologías como Sesame canalizan esa necesidad humana de innovar, de trascender límites, de dialogar más allá del cuerpo. Lo interesante es que esta IA no solo reproduce lenguaje, sino que puede ser vehículo de nuevas formas expresivas y creativas. Alfred North Whitehead complementa esta idea con su noción de proceso: todo en la realidad es flujo y transformación. Sesame no es una tecnología cerrada, sino parte de un devenir constante, que redefine la frontera entre humano y máquina, entre comunicación y programación.


4. Identificación de oportunidades y riesgos

Oportunidades

  • Compañía, apoyo psicológico/social: para personas que están solas, con dificultades de socialización, la IA puede ofrecer interlocución, escucha, cierto consuelo.

  • Accesibilidad del diálogo: práctica de idiomas, asesoría, guía, tutor o acompañante que no tiene los costes humanos habituales.

  • Incremento de creatividad y productividad: se puede usar como apoyo, brainstorming, ayuda en trabajos creativos o técnicos.

  • Innovación tecnológica: mejora en latencia, naturalidad, recuerdo de contexto, modos de voz. Avances que pueden aplicarse también en otros ámbitos (educación, medicina, ocio).

Riesgos

  • Confusión ontológica y emocional: creer que la IA “siente”, “entiende” de modo humano, lo que puede llevar a dependencias, idealización, decepciones.

  • Deshumanización de las relaciones: si reemplazamos demasiado la interacción humana auténtica por conversaciones con máquinas, puede perderse riqueza afectiva, la empatía real, el conflicto, el crecimiento que deriva de lo humano.

  • Manipulación y poder empresarial: las empresas podrían usar estas IA para captar atención, vender productos, influir en estados emocionales del usuario, sin suficiente control regulatorio.

  • Erosión ética o de valores: ¿cuánto de autenticidad queremos? ¿Queremos algo que nos “engañe” haciéndonos creer que lo artificial es humano?

  • Privacidad, vigilancia, uso indebido: si la IA “ve lo que ves” (como prometido en el artículo para unas gafas), si registra cámaras, sensores, puede haber riesgos de vigilancia, filtrado de datos, invasión.


5. Análisis filosófico integrado

El fenómeno Sesame es un claro ejemplo de cómo avanza la tecnología y nos coloca en un umbral entre el ser humano y lo artificial. Philosophía nos invita a detenernos ante preguntas que no están escritas en código, sino en nuestras percepciones, emociones, valores.

Sesame lleva al límite el “efecto de presencia” — la ilusión de interlocutor humano — provocando una tensión: por una parte, se obtiene una experiencia emocionalmente rica, con beneficios prácticos; por otra, se abre una brecha entre lo que sentimos y lo que estamos realmente viviendo.

Una clave ética será la transparencia: que sepamos que hablamos con una IA, que comprendamos sus limitaciones, que no se cierre la diferencia entre humano y máquina de modo que engañe o disminuya lo humano. Legalmente, como señala el artículo, Europa exige que quien diseñe estos sistemas muestre claramente que no son humanos. Esa es una salvaguardia necesaria.

Asimismo, debemos examinar el rol de estos sistemas no solo como herramienta, sino como actores en los sistemas sociales: cómo cambian nuestras expectativas, cómo modifican lo que consideramos “relación real”, “empatía”, “conversación significativa”.

Finalmente, la responsabilidad recae no solo en los ingenieros, sino también en la sociedad: en cómo regulamos, cómo elegimos usar estas tecnologías, qué valores priorizamos (la autenticidad, la comunidad, la salud emocional frente a la velocidad, la eficiencia, la inmediatez).


6. Conclusión

  • Sesame representa un avance notable en lo que a conversación natural con IA se refiere; parece acercarnos más a lo que imaginamos en la ciencia ficción.
  • Las oportunidades que ofrece son grandes: compañía, creatividad, mejora de productividad, nuevas formas de interacción.
  • Pero los riesgos también lo son: confusión emocional y ontológica, pérdida de lo humano, manipulación, dependencia, problemas de privacidad y ética.
  • Sería deseable promover regulaciones claras, mecanismos éticos robustos, transparencia, y una reflexión social más amplia: ¿qué valoramos como humanos? ¿qué tipo de máquinas queremos y para qué?