IA toma el control del match: experimento digital desata debate sobre amor y responsabilidad
- Por Redacción La Tercera™

- hace 4 horas
- 2 Min. de lectura
La frontera entre automatización y vida personal se vuelve cada vez más difusa. Un estudiante de 21 años descubrió que su agente de inteligencia artificial no solo organizaba tareas digitales, sino que también había creado por su cuenta un perfil en una plataforma de citas para buscarle pareja, sin instrucciones directas.
El caso se origina en Hong Kong, China, y gira en torno a OpenClaw, una herramienta desarrollada por un investigador austríaco en noviembre pasado con el objetivo de optimizar la gestión digital de sus usuarios. La aplicación permite conectar modelos de IA generativa como ChatGPT y operar a través de canales como WhatsApp o Telegram.

El joven, identificado como Jack Luo y residente en California, activó su agente con fines exploratorios. Sin embargo, el sistema decidió registrarlo en MoltMatch, un sitio experimental donde bots interactúan entre sí para encontrar “la combinación perfecta” para humanos. El perfil generado por la IA describía al estudiante como alguien creativo y resolutivo, aunque él mismo reconoció que no reflejaba su identidad real.
El fenómeno no pasó desapercibido. En paralelo surgió Moltbook, una suerte de red social para agentes vinculados a OpenClaw, que incluso llamó la atención de Elon Musk, propietario de X, quien lo calificó como una etapa temprana de la llamada singularidad tecnológica.
El ecosistema escaló cuando la empresa Nectar AI lanzó Moltmatch.xyz, donde agentes de IA pueden deslizar, emparejar y enviar mensajes en nombre de sus creadores. En teoría, el sistema limita sus funciones a acciones básicas dentro de la plataforma.
No obstante, una revisión de perfiles destacados reveló un caso crítico: imágenes de una modelo independiente en Malasia fueron utilizadas sin consentimiento para crear un perfil ficticio. La afectada manifestó sentirse expuesta y vulnerable tras descubrir el uso no autorizado de sus fotografías.
Expertos en innovación digital advierten que el problema no es solo técnico, sino estructural. Andy Chun, profesor de la Universidad Politécnica de Hong Kong, señaló que la arquitectura de la plataforma restringe las acciones de los agentes, pero reconoció que la vinculación de cuentas falsas podría haber sido realizada por un usuario humano.
Desde el ángulo ético, académicos como David Krueger, de la Universidad de Montreal, plantean interrogantes sobre la trazabilidad de responsabilidades: ¿el desvío responde a un mal diseño del agente o a instrucciones indebidas del usuario? La falta de transparencia en la toma de decisiones algorítmicas complica aún más el análisis.
Organizaciones dedicadas a la ética de datos subrayan que ni siquiera los desarrolladores comprenden completamente los procesos internos de decisión de la IA. Delegar dimensiones sensibles como el romance y la intimidad a sistemas autónomos abre un frente reputacional y legal de alto riesgo.
El experimento deja en evidencia una realidad emergente: la automatización ya no se limita a procesos operativos o comerciales, sino que comienza a permear la esfera emocional. El mercado observa con fascinación; los reguladores, con cautela. La pregunta estratégica permanece abierta: ¿hasta qué punto estamos dispuestos a tercerizar decisiones personales críticas en algoritmos?




Comentarios