La inteligencia artificial (IA) está cambiando la forma en que nos acercamos al amor, a la pareja y a la amistad. En 2025 crecieron las inversiones en herramientas generativas, las comprobaciones biométricas y las regulaciones específicas para los llamados “companions” basados en IA. Este panorama plantea oportunidades para mejorar la seguridad y la experiencia del usuario, pero también crea nuevos riesgos para la privacidad, la salud mental y la autenticidad de las relaciones.
En este artículo repaso los desarrollos más importantes: normas estatales en Estados Unidos, funciones como Face Check de Tinder, herramientas de moderación conversacional, la ola de startups híbridas, y los peligros , desde estafas románticas hasta efectos psicosociales, que emergen con la adopción masiva de IA en apps de ligar y para hacer amigos.
Regulación estatal y obligaciones para “companions” de IA
Estados como Nueva York y California han empezado a trazar líneas regulatorias alrededor de los sistemas de compañía emocional , servicios que simulan relaciones continuas con usuarios, exigiendo divulgaciones claras y protocolos de derivación en crisis. Nueva York, por ejemplo, exige la detección de ideación suicida y la remisión a servicios de crisis. California aprobó la SB 243 que añade obligaciones de informe anual y protecciones específicas para menores, con algunas disposiciones que entran en vigor desde el 1/1/2026.
Las nuevas reglas buscan que las plataformas reconozcan el impacto relacional de sus modelos y denuncien riesgos: como dijo un resumen de Reuters, «These ‘AI companions’ simulate ongoing personal relationships … requiring detection of suicidal ideation, refer users to crisis services, and regularly disclose their non‑human nature». La exigencia de divulgar la naturaleza no humana y de contar con protocolos de emergencia busca reducir daños claros y medibles.
Este primer marco estatal es un experimento regulatorio relevante: marca obligaciones técnicas y de transparencia que pueden impulsar cambios en diseño, auditoría y enrutamiento a servicios humanos. Además, sienta precedente para iniciativas federales y para la expectativa de los usuarios sobre seguridad y responsabilidad.
Verificación biométrica y el caso Face Check
Match Group lanzó Face Check, un sistema de verificación por selfie en vídeo con liveness que se probó en varios mercados en 2025. Según la compañía, la herramienta redujo la “exposición a bad actors” en más del 60% y las denuncias relacionadas en más del 40% en los pilotos. Los usuarios verificados reciben una insignia “Photo Verified” en su perfil.
Face Check se volvió obligatorio para nuevos usuarios en California y se utilizó antes en Colombia, Canadá, India y Australia. Match Group afirma que los vídeos de verificación se borran tras el proceso y que guarda únicamente un mapa facial no reversible para detectar duplicados, aunque este enfoque aún alimenta debate sobre biometría y retención de datos.
Representantes de la industria como Yoel Roth y Spencer Rascoff han defendido la medida como central para la seguridad: «Face Check is perhaps the most measurably impactful Trust and Safety feature I’ve seen in my 15‑year career», dijo Roth. Sin embargo, el almacenamiento de mapas faciales y la posible transferencia a proveedores generan preocupaciones regulatorias y éticas sobre privacidad biométrica.
Moderación conversacional y «too much, too soon»
Las apps usan IA no sólo para emparejar, sino también para moderar conversaciones. Match Group, por ejemplo, despliega modelos que detectan mensajes potencialmente abusivos o sexualmente explícitos y muestran una alerta que invita a reconsiderar el envío. Según la empresa, aproximadamente el 20% de los usuarios editan o cancelan mensajes tras recibir ese aviso.
Internamente estas funciones se definen como respuestas a la dinámica «too much, too soon»: evitar avances inapropiados o conductas que generan percepción de inseguridad. Ese tipo de intercepciones modera el comportamiento en tiempo real y puede mejorar la experiencia para receptores vulnerables.
Pero estas intervenciones plantean dilemas: ¿hasta qué punto una plataforma debe modelar la conducta humana? Los filtros pueden reducir daños inmediatos, pero también afectan la espontaneidad, la libertad de expresión y abren preguntas sobre sesgos en la detección de lenguaje y cultura.
Estafas románticas, deepfakes y respuesta legal
El aumento de herramientas de IA y de generación de contenido ha sofisticado los fraudes: estafas románticas y deepfakes ya generan pérdidas millonarias. Agencias como la FTC y el FBI documentaron cientos de millones en pérdidas anuales , por ejemplo, el FTC reportó $1.3B en pérdidas reportadas en 2022, y los legisladores han tomado nota.
En el Congreso se han avanzado iniciativas para obligar a plataformas a notificar y proteger a usuarios frente a actividad fraudulenta, como la Romance Scam Prevention Act (S.841). La normativa busca mejorar detección, reporte y medidas de protección para víctimas, reconociendo que las plataformas son canales clave donde ocurren los fraudes.
Además de la ley, las plataformas implementan políticas contra deepfakes y herramientas de detección de medios sintéticos, aunque la técnica para identificar imágenes generadas aún es imperfecta. La combinación de medidas regulatorias y técnicas es imprescindible para mitigar un riesgo que crece con la disponibilidad de modelos generativos.
Startups, modelos híbridos y la nueva ola de producto
La inversión en 2025 incluyó decenas de millones en IA generativa por parte de incumbents (Tinder, Hinge, Bumble, Grindr) y nuevas startups que prometieron personalizar el matchmaking, combatir la “fatiga del swipe” y aumentar el engagement. Los analistas, sin embargo, advierten que la IA por sí sola no garantiza satisfacción del usuario.
Surgieron modelos híbridos que combinan IA con revisión humana: apps como Sitch ofrecen matchmaking asistido por LLM complementado con curación humana, y nuevas empresas centradas en amistad y coordinación social , como Rodeo, fundada por ex‑ejecutivos de Hinge, buscan resolver la “friendship recession” mediante herramientas para planear eventos y presentaciones limitadas y cuidadas.
Estos servicios muestran una tendencia productiva: la IA se aplica no solo para romance sino también para facilitar amistades y actividades sociales, con paquetes de introducciones y revisión humana para equilibrar escala y calidad. La apuesta es retener usuarios mediante conexiones más significativas y menos transaccionales.
Confianza, autenticidad y privacidad
La confianza es central en plataformas de relación. Encuestas muestran que muchos usuarios desconfían de perfiles con imágenes o textos que parecen generados por IA; la Generación Z, según una encuesta Attest para Bloomberg Intelligence, muestra mayor escepticismo ante el uso de IA para redactar mensajes o editar fotos que los millennials.
Las políticas de las plataformas varían: Match y Tinder reclaman «representación veraz» y verificaciones; Bumble y otras apps han actualizado sus normas contra deepfakes. Sin embargo, la detección automática de imágenes sintéticas sigue siendo imperfecta y la etiqueta clara de contenido «Made with AI» todavía no es universal.
En materia de privacidad, la biometría añade otra capa de complejidad. Aunque empresas aseguran borrar vídeos y almacenar sólo mapas faciales no reversibles, la retención de vectores biométricos y su posible uso o filtración suscita debates legales y éticos. Expertos recomiendan transparencia, consentimiento explícito y límites claros en la conservación de datos biométricos.
Salud mental, efectos psicosociales y ética
Más allá de seguridad y fraude, la interacción repetida con agentes relacionales de IA tiene efectos en la salud mental. Estudios longitudinales recientes (N=3,532) sugieren que la exposición prolongada a AIs «relacionales» puede aumentar el apego o el “wanting” hacia la IA sin necesariamente mejorar indicadores de salud psicosocial; los efectos suelen ser dosis‑dependientes.
Además, casos como las controversias alrededor de Replika muestran riesgos asociados a contenido sexualizado o a role‑play erótico que emergen cuando los modelos intentan optimizar por conexión emocional inmediata. Las revisiones académicas advierten que los chatbots pueden sustituir apoyos humanos y crear apegos parasociales con incertidumbre sobre beneficios netos.
En términos prácticos, la evidencia indica que la IA funciona bien en tareas de apertura , mejorando tasas de respuesta en primeros mensajes, pero su eficacia decae en etapas posteriores donde la apertura emocional humana y la reciprocidad sostienen relaciones a largo plazo. Por eso la integración ética y técnica de la IA debe priorizar la seguridad, el consentimiento y la transparencia.
El panorama de IA en apps de ligar y hacer amigos es complejo: ofrece herramientas poderosas para mejorar seguridad y descubrimiento social, pero también plantea riesgos reales en fraude, privacidad y bienestar emocional. Las respuestas predominantes en 2024, 2025 combinaron medidas técnicas (verificación biométrica, detección de fraude), políticas regulatorias estatales y propuestas federales, y prácticas de plataforma como la transparencia y notificaciones anti‑fraude.
Para usuarios, empresas y reguladores la tarea es equilibrar innovación y protección: exigir mayor transparencia (etiquetado de contenido generado, consentimiento para biometría), invertir en detección de abusos y fraude, y mantener vías de apoyo humano para crisis y remisiones. Solo así la IA podrá contribuir a conexiones más seguras y significativas sin sacrificar derechos ni bienestar.
