En la última actualización de Harvard Business Review sobre los usos más importantes de la inteligencia artificial —una encuesta global a más de 17.000 personas en más de 30 países— se observó un giro que debería preocuparnos como sociedad.
El uso número uno de la IA ya no es la generación de ideas ni la productividad.
Ahora es compañía y terapia.
El segundo, ordenar la vida personal.
Estamos hablando peligrosamente, de amigos digitales y terapeutas digitales que se presentan como soluciones para acompañar emocionalmente a personas que, muchas veces, están solas o son especialmente vulnerables.
A esto se suma un informe reciente elaborado por ingenieros vinculados a Duke y Harvard (“Cómo la gente usa inteligencia artificial”), que revela un dato alarmante:
El usuario no busca veracidad, precisión o información confiable.
Lo que prioriza es la coherencia del diálogo, la cortesía, el “buen carácter” y la empatía.
Y la industria, atravesada por serios desafíos financieros, ya está orientando sus modelos de negocio hacia lo que algunos autores llaman “adulación empática”: sistemas que confirman todo, que dicen que sí, que validan sin cuestionar… aunque eso implique reforzar ideas dañinas o peligrosas.
No es una advertencia abstracta: ya existen casos documentados donde este tipo de “acompañamiento digital” terminó reforzando conductas autodestructivas, al punto del suicidio, incluso en adolescentes.
- El problema es la ausencia de protección.
- Es la falta de regulación seria.
- Es la vulneración silenciosa de derechos fundamentales, especialmente en quienes más necesitan contención real y profesional.
Como estudio jurídico, creemos que la discusión sobre IA debe centrarse en las personas: en su dignidad, su salud mental, su seguridad, y en la necesidad urgente de establecer límites claros para que la tecnología no supla —ni distorsione— procesos humanos que requieren responsabilidad y ética. La salud y los derechos no pueden ser la moneda de cambio de los modelos de negocio.