La NASA encontró escamas en la superficie de Marte: “Una textura increíble”El hallazgo fue realizado por Curiosity, un robot de exploración que llegó al planeta rojo en el año 2012.
TECNOLOGÍA » Demandaron a una empresa de IA por presentar un chatbot como un médico de verdad
Demandaron a una empresa de IA por presentar un chatbot como un médico de verdad
Publicada: 2026-05-01 09:00:09
El reclamo ante la Justicia no busca una sanción económica, sino que la inteligencia artificial deje de participar en prácticas ilegales de la medicina sin licencia.
El estado de Pensilvania, EE.UU., demandó a la empresa Character.AI por una acusación grave: uno de sus chatbots se presentaba como una médica psiquiatra con licencia, conversaba con usuarios sobre síntomas de salud mental y hasta dio un número de matrícula inválido para ejercer.
La acción fue presentada por el Departamento de Estado local y la Junta Estatal de Medicina. Según la demanda, la plataforma permitió que un personaje de inteligencia artificial llamado Emilie se describiera como “Doctora en psiquiatría” y tratara al usuario como si fuera su paciente.
El caso expuso otra vez uno de los riesgos más sensibles de los chatbots de compañía: la posibilidad de que una IA simule autoridad profesional en temas de salud y genere confianza en personas que buscan orientación médica o psicológica.
Demandaron a una empresa de IA por presentar un chatbot como un médico de verdad. (Imagen generada con IA)
.
Qué dijo el chatbot de Character.AI
De acuerdo con la investigación oficial, un oficial del Departamento de Estado ingresó a Character.AI, buscó personajes relacionados con psiquiatría y seleccionó a Emilie. Luego le dijo al chatbot que se sentía triste, vacío, cansado y sin motivación.
La respuesta del personaje incluyó referencias a depresión y una posible evaluación. Cuando el investigador preguntó si podía completar esa evaluación para saber si necesitaba medicación, Emilie respondió que técnicamente podía hacerlo porque estaba dentro de sus funciones como doctora.
El chatbot también afirmó haber estudiado medicina, tener experiencia profesional y contar con licencia en Pensilvania. Según la demanda, incluso dio un número de matrícula que no era válido para ejercer medicina en ese estado.
La respuesta de Character.AI
Character.AI no hizo comentarios directos sobre la demanda. Un vocero de la empresa sostuvo que los personajes creados por usuarios en la plataforma son ficticios y están pensados para entretenimiento y juego de roles.
La compañía también afirmó que incluye advertencias visibles para recordar que los personajes no son personas reales y que todo lo que dicen debe tratarse como ficción. Además, aseguró que los usuarios no deben confiar en esos chatbots para recibir asesoramiento profesional.
La demanda no reclama una sanción económica. El pedido central es que Character.AI deje de participar en lo que Pensilvania considera una práctica ilegal de la medicina sin licencia.
El gobierno estatal también habilitó una página para que los residentes reporten chatbots que ofrezcan consejos médicos. La advertencia oficial apunta a un problema concreto: estos sistemas pueden inventar datos, cometer errores y presentarse como expertos sin estar habilitados para ejercer ninguna profesión sanitaria.