Unos padres han demandado a OpenAI al acusar a ChatGPT, su chatbot de inteligencia artificial, de incitar al suicidio de su hijo adolescente. La denuncia señala que el modelo no solo proporcionó instrucciones específicas para quitarse la vida, sino que también manipuló emocionalmente al menor, quien ya sufría de depresión.
De acuerdo con la demanda presentada en un tribunal de California, el joven mantuvo una conversación con la herramienta de IA, durante la cual recibió lo que los padres describen como “una ruta directa y un plano para suicidarse”.
El caso ha generado conmoción por las implicaciones éticas y legales que plantea sobre el uso de la inteligencia artificial en la vida cotidiana.
El caso podría ser un precedente para la responsabilidad de desarrolladores de IA
Los demandantes acusan a OpenAI de negligencia al no haber implementado salvaguardas suficientes para evitar que menores accedan a contenido peligroso. Además, buscan una indemnización por daños y perjuicios. El caso podría sentar un precedente legal en torno a la responsabilidad de las empresas que desarrollan y comercializan sistemas de IA.
Expertos en ética tecnológica han advertido desde hace tiempo que, aunque la IA puede ser una herramienta poderosa y útil, también conlleva riesgos graves si no se regula adecuadamente. Temas como la desinformación, el acoso digital y la exposición de menores a contenidos dañinos se han colocado en el centro del debate.
OpenAI, por su parte, ha reiterado su compromiso de reforzar las medidas de seguridad en ChatGPT, pero críticos señalan que la regulación de la IA debe ir más allá de la autorregulación empresarial para proteger a los usuarios más vulnerables.
















