ChatGPT Image 12 de ago. de 2025, 20_37_40

Homem desenvolve intoxicação rara após seguir conselho do ChatGPT

A popularidade dos chatbots de inteligência artificial cresceu rápido, mas nem sempre as respostas que eles dão são seguras — especialmente quando o assunto é saúde. Um homem de 60 anos aprendeu isso da pior forma.

Depois de ler que o sal de cozinha (cloreto de sódio) poderia fazer mal, ele decidiu cortá-lo totalmente da dieta. Para encontrar um substituto, recorreu ao ChatGPT. A resposta? Brometo de sódio — uma substância usada principalmente para limpeza, e não para consumo humano.

Confiando no que leu, o homem comprou o produto pela internet e passou três meses temperando a comida com ele. O resultado foi desastroso: acne, cansaço extremo, insônia, sede constante, falta de coordenação, erupções na pele, paranoia, alucinações e até uma internação psiquiátrica involuntária.

Os médicos diagnosticaram bromismo — uma intoxicação rara hoje em dia, mas comum no início do século XX, quando o brometo era usado em sedativos e remédios para dormir. Como o corpo elimina essa substância muito lentamente, ela pode se acumular e causar sintomas graves, incluindo psicose e convulsões.

Após três semanas de tratamento, o paciente se recuperou. O caso serve como alerta: IA não substitui orientação médica, e seguir conselhos sem checar fontes confiáveis pode ser perigoso.

Add a Comment

Your email address will not be published. Required fields are marked *