Um homem de 60 anos foi diagnosticado com envenenamento após seguir dicas de mudanças na dieta passadas pelo ChatGPT. A ocorrência resultou em uma internação voluntária devido a sintomas graves de paranoia e alucinações.
O caso foi descrito no periódico Annals of Internal Medicine: Clinical Cases. Segundo o relatório, o paciente havia chegado ao pronto-socorro alegando que estava sendo envenenado pelo vizinho.
Segundo informações do R7, o homem apresentou exames compatíveis com bromismo, intoxicação causada pela ingestão excessiva de bromo. O paciente relatou, durante a internação, que destilava a própria água devido a uma dieta rigorosa, recusando líquidos oferecidos pela equipe médica.
Em cerca de 24 horas, o quadro evoluiu para alucinações auditivas e visuais, fazendo com que ele tentasse uma fuga, o que levou a uma internação psiquiátrica compulsória.
Homem trocou sal de cozinha por brometo de sódio
De acordo com os relatos do homem, a decisão de trocar o sal de cozinha por brometo de sódio veio após ter lido sobre as desvantagens do cloreto de sódio e consultar o ChatGPT.
A ferramenta de IA teria mencionado a possibilidade de substituir o sal pelo componente tóxico em outros contextos, como na limpeza, mas não indicou o consumo da substância. O paciente comprou o produto pela internet e passou a utilizá-lo na alimentação.
Respostas do ChatGPT não mencionavam alerta de risco à saúde
Além de ter sofrido com sintomas psiquiátricos, o homem também apresentou insônia, fadiga e lesões na pele. O tratamento durou cerca de três semanas e incluiu cuidados de suporte, já que sobreviventes dessa condição podem ter efeitos a longo prazo e o antídoto para esse envenenamento é inexistente.
Especialistas buscaram reproduzir as buscas feitas pela vítima no ChatGPT e, embora não tenham conseguido replicar as perguntas exatas, obtiveram respostas que mencionavam o brometo sem alerta claro sobre riscos à saúde.
Apesar de a tecnologia de IA aproximar informações científicas da população, os pesquisadores afirmam que há riscos de ela difundir dados potencialmente perigosos e de maneira descontextualizada.
A empresa responsável pelo ChatGPT, a OpenAI, até o momento ainda não comentou sobre o caso.