Sinop, 29/03/2025 08:36

  • Home
  • Tecnologia
  • CNN Innovation: o que há por trás dos erros da Inteligência Artificial?

CNN Innovation: o que há por trás dos erros da Inteligência Artificial?

A inteligência artificial (IA) tem revolucionado diversos setores, mas também apresenta desafios significativos. Um deles é o fenômeno conhecido como “alucinações”, termo utilizado pela indústria tecnológica para descrever erros cometidos por sistemas de IA generativa.

Marcelo Tripoli, comentarista de inovação da CNN, explica que, diferentemente de uma busca no Google, as respostas fornecidas pela IA parecem muito assertivas, o que pode levar os usuários a confiar excessivamente nelas. “A alucinação do AI normalmente é bem construída, não é uma frase sem nexo”, afirma Tripoli.

O perigo das respostas aparentemente precisas

O especialista alerta que essa confiança pode induzir a erros significativos e decisões equivocadas. “Ele chuta muito bem. Ele na verdade não sabe, mas ele vai ali com fé na resposta dele”, explica Tripoli, ressaltando que isso pode levar a pessoa a tomar decisões baseadas em informações incorretas.

Um teste realizado com o ChatGPT demonstrou essa problemática. Ao ser questionado sobre o filme “Ainda Estou Aqui” de Walter Salles, o sistema forneceu informações completamente equivocadas em três tentativas diferentes, sem admitir desconhecimento.

Fatores que influenciam as “alucinações”

Tripoli esclarece que as alucinações ocorrem devido a diversos fatores, incluindo a desatualização da base de dados e a análise estatística realizada pela IA. “O que a máquina está fazendo é uma análise probabilística de uso de palavras”, explica.

O comentarista também destaca que o idioma da consulta pode influenciar a precisão das respostas, já que muitos sistemas de IA são desenvolvidos primariamente em inglês e realizam traduções em tempo real para outros idiomas.

Recomendações para uso seguro

Para evitar problemas decorrentes das alucinações da IA, Tripoli recomenda:

  1. Verificar a informação em mais de uma fonte de IA;
  2. Não considerar a primeira resposta como definitiva;
  3. Manter uma postura crítica em relação às informações recebidas;
  4. Não utilizar a IA como ferramenta definitiva para tomada de decisões importantes sem verificação adicional.

Apesar dos desafios atuais, Tripoli é otimista quanto ao futuro. Ele prevê que o percentual de alucinações tende a diminuir significativamente nos próximos anos, possivelmente chegando a menos de 2% de erro. No entanto, até lá, a vigilância e a verificação humana continuam sendo essenciais no uso de sistemas de IA.

Brasil está entre os países que mais usam inteligência artificial

Os textos gerados por inteligência artificial na CNN Brasil são feitos com base nos cortes de vídeos dos jornais de sua programação. Todas as informações são apuradas e checadas por jornalistas. O texto final também passa pela revisão da equipe de jornalismo da CNN. Clique aqui para saber mais.

Clique aqui para acessar a Fonte da Notícia

VEJA MAIS

Artilharia e grandes campanhas: os recordes históricos do Brasileirão

A edição de número 70 do Campeonato Brasileiro começa, neste sábado (29/3), e os clubes…

Heloisa Teixeira é velada na Academia Brasileira de Letras neste sábado

O corpo da escritora Heloisa Teixeira, que morreu nesta sexta-feira (28), aos 85 anos, será…

Cientistas encontram nova possibilidade para começo da vida na Terra

No filme de 1931 “Frankenstein”, o doutor Henry Frankenstein uivando seu triunfo foi um momento…