AINDA SOBRE ALUCINAÇÃO EM INTELIGÊNCIA ARTIFICIAL ......................

A Organização Panamericana de Saúde explicou a importância de entendermos sobre alucinação em Inteligência Artificial (já expliquei o que é anteriormente. Vou reproduzir aqui parte do artigo da PAHO (Pan American Health Organization, órgão da WHO (World Health Organization - Organização Mundial da Saúde _ OMS) que explica de uma forma simples o fenômeno:

"As alucinações no uso da IA referem-se a dados errados ou falsos gerados por algoritmos generativos de IA, levando a resultados incorretos ou enganosos. Identificar e abordar alucinações é importante para garantir a confiabilidade dos insights baseados em IA e evitar possíveis aplicações errôneas, como na saúde pública.

Compreender o conceito de alucinações é fundamental na utilização de ferramentas de IA na saúde pública porque ajuda a distinguir entre informações genuínas e erradas geradas pelos algoritmos de IA. Ao reconhecer as alucinações os profissionais evitam potenciais interpretações incorretas que poderiam levar a decisões ou intervenções incorretas e permite uma aplicação cautelosa e responsável da IA na saúde pública, salvaguardando a confiança pública e garantindo os melhores resultados possíveis para as intervenções e políticas de saúde".

A Saúde Pública é um setor que pode ser beneficiado por uma ferramenta de IA que diagnostica casos de pneumonia em imagens de raios-X. Identificar pneumonia em imagens normais ou deixar de identificar em casos positivos é um exemplo de alucinação. Pacientes podem ser erroneamente diagnosticados com pneumonia alocando recursos onde não devia e outros não diagnosticados podem ter o caso agravado.

REFERÊNCIA: Q&A ON ARTIFICIAL INTELLIGENCE FOR SUPPORTING PUBLIC HEALTH - PAHO

Comentários

ID do editor: pub-9622926827705590