AINDA SOBRE ALUCINAÇÃO EM INTELIGÊNCIA ARTIFICIAL ......................
A Organização Panamericana de Saúde explicou a importância de entendermos sobre alucinação em Inteligência Artificial (já expliquei o que é anteriormente. Vou reproduzir aqui parte do artigo da PAHO (Pan American Health Organization, órgão da WHO (World Health Organization - Organização Mundial da Saúde _ OMS) que explica de uma forma simples o fenômeno:
"As alucinações no uso da IA referem-se a dados errados ou falsos gerados por algoritmos generativos de IA, levando a resultados incorretos ou enganosos. Identificar e abordar alucinações é importante para garantir a confiabilidade dos insights baseados em IA e evitar possíveis aplicações errôneas, como na saúde pública.
Compreender o conceito de alucinações é fundamental na utilização de ferramentas de IA na saúde pública porque ajuda a distinguir entre informações genuínas e erradas geradas pelos algoritmos de IA. Ao reconhecer as alucinações os profissionais evitam potenciais interpretações incorretas que poderiam levar a decisões ou intervenções incorretas e permite uma aplicação cautelosa e responsável da IA na saúde pública, salvaguardando a confiança pública e garantindo os melhores resultados possíveis para as intervenções e políticas de saúde".
A Saúde Pública é um setor que pode ser beneficiado por uma ferramenta de IA que diagnostica casos de pneumonia em imagens de raios-X. Identificar pneumonia em imagens normais ou deixar de identificar em casos positivos é um exemplo de alucinação. Pacientes podem ser erroneamente diagnosticados com pneumonia alocando recursos onde não devia e outros não diagnosticados podem ter o caso agravado.
REFERÊNCIA: Q&A ON ARTIFICIAL INTELLIGENCE FOR SUPPORTING PUBLIC HEALTH - PAHO
Comentários
Postar um comentário