Pacientes raramente extraem informação médica útil da IA, mostram estudos

Mesmo sistemas capazes de responder questões complexas podem induzir ao erro quando consultados por leigos; linguagem usada por usuário pode comprometer resultado

A qualidade da informação médica fornecida por ferramentas de inteligência artificial populares cai muito quando elas são usadas por pessoas comuns e não por cientistas, mostra um novo estudo.

No trabalho, publicado nesta segunda-feira (9), pesquisadores mostraram que o conteúdo da pergunta submetida aos chamados “grandes modelos de linguagem” (LLMs) afeta muito o resultado da resposta obtida.

Os autores do trabalho decidiram fazer o teste depois que esses serviços de IA, particularmente o ChatGPT e o Llama, começaram a ganhar certa reputação de “doutores virtuais” por acertarem questões usadas em provas de proficiência para médicos.

Na nova pesquisa, porém, cientistas da Universidade de Oxford mostraram que leigos não conseguem extrair esse desempenho dos chatbots por conta própria. E pior, com frequência a resposta obtida os induz ao erro na tomada de decisões.

Saiba mais: Pacientes raramente extraem informação médica útil da IA, mostram estudos – Folha PE