As pessoas lutam para obter conselhos úteis para a saúde dos chatbots, o estudo encontra

Com longas listas de espera e custos crescentes em sistemas de saúde sobrecarregados, muitas pessoas estão recorrendo a chatbots de IA como ChatGPT para auto-diagnóstico médico. Cerca de 1 em cada 6 adultos americanos já usam chatbots para conselhos de saúde pelo menos mensalmente, de acordo com uma pesquisa recente.

Mas depositar muita confiança nas saídas dos chatbots pode ser arriscado, em parte porque as pessoas lutam para saber quais informações darem aos chatbots as melhores recomendações de saúde possíveis, de acordo com um estudo recente liderado por Oxford.

“O estudo revelou uma quebra de comunicação de mão dupla”, disse Adam Mahdi, diretor de estudos de pós-graduação do Oxford Internet Institute e co-autor do estudo, TechCrunch. “Aqueles que usam (chatbots) não tomaram melhores decisões do que os participantes que confiaram em métodos tradicionais como pesquisas on -line ou seu próprio julgamento”.

Para o estudo, os autores recrutaram cerca de 1.300 pessoas no Reino Unido e deram a eles cenários médicos escritos por um grupo de médicos. Os participantes tiveram a tarefa de identificar possíveis condições de saúde nos cenários e usar chatbots, bem como seus próprios métodos, para descobrir possíveis cursos de ação (por exemplo, consultar um médico ou ir ao hospital).

Os participantes usaram o modelo de IA padrão que alimenta ChatGPT, GPT-4O, bem como o comando r+ de coere e a llama 3 da Meta, que uma vez sustentou o assistente da Meta AI da empresa. Segundo os autores, os chatbots não apenas tornaram os participantes menos propensos a identificar uma condição de saúde relevante, mas também aumentou a probabilidade de subestimar a gravidade das condições que eles identificaram.

Mahdi disse que os participantes geralmente omitiam detalhes importantes ao consultar os chatbots ou receberam respostas difíceis de interpretar.

“(T) ele responde que receberam (dos chatbots) freqüentemente combinavam recomendações boas e ruins”, acrescentou. “Os métodos atuais de avaliação para (chatbots) não refletem a complexidade de interagir com usuários humanos”.

Evento do TechCrunch

Berkeley, CA.
|
5 de junho

Reserve agora

As descobertas surgem quando as empresas de tecnologia pressionam cada vez mais a IA como uma maneira de melhorar os resultados da saúde. A Apple está desenvolvendo uma ferramenta de IA que pode dispensar conselhos relacionados a exercícios, dieta e sono. A Amazon está explorando uma maneira baseada em IA de analisar bancos de dados médicos para “determinantes sociais da saúde”. E a Microsoft está ajudando a construir a IA para trocar mensagens para prestadores de cuidados enviados por pacientes.

Mas, como o TechCrunch relatou anteriormente, profissionais e pacientes estão confusos sobre se a IA está pronta para aplicações de saúde de maior risco. A American Medical Association recomenda contra o uso médico de chatbots como o ChatGPT para obter assistência com decisões clínicas e grandes empresas de IA, incluindo o OpenAi Warn contra fazer diagnósticos com base nos resultados de seus chatbots.

“Recomendamos confiar em fontes de informação confiáveis ​​para decisões de saúde”, disse Mahdi. “Os métodos atuais de avaliação para (chatbots) não refletem a complexidade de interagir com usuários humanos. Como ensaios clínicos para novos medicamentos, os sistemas (chatbot) devem ser testados no mundo real antes de serem implantados”.

Veja também