Estudo conclui que o chatbot de Saúde do ChatGPT forneceu conselhos médicos errados 50% das vezes, recomendando cuidados tardios quando era necessária atenção imediata. Levanta preocupaçõesEstudo conclui que o chatbot de Saúde do ChatGPT forneceu conselhos médicos errados 50% das vezes, recomendando cuidados tardios quando era necessária atenção imediata. Levanta preocupações

Estudo Alerta que Chatbots de IA para Saúde Podem Atrasar Cuidados Críticos, Prejudicando a Confiança Pública

2026/03/24 22:05
Leu 2 min
Para enviar feedbacks ou expressar preocupações a respeito deste conteúdo, contate-nos em [email protected]

Um estudo publicado após iniciativas dedicadas de cuidados de saúde com IA da Anthropic e OpenAI descobriu que o chatbot de Saúde do ChatGPT apresentou 50% de probabilidade de dar conselhos errados ao recomendar que os utilizadores adiassem a procura de cuidados quando a situação realmente justificava atenção imediata. Esta descoberta levanta sérias preocupações sobre a rápida integração da inteligência artificial em domínios sensíveis dos cuidados de saúde, onde os erros podem ter consequências fatais.

A investigação sublinha uma vulnerabilidade crítica nos sistemas de IA atuais concebidos para orientação médica. Para empresas que desenvolvem produtos ligados aos cuidados de saúde, como dispositivos vestíveis que monitorizam métricas de saúde como a frequência cardíaca, as implicações são profundas. Como observado na análise disponível em TrillionDollarClub.net, é fundamental que estas organizações testem rotineiramente os seus sistemas para evitar quaisquer erros que possam resultar em consequências dispendiosas, tanto financeiramente como em termos de segurança do paciente. O potencial da IA para agravar a desconfiança pública na tecnologia de cuidados de saúde é uma barreira significativa à adoção.

Esta questão emerge à medida que os gigantes tecnológicos intensificam o seu foco na IA para cuidados de saúde. O estudo sugere que sem validação rigorosa e transparência, estas ferramentas correm o risco de fornecer informações enganosas que podem dissuadir indivíduos de procurar intervenção médica atempada. As consequências estendem-se para além da saúde individual, potencialmente erodindo a confiança nas soluções de saúde digital de forma ampla.

Os termos de utilização completos e as isenções de responsabilidade relacionados com este conteúdo, conforme referenciado, podem ser encontrados em https://www.TrillionDollarClub.net/Disclaimer. À medida que a IA se torna mais integrada na tomada de decisões em cuidados de saúde, o estudo apela a um escrutínio reforçado e salvaguardas melhoradas para garantir que estas tecnologias apoiam, em vez de comprometer, a saúde pública e a confiança.

Registo, Verificação e Melhoria de Blockchain fornecidos por NewsRamp™

Esta notícia baseou-se em conteúdo distribuído pela InvestorBrandNetwork (IBN). Registo, Verificação e Melhoria de Blockchain fornecidos por NewsRamp™. O URL de origem para este comunicado de imprensa é Study Warns AI Health Chatbots May Delay Critical Care, Undermining Public Trust.

O artigo Study Warns AI Health Chatbots May Delay Critical Care, Undermining Public Trust foi publicado primeiro em citybuzz.

Oportunidade de mercado
Logo de PUBLIC
Cotação PUBLIC (PUBLIC)
$0.01554
$0.01554$0.01554
+0.19%
USD
Gráfico de preço em tempo real de PUBLIC (PUBLIC)
Isenção de responsabilidade: Os artigos republicados neste site são provenientes de plataformas públicas e são fornecidos apenas para fins informativos. Eles não refletem necessariamente a opinião da MEXC. Todos os direitos permanecem com os autores originais. Se você acredita que algum conteúdo infringe direitos de terceiros, entre em contato pelo e-mail [email protected] para solicitar a remoção. A MEXC não oferece garantias quanto à precisão, integridade ou atualidade das informações e não se responsabiliza por quaisquer ações tomadas com base no conteúdo fornecido. O conteúdo não constitui aconselhamento financeiro, jurídico ou profissional, nem deve ser considerado uma recomendação ou endosso por parte da MEXC.