A OpenAI anunciou recentemente mudanças significativas nas diretrizes de uso do ChatGPT, restringindo a atuação da Inteligência Artificial em áreas sensíveis como saúde e direito. A medida visa aumentar a segurança e a responsabilidade, evitando diagnósticos incorretos, interpretações imprecisas e possíveis consequências legais.

Restrições em Saúde e Diagnóstico
O modelo de IA agora só fornecerá informações gerais sobre saúde e questões jurídicas, redirecionando explicitamente os usuários para profissionais qualificados.
Uma das restrições mais importantes é na área médica:
-
O ChatGPT não poderá mais analisar imagens médicas, incluindo exames de radiografia ou ressonância.
-
Também está proibido de interpretar laudos com a finalidade de diagnóstico ou tratamento.
A empresa reforça que, embora a tecnologia seja avançada, orientações desse tipo devem ser feitas exclusivamente por especialistas humanos, devido à criticidade e ao risco de erro inerente à IA em contextos não validados.

O Debate Ético
A decisão da OpenAI ocorre após usuários explorarem essas funções e ressalta o crescente debate sobre a ética e a responsabilidade das ferramentas de inteligência artificial, que precisam de barreiras claras para proteger a vida e os direitos dos cidadãos.
Comentários: