ChatGPT: OpenAI Reforça Limites para Orientações Profissionais

ChatGPT: OpenAI Reforça Limites para Orientações Profissionais

Por Anselmo Bispo • 4 min de leitura

OpenAI Reforça Limites do ChatGPT para Orientações Profissionais

A OpenAI, gigante por trás do revolucionário ChatGPT, realizou uma atualização significativa em suas Políticas de Uso e Termos de Serviço no último dia 29 de outubro. O objetivo principal é clarificar que os modelos de linguagem da empresa não devem ser empregados para diagnósticos médicos, aconselhamento jurídico ou qualquer forma de orientação personalizada em áreas que exigem licenciamento profissional, sem a supervisão direta de um especialista qualificado. Essa iniciativa visa a segurança e a responsabilidade no ecossistema da inteligência artificial.

A novidade gerou um burburinho na comunidade, com muitos usuários se questionando sobre o impacto prático das alterações. Contudo, Paulo Henrique Fernandes, advogado e head de produtos e tecnologia da V+ Tech, esclarece que, tecnicamente, o ChatGPT não alterou seu comportamento. “As novas diretrizes não adicionam restrições inéditas, mas deixam mais explícito que a IA não deve ser tratada como profissional substituto, seja médico, advogado ou psicólogo”, explica Fernandes. O Vibe Coding Brasil destrincha a seguir os detalhes do novo posicionamento da OpenAI, um marco importante na governança da IA.

ChatGPT parou de dar orientações médicas e jurídicas? Veja o que mudou de fato - Imagem ilustrativa de uso do ChatGPT.

O que dizem as novas políticas da OpenAI?

De acordo com o documento oficial da OpenAI, a proibição é clara: é vedado o fornecimento de consultoria personalizada que demande licença profissional, como nas áreas médica e jurídica, sem o envolvimento apropriado de um profissional licenciado. A empresa também impôs restrições à automação de decisões críticas em segmentos sensíveis sem uma revisão humana criteriosa, incluindo aplicações médicas e jurídicas.

Restrições Específicas na Saúde e Direito

No setor da saúde, o ChatGPT não deverá mais ser utilizado para analisar imagens médicas, como radiografias ou ressonâncias magnéticas, nem para interpretar laudos com o objetivo de diagnóstico ou definição de tratamento. Embora alguns usuários explorassem essas funcionalidades anteriormente, a OpenAI agora reforça que tais orientações são de responsabilidade exclusiva dos profissionais de saúde.

Essa medida é fundamental para assegurar a segurança e a responsabilidade no uso da inteligência artificial em contextos de alto risco, prevenindo que as respostas geradas sejam equivocadamente interpretadas como um substituto para a orientação profissional.

Detalhes Técnicos e Éticos da Decisão

Para o advogado Paulo Henrique Fernandes, a decisão da OpenAI de solidificar as restrições ao uso do ChatGPT para diagnósticos médicos, elaboração de documentos jurídicos e aconselhamento personalizado é não apenas necessária, mas inevitável. “Nos últimos meses, aconteceram casos de alucinações graves. A IA citou jurisprudências inexistentes, distorceu precedentes e até apresentou diagnósticos falsos de saúde. Esses erros não são fruto de má-fé, mas da natureza probabilística da tecnologia. Um modelo de linguagem como o ChatGPT não ‘sabe’, ele estima. Trabalha com padrões estatísticos, não com consciência, especialização ou responsabilidade ética”, detalha o especialista, sublinhando a importância da supervisão humana.

Na prática, o que realmente mudou?

Fernandes explica que, do ponto de vista técnico, o modelo já possuía limitações inerentes para diagnósticos e elaboração de documentos jurídicos. “O que a OpenAI faz agora é endurecer a comunicação desses limites, deixando claro que, se o usuário tentar burlar os guardrails (mecanismos de segurança e controle que garantem que os sistemas de IA) e usar o sistema de forma indevida, assume integralmente o risco”, afirma.

Em termos técnicos, a IA continua apta a explicar conceitos, resumir artigos científicos, interpretar jurisprudências ou auxiliar na redação de textos jurídicos ou médicos, desde que tais atividades ocorram em caráter educativo, informativo ou de apoio. A grande diferença reside na clareza do posicionamento: a ferramenta é assistiva, não deliberativa, uma distinção crucial para desenvolvedores e usuários.

O que continua sendo permitido com o ChatGPT?

O ChatGPT permanece uma ferramenta poderosa de apoio, especialmente em contextos educacionais e informativos, desde que o conteúdo gerado não seja apresentado como diagnóstico ou prescrição médica. Entre as funcionalidades permitidas, destacam-se:

Na área médica:

Na área jurídica:

Movimento Estratégico da OpenAI

Segundo Paulo Henrique Fernandes, a medida da OpenAI possui um caráter tanto ético quanto jurídico. “A OpenAI busca se antecipar a riscos regulatórios e a potenciais litígios. Em resumo: o sistema não ficou mais limitado, ele ficou mais claro sobre o que nunca deveria ter sido”, afirma o especialista. Este é um passo essencial para a consolidação da IA como uma ferramenta responsável e confiável.

A empresa reitera que as restrições não significam um retrocesso tecnológico, mas sim um avanço no controle ético e regulatório. Isso permite que a inteligência artificial seja utilizada de forma segura e eficaz, mesmo em contextos de alto risco, promovendo a inovação responsável que tanto valorizamos na Vibe Coding Brasil.

Tags: ChatGPT OpenAI Ética em IA Regulação Saúde Digital