OpenAI é processada após ChatGPT atribuir difamações inventadas a locutor de rádio - Testes

 



Agora

Post Top Ad - PodCast

 





Post Top Ad

 





terça-feira, 13 de junho de 2023

OpenAI é processada após ChatGPT atribuir difamações inventadas a locutor de rádio

 

ChatGPT da OpenAI enfrenta processo inédito por difamação devido a informações falsas geradas | Créditos: Levart_Photographer/Unsplash


Por Cristino Melo (Mundo Conectado)  

A OpenAI, conhecida por desenvolver o ChatGPT, está enfrentando um processo inédito por difamação. O caso levanta questões legais complexas sobre a responsabilidade dos chatbots gerativos e a disseminação de informações imprecisas. Embora esses bots de inteligência artificial sejam utilizados de forma ampla, eles já adquiriram uma reputação duvidosa quanto à confiabilidade como fontes de informação.

O processo em questão envolve um jornalista da Geórgia que estava trabalhando em um artigo sobre um caso federal. Ao solicitar ao ChatGPT um resumo do caso, fornecendo um arquivo PDF para análise, o chatbot forneceu um resumo contendo alegações falsas contra um terceiro, Mark Walters, um conhecido apresentador de rádio em Atlanta. Segundo o ChatGPT, Walters teria desviado US$ 5 milhões de uma organização que apoia a Segunda Emenda, algo pelo qual ele nunca havia sido acusado anteriormente.

Walters, sentindo-se difamado pela disseminação dessas falsas alegações, decidiu processar a OpenAI. Alega-se que o chatbot da empresa efetivamente publicou "matéria difamatória" ao transmitir as alegações falsas ao jornalista. Isso resultou na exposição de Walters a danos à sua reputação e possíveis consequências negativas em sua vida pública. Embora o jornalista não tenha publicado as informações, ainda é desconhecido como Walters tomou conhecimento delas.

No processo, Walters busca indenizações gerais e punitivas não especificadas, além do reembolso de despesas legais. A decisão sobre o valor das indenizações será determinada por um júri.


Novidade no mundo jurídico


Esse caso pioneiro levanta uma série de questões legais complexas. Embora seja evidente que os chatbots não devem fabricar informações sobre pessoas, especialmente quando envolvem crimes, ainda não está claro se a OpenAI pode ser responsabilizada pelos danos causados. O próprio ChatGPT alerta que não é uma fonte confiável e a OpenAI já fez declarações semelhantes no passado.

A controvérsia em torno desse processo envolve a aplicação de regulamentações existentes. Pode-se argumentar que as proteções legais aplicáveis ao conteúdo gerado por usuários em plataformas online, como a Seção 230 nos Estados Unidos, não se aplicam diretamente a sistemas baseados em IA que geram conteúdo de forma autônoma.

Este caso marca apenas o início de uma série de desafios legais que provavelmente surgirão com o avanço da inteligência artificial. A rápida expansão desses serviços de texto generativo tem desencadeado discussões sobre a necessidade de regulamentações mais robustas e salvaguardas adequadas para lidar com a disseminação de informações imprecisas ou difamatórias.

Diante disso, a responsabilidade recai tanto sobre as empresas desenvolvedoras de IA quanto sobre os legisladores, que devem trabalhar em conjunto para definir padrões legais e garantir que essas tecnologias sejam usadas de maneira responsável e ética, protegendo os direitos e reputação dos indivíduos.


Fonte: Mundo Conectado 




Post Top Ad

Responsive Ads Here