A OpenAI foi atingida por uma reclamação de privacidade na Áustria por um , que significa Nenhum da sua conta. A reclamação alega que o bot ChatGPT da empresa forneceu repetidamente informações incorretas sobre um indivíduo real (que por razões de privacidade não é mencionado na reclamação), . Isto pode violar as regras de privacidade da UE.
O chatbot supostamente cuspiu informações incorretas sobre a data de nascimento do indivíduo, em vez de apenas dizer que não sabia a resposta à consulta. Assim como os políticos, os chatbots de IA gostam de inventar coisas com confiança e esperam que não percebamos. Este fenômeno é chamado de alucinação. No entanto, uma coisa é quando esses bots inventam ingredientes para uma receita e outra coisa é quando inventam coisas sobre pessoas reais.
O que a OpenAI se recusou a ajudar a eliminar as informações falsas, respondendo que era tecnicamente impossível fazer esse tipo de alteração. A empresa se ofereceu para filtrar ou bloquear os dados em determinados prompts. A política de privacidade da OpenAI diz que se os usuários perceberem que o chatbot AI gerou “informações factualmente imprecisas” sobre eles que “pedido de correção”, mas a empresa afirma que “talvez não consiga corrigir a imprecisão em todas as instâncias”, .
Isso é maior do que apenas uma reclamação, já que a tendência do chatbot de inventar coisas pode entrar em conflito com o Regulamento Geral de Proteção de Dados (GDPR) da região, que rege o . Os residentes da UE têm direitos em relação às informações pessoais, incluindo o direito de corrigir dados falsos. O não cumprimento destes regulamentos pode acarretar graves penalidades financeiras, até quatro por cento do volume de negócios anual global em alguns casos. Os reguladores também podem ordenar alterações na forma como as informações são processadas.
“Está claro que as empresas atualmente não conseguem fazer com que chatbots como o ChatGPT cumpram a legislação da UE, ao processar dados sobre indivíduos”, disse Maartje de Graaf, advogado de proteção de dados da NOYB, em comunicado. “Se um sistema não consegue produzir resultados precisos e transparentes, não pode ser usado para gerar dados sobre indivíduos. A tecnologia tem que seguir os requisitos legais, e não o contrário.”
A denúncia também levantou preocupações quanto à transparência por parte da OpenAI, sugerindo que a empresa não oferece informações sobre a origem dos dados que gera sobre os indivíduos ou se esses dados são armazenados indefinidamente. Isto é de particular importância quando se consideram dados relativos a particulares.
Mais uma vez, esta é uma reclamação de um grupo de defesa e os reguladores da UE ainda não comentaram de uma forma ou de outra. No entanto, OpenAI que o ChatGPT “às vezes escreve respostas que parecem plausíveis, mas incorretas ou sem sentido”. NOYB abordou o e pediu à organização que investigasse o problema.
A empresa enfrenta uma reclamação semelhante na Polónia, na qual a autoridade local de protecção de dados depois que um pesquisador não conseguiu a ajuda da OpenAI para corrigir informações pessoais falsas. Essa reclamação acusa a OpenAI de várias violações do GDPR da UE, no que diz respeito à transparência, direitos de acesso a dados e privacidade.
Há também a Itália. A autoridade italiana de proteção de dados e a OpenAI concluíram dizendo acreditar que a empresa violou o GDPR de várias maneiras. Isso inclui a tendência do ChatGPT de inventar coisas falsas sobre as pessoas. O chatbot antes do OpenAI fez algumas alterações no software, como novos avisos para os usuários e a opção de cancelar o uso de chats para treinar os algoritmos. Apesar de não estar mais banido, a investigação italiana sobre o ChatGPT continua.
A OpenAI não respondeu a esta última reclamação, mas respondeu à salva regulatória emitida pela DPA italiana. “Queremos que nossa IA aprenda sobre o mundo, não sobre indivíduos”, . “Trabalhamos ativamente para reduzir os dados pessoais no treinamento de nossos sistemas como o ChatGPT, que também rejeita solicitações de informações privadas ou confidenciais sobre pessoas.”