O Ministério Público Federal (MPF) enviou uma recomendação à empresa OpenAI, que mantém a inteligência artificial ChatGPT, para que, nas respostas geradas pela plataforma que contenham informações sobre dados pessoais, a ferramenta informe claramente ao usuário que a resposta pode conter informações criadas pelo modelo de linguagem e que não estão na base de dados do sistema.


A crescente utilização de modelos de linguagem de grande escala (LLMs), como o ChatGPT, levanta preocupações quanto à geração de informações inverídicas, fenômeno conhecido como ‘alucinação’ ou ‘formulação genérica’. Isso ocorre quando o modelo produz um conteúdo que parece plausível, mas é factualmente incorreto, dificultando a distinção entre informações verdadeiras e falsas pelo usuário.


A ocorrência de ‘alucinações’ pode envolver dados pessoais, ferindo princípios da Lei Geral de Proteção de Dados Pessoais (LGPD), especialmente os relativos à qualidade dos dados (art. 6º, V), à transparência (art. 6º, VI) e à segurança dos dados (art. 6º, VII).


O procurador da República Carlos Bruno Ferreira da Silva, autor da recomendação, destaca que, apesar da alegação da OpenAI sobre o tratamento de dados pessoais com base no legítimo interesse, essa justificativa não sustenta a criação e divulgação inadvertida de informações inverídicas sobre indivíduos. A falta de um mecanismo eficaz para identificar respostas que contenham ‘alucinações’ e a presença de um alerta genérico não garantem a proteção adequada dos direitos dos titulares de dados.


A recomendação prevê prazo de 15 dias para que a OpenAI responda sobre as medidas adotadas para o cumprimento ou para que fundamente as razões para o não acatamento.

Fonte: Assessoria de Comunicação Social do Ministério Público Federal