Mais alertas sobre a nova ferramenta ChatGPT

O ChatGPT continua sendo questionado diariamente. Será que ele sobreviverá à intervenção das Autoridades de Proteção de Dados espalhadas pelo Mundo?
Compartilhe no WhatsApp
Mais alertas sobre a nova ferramenta ChatGPT

Algumas evidências recentes desta discussão no âmbito da Legislação de Proteção Dados Pessoais e das respectivas autoridades em países da Europa demonstram a insegurança que esta ferramenta (Chatgpt) vem causando, apesar de ser considerado um excelente recurso de Inteligência Artificial.

A Autoridade Nacional de Proteção de Dados da Itália (“Garante”) divulgou a Medida 9870832, de 30 de março de 2023, em que ordena a limitação “com efeito imediato” de tratamento de dados pelo ChatGPT. Algumas premissas foram consideradas:  (a) foi feita verificação e constatado que nenhuma informação sobre o serviço ChatGPT é fornecida ou qualquer instrução é dada aos usuários, nem às pessoas cujos dados foram coletados e tratados pela OpenAI, L.L.C.; (b) a ausência de uma base legal apropriada em relação à coleta de dados pessoais e do tratamento; (c) o tratamento dos dados é impreciso, uma vez que as informações fornecidas pelo ChatGPT nem sempre correspondem aos dados reais; além disso e ainda mais crítico (d) a ausência de qualquer verificação da idade dos usuários em relação ao serviço ChatGPT que, de acordo com os termos publicados pela OpenAI L.L.C., é reservado para indivíduos com pelo menos 13 anos de idade.

Por meio de uma investigação preliminar foi detectado que o ChatGPT não possui qualquer mecanismo de verificação da idade dos usuários, em especial limitando o acesso aos usuários menores de 13 anos de idade, portanto, a ferramenta pode fornecer respostas totalmente inadequadas.  Em virtude das violações detectadas foi imposta medida de restrição provisória a OpenAI L.L.C., empresa americana desenvolvedora e operadora do ChatGPT, na qualidade de controlador, limitando o tratamento de dados, em caráter preventivo, de todos os usuários italianos.  Por esta medida, o controlador também deverá comunicar, no prazo de 20 dias a partir da data de recebimento da medida, quais ações foram tomadas para preservar a proteção de dados e apresentação de outros elementos que possam ser úteis para afastar as violações detectadas.

Na primeira semana de abril, foi a Autoridade do Reino Unido (ICO) que publicou um post em seu blog com perguntas que desenvolvedores e usuários precisam fazer quando estiverem usando o ChatGPT e tecnologias similares: https://lnkd.in/dMnpykJp.

A Autoridade da Alemanha também se manifestou no sentido de que “o país poderia, em teoria, também suspender temporariamente o ChatGPT se decidisse investigar se a tecnologia viola o Regulamento Geral de Proteção de Dados da União Europeia (GDPR)”.

Outras Autoridades como da França e da Irlanda “estão de olho na investigação da Itália”, enquanto a Autoridade da Espanha disse que poderá “lançar sua própria investigação no futuro, se necessário”: https://lnkd.in/dTQM7B27.

E para completar, o Comissariado de Proteção de Dados de Ontário, no Canadá, também abriu investigação em relação ao ChatGPT: https://lnkd.in/dNSASbi5.

Mas não acaba aí a desconfiança.

A ferramenta de inteligência artificial ChatGPT também gerou três violações de segurança graves em somente 20 dias por empregados da Samsung. Uma reportagem publicada recentemente pelo Economist revelou que dados confidenciais da Samsung Semicondutor acabaram sendo vazados pelo uso do ChatGPT por parte de seus engenheiros. A ferramenta de inteligência artificial havia sido liberada pela empresa em atividades técnicas relacionadas a cálculos matemáticos e na resolução de alguns problemas de programação. No entanto, ela acabou trazendo mais problemas do que benefícios para a fabricante, que teve que lidar com três ocorrências de uso indevido. Para evitar que situações semelhantes ocorram no futuro, a Samsung decidiu que vai desenvolver uma alternativa proprietária para o ChatGPT. Enquanto isso, a companhia vai restringir a 1024 bytes o tamanho das questões que podem ser enviadas para a inteligência artificial no momento.  Por serem violações graves e de alto risco, a Samsung Electronic fez uma apresentação para seus executivos e funcionários alertando para o fato de que tudo que é inserido no ChatGPT é transmitido e armazenado em servidores externos. A companhia alertou a todos que, caso uma nova violação de segurança ocorra, ela pode ser forçada a cortar totalmente o acesso à tecnologia.

Resta a pergunta: Será que a Autoridade Nacional de Proteção de Dados  aqui do Brasil vem avaliando os riscos potenciais do ChatGPT?

Por Thais Carloni

Leia outras notícias no portal Mundo Agro Brasil

Relacionadas

Veja também

Várias são as premissas colocadas na mesa para a tomada de decisão sobre a estruturação do Planejamento Patrimonial Sucessório. Por sua vez, várias podem ser as ferramentas a serem adotadas neste universo
Mais uma inovação tecnológica chegando a todo vapor para revolucionar as ferramentas disponíveis no mercado de Inteligência Artificial (IA), o Chat GPT.