Search
Close this search box.

Alerta para o Compliance Digital:  Avanço da IA e o descompasso da Legislação

Compartilhe no WhatsApp
Alerta para o Compliance Digital:  Avanço da IA e o descompasso da Legislação

Todos os dias me deparo com mudanças no ambiente da Inteligência Artificial (IA) que nem sempre consigo acompanhar. Trata-se agora do recente anúncio da Apple que comunicou sua parceria com a OpenAI e passa a integrar o ChatGPT na atualização no iPhone IOS 18 e inclui recurso que bloqueia apps com biometria.

A integração do ChatGPT com o iPhone permite responder a comandos na Siri e criar textos ou imagens. Parece que as atualizações em IA sempre estão do lado favorável e seguro, mas temos que gerar aqui o alerta do Compliance Digital com foco na matriz de riscos potenciais relacionados a IA.

Assim temos que apesar das cautelas indicadas pelos fabricantes, os riscos devem ser analisados detalhadamente e dar amplo conhecimento aos usuários é primordial, em especial, àqueles que desconhecem as ferramentas e são fanáticos por manuseio e acesso a informações descomedidas nas redes sociais.

As novas tecnologias conhecidas com IA generativa (IAGen), que é a inteligência artificial que cria conteúdo original em resposta ao usuário, ou seja, “cria novos conteúdos e ideias, incluindo conversas, histórias, imagens, vídeos e músicas tudo no mundo virtual” – aumenta riscos já existentes e cria novos riscos ao universo dos usuários.

Por isto mesmo as empresas devem medir esses riscos e alocar recursos de gerenciamento e mitigação de acordo com o tamanho e uso das ferramentas no ambiente de negócios. Além de avaliar como, onde e de que forma esses riscos podem se manifestar, seus impactos diretos e materiais e potenciais desvios ou falhas.

É importante ressaltar que alguns riscos da IAGen são difíceis de identificação, criam inseguranças aos usuários e podem gerar serias exposições no âmbito jurídico. Sabemos ainda que, no Brasil, estamos muito aquém das legislações e regramentos claros sobre os riscos legais no ambiente da IA.

Conforme artigo do Sr. Jose Henrique Lobo, Consultor de Riscos da BR Partners, sumarizo alguns riscos potenciais para alerta dos usuários e que podem ser incluídos na matriz de riscos corporativos:

  • Uso de dados ou informação relacionada a riscos químicos, biológicos, radiológicos e nucleares (CBRN): trata-se do livre acesso a informações relacionadas a armas químicas, biológicas, radiológicas ou nucleares, ou outros materiais biológicos perigosos. O uso indevido de chatbots pode facilitar o acesso a não-especialistas e representar uma arma de difícil detecção além de disseminação de riscos que causem pane ou desespero infundados;
  • “Fabricações de Conteúdo ou Confabulação”: elaboração e divulgação de conteúdo que parece confiável, mas que é errôneo ou falso (conhecido coloquialmente como “alucinações” ou “fabricações) se constituem por falhas nos modelos de linguagem em si, ou seja, são formulações que fazem uso do raciocínio e desenvolvem por si o conteúdo por meio da indicação das próximas palavras, usando uma certa lógica de raciocínio, inobstante criam conteúdo falso;
  • Conteúdo Violento:  produção e acesso a conteúdo violento, incitador, radical ou ameaçador, bem como aquele que leva o usuário ao envolvimento psíquico, que pode até resultar em ações tais como automutilação ou atividades criminosas ou ilegais, ou seja, se resume em comportamentos perigosos ou antiéticos, incluindo como manipular pessoas e até incitação a atos de terrorismo. Estudos observaram que conversas de usuários com chatbots revela problemas de saúde mental entre os usuários e que os sistemas atuais estão despreparados ou incapazes de responder adequadamente ou direcionar esses usuários para a ajuda que possam precisar.
  • Privacidade de Dados: vazamento e divulgação não autorizada e de dados pessoais, biométricos, de saúde, localização, identificáveis pessoalmente ou outros dados sensíveis, que, com base nas legislações relacionadas a matéria, em especial a Lei Geral de Proteção de Dados, podem promover riscos relacionados a pessoa humana já amplamente debatidos e conhecidos;
  • Configuração Humano-IA: estreita interação entre humanos e sistemas de IA podem representar riscos de envolvimento emocional entre humanos e sistemas de IAGen, com capacidade para coerção ou manipulação, levando a graves riscos de segurança ou psicológicos;
  • Integridade da Informação:   conteúdo que pode não ser verificado e, portanto, não integro – não há distinção entre fatos e opiniões, e gera campanhas de desinformação ou má informação em grande escala. Neste caso os sistemas de IAGen facilitam o acesso à produção de conteúdo falso, impreciso ou enganoso e quando conduzidos por atores de má-fé podem gerar um colapso na confiança pública;
  • Segurança da Informação: riscos relacionados a ataques cibernéticos, incluindo hacking, malware, phishing e ações cibernéticas ofensivas através da exploração automatizada de vulnerabilidades. Trata-se de situações técnicas que apresentam dois riscos primários de segurança da informação: a potencialidade de descobrir e de habilitar novos riscos de cibersegurança por meio da geração de vulnerabilidades;
  • Propriedade Intelectual: riscos relacionados a conteúdo protegido por direitos autorais, marcas registradas ou licenciadas, usado sem autorização e/ou de maneira infratora; riscos de vazamento de segredos comerciais; plágio ou replicação;
  • Conteúdo Obsceno ou Abusivo: acesso a imagens obscenas, degradantes e/ou abusivas, incluindo material de abuso sexual infantil e imagens íntimas não consensuais de adultos. Esse tipo de conteúdo pode criar riscos de privacidade, psicológicos, emocionais e até físicos, que podem ser desenvolvidos ou expostos mais facilmente via IAGen;
  • Exposição pública tóxica: dificuldade em controlar a exposição pública a discursos tóxicos ou de ódio, conteúdo depreciativo ou estereotipado. A toxicidade, neste contexto, refere-se a conteúdo ou linguagem negativa, desrespeitosa ou irracional que pode ser criada ou programada intencionalmente por meio dos sistemas de IAGen.

Na contramão destes avanços de IA, ainda estamos debatendo no Brasil, o Projeto de Lei 2338/2023 que está no Senado Federal e tem como objetivo regulamentar o uso da IA,  trabalho elaborado pela Comissão Temporária Interna sobre Inteligência Artificial (CTIA). A nova legislação brasileira proposta se inspira no AI Act da União Europeia, votado pelo Parlamento Europeu em março. Parte da premissa da avaliação dos riscos associados à aplicação da IA e requer que todos os sistemas passem por testes antes de serem comercializados e tenham seus resultados oficialmente registrados para responsabilização. Previsão para votação final: meados de julho/24,

Esperamos que o descompasso da lei não afaste a importância da atuação preventiva das empresas no mapeamento, monitoramento e mitigação de riscos, bem como na adequada documentação dos eventos e treinamento de sua força de trabalho, buscando garantir a segurança e integridade nos negócios. Aos usuários cabe: cautela e diligência!

Leia outras notícias no portal Mundo Agro Brasil

Relacionadas

Veja também

Várias são as premissas colocadas na mesa para a tomada de decisão sobre a estruturação do Planejamento Patrimonial Sucessório. Por sua vez, várias podem ser as ferramentas a serem adotadas neste universo
O ChatGPT continua sendo questionado diariamente. Será que ele sobreviverá à intervenção das Autoridades de Proteção de Dados espalhadas pelo Mundo?
Mais uma inovação tecnológica chegando a todo vapor para revolucionar as ferramentas disponíveis no mercado de Inteligência Artificial (IA), o Chat GPT.