As principais empresas de tecnologia, como Microsoft, Amazon e OpenAI, firmaram um acordo internacional histórico voltado para a segurança da Inteligência Artificial (IA). Com este acordo, essas empresas se comprometem voluntariamente a garantir o desenvolvimento seguro de seus modelos de IA mais avançados. Este pacto expande um conjunto anterior de compromissos feitos por empresas envolvidas no desenvolvimento de software de IA generativa em novembro do ano passado. O acordo aconteceu na terça-feira (21), durante a Cúpula de Segurança de IA de Seul.
O acordo estabelece que empresas de diversos países, como Estados Unidos, Coreia do Sul, Canadá, China, Reino Unido, França e Emirados Árabes Unidos, garantam que seus modelos de Inteligência Artificial sejam desenvolvidos de forma segura, mesmo os mais modernos. Além disso, o compromisso assumido pelos países aconteceu de forma voluntária.
As empresas que ainda não entraram no acordo deverão apresentar suas medidas de segurança para mostrar como agirão para prevenir que seus modelos de Inteligência Artificial sejam utilizados de forma indevida.
Como funciona o acordo?
As empresas de tecnologia deverão apontar os riscos associados aos seus sistemas de Inteligência Artificial de fronteira que são considerados inaceitáveis, como ataques cibernéticos e ameaça de armas biológicas. Sendo assim, deverão implementar um “interruptor de eliminação”. Ou seja, seria como um botão de emergência para interromper seus modelos de IA caso não consigam controlar riscos.
A partir do acordo firmado, serão ampliados ainda compromissos anteriores feitos por empresas que trabalham com desenvolvimento de software de IA generativa em novembro de 2023. As empresas concordaram em fornecer informações sobre esses limiares a “atores de confiança”, incluindo seus governos nacionais, conforme apropriado, antes de divulgá-los publicamente na próxima cúpula de IA planejada – a Cúpula de Ação de IA na França – no início de 2025.
Os compromissos estabelecidos durante a Cúpula de Segurança de IA de Seul aplicam-se apenas aos chamados modelos de ponta. Esse termo refere-se à tecnologia subjacente a sistemas generativos de IA, como a família GPT de grandes modelos de linguagem da OpenAI, que alimenta o popular chatbot ChatGPT.
Desde que o ChatGPT foi lançado em novembro de 2022, reguladores e líderes tecnológicos têm mostrado crescente preocupação com os riscos associados a sistemas avançados de IA capazes de gerar texto e conteúdo visual com qualidade igual ou superior à dos humanos.
A regulamentação da IA na União Europeia
A União Europeia (UE) tem buscado conter o desenvolvimento descontrolado da Inteligência Artificial com a criação da sua Lei de IA, que foi aprovada pelo Conselho da UE na terça-feira (21). Por outro lado, o Reino Unido não propôs leis formais para a IA, pois prefere uma abordagem leve à regulamentação, que envolve a aplicação das leis existentes à nova tecnologia. Recentemente, o governo britânico declarou que poderia considerar a legislação sobre modelos de ponta no futuro, mas não estabeleceu um cronograma para a introdução de leis formais.
A principal prioridade do Parlamento Europeu é assegurar que sistemas de IA utilizados na UE sejam seguros, transparentes, rastreáveis, não discriminatórios e ambientalmente responsáveis. O objetivo é que esses sistemas sejam supervisionados por pessoas, em vez de funcionarem de forma totalmente automatizada, para evitar consequências negativas. Além disso, o Parlamento busca definir uma descrição padronizada e tecnologicamente neutra para IA, visando sua aplicação em futuros sistemas de Inteligência Artificial.
A lei estabelece exigências rigorosas de transparência para sistemas de Inteligência Artificial de alto risco, enquanto as normas para modelos de uso geral serão menos restritivas. Os sistemas considerados de alto risco, que representam uma ameaça para as pessoas, serão proibidos. Esses sistemas incluem:
- Manipulação cognitivo-comportamental de indivíduos ou grupos vulneráveis, como brinquedos ativados por voz que incentivam comportamentos perigosos em crianças;
- Pontuação social, que consiste na classificação de pessoas com base em seu comportamento, status socioeconômico ou características pessoais;
- Identificação biométrica e categorização de indivíduos;
- Sistemas de identificação biométrica em tempo real e à distância, como o reconhecimento facial.
Algumas exceções podem ser permitidas para fins de aplicação da lei. Os sistemas de identificação biométrica remota em tempo real serão permitidos em um número limitado de casos considerados graves, enquanto os sistemas de pós identificação biométrica à distância, onde a identificação ocorre após um atraso significativo, serão permitidos apenas para a repressão de crimes graves e com aprovação judicial.
Apesar de a nova lei só entrar em vigor em 2026, as proibições de uso de Inteligência Artificial para pontuação social, policiamento e coleta indiscriminada de imagens faciais da internet ou de câmeras de circuito interno de TV serão implementadas seis meses após a promulgação da regulamentação. As obrigações para modelos de IA de uso geral serão aplicadas após 12 meses, enquanto as regras para sistemas de Inteligência Artificial integrados em produtos regulamentados entrarão em vigor após 36 meses.
As multas variam de € 7,5 milhões (R$ 42 milhões), ou 1,5% do faturamento, até € 35 milhões (R$ 212 milhões), ou 7% do faturamento global, dependendo da natureza da infração.
Foto: Shutterstock.com