Qualquer nova tecnologia necessita de regulamentação, e com a inteligência artificial não seria diferente. Mas, como qualquer novidade altamente acessível e difusa, criar normas se torna difícil. Esse é um dos desafios que os governos dos Estados Unidos, Europa, Ásia e América Latina, e outros territórios estão passando.
De acordo com a Harvard Business Review, nos Estados Unidos, por exemplo, o presidente Joe Biden pretende remodelar a abordagem do governo federal em relação à IA. A lei que está servindo de modelo para a nova regulamentação é baseada em uma da época da Guerra da Coreia, que obriga empresas desenvolvedoras de certos modelos de IA generativa de alto impacto a notificarem o governo e compartilharem os resultados.
Já no Reino Unido foi criada a Cúpula de Segurança de IA, e a União Europeia formalizou sua Lei de IA, pretendendo ser líder global na regulamentação da tecnologia. Todo esse movimento que está sendo feito serve para ficar de olho e conter os danos causados pela Inteligência Artificial generativa que podem acontecer se ela for usada de forma incorreta.
Um estudo de Stanford analisou o impacto dos principais pontos da Lei de IA nos 10 modelos generativos mais usados da ferramenta. O resultado foi chocante: nenhum deles chegou perto de estar em acordo com a regulamentação já existente.
Maiores obstáculos para regulamentar a IA generativa
Definir os danos
Por ser capaz de gerar áudios, textos e imagens, a IA generativa causa dificuldade na medição de danos. Isso acontece porque os impactos dela são menos claros e não podem ser definidos com facilidade. Por exemplo, quem sai prejudicado após uma conversa de vários dias com um robô que usa essa tecnologia?
Como a IA é capaz de criar essas imagens e áudios, fake news podem parecer reais e espalhar desinformação “confiável”, ou seja, uma foto de um político fazendo algo errado pode ser gerada, causando comoção internacional – e reparar esse dano é quase impossível, uma vez que aquilo já foi compartilhado.
Avaliar os danos
Como citado anteriormente, por ser capaz de gerar qualquer tipo de mídia, avaliar os danos causados pela IA generativa também é complicado. E, além disso, sem a regulamentação pronta, fica ainda mais tênue a linha entre o que é aceitável de ser “gerado” ou não. Mesmo se as normas forem definidas, quais as penalidades e os graus que elas devem ser aplicadas para quem infringi-las? E como medir quando essas normas são infringidas?
Monitoramento da regulamentação
Nos países autoritários, como China e Coreia do Norte, “vigiar” leis ligadas à internet e tecnologia é bem mais simples. Como o acesso é limitado, as normas acabam sendo mais efetivas. Já nos Estados Unidos, Europa e até no Brasil, esse controle é mais complicado – a internet é usada pela maioria da população, assim como o acesso aos smartphones, que podem ser um meio de utilizar a IA, também são altamente difundidos no país.
Alguns exemplos comuns de usos da Inteligência Artificial generativa que está prejudicando algumas pessoas são os deepfakes. Esses vídeos são criados pela IA, e podem ser feitos com imagem de qualquer pessoa: um famoso, um desconhecido de banco de imagens ou até uma pessoa que não existe.
O ator Tom Hanks foi um dos atingidos pelos deepfakes. A imagem dele falando sobre um produto em uma campanha publicitária foi criada completamente por IA sem o conhecimento ou aval de Tom. Ele fez um comunicado em seu Instagram falando para os fãs que não tinha autorizado aquela criação e nem participado dela, e que os seguidores deveriam ficar espertos. Assim, podemos concluir que se a forma com as quais as leis são aplicadas não mudarem, dificilmente a regulamentação da Inteligência Artificial generativa vai funcionar.