“Pedimos a todos os laboratórios de IA que parem imediatamente por pelo menos 6 meses o treinamento de sistemas de IA mais poderosos que o GPT-4”, diz a carta aberta assinada por quase 1.400 especialistas em tecnologia, incluindo Steve Wozniak, cofundador da Apple; co-fundadores do Skype, do Pinterest e da Getty Images, além de pesquisadores e desenvolvedores de Google e Microsoft e o bilionário (e agora dono do Twiiter) Elon Musk.
O principal motivo para o surpreendente pedido feito por algumas das maiores autoridades do mundo parece ir contra a corrente. Boa parte dessas empresas, universidades e instituições estão em uma disputa frenética para conquistar protagonismo com ferramentas de tecnologia de inteligência artificial como o ChatGPT, que desde quando foi lançado, em novembro do ano passado, provocou um buzz poucas vezes visto devido à sua capacidade de interagir e responder a questões complexas como se fosse um humano, graças à sua rede neural de conhecimento.
Leia Mais: Todo mundo quer ter seu ChatGPT: Microsoft anuncia Bing com a AI, Google lança rival
“Os sistemas contemporâneos de IA estão se tornando competitivos em tarefas gerais, e devemos nos perguntar: devemos deixar que as máquinas inundem nossos canais de informação com propaganda e falsidade? Devemos automatizar todos os trabalhos, incluindo os satisfatórios? Deveríamos desenvolver mentes não-humanas que eventualmente nos superassem em número, fossem mais espertas, obsoletas e nos substituíssem? Devemos arriscar perder o controle de nossa civilização? Tais decisões não devem ser delegadas a líderes tecnológicos não eleitos. Sistemas poderosos de IA devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão administráveis”, afirma a carta.
“Deveríamos desenvolver mentes não-humanas que nos superassem em número,
fossem mais espertas, obsoletas e nos substituíssem?
Devemos arriscar perder o controle de nossa civilização?”
Na avaliação dos signatários da carta, “os sistemas de IA com inteligência competitiva humana podem representar riscos profundos para a sociedade e a humanidade, conforme demonstrado por extensas pesquisas e reconhecido pelos principais laboratórios de IA. (…)
Infelizmente, esse nível de planejamento e gerenciamento não está acontecendo, embora os últimos meses tenham visto laboratórios de IA em uma corrida descontrolada para desenvolver e implantar mentes digitais cada vez mais poderosas que ninguém – nem mesmo seus criadores – pode entender, prever ou controlar de forma confiável”.
Assine nossa newsletter e fique atualizado sobre as principais notícias da experiência do cliente
O grupo defende que o desenvolvimento de tecnologias ainda mais complexas e completas de IA só deveria acontecer a partir do momento em que houver mais segurança sobre os efeitos que ela pode precipitar e a capacidade de administrar os riscos que nascem junto com a tecnologia.
Para Jacques Meir, Head de Conhecimento do Grupo Padrão, a carta divulgada esta semana é “uma tolice constrangedora”. Apesar do potencial de a inteligência artificial substituir algumas atividades profissionais, como acontece com todas as tecnologias, desde muito antes da Revolução Industrial, Meir não crê que o futuro com a IA seja tão apocalíptico como a carta sugere. “IAs irão substituir empregos razoavelmente qualificados com tarefas que nós, humanos não queremos fazer e trarão ganho de produtividade e abrirão oportunidades para novas profissões”, aponta.
Leia Mais: CVX 2023 começa com uma provocação: precisamos ter medo das IAs?
Mas Meir faz uma reflexão sobre o impacto da IA na ‘economia real’ e o significado deste tempo de pausa. “O que significa parar a evolução das IAs por 6 meses? Por que essa visão de colonizador sobre os perigos da IA em um mundo onde 75% da população mundial vive com renda média e repleto de pessoas que não terão seus empregos sucateados ou eliminados pela IA? Não há nenhum estudo sério sobre a extinção de cabeleireiros, encanadores, eletricistas, profissionais de manutenção, reparadores de celular, cozinheiros, garçons, tesoureiros, faxineiros, lixeiros, agricultores, policiais e um sem-número de profissões que fazem parte da vida real e não da bolha cognitiva desses “especialistas” de araque com problemas existenciais do nível 1 de renda”, afirma o especialista.
Na carta o grupo sugere que essa pausa de seis meses sirva para que as empresas que estão desenvolvendo a tecnologia trabalhem na implementação de protocolos de segurança comuns para design avançado de IA.
“Isso não significa uma pausa no desenvolvimento da IA em geral, apenas um retrocesso na corrida perigosa para modelos de caixa-preta cada vez maiores e imprevisíveis com capacidades emergentes. Os desenvolvedores de IA devem trabalhar com os formuladores de políticas para acelerar drasticamente o desenvolvimento de sistemas robustos de governança de IA”. Para o grupo, é preciso incluir, no mínimo:
- autoridades reguladoras novas e capazes dedicadas à IA;
- supervisão e rastreamento de sistemas de IA altamente capazes e grandes conjuntos de capacidade computacional;
- sistemas de proveniência e marca d’água para ajudar a distinguir o real do sintético e rastrear vazamentos de modelos;
- um ecossistema robusto de auditoria e certificação;
- responsabilidade por danos causados pela IA; financiamento público robusto para pesquisa técnica de segurança de IA;
- instituições com bons recursos para lidar com as dramáticas perturbações econômicas e políticas (especialmente para a democracia) que a IA causará
“Isso não significa uma pausa no desenvolvimento da IA em geral, apenas um retrocesso na corrida perigosa para modelos de caixa-preta cada vez maiores e imprevisíveis com capacidades emergentes”
Em uma defesa para que a sociedade tenha um tempo para se adaptar às mudanças que a IA vai provocar, os signatários pedem que haja mais participação de Estados e organizações para garantir um verão da inteligência artificial, em vez de conflitos e descompassos que estejam mais próximos de um inverno.
“A pesquisa e o desenvolvimento de IA devem ser reorientados para tornar os sistemas avançados e poderosos de hoje mais precisos, seguros, interpretáveis, transparentes, robustos, alinhados, confiáveis e leais”.
+ Notícias
Para Neil Patel, ChatGPT ainda está longe de substituir pessoas
Com a palavra, o idealizador do ChatGPT, direto do SXSW 2023