Colocando o aprendizado da máquina em perspectiva e discutindo sua evolução mais detalhadamente, de que forma podemos conduzir uma discussão sobre a ética desses sistemas de IA e suas implicações sociais? Na visão de Cara Biasucci, como cineasta, existe uma consideração curiosa: em filmes comerciais, a máquina é sempre um recurso que empodera o ser humano, sem qualquer reflexão ou conflito ético. “A realidade do diálogo sobre IA deve englobar complexos processos e teorias de tomada de decisões, e os filmes não refletem essa necessidade de maneira apropriada, o que contribui para que o assunto permaneça distante da maior parte das pessoas”, observa. Na opinião de Josh Marcuse, não é porque a “IA é uma tecnologia nova, que nós, como seres, somos novos”, comenta. De que forma podemos desenvolver a IA para trazer maior poder e estender nossa habilidade para tomar melhores decisões em nossa vida? É possível pensar em uma estratégia para defender a ética da IA e conflitos militares, por exemplo? O secretário diz que o governo precisa desenvolver os princípios de uma IA confiável, robusta, expansível e transparente. Os governos devem atuar para prevenir que IAs causem dano às pessoas comuns, em qualquer uma de suas aplicações.
Transparência e credibilidade
No entender de Welsh, o esforço de construção de princípios éticos das IAs passa pela capacidade de explicar o que vem a ser esse conceito e torná-lo acessível ao cidadão comum. Será viável que um sistema de IA possa utilizar linguagem natural para explicar suas intenções no lugar de pessoas tentando explicar essas mesmas características? O que seria mais válido? O fato dos sistemas serem intrinsecamente lógicos faria com que fossem mais compreensíveis para as pessoas, sem viéses? No campo da cultura, qual é o relacionamento real das pessoas com a tecnologia?
São muitas questões que se originam dessa experiência que começamos a ter com sistemas de IA. A ideia de buscar a explicação didática tem grande importância, na medida em que o ser humano teme o que não conhece. Essa é uma das questões trabalhadas pelo comitê de defesa, conforme Marcuse.Treinar sistemas para que seus dados possam ser utilizados de modo seguro, e compreendidos em seus diferentes níveis. Por exemplo: os sistemas de veículos autônomos não são e nem pode Inteligências Artificiais puras. Isso porque os sistemas pertencentes aos veículos tomam decisões fechadas, respondendo às situações que se apresentam. Já os sistemas de IA verdadeiros, tomam decisões em outros contextos mais amplos, que demandam ouras habilidades.
“A grande promessa da IA e da revolução do consumo é a de aumento da produtividade e temos de trabalhar para fazer com que esses sistemas consigam trazer mais benefícios para a humanidade. Se existe uma IA capaz de disseminar fake news, existe outra capaz de detectar o problema e combatê-lo”, afirma Marcuse. Ele ainda destaca que governos e estruturas de Estado devem atuar em colaboração, assim como outras nações. Não se transigir com a liberdade das pessoas e os governos precisam estar vigilantes para combater o abuso da privacidade dos cidadãos comuns por meio do uso antiético e invasivo de IA por governos autoritários. O governo dos EUA está empenhado em proteger seus cidadãos de IAs que possam causar danos à democracia, à sociedade e à economia.
Homens são racionais?
Em sua evolução, o ser humano aprendeu a tomar decisões sob o efeito de emoções e pressões. Mas nossos sistema de educação não foi desenhado para permitir que nossos jovens compreendam as implicações de uma decisão equivocada. Pensamos em termos racionais, mas nossas decisões sempre incorporam emoções. E novamente a habilidade de explicar decisões vem de encontro a capacidade de explicar?
Essa discussão moral não leva em conta quantas pessoas morrem de acidentes de trânsito ou por erros de diagnóstico. Nossas limitações morais impedem que adotemos mais rapidamente os benefícios das IAs. O debate em torno da moralidade das IAs normalmente confunde as pessoas sobre o que um sistema pode ou não pode fazer e o quanto ele espelhará os vieses dos homens que o construíram e programaram. Mas o fato é que as máquinas podem ser treinadas e é possível estudar esses sistemas para descobrir qual linha de código estaria impelindo uma IA a reproduzir um comportamento condenável.
As pessoas comuns não pensam nos seus semelhantes no outro lado do mundo e nas consequências de atos ocorridos distante de sua vida. As pessoas pensam em si mesmas, nos seus amigos, na comunidade em que vivem. As universidades de tecnologia já estão reforçando aulas de filosofia para cientistas da computação para que os futuros programadores estejam preparados para inserir códigos limpos e com o mínimo de vieses possível em novos sistemas. O objetivo é evitar que os sistemas tome atitudes ou comuniquem qualquer tipo de informação que possa causar dano às pessoas.
É realmente importante perceber que a regulação seja simples, e ainda assim, será difícil para as pessoas comuns entenderem leis e códigos éticos para nortear a atividade das IAs. Os princípios que a ética da IA precisa ter e adotar precisam ser públicos, acessíveis e claros, transparentes e abertos. Toda a discussão versa sobre a validade e as implicações de cada decisão que venha ser tomada pelas IAs em seu relacionamento com os seres humanos.
“O fator mais importante é entender o alcance das IAs e o quanto o uso sem controle dela pode afetar nossa política, nossa sociedade, nossa democracia e o quando confiamos uns nos outros. Nada é mais importante do que levar em conta como as máquinas podem nos impactar com suas decisões”, conclui Josh Marcuse.
Impressionante verificar os desdobramentos que a evolução das IAs estão assumindo. Instituições e desenvolvedores precisam ser muito cuidadosos e os cidadãos precisam olhar com ceticismo para afirmações e manchetes catastróficas ou sensacionalistas sobre as IAs. O momento pede responsabilidade acima de tudo.