O real perigo das IAs hoje!

Janelle Shane é uma cientista, engenheira pesquisadora na área da Ótica e da Inteligência Artificial, além de manter um blog de divulgação e popularização de ciência chamado AI Weirdness, onde documenta as ‘peripécias’ de vários algoritmos de aprendizado de máquina.

‘Esquisitices’ da IA

Em conferência na “Talks at Google intitulada “You Look Like a Thing and I Love You” (“Você parece uma coisa e eu te amo”), título homônimo de seu primeiro livro, Shane oferece uma introdução inteligente e hilária ao tema, explicando como os sistemas de IA aprendem, falham e se adaptam – e como eles refletem o melhor e o pior da humanidade.

De acordo com a cientista, a grande diferença da vida real com a ficção científica é que, quando algo dá errado com a IA nos filmes, geralmente é porque ela decidiu que não quer mais obedecer aos humanos e tem objetivos próprios. Na realidade, o perigo da IA não é que ela se rebelará contra nós… o perigo é que ela fará exatamente o que pedirmos!

A Inteligência Artificial tal como temos hoje ainda não é inteligente o bastante – sua capacidade de processamento poderia ser comparada a de uma minhoca, ou até menos do que isso. “A IA de hoje pode efetuar tarefas simples, como identificar um pedestre em uma foto, mas não faz ideia do que seja o pedestre para além de um conjunto de linhas, texturas e afins.” Em suma, a IA simplesmente não sabe o que é um ser humano.

Então a IA atual fará o que pedimos dela? Sim, se ela puder, mas talvez não faça o que realmente queremos.

Em um experimento de 2018 de David Ha, pesquisador da Google, um sistema de IA foi programado com um conjunto de peças robóticas. Foi pedido ao sistema que as montasse como algum tipo de robô para que fosse do ponto A ao B.

Para resolver esse problema por meio de um programa de computador tradicional, poderíamos construir um algoritmo com instruções passo a passo, exatas, ‘explicando’ ao programa como pegar as peças e juntá-las em um robô com pernas. Desta forma, ele andaria até o ponto B da seguinte maneira:

Mas com sistemas de IA, a coisa não funciona desta forma. Não ‘explicamos’ ao sistema como resolver o problema. Na verdade, o objetivo é dado e ele precisa descobrir sozinho, por tentativa e erro, como atingir tal objetivo.

No experimento de Ha, a IA costuma resolver esse problema específico da seguinte forma:

Ou seja, ela se transforma em uma torre e cai, atingindo o ponto B. De fato, tecnicamente isso resolve o problema – ela parte do ponto A e chega ao ponto B!

Para chegar a um resultado próximo ao primeiro, é preciso fornecer ao sistema diversas outras especificações, tais como o tamanho máximo que as pernas do robô devem possuir. A questão é que o sistema não entende o que esperamos quando ‘pedimos’ para ele ir do ponto A ao ponto B.

O segredo para trabalhar com IA é, portanto, como configuramos o problema. Como exatamente ‘pedir’ para que ela faça o que queremos?

O perigo da IA não é que ela se rebelará contra nós… o perigo é que ela fará exatamente o que pedirmos.

Janelle Shane

Caso tenha oportunidade, um sistema de IA certamente irá “hackear a Matrix” para aprender coisas, conforme explica Shane:

"Se treinarmos uma IA em uma simulação, ela aprenderá a fazer coisas como hackear os erros matemáticos da simulação e colhê-los para conseguir energia. Ou então descobrirá como se mover mais rápido se arrastando pelo chão. Trabalhar com IA não se assemelha a trabalhar com outro humano, e sim a trabalhar com um tipo de força estranha da natureza. É muito fácil dar, acidentalmente, o problema errado para a IA resolver e frequentemente não percebemos isso até que algo dê errado."

Carros autônomos

A situação ilustrada acima ajuda-nos a entender por que é tão difícil desenvolver o reconhecimento de imagem em carros autônomos. Muitas falhas ocorrem porque a IA se confundiu – é realmente difícil desenvolver uma IA que consiga ‘entender’ o que está observando

Em um caso ocorrido em 2016, alguém usou a IA do piloto automático de um Tesla em vias urbanas em vez de usá-la em uma rodovia, para onde elas foram programadas. Um caminhão entrou na frente do carro, que não conseguiu frear.

O problema é que, conforme apurado, a IA foi treinada para reconhecer caminhões em estradas. Caminhões vindos pela lateral definitivamente não deveriam aparecer em estradas então, quando a IA o viu, ela provavelmente avaliou que se tratava de uma placa de trânsito e que, portanto, seria seguro passar sob ela.

Viéses humanos… viéses algorítmicos

A Amazon teve que desistir de um algoritmo para seleção de currículos no qual trabalhava ao descobrir que o sistema, criado com base em dados de currículos recebidos ao longo de 10 anos, priorizava apenas candidatos do sexo masculino. A IA tinha uma forte tendência de preferir homens para as vagas simplesmente porque o banco de dados com o qual ela foi treinada (com base em exemplos de currículos de pessoas que haviam sido contratadas por eles nos últimos 10 anos) era composto majoritariamente por profissionais do sexo masculino.

Desses exemplos, a IA aprendeu a evitar os currículos de pessoas que continham a palavra “feminina” em algum lugar, como “equipe feminina de futebol” ou “Sociedade Feminina de Engenharia”. A IA não sabia que não deveria copiar esse padrão específico que havia observado nos humanos.

Tecnicamente, o sistema fez o que lhe pediram…. o problema é que lhe pediram, acidentalmente, para fazer a coisa errada.

Preconceito e radicalização

Casos como o exemplo acima sempre acontece com IA, que “pode ser muito destrutiva sem saber”, conforme alerta Shane.

Por trás de cada nova recomendação de conteúdo no Facebook ou no YouTube está um algoritmo que é projetado para manter os usuários na plataforma: ele rastreia preferências por meio de cliques e focos e, em seguida, entrega ao usuário um fluxo constante de conteúdo que está de acordo com seus gostos. Quanto mais tempo você passa na plataforma, melhor é o desempenho do algoritmo… e mais fundo descemos ‘na toca do coelho’.

Desta forma, as plataformas acabam recomendando conteúdo de teorias da conspiração ou de intolerância. Entretanto, a própria IA não tem ideia do que seja aquele conteúdo ou de quais possam ser as consequências de recomendá-lo… novamente, a IA está apenas fazendo o que foi pedido.

O velho problema da comunicação

Ao trabalharmos com IA, evitar problemas é uma tarefa especificamente humana:

Evitar que as coisas deem errado pode se resumir ao velho problema da comunicação, e que nós, humanos, precisamos aprender a nos comunicar com a IA.

Janelle Shane

É preciso instruir as pessoas a identificarem o que a IA é ou não capaz de fazer. A Inteligência Artificial superinteligente da ficção científica não é a realidade – e este é o real perigo da IA hoje! É preciso entender que “a IA, na verdade, não compreende o que tentamos pedir que ela faça com seu cerebrozinho de minhoca”.

A Inteligência Artificial superinteligente da ficção científica não é a realidade – e este é o real perigo da IA hoje!

Para saber mais…

Leave a comment

Your email address will not be published. Required fields are marked *