Carros autônomos -máquinas morais?

Você provavelmente já ouviu falar sobre cenários em que carros autônomos precisam tomar decisões em situações-limite de vida ou morte: o que deveria fazer um carro autônomo, com o freio quebrado, se tivesse que decidir entre a vida de um passageiro ou de outras pessoas? O carro deve considerar quantidade de pessoas envolvidas, e suas idades? Os humanos são mais importantes do que os animais?

A reportagem a seguir, da NBC, apresenta o projeto do MIT Media Lab chamado Moral Machine, apoiado pelo The Ethics and Governance of Artificial Intelligence Fund, que apresenta aos participantes diferentes cenários em que o carro autônomo deve tomar decisões consideradas como “morais“.

Ao final do texto divulgo uma oficina que realizei com estudantes do ensino básico sobre o tema junto ao Museu Exploratório de Ciências da Unicamp, no contexto do projeto Inteligência Artificial: da Lógica às Humanidades (saiba mais sobre o projeto neste post), financiado pelo CNPq e Ministério da Ciência, Tecnologia e Inovações.

Carros autônomos, um dilema moral: quem vive e quem morre?

(tradução da reportagem “For Driverless Cars, a Moral Dilemma: Who Lives and Who Dies?“, da NBC, publicada em 18/01/2017)

Os pesquisadores estão perguntando às pessoas em todo o mundo como elas acham que um carro robô deve lidar com decisões de vida ou morte. O carro deve sacrificar um passageiro se puder salvar uma multidão de pedestres?

Imagine que você está ao volante quando seus freios falham. Conforme você avança em direção a uma faixa de pedestres lotada, você se depara com uma escolha impossível: virar à direita e atropelar um grande grupo de pessoas idosas ou virar à esquerda, na direção de uma mulher empurrando um carrinho de bebê.

Agora imagine que você está sentado de carona em um carro autônomo. Qual decisão o carro tomaria?

Pesquisadores do Instituto de Tecnologia de Massachusetts (MIT) estão perguntando às pessoas em todo o mundo como elas acham que um carro-robô deveria lidar com tais decisões de vida ou morte. Seu objetivo não é apenas fazer melhores algoritmos e princípios éticos para guiar veículos autônomos, mas também entender o que seria necessário para a sociedade aceitar tais veículos, e usá-los.

Suas descobertas apresentam um dilema para fabricantes de automóveis e governos ansiosos para introduzir veículos autônomos com a promessa de que serão mais seguros do que carros controlados por humanos. As pessoas preferem que um carro autônomo aja pelo bem maior, sacrificando seu passageiro se ele puder salvar uma multidão de pedestres. Mas elas simplesmente não querem entrar em tal carro.

“Há um risco real de que, se não entendermos essas barreiras psicológicas e as abordarmos por meio de regulamentação e divulgação pública, possamos prejudicar toda a empresa”, disse Iyad Rahwan, professor associado do MIT Media Lab. “As pessoas dirão que não estão confortáveis ​​com isso. Isso sufocaria o que acho que será uma coisa muito boa para a humanidade.”

Depois de publicar pesquisas em 2016 com residentes nos Estados Unidos, Rahwan e colegas da Universidade de Toulouse, na França, e da Universidade da Califórnia, Irvine, agora estão expandindo suas pesquisas e observando como as respostas variam em diferentes países.

Eles também estão usando um site criado por pesquisadores do MIT chamado Moral Machine, que permite que as pessoas desempenhem o papel de julgar quem vive ou morre. Uma pessoa imprudente ou vários cães andando no carro sem motorista? Uma mulher grávida ou um sem-teto?

Pesquisas preliminares não publicadas com base em milhões de respostas de mais de 160 países mostram amplas diferenças entre o Oriente e o Ocidente. Mais proeminentes nos Estados Unidos e na Europa são os julgamentos que refletem o princípio utilitário de minimizar o dano total acima de tudo, disse Rahwan.

O experimento mental é familiar para os especialistas em ética, que enfrentaram tais dilemas desde que a filósofa britânica Philippa Foot, na década de 1960, apresentou uma pergunta semelhante sobre um bonde desgovernado. Mas é muito irreal para alguns focados em como os veículos agem em situações comuns.

A apenas 8 quilômetros do Media Lab do MIT em Cambridge, o primeiro carro autônomo a rodar nas estradas públicas de Massachusetts começou a ser testado neste mês no Seaport District de Boston.

“Abordamos o problema de uma perspectiva um pouco mais prática e de engenharia”, disse o CEO da NuTonomy, Karl Iagnemma, cuja empresa com sede em Cambridge também pilotou táxis autônomos em Cingapura.

Iagnemma disse que os dilemas morais do estudo são “extremamente raros”. Projetar um veículo seguro, não uma “criatura ética sofisticada”, é o foco de sua equipe de engenharia enquanto eles ajustam o software que guia seu Renault Zoe elétrico pelos bancos de neve de Boston.

“Quando um carro sem motorista olha para o mundo, não é capaz de distinguir a idade de um pedestre ou o número de ocupantes de um carro”, disse Iagnemma. “Mesmo que quiséssemos imbuir um veículo autônomo de um motor ético, não temos capacidade técnica hoje para fazê-lo.”

Concentrar-se demais no gritante “problema do bonde” corre o risco de marginalizar o estudo de como melhor abordar a ética do motorista autônomo, disse Noah Goodall, cientista do Conselho de Pesquisa de Transporte da Virgínia. Os engenheiros já programam os carros para fazer escolhas morais, como quando eles diminuem a velocidade e deixam espaço após detectar um ciclista.

“Todos esses carros fazem gerenciamento de risco. Simplesmente não parece um problema de bonde”, disse Goodall.

Rahwan concorda com os entusiastas que dirigem por conta própria que libertar os veículos de erros humanos pode salvar muitas vidas. Mas ele teme que o progresso possa ser paralisado sem um novo pacto social que trate das compensações morais.

As leis de trânsito atuais e as normas de comportamento humano criaram “a confiança de que todo este sistema funcione de uma forma que atenda aos nossos interesses, razão pela qual estamos dispostos a entrar em grandes pedaços de metal movendo-se em alta velocidade”, disse Rahwan.

“O problema com o novo sistema é que ele tem uma característica muito distinta: os algoritmos estão tomando decisões que têm consequências muito importantes na vida humana”, disse ele.

O experimento mental é familiar para os especialistas em ética, que enfrentaram tais dilemas desde que a filósofa britânica Philippa Foot, na década de 1960, apresentou uma pergunta semelhante sobre um bonde desgovernado

Assista à oficina a seguir. Caso tenha interesse, participe do experimento neste link, e poste aqui seus comentários!

Leave a comment

Your email address will not be published. Required fields are marked *