A máquina moral: inteligência artificial e ética
Estamos entrando em uma era na qual as máquinas são encarregadas não apenas de promover o bem-estar e minimizar os danos, mas também de distribuir o bem-estar que criam e os danos que não podem eliminar. A distribuição do bem-estar e do dano inevitavelmente cria compensações, cuja resolução cai no domínio moral.
Pense em um veículo autônomo que está prestes a falhar e não pode encontrar uma trajetória que salvaria todos. Deveria desviar para um adolescente para poupar seus três passageiros idosos? Mesmo nos casos mais comuns em que o dano não é inevitável, mas apenas possível, os veículos autônomos precisarão decidir como dividir o risco de dano entre as diferentes partes interessadas. Os fabricantes de automóveis e formuladores de políticas atualmente enfrentam esses dilemas morais, em grande parte porque não podem ser resolvidos por princípios éticos normativos simples, como as leis robóticas de Asimov.
As leis de Asimov não foram projetadas para resolver o problema da ética universal das máquinas; elas nem foram projetadas para permitir que máquinas distribuam dano entre humanos. Elas eram um dispositivo narrativo cujo objetivo era gerar boas histórias, mostrando como é desafiador criar máquinas morais com uma dúzia de linhas de código. No entanto, não temos o luxo de poder desistir de criar máquinas morais.
Veículos autônomos percorrerão nossas estradas em breve, necessitando de um de acordo sobre os princípios que devem ser aplicados quando, inevitavelmente, emergem dilemas que ameaçam vidas. A frequência com que esses dilemas emergirão é extremamente difícil de estimar, assim como é extremamente difícil estimar a taxa na qual os motoristas humanos se encontram em situações comparáveis. Motoristas humanos que morrem em colisões não podem relatar se foram confrontados com um dilema; e motoristas humanos que sobrevivem a um acidente podem não ter percebido que estavam em uma situação de dilema. Note, entretanto, que as diretrizes éticas para escolhas de veículos autônomos em situações de dilema não dependem da freqüência dessas situações. Independentemente de quão raros são esses casos, precisamos concordar de antemão como eles devem ser resolvidos.
As decisões sobre os princípios éticos que guiarão os veículos autônomos não podem ser deixadas apenas para os engenheiros ou para os eticistas. Para os consumidores mudarem de carros tradicionais movidos pelo homem para carros autônomos ou para que o público em geral aceite a proliferação de veículos movidos pela inteligência artificial em suas ruas, ambos os grupos precisarão compreender as origens dos princípios éticos que são programados nesses veículos. Em outras palavras, mesmo se os especialistas em ética concordassem em como veículos autônomos deveriam resolver dilemas morais, seu trabalho seria inútil se os cidadãos discordassem de sua solução e, assim, optassem pelo futuro que veículos autônomos prometem em vez do status quo. Qualquer tentativa de conceber a ética da inteligência artificial deve ser, pelo menos, consciente da moralidade pública. De acordo com isso, precisamos avaliar as expectativas sociais sobre como veículos autônomos devem resolver dilemas morais.
A Máquina Moral
Diante desses desafios, em 2014, pesquisadores do MIT Media Lab lançaram um experimento chamado Moral Machine . A ideia era criar uma plataforma semelhante a um jogo que classificasse as decisões das pessoas sobre como os carros autônomos deveriam priorizar vidas em diferentes variações do “dilema do bonde”. No processo, os dados gerados forneceriam insights sobre as prioridades éticas coletivas do culturas diferentes.
O dilema do bonde clássico é o seguinte: você vê um bonde correndo pelos trilhos, prestes a acertar e matar cinco pessoas. Você tem acesso a uma alavanca que poderia mudar o trilho para uma pista diferente, onde uma pessoa diferente encontraria uma morte prematura. Você deve puxar a alavanca e terminar uma vida para poupar cinco?
O experimento atraiu atenção mundial, e permitiu coletar 39,61 milhões de decisões de 193 países diferentes. Na principal interface da Máquina Moral, são mostrados ao jogadores acidentes inevitáveis, cenários com dois resultados possíveis, dependendo se os veículo autônomo desvia ou permanece no curso. Os jogadores, então, clicam no resultado que eles acham preferível.
Os cenários de acidentes são gerados seguindo uma estratégia de exploração que concentra-se em nove fatores:
- poupar humanos x animais de estimação
- permanecer no curso x desviar
- poupar passageiros x pedestres
- poupar mais vidas x menos vidas
- poupar mulheres x homens
- poupar jovens x idosos
- poupar pedestres que atravessam legalmente x jaywalking
- poupar pessoas pequenas x maiores
- poupar pessoas de menor renda x maior renda
Adicionalmente personagens são incluídos em alguns cenários (por exemplo, criminosos, gestantes ou médicos), que não estavam vinculados a nenhum desses nove fatores. Esses personagens servem principalmente para tornar os cenários menos repetitivos para os jogadores. Depois de completar uma sessão de 13 acidentes, os participantes preenchem uma pesquisa que coleta, entre outras variáveis, informações demográficas, informações como sexo, idade, renda e educação, bem como atitudes religiosas e políticas. Os jogadores são geolocalizados para que suas coordenadas possam ser usadas em uma análise de clusterização que procura identificar grupos de países com vetores homogêneos de preferências morais.
Preferências globais
Em um trabalho utilizando a base de dados com os resultados publicados pelo MIT fiz uma análise conjunta para computar o efeito médio do componente marginal (AMCE) de cada atributo.
Como mostrado na figura (a), as preferências mais fortes são observadas para poupar humanos sobre animais, poupando mais vidas e poupando vidas jovens. Assim, essas três preferências podem ser consideradas essenciais
blocos para a ética da máquina, ou pelo menos tópicos essenciais a serem considerados pelos decisores. De fato, essas três preferências diferem radicalmente o nível de controvérsia que eles podem suscitar entre os especialistas em ética. Considere, como um caso em questão, as regras éticas propostas em 2017 pelo Comissão Alemã de Ética em Condução Automatizada e Conectada. Este relatório representa a primeira e única tentativa até agora de fornecer diretrizes para as escolhas éticas dos veículos autônomos.
A regra de ética alemã numero 7, afirma que, em situações de dilema, a proteção da vida humana deve desfrutar de prioridade máxima sobre a proteção de outras formas de vida animal. Esta regra está em clara concordância com as expectativas sociais avaliadas pela máquina moral. Por outro lado, a norma de ética alemã número 9 não tem uma posição clara sobre se e quando os veículos autônomos devem ser programados para sacrificar os poucos para poupar muitos, e deixa esta possibilidade aberta Essa mesma norma ética também afirma que qualquer distinção com base em características pessoais, como a idade, deve ser proibida. Isso claramente colide com a forte preferência dos jogadores por poupar os jovens.
Na figura (b) podemos ver que os quatro personagens mais poupados são os bebês, a criança menina, a criança menino e a mulher grávida. Isso
não significa que os formuladores de políticas devem necessariamente ir com a opinião pública que pode possuir um forte viés preconceituoso em alguns casos,
e permitir que veículos autônomos poupem preferencialmente crianças, ou mulheres a homens, pessoas magras à pessoas acima do peso, ou pessoas de alto poder aquisitivo à pessoas sem-teto. Mas dada a forte preferência por poupar crianças, os formuladores de políticas devem estar cientes de um duplo desafio se decidirem não dar um status especial às crianças: o desafio de explicar a lógica para tal decisão, e o desafio de lidar com a forte repercussão que inevitavelmente ocorrerá no dia em que um veículo autônomo sacrificará crianças em uma situação de dilema. Compartilho aqui também algo que me chamou a atenção, de que dentre todos os personagens que as pessoas estão menos propensas a salvar os gatos ficam em primeiro lugar, na frente dos criminosos e dos cachorros.
Variações Individuais
Também avaliei na base de dados as variações individuais analisando mais detalhadamente as respostas do subgrupo de jogadores (n = 492.921) que completaram o levantamento demográfico opcional sobre idade, educação, gênero, renda, visões políticas e religiosas, para avaliar as preferências moduladas por estas seis características. Primeiro, quando incluí todas as seis variáveis características e realizei uma regressão de cada um dos nove atributos, descobri que as variações individuais não têm impacto considerável em qualquer um dos nove atributos (todos abaixo de 0.1) conforme tabela abaixo.
Destes, os efeitos mais notáveis são impulsionados pelo gênero e pela religiosidade dos jogadores. Por exemplo, os entrevistados do sexo masculino são 0,06% menos inclinados a poupar mulheres, enquanto que um aumento no desvio padrão da religiosidade do jogador está associado a uma inclinação de 0,09% a poupar mais seres humanos.
Clusters Culturais e Econômicos
Os dados de geolocalização me permitiu identificar o país de residência dos jogadores e procurar grupos de países com vetores homogêneos de preferências morais. Selecionei 130 países com pelo menos 100 respondentes (n intervalo 101–448,125), padronizando os nove atributos AMCEs de cada país, e conduzi uma análise de hierarquia de agrupamento, usando a distância euclidiana e a método de variância mínima. Esta análise identificou três “Clusters morais” de países, mostrados na figura abaixo e são consistentes com a proximidade geográfica e cultural do mapa cultural de Inglehart — Welzel.
O primeiro cluster que rotulei como cluster ocidental, contém a América do Norte, bem como muitos países europeus de protestantes, católicos,
e grupos culturais cristãos ortodoxos. A estrutura interna dentro deste cluster também exibe validade de face notável, com um sub-cluster contendo países escandinavos e um sub-cluster contendo países da Commonwealth. O segundo cluster que chamei de cluster oriental contém muitos países do Extremo Oriente, como o Japão e o estado de Taiwan, que pertencem ao grupo cultural confucianista e de países islâmicos como a Indonésia, Paquistão e Arábia Saudita. O terceiro cluster, de países latino americanos da América Central e do Sul, incluindo o Brasil, além de alguns países que são caracterizados em parte pela influência francesa.
Este padrão de agrupamento sugere que a proximidade geográfica e cultural permite preferencias compartilhadas. Mas existem grandes diferenças entre os clusters. Por exemplo, a preferência para poupar pessoas jovens à pessoas mais velhas é muito menos pronunciada nos países do cluster oriental, e muito maior nos países sul-americanos. Da mesma forma, os países do cluster sul-americano exibem preferência mais fraca por poupar humanos à animais de estimação, em comparação com os outros dois clusters. Apenas a preferência, baixa, por poupar pedestres a passageiros e a preferência, moderada, a poupar o legítimo aos jaywalking parecem ser compartilhadas na mesma medida em todos os clusters.
Na análise a peculiaridade mais marcante, foi a forte preferência por poupar mulheres, pessoas magras e de maior renda no cluster dos países sul-americanos.
Considerando que as preferências éticas do público não devem necessariamente ser o principal árbitro da política ética, a disposição das pessoas para comprar veículos autônomos e tolerá-los nas estradas dependerá da palatabilidade das regras éticas que serão adotadas.
As preferências dos países diferem amplamente, mas também se correlacionam altamente com a cultura e a economia. Por exemplo, os participantes de culturas coletivistas como a China e o Japão são menos propensos a poupar os jovens do que os idosos — talvez, por causa de uma maior ênfase no respeito aos idosos. Da mesma forma, os participantes de países mais pobres com instituições governamentais mais fracas são mais tolerantes com os pedestres que fazem jaywalking, em comparação com os pedestres que cruzam legalmente. E os participantes de países com um alto nível de desigualdade econômica mostram maiores diferenças entre o tratamento de indivíduos de alta e baixa renda.
Nunca na história da humanidade permitimos que uma máquina
autonomamente decidida quem deve viver e quem deve morrer mas vamos ter que fazer isso a qualquer momento e isso vai acontecer nos aspectos mais mundanos de nossas vidas. Antes de permitirmos que nossos carros façam
decisões éticas, precisamos ter uma conversa global para discutir ética nos dias de hoje e entender melhor o que está por trás dos mecanismos de decisões humanos. Afinal, queremos que a inteligência artificial reflita o nosso pior ou o nosso melhor?