Dilema dos carros auto-conduzidos
Página principal Tecnologia

Imagine que está num carro auto-conduzido e há um grupo de transeuntes. O que deveria fazer o carro numa situação em que qualquer escolha levará à morte de algumas pessoas?

Imagine que se encontra num carro auto-dirigível e que irá colidir com um grupo de transeuntes. A única outra opção será dirigir-se para um penhasco. O que deverá o carro fazer?

Os filósofos têm debatido um dilema moral semelhante durante anos mas a discussão tem uma nova aplicação prática com o advento dos carros auto-dirigíveis, que se espera que venham a ser comuns na estrada nos próximos anos.

Os carros auto-dirigíveis da Google, Tesla e outras, especificamente, terão de enfrentar uma questão muito debatida – o The Trolley Problem (o problema do carro):

O carro dirige-se para cinco transeuntes e você pode puxar uma alavanca para mudar para uma faixa diferente, onde apenas uma pessoa se encontrará na direção do carro. Deverá matar uma para salvar cinco?

Muitas pessoas acreditam que sim mas este instinto moral complica-se com outros cenários. Por exemplo: você encontra-se numa ponte para passagem de peões, acima da estrada, e consegue ver um carro a dirigir-se para cinco pessoas. Encontra-se um homem gordo ao seu lado e você sabe que o seu peso seria suficiente para parar o carro. É moral empurrá-lo da ponte para salvar as cinco pessoas?

Cair do penhasco

De acordo com um artigo partilhado este mês no site da Arxiv, de pesquisa científica, quando indivíduos não-filósofos foram questionados relativamente ao modo como os carros sem motorista deveriam lidar com uma situação em que ou a morte do passageiro ou do transeunte é inevitável, a maioria avançou que os carros devem ser programados para evitar ferir transeuntes.

Os investigadores, liderados pelo psicólogo Jean-François Bonnefon da Toulouse School of Economics, apresentaram uma série de cenários de colisão a cerca de 900 participantes no total. Concluíram que 75% das pessoas consideravam que o carro devia sempre desviar-se e matar o passageiro, mesmo que para salvar apenas um transeunte.

Entre os filósofos que debatem teoria moral esta solução complica-se por diversos argumentos que apelam às nossas intuições morais mas apontam para respostas diferentes. O Trolley Problem é ferozmente debatido precisamente por ser um claro exemplo da tensão entre o nosso dever moral de não causar danos e o nosso dever moral de não fazer coisas más.

A antiga escola de pensamento argumenta que a ação moral causa a máxima felicidade ao número máximo de pessoas, uma teoria conhecida como utilitarismo. Com base neste raciocínio um carro sem motorista deverá tomar qualquer ação necessária para salvar o maior número de pessoas, independentemente de se tratar do passageiro ou transeunte. Se cinco pessoas dentro do carro se encontrassem em risco de vida por uma colisão contra um muro então o carro auto-dirigível deveria continuar o seu curso – mesmo que isso signifique atingir um transeunte inocente. O raciocínio poderá parecer simplista mas os detalhes da teoria utilitarista, tal como estabelecidos por John Stuart Mill, são difíceis de contestar.

Quem é responsável?

No entanto, outros filósofos que opinaram sobre o Trolley Problem argumentam que o utilitarismo é uma abordagem bruta e que a correta ação moral não avalia apenas as consequências da ação mas também considera quem é moralmente responsável.

Helen Frowe, professora de filosofia prática na Universidade de Estocolmo, que tem dado uma série de palestras sobre o Trolley Problem, avança que os fabricantes de carros auto-dirigíveis deverão programar os veículos para protegerem transeuntes inocentes, considerando que os que se encontram no carro têm maior responsabilidade por qualquer perigo.

“Temos a obrigação estrita de não matar pessoas. Se você decide entrar num carro que se dirige sozinho então está a impor o risco.”

A ética é particularmente complicada quando o argumento de Frowe aponta para uma ação moral diferente da teoria utilitarista. Por exemplo, um carro auto-dirigível poderá transportar quatro passageiros ou talvez duas crianças no banco de trás. Como é esse aspeto muda o cálculo moral?

Se os passageiros do carro forem todos adultos Frowe considera que os mesmos deverão ser responsáveis – evitando atingir um transeunte – pois os adultos escolheram estar no carro e têm mais responsabilidade moral.

Embora Frowe não considere as crianças moralmente responsáveis ainda argumenta que não é moralmente permissível matar uma pessoa a fim de salvar a vida de duas crianças.

“À medida que aumenta o número de crianças será mais fácil justificar a morte do transeunte. No entanto, nos casos em que apenas se encontram adultos no carro você terá de salvar muitos – mais do que dez, talvez um autocarro cheio – para tornar moral a morte de um transeunte.”

É melhor não fazer nada?

Pobres designers de software (e, sem dúvida, advogados) que tentam lidar com esta questão – que pode tornar-se ainda mais complicada. E se um transeunte agir de forma imprudente, colocando-se à frente do carro com a intenção de o obrigar a desviar-se, conduzindo à morte do passageiro? Considerando que os carros auto-dirigíveis não conseguem julgar as intenções dos transeuntes este detalhe ético será praticamente muito difícil de tomar em consideração.

Apesar das dezenas de artigos que debatem cada pequeno detalhe ético os filósofos estão longe de encontrar uma solução. Por exemplo, é mais imoral desviar o carro, de forma ativa, de um transeunte solitário do que simplesmente não fazer nada e permitir que o carro bata em alguém? Um antigo professor de filosofia da UCLA, Warren Quinn, rejeitou explicitamente a ideia utilitarista de que a moralidade deve maximizar a felicidade. Em vez disso argumentou que os humanos têm a obrigação de respeitar outras pessoas – logo uma ação que causa danos de forma direta e intencional é eticamente pior que uma ação indireta que conduz a danos.

É claro que os carros apenas muito raramente se encontrarão em situações em que só existam dois cursos de ação e em que o carro possa calcular, com 100% de certeza, que qualquer decisão irá conduzir à morte. Mas com suficientes carros auto-dirigíveis nas estradas está longe de ser improvável que o software tenha, um dia, de fazer uma escolha entre causar danos a um transeunte ou a um passageiro. Qualquer carro auto-dirigível seguro deverá ser capaz de reconhecer e equilibrar estes riscos.

Os fabricantes de carros auto-dirigíveis têm ainda de revelar a sua posição sobre esta questão. No entanto, dada a falta de unanimidade filosófica, parece improvável que venham a encontrar uma solução universalmente aceitável. Quanto aos filósofos, o tempo dirá se gostarão de ter as suas teorias testadas de forma muito real.

Por favor, descreva o erro
Fechar