Por que é que os carros que se dirigem sozinhos ainda não são seguros?
Shutterstock.com
Página principal Tecnologia

A chuva, as obras rodoviárias e outros obstáculos

A tecnologia driverless é um trabalho em andamento – tal como mostrado pelo trágico acidente fatal do Model S da Tesla. Seguem-se algumas das falhas que persistem na tecnologia de piloto automático.

Tal como a própria publicação da Tesla no seu blogue quanto à “trágica perda” aponta, a tecnologia de piloto automático que controlava o carro de Joshua Brown quando o mesmo chocou contra um camião encontra-se em “fase beta – pública”. Tal significa que o software foi lançado para ser testado por membros do público. É o tipo de abordagem que estamos habituados a ver quando temos acesso antecipado a novas aplicações de e-mail ou a novos dispositivos de realidade virtual. No entanto, tal como Steve Wozniak, cofundador da Apple, disse ao New York Times:

“Os produtos beta não devem ter consequências de vida ou morte.”

Até a investigação quanto ao trágico acidente estar concluída, não saberemos se o mesmo foi causado for falha de software ou por erro humano – com relatórios a sugerirem que o condutor estaria a assistir a um filme de Harry Potter. O que se sabe é que “nem o piloto automático nem o condutor” repararam no camião “logo não se recorreu ao travão”.

O piloto automático da Tesla recorre a câmaras e radares para detetar e evitar obstáculos, logo neste caso sabe-se que terá havido uma falha dupla. As câmaras são enganadas pelo brilho do sol, enquanto o radar – de acordo com Musk – “ignora o que parece um sinal de estrada ‘acima da cabeça’ para evitar falsos eventos de travagem.”

Na realidade, são ainda significativas as falhas que surgem como obstáculos à ampla adoção da tecnologia de auto-condução.

Fusão de sensores

Quando tem diversos sensores a apresentar informação conflituante, em qual confia? Tal parece ter sido uma questão em jogo no acidente da Tesla, onde um sensor que detetou o camião acabou por interpretá-lo como um sinal de estrada.

De acordo com Sridhar Lakshmanan, especialista em carros de condução autónoma e professor de Engenharia na Universidade de Michigan-Dearborn:

“A grande questão para as fabricantes de automóveis sem condutor é: como é que a inteligência da máquina sabe que pode acreditar no sensor do radar? É esse o segredo.”

Obras rodoviárias

Quando a Delphi levou um carro autónomo a percorrer 5.500 km nos Estados Unidos em abril de 2015, os engenheiros tiveram de controlar o carro num trecho de 80 km. A razão? Condições urbanas imprevisíveis com estradas não marcadas e obras rodoviárias.

Sacos de areia (e suposições)

Um dos carros autónomos da Google colidiu com um autocarro público em Mountain View em fevereiro de 2016, enquanto tentava afastar-se de uns sacos de areia na estrada. Na tentativa de se mover ao redor dos sacos de areia, a dianteira esquerda do carro atingiu a parte lateral do autocarro. O carro tinha detetado o autocarro mas previra que o mesmo iria ceder passagem – e o piloto de testes ao volante fez a mesma suposição.

Reação da Google ao acidente:

“Infelizmente, todas essas suposições levam-nos ao mesmo lugar, ao mesmo tempo. Este tipo de mal-entendido também acontece entre condutores humanos nas estradas todos os dias.”

Clima

Condições climatéricas adversas criam problemas de visibilidade para as pessoas e sensores que permitem a tecnologia driverless. A chuva pode reduzir o alcance e precisão dos sensores, obscurecer a visão das câmaras e criar reflexos e brilhos confusos. Numa tentativa de melhorar o desempenho da tecnologia em condições de chuva, a Google começou a testar os seus carros em estradas públicas perto de Seattle, onde a chuva é uma garantia.

Hacking

À medida que os carros se tornam mais hi-tech tornam-se também mais vulneráveis a hackers. Em veículos sem condutor, os computadores, a ligação à internet e os sensores aumentam a possibilidade de vulnerabilidades. Jonathan Petit, investigador de segurança, mostrou que os sensores podem ser facilmente enganados e levados a detetar um obstáculo inexistente – o que poderá levar o carro a abrandar, parar ou desviar-se.

Seres humanos

Assim como os seres humanos são responsáveis por mais de 90% dos acidentes de carro, também podem ser o elo mais fraco nos veículos semi-autónomos – particularmente quando a funcionalidade “piloto automático” incentiva os utilizadores a colocarem a sua confiança na máquina. De acordo com Richard Wallane, diretor do grupo Transportation Systems Analysis no Center for Automotive Research:

“Talvez estes níveis intermédios [de automatização] não sejam um produto viável para o consumidor. (...) Vão um pouco longe a incentivar o condutor a confiar mas ao mesmo tempo ainda não estão preparados para assumir o controlo.”

E outros seres humanos

Não são apenas os seres humanos dentro dos carros com tecnologia de auto-condução que precisam de estar vigilantes – também os condutores noutros veículos. As taxas de acidentes que envolvem automóveis sem condutor são duas vezes mais elevadas do que para carros normais, de acordo com um estudo do Transportation Research Institute da Universidade de Michigan que se baseou em dados da Google, Delphi e Audi.

No entanto, a responsabilidade nem sempre foi dos mesmos – foram atingidos por trás por seres humanos desatentos ou agressivos e desacostumados a condutores tão atentos a regras de trânsito (como os carros autónomos). Entretanto, a Google começou a programar os seus carros de forma diferente para se comportarem de forma mais humana e familiar.

No entanto, é nesta colisão que se encontram os maiores desafios para a tecnologia – o desenvolvimento de nova tecnologia para uma população peculiar, imprevisível e tanto cética como confiante.

Fonte: The Guardian

Por favor, descreva o erro
Fechar