É hora de dar uma nova olhada nos sistemas de sensores AV?
Brad Rosen | 07 de julho de 2023
As regras de trânsito para veículos autônomos são um trabalho internacional em andamento, como podemos constatar pela última atualização dos regulamentos para sistemas automáticos de manutenção de faixa (ALKS).
O Regulamento nº 157 da ONU foi alterado para permitir a manutenção assistida na faixa em velocidades mais altas, aumentando o limite de 37 mph (60 km/h) para 80 mph (130 km/h) a partir de janeiro de 2023. O regulamento também afirma que o veículo deve ser capaz de detectar obstáculos 150 m (492 pés) à frente.
A norma representa “um novo marco na mobilidade”, de acordo com a Comissão Económica das Nações Unidas para a Europa (UNECE), porque marca a primeira regulamentação global para a automação de veículos de Nível 3.
Permitir que carros autónomos viajem muito mais rapidamente tem claramente implicações significativas para uma condução autónoma segura. A duplicação da velocidade traduz-se no dobro do impulso ou no quádruplo da energia cinética, o que significa que os veículos precisam de mais de quatro vezes a distância para parar – daí a extensão do alcance mínimo de detecção à frente de 46 m (150 pés) para 150 metros. E quanto mais rápido um veículo viaja, mais perigosas serão as colisões nessa velocidade.
Quais são as implicações desta nova regra para os fabricantes de veículos autônomos?
Primeiro, a nova regra destaca a importância dos sistemas de sensores dos veículos e da sua capacidade de “ver” longas distâncias. Um veículo autônomo requer tempo suficiente para detectar um obstáculo, entender se é uma ameaça e tomar medidas corretivas. Para um veículo viajando a 130 km/h, isto implica que o sistema de percepção do veículo deve primeiro detectar uma obstrução a 150 m, dando-lhe menos de 4 segundos para tomar e executar uma decisão.
Uma distância de 150 m é um longo caminho para detectar um objeto relativamente pequeno, mas perigoso, na estrada – como um pneu, um motociclista caído ou um colchão que possa ter caído de um veículo. Como humanos, podemos ver esses obstáculos desde que prestemos atenção. Mas esta tarefa é na verdade mais difícil para um sensor. O sistema de sensores deve primeiro entender onde está o plano da estrada, depois ter resolução suficiente para ver um objeto acima da estrada e, além disso, deve ter dados suficientes para entender o tamanho do objeto.
Isto acaba por ser extremamente difícil para os sensores existentes no mercado.
As duas principais categorias de sensores 3D disponíveis atualmente – sistemas lidar e baseados em câmeras – funcionam de maneiras fundamentalmente diferentes. Qual é o desempenho do lidar a 130 km/h? Qual é o desempenho das câmeras? Os fabricantes de automóveis precisam conhecer os pontos fortes e fracos de cada tipo de sensor para entender se eles são capazes de satisfazer os regulamentos L3.
Continue firme com ALKS de nível 3
AVs são categorizados em cinco níveis, com o Nível 3 definido como automação condicional. Nesse nível, os veículos são autônomos, mas os motoristas devem estar prontos para assumir o controle dentro de um prazo especificado. Um ALKS de nível 3 mantém um veículo autônomo se movendo de forma constante e segura ao longo da estrada, enquanto o motorista está livre para, por exemplo, acompanhar as redes sociais ou ler um livro. O veículo pode detectar as faixas da estrada e de outros veículos ao seu redor e fazer automaticamente ajustes de direção, aceleração e frenagem para manter o veículo avançando com segurança.
Esse processo ilustra por que as capacidades dos diferentes sistemas de sensores são importantes. O Lidar não consegue detectar objetos na estrada se eles forem muito pequenos e/ou muito distantes. O Lidar também é limitado na quantidade de energia que pode transmitir devido a padrões para proteger a segurança dos olhos humanos, evitando assim novas melhorias no desempenho. Chuva, neblina, poeira e neve também são problemáticos para o lidar e causam retornos falsos e espalham a luz do laser, impedindo que o sistema ALKS opere com segurança.
A estereovisão, o uso de duas câmeras para construir uma imagem 3D do mundo, tem sido usada desde o final do século XIX. Novos avanços que permitem a calibração em tempo real entre câmeras baseada em software agora permitem que esta técnica de imagem 3D confiável, rápida e altamente precisa alcance distâncias superiores a 1.000 m (3.280 pés). Chamada de visão estereoscópica “sem restrições”, as câmeras agora podem ser montadas independentemente umas das outras, enquanto o sistema permanece imune às vibrações causadas por uma estrada esburacada ou pelo motor de um carro, caminhão ou mesmo maquinário pesado.