Plataforma para testes escaláveis ​​de segurança de veículos autônomos

Carros autônomos são realmente seguros?

Na corrida para fabricar veículos autônomos (AVs), a segurança é crucial, mas às vezes esquecida, como exemplificado pelos recentes acidentes de manchetes. Pesquisadores da Universidade de Illinois em Urbana-Champaign estão usando inteligência artificial (IA) e aprendizado de máquina para melhorar a segurança da tecnologia autônoma por meio de avanços em software e hardware. Usar a IA para melhorar veículos autônomos é extremamente difícil devido à complexidade dos componentes elétricos e mecânicos do veículo, bem como à variabilidade em condições externas, como clima, condições das estradas, topografia, padrões de tráfego e iluminação”, disse Ravi Iyer. Progresso está sendo feito, mas a segurança continua sendo uma preocupação significativa”. O grupo desenvolveu uma plataforma que permite às empresas abordar a segurança de maneira mais rápida e econômica no ambiente complexo e em constante mudança da tecnologia autônoma. Eles estão colaborando com muitas empresas na área da baía, incluindo Samsung, NVIDIA e várias empresas iniciantes. Estamos vendo um esforço de todas as partes interessadas em setores e universidades com centenas de startups e equipes de pesquisa e estamos enfrentando alguns desafios em nosso grupo”, disse Saurabh Jha, doutorando em ciência da computação que lidera os esforços dos estudantes no projeto. . “Resolver esse desafio requer um esforço multidisciplinar em ciência, tecnologia e manufatura”. Um dos motivos pelo qual esse trabalho é tão desafiador é que os AVs são sistemas complexos que usam IA e aprendizado de máquina para integrar tecnologias mecânicas, eletrônicas e de computação para tomar decisões de direção em tempo real. Um AV típico é um mini-supercomputador sobre rodas; eles têm mais de 50 processadores e aceleradores executando mais de 100 milhões de linhas de código para dar suporte à visão por computador, planejamento e outras tarefas de aprendizado de máquina. Como esperado, existem preocupações com os sensores e a pilha de direção autônoma (software e hardware de computação) desses veículos. Quando um carro está viajando 70 mph por uma rodovia, falhas podem ser um risco significativo de segurança para os motoristas. Se um motorista de um carro típico sente um problema como deriva ou tração do veículo, ele pode ajustar seu comportamento e guiar o carro até um ponto de parada seguro”, explicou Jha. “No entanto, o comportamento do veículo autônomo pode ser imprevisível nesse cenário, a menos que o veículo autônomo seja explicitamente treinado para esses problemas. No mundo real, há um número infinito de casos”. Tradicionalmente, quando uma pessoa tem problemas com o software em um computador ou smartphone, a resposta mais comum de TI é desligar e ligar o dispositivo novamente. No entanto, esse tipo de correção não é aconselhável para AVs, pois cada milissegundo afeta o resultado e uma resposta lenta pode levar à morte. As preocupações de segurança de tais sistemas baseados em IA aumentaram nos últimos dois anos entre as partes interessadas devido a vários acidentes causados ​​por AVs. As regulamentações atuais exigem que empresas como Uber e Waymo, que testam seus veículos em vias públicas, reportem anualmente à DMV da Califórnia a segurança dos veículos”, disse Subho Banerjee, estudante de ciências da computação e CSL. “Queríamos entender preocupações comuns de segurança, como os carros se comportavam e qual é a métrica de segurança ideal para entender como eles são projetados”.

Leia também:  Aulas de ciência da computação quebram barreiras culturais, mostra estudo

Carros autônomos criados

O grupo analisou todos os relatórios de segurança enviados de 2014 a 2017, abrangendo 144 AVs que percorriam 1.116.605 milhas autônomas acumuladas. Eles descobriram que, pelo mesmo número de quilômetros percorridos, os carros movidos a humanos eram até 4000 vezes menos propensos que os AVs sofrerem um acidente. Isso significa que a tecnologia autônoma falhou, a um ritmo alarmante, em lidar adequadamente com uma situação e desengatou a tecnologia, geralmente confiando no motorista humano para assumir o controle. O problema que os pesquisadores e as empresas têm quando se trata de melhorar esses números é que, até que um sistema de veículo autônomo tenha um problema específico, é difícil treinar o software para superá-lo. Além disso, os erros nas pilhas de software e hardware se manifestam como problemas críticos de segurança somente em determinados cenários de direção. Em outras palavras, testes realizados em AVs em rodovias ou estradas vazias / com menos tráfego podem não ser suficientes, pois as violações de segurança causadas por falhas de software / hardware são raras. Quando ocorrem erros, eles ocorrem depois que centenas de milhares de quilômetros foram percorridos. O trabalho realizado no teste desses AVs por centenas de milhares de quilômetros leva tempo, dinheiro e energia consideráveis, tornando o processo extremamente ineficiente. A equipe está usando simulações de computador e inteligência artificial para acelerar esse processo. Injetamos erros na pilha de software e hardware dos veículos autônomos em simulações de computador e, em seguida, coletamos dados sobre as respostas dos veículos autônomos a esses problemas”, afirmou Jha. “Diferentemente dos humanos, a tecnologia de IA hoje em dia não pode raciocinar sobre erros que podem ocorrer em diferentes cenários de direção. Portanto, são necessárias grandes quantidades de dados para ensinar o software a tomar a ação correta diante de problemas de software ou hardware. Atualmente, o grupo de pesquisa está construindo técnicas e ferramentas para gerar condições de condução e problemas que impactam ao máximo a segurança de AV. Usando sua técnica, eles podem encontrar um grande número de cenários críticos de segurança em que erros podem levar a acidentes sem precisar enumerar todas as possibilidades na estrada – uma enorme economia de tempo e dinheiro. Durante o teste de uma tecnologia AV aberta, Apollo, do Baidu, a equipe encontrou mais de 500 exemplos de quando o software não conseguiu resolver um problema e a falha levou a um acidente. Resultados como esses estão notando o trabalho do grupo no setor. Atualmente, eles estão trabalhando em uma patente para sua tecnologia de teste e planejam implantá-la em breve. Idealmente, os pesquisadores esperam que as empresas usem essa nova tecnologia para simular o problema identificado e corrigir os problemas antes que os carros sejam implantados. A segurança dos veículos autônomos é fundamental para o sucesso deles no mercado e na sociedade”, disse Steve Keckler, vice-presidente de pesquisa de arquitetura da NVIDIA. “Esperamos que as tecnologias desenvolvidas pela equipe de pesquisa de Illinois tornem mais fácil para os engenheiros o desenvolvimento de sistemas automotivos mais seguros a um custo menor. A NVIDIA está entusiasmada com a nossa colaboração com Illinois e tem o prazer de apoiar o trabalho deles.

Leia também:  Construindo uma bateria melhor com o aprendizado de máquina

 

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *