22 de novembro de 2024
Tesla Autopilot: investigação aponta responsabilidade dos motoristas em acidentes
Compartilhe:

A Administração Nacional de Segurança de Tráfego Rodoviário (NHTSA) concluiu, na sexta-feira (26), uma longa investigação sobre o Autopilot da Tesla. Conforme divulgado pelo Engadget, o departamento decidiu, após analisar os acidentes mais graves e relacionados ao piloto automático, que eles ocorreram devido ao uso indevido do sistema pelo motorista — mas há ressalvas.

O que você precisa saber: 

  • Apesar disso, a organização também salientou que a Tesla não usou artifícios suficientes para manter os motoristas atentos — em outras palavras, ela não deixou claro que eles precisavam continuar prestando atenção ao trânsito mesmo com o piloto automático ativado; 
  • A organização investigou quase mil acidentes entre janeiro de 2018 e agosto de 2023, contabilizando 29 mortes no total — mas grande parte ou não tinha dados suficientes para análise, ou não estava com o Autopilot acionado; 
  • Dos mil acidentes, 211 foram classificados e considerados mais graves. Todos estavam com piloto automático ou FSD (versão mais autônoma do software Autopilot) ligados; 
  • Dentre os 211, 13 foram fatais, com 14 mortes no total e 49 feridos; 
  • Para a agência, os motoristas tiveram tempo suficiente para reagir, mas não o fizeram em 78 dos incidentes — mas a Tesla teria culpa primária nisso. 

Leia mais! 

  • Novo Tesla Model 3 Performance 2024 é o mais potente já feito
  • Crise na Tesla? Lucro cai 55% em meio à onda de demissões
  • Não compre um carro elétrico antes de considerar estes 5 aspectos

Acidentes sem tentativa de ação evasiva ou tardia por parte do motorista foram encontrados em todas as versões de hardware e circunstâncias de acidente com os modelos. 

NHTSA em comunicado.

O departamento pontuou que, devido às expectativas do motorista e as reais capacidades operacionais do piloto automático, uma “lacuna crítica de segurança” foi criada, levando ao “uso indevido previsível e acidentes evitáveis”. 

No entanto, embora os motoristas não tenham usado o sistema corretamente, com a demanda de atenção necessária, a empresa também não os manteve “suficientemente engajados adequadamente na tarefa de dirigir”, sendo esse o erro primário aos outros. 

A Tesla já afirmou, em várias ocasiões, que alerta os clientes que eles precisam prestar atenção ao usar o piloto automático e o FSD, apresentando, inclusive, notificações sobre manter as mãos no volante e os olhos na estrada. 

Para o departamento, os protocolos atuais não são suficientes. Considerando os resultados da investigação, a NHTSA abriu oficialmente uma segunda apuração contra a montadora, essa para avaliar as correções feitas em dezembro, após dois milhões de veículos terem sido recolhidos. A intenção é checar se a atualização do Autopilot já implementada pela Tesla é eficaz o suficiente. 

Autopilot da Tesla, propaganda enganosa? 

A investigação da organização também mostrou um erro de descrição do Autopilot pela Tesla visando a publicidade do software. Enquanto a técnica da empresa classifica o sistema como de “assistência ao motorista”, o marketing o coloca para a venda como um piloto autônomo, o que seria enganoso, segundo a NHTSA. 

Assim, a procuradoria-geral da Califórnia e o Departamento de Veículos Motorizados do estado também irão investigar a Tesla por branding e marketing falsos. 

O post Tesla Autopilot: investigação aponta responsabilidade dos motoristas em acidentes apareceu primeiro em Olhar Digital.

Fonte: https://olhardigital.com.br/2024/04/29/carros-e-tecnologia/tesla-autopilot-investigacao-aponta-responsabilidade-dos-motoristas-em-acidentes/