A Administração Nacional de Segurança de Tráfego Rodoviário (NHTSA) concluiu, na sexta-feira (26), uma longa investigação sobre o Autopilot da Tesla. Conforme divulgado pelo Engadget, o departamento decidiu, após analisar os acidentes mais graves e relacionados ao piloto automático, que eles ocorreram devido ao uso indevido do sistema pelo motorista — mas há ressalvas.
O que você precisa saber:
- Apesar disso, a organização também salientou que a Tesla não usou artifícios suficientes para manter os motoristas atentos — em outras palavras, ela não deixou claro que eles precisavam continuar prestando atenção ao trânsito mesmo com o piloto automático ativado;
- A organização investigou quase mil acidentes entre janeiro de 2018 e agosto de 2023, contabilizando 29 mortes no total — mas grande parte ou não tinha dados suficientes para análise, ou não estava com o Autopilot acionado;
- Dos mil acidentes, 211 foram classificados e considerados mais graves. Todos estavam com piloto automático ou FSD (versão mais autônoma do software Autopilot) ligados;
- Dentre os 211, 13 foram fatais, com 14 mortes no total e 49 feridos;
- Para a agência, os motoristas tiveram tempo suficiente para reagir, mas não o fizeram em 78 dos incidentes — mas a Tesla teria culpa primária nisso.
Leia mais!
- Novo Tesla Model 3 Performance 2024 é o mais potente já feito
- Crise na Tesla? Lucro cai 55% em meio à onda de demissões
- Não compre um carro elétrico antes de considerar estes 5 aspectos
Acidentes sem tentativa de ação evasiva ou tardia por parte do motorista foram encontrados em todas as versões de hardware e circunstâncias de acidente com os modelos.
NHTSA em comunicado.
O departamento pontuou que, devido às expectativas do motorista e as reais capacidades operacionais do piloto automático, uma “lacuna crítica de segurança” foi criada, levando ao “uso indevido previsível e acidentes evitáveis”.
No entanto, embora os motoristas não tenham usado o sistema corretamente, com a demanda de atenção necessária, a empresa também não os manteve “suficientemente engajados adequadamente na tarefa de dirigir”, sendo esse o erro primário aos outros.
A Tesla já afirmou, em várias ocasiões, que alerta os clientes que eles precisam prestar atenção ao usar o piloto automático e o FSD, apresentando, inclusive, notificações sobre manter as mãos no volante e os olhos na estrada.
Para o departamento, os protocolos atuais não são suficientes. Considerando os resultados da investigação, a NHTSA abriu oficialmente uma segunda apuração contra a montadora, essa para avaliar as correções feitas em dezembro, após dois milhões de veículos terem sido recolhidos. A intenção é checar se a atualização do Autopilot já implementada pela Tesla é eficaz o suficiente.
Autopilot da Tesla, propaganda enganosa?
A investigação da organização também mostrou um erro de descrição do Autopilot pela Tesla visando a publicidade do software. Enquanto a técnica da empresa classifica o sistema como de “assistência ao motorista”, o marketing o coloca para a venda como um piloto autônomo, o que seria enganoso, segundo a NHTSA.
Assim, a procuradoria-geral da Califórnia e o Departamento de Veículos Motorizados do estado também irão investigar a Tesla por branding e marketing falsos.
O post Tesla Autopilot: investigação aponta responsabilidade dos motoristas em acidentes apareceu primeiro em Olhar Digital.
Fonte: https://olhardigital.com.br/2024/04/29/carros-e-tecnologia/tesla-autopilot-investigacao-aponta-responsabilidade-dos-motoristas-em-acidentes/