A Administração Nacional de Segurança no Trânsito Rodoviário (NHTSA) concluiu uma investigação no sistema de assistência ao motorista Autopilot da Tesla depois de analisar centenas de acidentes, incluindo 13 incidentes fatais que levaram a 14 mortes. A organização decidiu que esses acidentes foram devido ao uso indevido do sistema pelo motorista.
No entanto, a NHTSA também descobriu que “o fraco sistema de engajamento do motorista da Tesla não era apropriado para as capacidades operacionais permissivas do piloto automático”. Em outras palavras, o software não priorizou a atenção do motorista. Os passageiros que usavam o piloto automático ou a tecnologia Full Self-Driving da empresa “não estavam suficientemente engajados”, porque a Tesla “não garantiu adequadamente que os motoristas mantivessem sua atenção na tarefa de dirigir”.
A organização investigou quase 1.000 acidentes entre janeiro de 2018 e agosto de 2023, contabilizando 29 mortes no total. A NHTSA descobriu que havia “dados insuficientes para fazer uma avaliação” para cerca de metade (489) destes acidentes. Em alguns incidentes, a culpa foi da outra parte ou os motoristas do Tesla não estavam usando o sistema de piloto automático.
Os mais graves foram 211 acidentes em que “o plano frontal do Tesla atingiu um veículo ou obstáculo no seu caminho” e estes estiveram frequentemente ligados ao piloto automático ou ao FSD. Esses incidentes causaram 14 mortes e 49 feridos graves. A agência descobriu que os motoristas tiveram tempo suficiente para reagir, mas não o fizeram, em 78 desses incidentes. Esses motoristas não conseguiram frear ou virar para evitar o perigo, apesar de terem pelo menos cinco segundos para fazer um movimento.
É aí que entram as reclamações contra o software. A NHTSA diz que os motoristas simplesmente se tornariam muito complacentes, presumindo que o sistema lidaria com quaisquer perigos. Quando chegou a hora de reagir, já era tarde demais. “Acidentes sem tentativa de ação evasiva tardia ou tardia por parte do motorista foram encontrados em todas as versões de hardware e circunstâncias de acidente do Tesla”, escreveu a organização. O desequilíbrio entre as expectativas do motorista e as capacidades operacionais do piloto automático resultou em uma “lacuna crítica de segurança” que levou a “uso indevido previsível e acidentes evitáveis”.
A NHTSA também se ofendeu com a marca do Autopilot, chamando-o de enganoso e sugerindo que permite aos motoristas presumir que o software tem controle total. Para esse fim, as empresas rivais tendem a usar a marca com palavras como “assistência ao motorista”. O piloto automático indica, bem, um piloto autônomo. O procurador-geral da Califórnia e o Departamento de Veículos Motorizados do estado também estão investigando a Tesla por branding e marketing enganosos.
A Tesla, por outro lado, diz que alerta os clientes que eles precisam prestar atenção ao usar o Autopilot e o FSD, de acordo com A beira. A empresa afirma que o software apresenta indicadores regulares que lembram os motoristas de manter as mãos no volante e os olhos na estrada. A NHTSA e outros grupos de segurança afirmaram que estes avisos não vão suficientemente longe e foram “insuficientes para evitar o uso indevido”. Apesar destas declarações de grupos de segurança, o CEO Elon Musk prometeu recentemente que a empresa continuará indo “bolas contra a parede pela autonomia”.
As descobertas podem representar apenas uma pequena fração do número real de colisões e acidentes relacionados ao piloto automático e ao FSD. A NHTSA indicou que “lacunas nos dados telemáticos da Tesla criam incerteza quanto à taxa real em que os veículos que operam com o piloto automático ativado estão envolvidos em acidentes”. Isso significa que a Tesla só recebe dados de certos tipos de acidentes, com a NHTSA alegando que a empresa coleta dados sobre cerca de 18% dos acidentes relatados à polícia.
Com tudo isso em mente, a organização abriu outra sonda em Tesla. Este analisa uma correção recente de software OTA emitida em dezembro, após dois milhões de veículos terem sido recolhidos. A NHTSA avaliará se a correção de recall do piloto automático implementada pela Tesla é eficaz o suficiente.