Share

Makan Tumbal 1 Nyawa, Tesla Autopilot Kena Recall

Tim Okezone, Jurnalis · Minggu 12 Juni 2022 14:02 WIB
https: img.okezone.com content 2022 06 12 52 2610051 makan-tumbal-1-nyawa-tesla-autopilot-kena-recall-v1mWZRGKXD.JPG Tesla autopilot (Foto: Instagram/@inner_peacemaker)

SEJUMLAH mobil Tesla dengan sistem penggerak otomatis (autopilot) akan ditarik kembali (recall) setelah Amerika Serikat meningkatkan penyelidikannya terkait serangkaian tabrakan dengan kendaraan darurat yang diparkir atau truk dengan tanda peringatan.

Melansir laman Associated Press, Minggu (12/6/2022), Administrasi Keselamatan Lalu Lintas Jalan Raya AS (NHTSA) menyebut bahwa mereka sedang meningkatkan penyelidikan Tesla ke analisis teknik, tanda lain dari peningkatan pengawasan dari Tesla dan sistem kemudi otomatisnya.

Dokumen yang diunggah pekan ini oleh NHTSA mengangkat beberapa masalah serius tentang sistem autopilot Tesla.

Badan tersebut menemukan bahwa fitur digunakan di area di mana kemampuannya terbatas, dan banyak pengemudi tidak mengambil tindakan untuk menghindari kecelakaan meskipun ada peringatan dari kendaraan.

Penyelidikan sekarang mencakup 830 ribu kendaraan, hampir semua yang telah dijual oleh pembuat mobil Austin, Texas, di AS sejak awal model tahun 2014.

Infografis Mobil Listrik

NHTSA melaporkan bahwa mereka telah menemukan 16 tabrakan ke kendaraan darurat dan truk dengan tanda-tanda peringatan, menyebabkan 15 luka-luka dan satu kematian.

Penyelidik akan mengevaluasi data tambahan, kinerja kendaraan dan "mengeksplorasi sejauh mana autopilot dan sistem Tesla terkait dapat memperburuk faktor manusia atau risiko keselamatan perilaku, merusak efektivitas pengawasan pengemudi," kata badan tersebut.

Analisis teknik adalah tahap akhir dari penyelidikan, dan dalam banyak kasus, NHTSA memutuskan dalam waktu satu tahun apakah harus ada penarikan kembali atau penyelidikan harus ditutup.

Di sebagian besar dari 16 kecelakaan, mobil Tesla mengeluarkan peringatan tabrakan kepada pengemudi sesaat sebelum tabrakan. Pengereman darurat otomatis ikut andil untuk setidaknya memperlambat mobil di sekitar setengah kasus.

Rata-rata, autopilot menyerahkan kendali kendaraan kurang dari satu detik sebelum kecelakaan, kata NHTSA dalam dokumen yang merinci penyelidikan.

NHTSA juga mengatakan sedang menyelidiki kecelakaan yang melibatkan pola serupa yang tidak termasuk kendaraan darurat atau truk dengan tanda peringatan.

Badan tersebut menemukan bahwa dalam banyak kasus, pengemudi memegang kemudi seperti yang diminta Tesla, namun gagal mengambil tindakan untuk menghindari kecelakaan.

Ini menunjukkan bahwa pengemudi mematuhi sistem pemantauan Tesla, tetapi tidak memastikan mereka memerhatikan.

"Badan tersebut mendokumentasikan semua tetapi mengatakan metode Tesla untuk memastikan pengemudi memerhatikan tidak cukup baik, bahwa itu rusak dan harus ditarik kembali," kata Bryant Walker Smith, seorang profesor hukum Universitas Carolina Selatan yang mempelajari kendaraan otomatis.

Infografis Mobil Hypercar Listrik

"Sangat mudah untuk memiliki tangan di kemudi dan benar-benar terlepas dari mengemudi. Memantau posisi tangan pengemudi tidak efektif karena hanya mengukur posisi fisik. Ini tidak berkaitan dengan kapasitas mental mereka, keterlibatan mereka atau kemampuan mereka untuk merespons," imbuhnya.

Sistem serupa dari perusahaan lain seperti Super Cruise dari General Motors menggunakan kamera inframerah untuk melihat mata atau wajah pengemudi guna memastikan mereka melihat ke depan. Tetapi bahkan sistem ini masih memungkinkan pengemudi untuk keluar dari zona, kata Smith.

"Ini dikonfirmasi dalam studi demi studi. Ini adalah fakta yang mapan bahwa orang dapat terlihat menyimak atau tidak. Anda dapat memegang kemudi dan Anda dapat melihat ke depan dan tidak memiliki kesadaran situasional yang diperlukan," jelasnya.

Secara total, NHTSA melihat 191 kecelakaan tetapi menghapus 85 di antaranya karena pengemudi lain terlibat atau tidak ada cukup informasi untuk melakukan penilaian yang pasti. Dari 106 sisanya, penyebab utama sekitar seperempat dari kecelakaan tampaknya adalah menjalankan Autopilot di area yang memiliki keterbatasan, atau dalam kondisi yang dapat mengganggu pengoperasiannya.

Dewan Keselamatan Transportasi Nasional AS (NTSB) yang juga telah menyelidiki beberapa kecelakaan Tesla sejak 2016, telah merekomendasikan agar NHTSA dan Tesla membatasi penggunaan autopilot di area yang dapat dioperasikan dengan aman.

NTSB merekomendasikan agar NHTSA mengharuskan Tesla memiliki sistem yang lebih baik untuk memastikan pengemudi memperhatikan. NHTSA juga belum menindaklanjuti rekomendasi tersebut. NTSB hanya dapat membuat rekomendasi kepada lembaga federal lainnya.

1
3

Bagikan Artikel Ini

Cari Berita Lain Di Sini