Lehet mégis az Autopilot a hibás, csak nem úgy, ahogy gondolták

2021 augusztusában kezdődött az amerikai közúti közlekedés biztonságáért felelő NHTSA vizsgálata annak kapcsán, hogy több olyan balesetről érkezett információ, ahol Teslák rohantak az úton álló segítségnyújtó, vagy karbantartó járműbe. A vizsgálatot a hivatal később további 12 autógyártóra terjesztette ki, amikor részletes információkat kért az elmúlt több mint egy évtizedben gyártott összes L2-es vezetéstámogató rendszereikkel forgalmazott típusukról. Az ügyről, és annak lehetséges műszaki hátteréről, valamint a hivatal pontos kérdéseiről itt írtunk:

A vizsgálat most az információ gyűjtés és rendszerezés fázisából a mérnöki, műszaki elemzéssel folytatódik. A médiában ezzel kapcsolatban megjelent szalagcímek azt sejtetik, hogy valószínűleg nagy visszahívás van készülőben, mert a vizsgálatok ezen fázisa általában az utolsó lépcső ezelőtt. Mi azonban úgy döntöttünk, hogy nem a szalagcímekből tájékozódunk, hanem elolvassuk az NHTSA részletes, köztes jelentését.

Tanulságos volt.

Adatgyűjtés

Az NHTSA 2021. augusztus 13-án indított vizsgálatot azután, hogy összegyűlt több olyan balesetről szóló bejelentés, ahol Tesla járművek ütköztek az úton, útszélen álló segítségnyújtó és karbantartó járművekbe. A gyanú az volt, hogy a baleseteket megelőzően be volt kapcsolva a cég Autopilot nevű L2-es vezetéstámogató rendszere.

Augusztus 31. és szeptember 13. között további 12 autógyártónak küldtek levelet, amelyben bekértek több adatot és anyagot a hasonló rendszereik baleseti adatairól, valamint ezen rendszerek teljesítményéről és műszaki felépítéséről. Október 12-én pedig további két levelet küldtek a Teslának: az egyikben a cég azon szoftverfrissítéséről érdeklődtek, amely a segítségnyújtó járművek jobb felismerésére irányult, a másikban az FSD Beta program kapcsán használt titoktartási nyilatkozat részleteiről tettek fel kérdéseket.

A nézettségért bármit: ez az „influencer” az autópályán mászott a hátsó ülésre, Forrás: Youtube

 

A hatóság később a vizsgált balesetek körét kiterjesztette egy a Tesla által korábban megküldött listával is. Ezekkel együtt már jelentős mennyiségű, 2018 januárja és 2021 júliusa között dokumentált balesetről rendelkeztek információkkal.

Előzetes eredmények

Az NHTSA azt is megosztotta, hogy mik voltak a vizsgálat eddigi eredményei.

Az első 16 kivizsgált eset kapcsán azt találták, hogy ezek túlnyomó többségében az autók ütközésfigyelmeztető rendszere (FCW) a baleset előtt működésbe lépett, és az esetek felében az automatikus vészfék szolgáltatás (AEB) is bekapcsolt. Átlagosan az ütközés előtt kevesebb mint egy másodperccel kapcsolt ki az Autopilot.

Ezek a balesetek mind autópályán történek, olyan körülmények között, ahol a sofőrnek legalább 8 másodperce volt arra, hogy észrevegye az úton álló járművet.

A vizsgálat azt is megállapította, hogy az ütközés előtti 2-5 másodpercben egyetlen sofőr sem avatkozott be, pedig mindegyiknek a volánon volt a keze a szenzorok szerint. Emellett azt találták, hogy a legtöbb sofőr megfelelően reagált az Autopilot korábbi éberségi riasztásaira, hogy tartsa a kezét a kormányon, 9 esetben a balesetet megelőző egy percben nem is volt szüksége az autónak arra, hogy vizuális, vagy hangjelzéssel bírja erre rá őket, ezen belül négy esetben pedig az út során egyáltalán nem kellett figyelmeztetni erre az autó vezetőjét.

Újabb esetek

Azt már a vizsgálat bejelentésekor megírtuk, hogy nem teljesen értjük a megkülönböztető jelzést használó járművekkel kapcsolatos extra figyelmet. Jelen tudásunk szerint nincs az L2-es rendszerekkel kapcsolatban semmi olyan követelmény, hogy a rendőrök, mentők, tűzoltók, vagy a út melletti karbantartást végzők által használt kék-piros, illetve sárga fényeket felismerjék, és máshogy, óvatosabban viselkedjenek. A probléma ennél ugyanis jóval szélesebb kört érint, mivel a radarok működési elve okán az összes hasonló rendszer küzd azzal, hogy az úton álló, vagy a hozzánk képest jelentős sebességkülönbséggel haladó járműveket észre vegyék. Az ezen írás elején linkelt tavalyi cikkben erre részletesen kitértünk, és összegyűjtöttük mit mondanak erről maguk az autógyártók.

Az eredeti vizsgálat apropóját adó sajtóhírekben általában külön kiemelték, hogy társadalmi tiszteletnek örvendő segítségnyújtókba rohannak a Teslák, és a laikus riporterek sorra azon szörnyülködtek, hogy hogy a fenébe nem veszik észre ezek az autók a villogó fényeket. A jelenségnek azonban semmi köze a fényhidakhoz és a hős tűzoltókhoz, ha a probléma feltárásnál csak erre fókuszálunk, akkor az érzelmi húrok pengetésével hangulatot lehet kelteni, de csak a felszínt kapargatjuk.

(fotó: Mario Herger / Youtube)

Szerencsére az NHTSA is úgy ítélte meg, hogy a probléma szélesebb kört érint, ezért kiegészítette a vizsgálatot további 191 baleset adataival, ahol hasonló eset történt, csak éppen nem elsősegélynyújtókkal.

A 191 incidensből az első körben rögtön kizártak 85-öt, mivel ezeknél más járművek okozták, vagy befolyásolták az eseményeket, ezért nem lehetne egyértelműen dönteni, hogy hibázott-e az Autopilot. A fennmaradó 106 eset közel felében a baleset egyik fő okának azt találták, hogy a sofőr nem megfelelően reagált a helyzetre – például nem voltak elég hatékonyak a kormánymozdulatai, vagy a fékpedál használata. Az esetek negyedében pedig olyan körülmények között használták a rendszert, amelyeket annak leírása egyértelműen kizár, így például nem autópályán vezettek, vagy csúszós úton, esőben, hóban, jégen haladtak.

A 106 esetből 43-ban álltak rendelkezésre teljeskörű, részletes műszaki adatok, naplófájlok, és ezek alapján 37 esetben a sofőr keze a kormánykeréken volt még a becsapódás előtti utolsó másodpercben is. A Tesla versenytársainak vizsgálata alapján – ahol rendelkezésre álltak naplófájlok – megállapították, hogy két alkalommal fordult elő, hogy a sofőrt figyelmeztetni kellett a hasonló balesetet megelőző 5 percben, így a hatóság szerint ezeknél is úgy tűnik, hogy az autósok nem élnek vissza tömegesen a rendszerrel. Azt nem tudjuk, hány ilyen esetet vizsgáltak.

A vizsgálat ugyanakkor leszögezi, hogy ha egy sofőr nem megfelelően, a gyártó ajánlásaival ellentétesen használ egy vezetéstámogató rendszert, az még önmagában nem mentesíti a tervezőit a felelősség alól. Különösen így van ez, ha az emberi tényező, magyarul a visszaélés módja, előre látható, mivel ezeknek a rendszereknek a tervezésénél figyelembe kell venni az emberi viselkedést, a sofőr akarattal, vagy véletlenül adott reakcióit. A vizsgálat következő szakaszában további adatokat vizsgálnak meg és autókat is tesztelni fognak, hogy megállapítsák a Tesla rendszerei felerősítik-e a rossz emberi magatartásmintákat.

Merre tovább?

Eddig a vizsgálat összefoglalója, de most nézzük, mit lehet kiolvasni a sorok között a további irányról.

Először is, egyelőre semmi nyomát nem látni az NHTSA véleményében, hogy arra gyanakodnának, az Autopilot, vagy a konkurens rendszerek nem működnének megfelelően, figyelembe véve a tervezési határaikat. Miközben a média úgy tálalta az ügyet, hogy a Teslák belevezetik a sofőrt a parkoló autóba – erről nincs szó az anyagban.

Úgy tűnik, a további vizsgálódás fókuszában az áll, hogy mennyire ellenőrzik jól ezek a rendszerek, hogy a sofőr figyel-e, vagy sem. Az eddigi eredmények mind a Tesla, mind a versenytársak baleseteink fényében azt mutatják, hogy a hivatal szerint a sofőrök nagy része megfelelően reagál a vezetéstámogatók éberségi riasztásaira, sőt, a többségüket figyelmeztetni sem kell, rendesen fogják a kormányt.

Innentől kezdve a kérdés inkább a figyelmetlen sofőrökről szól, illetve arról, hogy mit kellene még tennie az autónak, hogy biztosítsa a figyelmüket.

Mi azért kíváncsiak lennék arra is, hogy ha, a dolgok jelen állása szerint, nem műszaki okokról, hanem figyelmetlen sofőrökről van szó, akkor az ilyen L2-es, Tesla vagy nem-Tesla balesetek száma hogyan aránylik a vezetéstámogató nélküli esetszámhoz. Az NHTSA saját weboldala beszél ugyanis arról, hogy az utóbbi években jelentősen megnőtt az úton álló segítségnyújtó járművekbe ütköző autók száma – csak Illinois államban 15 ilyen járműbe ütköztek 2019 első három hónapjában, Michiganben pedig havi átlag 4 ilyen esetet regisztráltak. Ők mind Autopilot felhasználók voltak? Ha nem, akkor miért csak az L2-es rendszereknél követeljük meg a sofőr figyelmének biztosítását? Mit mutatnak a hivatal adatai az egy millió mérföldre eső balesetek számban az ilyen rendszerekkel szerelt, illetve ezeket nélkülöző autók viszonyában? Ezekkel több, vagy kevesebb a baleset?

Érdekes az a megfogalmazás is, hogy az ilyen rendszereknek számolniuk kell az előrelátható emberi viselkedéssel. De mi az előre látható? Oké, hogy az NHTSA számon kéri a gyártókat, hogy miért nem látták előre, hogy egyesek egy súlyt kötnek majd a kormányra, hogy kijátsszák a szenzorokat, de ha ez ennyire nyilvánvaló volt, akkor ezeket a rendszereket miért engedélyezte a hivatal? Ők miért nem látták előre?

Nincs időd naponta 8-10 hírt elolvasni? Iratkozz fel a heti hírlevelünkre, és mi minden szombat reggel megküldjük azt a 10-12-t, ami az adott héten a legfontosabb, legérdekesebb volt. Feliratkozás »

Elektromos autót használsz?

Biró Balázs

A fenntartható közlekedés elkötelezett híve, akit elsősorban a Tesla céltudatos és piacot felforgató tevékenysége rántott magával ebbe a világba, így publikációi elsősorban erre a területre koncentrálnak.