W obliczu zbliżającej się wielkimi krokami ery autonomicznych samochodów, zaczynamy zauważać coraz więcej wad tego nowoczesnego rozwiązania. Niestety, część z nich poznajemy dopiero wtedy, kiedy jest za późno, a przykładem takiej sytuacji jest tragiczny wypadek, w którym brało udział autonomiczne Volvo Ubera. Po dwóch miesiącach wiemy, że zawiniło oprogramowanie.
Nie dalej jak tydzień temu informowałem Was o zderzeniu, w którym brało udział autonomiczne auto od Waymo. Wspomniałem wtedy również o śmiertelnym wypadku, który został spowodowany przez autonomiczne Volvo, testowane w Arizonie przez Ubera. Osąd internautów w tej sprawie bywał dosyć jednostronny – przecież zawinił pieszy. Okazuje się, że sprawa nie jest taka zero-jedynkowa, bowiem wina leży… po drugiej stronie.
Myślę, że sam aspekt autonomii niektórych samochodów można by było sprowadzić do dwóch aspektów – części sprzętowej, która odpowiada za rejestrowanie sytuacji, oprogramowania, które analizuje otoczenie i podejmuje stosowne decyzje. Jeżeli mamy zaufać dwuśladowi i nie zdawać się na własne wybory, musimy zadbać, aby obie te płaszczyzny były możliwie bardzo dopracowane. Są sytuacje, których nie da się uniknąć zarówno jako człowiek, jak i jako maszyna, ale…
W autonomicznym Uberze zawiniło oprogramowanie
Przeprowadzone śledztwo wykazało, że w dniu wypadku wszystkie systemy – LIDAR, radary, czujniki i kamery – pracowały prawidłowo i brak jest jakichkolwiek podstaw, aby twierdzić, że było inaczej. Analizując tę sytuację często zwracamy uwagę na fakt, że kobieta przechodziła przez drogę w źle oświetlonym miejscu i kierowca-człowiek by jej nie zauważył, jednak według raportu, elektronika powinna poradzić sobie z tym bez żadnego problemu.
Co więcej – okazało się, że system „sztucznej inteligencji”, radary i kamery wykryły i śledziły przechodzącą przez drogę kobietę, jednak uznały obiekt za fałszywy alarm i nie podjęły decyzji o rozpoczęciu hamowania lub próbie ominięcia. System został „nauczony” ignorowania na przykład spadających liści czy innych przedmiotów, które napotyka nasz samochód na drodze, a nie stwarzają przy tym zagrożenia. Niestety, jakkolwiek źle to nie brzmi, wygląda na to, że potrącona kobieta została przez system zignorowana i nie została podjęta próba uniknięcia zderzenia.
Skutki całego zdarzenia okazały się być tragicznymi do tego stopnia, że Uber zdecydował o odwołaniu testów autonomicznych pojazdów na terenie Stanów Zjednoczonych do odwołania, zatrudnił byłego prezesa Narodowej Rady Bezpieczeństwa Transportu, przeprowadza wewnętrzny audyt, który ma zlokalizować podłoże problemu oraz wypłacił rodzinie ofiary zadośćuczynienie finansowe.
Ale nie samym oprogramowaniem Uber jeździł…
Na samym końcu warto jeszcze zaznaczyć, że autonomiczne Volvo nie poruszało się drogami zupełnie samodzielnie. Mówiąc dokładniej – całość powinna być kontrolowana ze środka przez wyznaczoną do tego osobę, która w danym momencie nie skupiła się na drodze, lecz na smartfonie i nie zdążyła zareagować odpowiednio wcześnie. Czy zdążyłaby, gdyby uważnie obserwowała otoczenie? Tego nie wiemy.
źródło: GeekWeek