Czy zaufamy autonomicznym samochodom? I jak one mają ufać nam?

foto: Alek Jawor

W projektowaniu autonomicznych samochodów bardzo istotna jest kwestia zaufania. W jak dużym stopniu możemy zaufać maszynie? I czy ona zawsze powinna ufać kierowcy? Takimi zagadnieniami zajmuje się prof. Marta Kwiatkowska z Oksfordu.

Czy zaufałbyś/zaufałabyś autonomicznemu samochodowi na tyle, aby wysłać nim swoje dzieci do szkoły? Problem zaufania to istotna kwestia, z którą muszą się zmierzyć producenci autonomicznych samochodów. Samochodów, które sterowane są dzięki algorytmom. Badaniem tej tematyki zajmuje się informatyk prof. Marta Kwiatkowska, Polka z brytyjskiego Uniwersytetu w Oksfordzie. Swoje badania prezentowała w Cambridge podczas konferencji Science: Polish Perspectives.

Dostępne na rynku rozwiązania (np. autopilot Tesli) wymagają jeszcze obecności i kontroli kierowcy. Jednak niektórzy kierowcy są bliscy paniki, kiedy jadą z włączonym autopilotem. Tu zaufania do maszyny zdecydowanie brakuje. Ale są i tacy, którzy – wbrew wskazaniom producenta – drzemią za kierownicą – np. w korku na autostradzie – zdając się całkowicie na działanie algorytmów.

Prof. Kwiatkowska przyjęła definicję, że zaufanie to gotowość jednej strony – ufającego – by wystawić się na skutki działania drugiej strony. Zaufanie bazuje na przeświadczeniu, że druga strona wykona konkretne działanie, ważne dla ufającego, nawet, jeśli nie będzie obserwowana czy kontrolowana.

Mówiła o dylematach, z którymi prędzej czy później trzeba się będzie zmierzyć podczas pisania algorytmów do pojazdów autonomicznych. Czy kiedy na drodze auta pojawia się grupa wielu pieszych i samochód nie ma szans wyhamować, powinien poświęcić życie swojego pasażera, np. gwałtownie skręcając i uderzając w drzewo? A co, jeśli są dwie opcje – uderzyć w jedną osobę albo w kilka? Kiedy takie sytuacje zdarzają się w życiu, kierowca musi podjąć decyzję w ułamku sekundy. Nie zdąży nawet się zastanowić. A twórca algorytmu będzie pewnie musiał uwzględnić i takie ewentualności.

W życiu zdarzają się osoby, które są skłonne poświęcić swoje życie, aby ocalić innego, ale i takie, które nie zdecydują się na taki krok. „Którym samochodem wolelibyście jechać – takim, który poświęca życie pasażera, czy takim, który gwarantuje jego bezpieczeństwo?” – pytała prof. Kwiatkowska. I dodała, że jest to również problem dla producenta, który przecież powinien pasażera bronić przed zagrożeniami.

Z zaufaniem wiąże się też to, że auto – w potencjalnej nieskończoności danych wejściowych – może popełniać błędy. Nie jest więc wykluczone, że np. maszyna mylnie zinterpretuje sygnały z kamer. „Czasami jeden piksel może zmienić klasyfikację obrazu” – powiedziała Kwiatkowska. I wyjaśniła, że taki drobny błąd może sprawić, że auto potraktuje światło czerwone, jako zielone.

Badaczka zwróciła też uwagę na kwestię zaufania maszyny do kierowcy. „Ludzie potrafią być naprawdę zuchwali” – skomentowała. Dlatego trzeba się też zastanowić, w jakiej sytuacji auto nie powinno ufać kierowcy. Opowiadała, że czasami kierowcy wystawiają auto na próbę i wydają mu niemądre polecenia. Jak daleko samochód powinien ufać pasażerowi?

Prof. Kwiatkowska powiedziała, że w następnym kroku – jeśli chodzi o problem zaufania ludzi wobec maszyn – trzeba będzie połączyć siły: inżynierów, przedstawicieli nauk społecznych oraz osób, które mają wpływ na kształtowanie polityki.

Konferencja Science: Polish Perspectives, która odbywała się 3 i 4 listopada, miała na celu integrację środowiska polskich naukowców pracujących za granicą. Portal Nauka w Polsce był jednym z patronów medialnych wydarzenia.

Autor: Ludwika Tomala

PAP – Nauka w Polsce

PODZIEL SIĘ

ZOSTAW ODPOWIEDŹ