Dlaczego o tym wspominam? Ostatnio natknąłem się na artykuł, który rozważał ten problem w kontekście automatycznych samochodów. Że niby nieistotny problem? A co powiecie na to: autonomiczne samochody od Google'a przejechały już w Stanach łącznie około 1,2 miliona kilometrów nie powodując ani jednego wypadku (co innego uczestniczyć). Volvo się zarzeka, że do 2017 wypuszczą pierwsze automatyczne samochody. Zapewne nie zrewolucjonizują transportu w najbliższych latach ale jednego trzeba być świadomym - takie samochody już są i jeżdżą na codzień.
Współczesny bunt maszyn: "nie zawiozę cię znowu do monopola, powinnaś się leczyć!". |
Zagadnieniem tego typu zajmuje się Bioetyka, która sprowadza ten problem do binarnego wyboru między utylitaryzmem a deontologią. Według tej pierwszej filozofii najważniejsze jest dobro ogółu, więc jeśli programowano by samochody zgodnie z nią to... cóż, witaj ściano! Trochę do przykre, że wsiadając do swojego kupionego pojazdu mamy świadomość, że bez wahania nas poświęci co? Z kolei deontologia twierdzi w skrócie, że pewne wartości są zawsze z góry dobre i złe. Morderstwo jest złe więc np. samochód nie będzie mógł podjąć decyzji o zabiciu własnego pasażera a wtedy mamy poniższą sytuację:
Jak zatem podejść do zagadnienia? Z tego co czytałem to Bioetycy skłaniają się bardziej ku utylitaryzmowi. Zanim jednak wyruszycie z gwoździami do przebijania opon by zatrzymać mechanicznych morderców musicie wiedzieć, że są dwa rodzaje utylitaryzmu. Wolno tłumacząc: przepisowy i oparty na działaniu. Ten pierwszy skreślany jest od razu: to ten ekstremalny. Bardziej nas interesuje wersja oparta na działaniu. W tym wypadku każde zdarzenie jest analizowane jako odrębne. Bo co innego gdy na przejściu dla pieszych znajdzie się pięcioro dzieciaków a co innego gdy pięcioro morderców (no co, oni też muszą przechodzić przez jezdnię) prawda? To podejście wygląda odrobinkę lepiej niż reszta, jednakże komputer nie potrafi podjąć dobrej decyzji ze 100% skutecznością - to fakt. Dopóki nie będziemy mieli prawdziwej sztucznej inteligencji to nie da się zaprogramować moralności w procesor w samochodzie. A sama prawdziwa SI będzie też miała ten sam problem co my teraz.
Co zatem proponuję? Hm, wydaje mi się, że najrozsądniejsze będzie stworzenie swojego rodzaju Bazy Doświadczeń, gdzie trafia każde zdarzenie niezależnie od tego czy decyzja podjęta była dobra czy zła. W ten (dość makabryczny, przyznaję) sposób samochody mogłyby się uczyć reakcji - zamiast przeprowadzać skomplikowane kalkulacje wystarczyłoby sięgnąć do bazy danych i sprawdzić czy już taka sytuacja była. A jeśli nie? No cóż, gratulacje za chwilę staniesz się pionierem i twój wypadek będzie ładnie opisany w bazie danych. Oczywiście trochę szydzę ale problem pozostaje otwarty, co jest dość niepokojące. Ciekawi mnie tylko jak są zaprogramowane te samochody, które JUŻ SĄ dopuszczone do jazdy.
Strach się bać oO
OdpowiedzUsuń