Interessant

Programmerer vi Killer Cars? Etikken til autonome kjøretøyer

Programmerer vi Killer Cars? Etikken til autonome kjøretøyer


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

I løpet av de siste årene har flere og flere autonome funksjoner blitt innebygd i biler. Og for bare et par måneder tilbake ga Tesla ut den følgende videoen der den skrøt av å ha oppnådd "Full Self-Driving."

En Techopedia-artikkel rapporterte at selv tidligere Tesla-biler inneholdt "den nødvendige maskinvaren for autonom kjøring," selv om aktivering av evnen var avhengig av en programvareoppdatering. Artikkelen så også for seg forskjellen mellom måten autonome biler bygget i dag vil skille seg fra i fremtiden.

For øyeblikket er Tesla-biler utstyrt med nødvendig maskinvare for autonom kjøring, men programvareoppdateringer er nødvendige for å aktivere funksjonen fullt ut. Selv om det vil tillate fullstendig autonom kjøring, vil det også fortsatt tillate den menneskelige sjåføren å ta kontroll når situasjonen krever inngrep.

Den neste generasjonen av autonome biler trenger imidlertid ikke ratt, pedaler eller girkasser. Fordelen med slike biler er muligheten for å redusere ulykker og gi nødvendig transport for personer som ikke er i stand til å kjøre som eldre eller de med syns- eller fysiske funksjonshemninger.

Men det er også en potensiell ulempe: nødvendigheten av det menneskelige byrået som setter opp bilens programmering for å forutse alle mulige scenarier og å lede bilen til å gjøre den slags dommer folk må når scenariet krever handling som uunngåelig vil føre til noen form for skade.

Selv om Tesla kan være det mest kjente navnet på AI-fronten for biler, er det absolutt ikke den eneste aktøren i dette voksende markedet. Noen langt mer ærverdige navn i bransjen har også kommet i gang.

RELATERT: DEN INTERESSANTE HISTORIEN OM ELEKTRISKE BILER

Bernard Marr skrev nylig om Toyotas milliardinvestering i selvkjørende biler og AI. Selskapet har satt seg mål for seg selv som det ønsker å nå innen 2020:

"Gjennom Toyotas investeringer i tekniske oppstart som Perceptive Automata håper det å skape teknologien for å tillate autonome kjøretøy mer menneskelignende intuisjon når de er på veien, mer lik hvordan menneskelige sjåfører samhandler med fotgjengere."

Selvkjørende sikkerhetsliste

Selvfølgelig er vi ikke der ennå. Men spørsmålet er om det er det endelige målet, og om det er noe vi bør forfølge uten fullstendige hensyn til forgreningene til en helt uavhengig bil.

Hver enkelt selvkjørende bilulykke og dødsliste viser ni ulykker som involverer autonome kjøretøyer, hvorav bare fire forårsaket omkomne. Til tross for påstandene om tittelen, er listen imidlertid ufullstendig, ettersom det har skjedd dødsfall fra slike ulykker etter at artikkelen ble publisert.

Det siste dødsfallet det rapporterte var den som involverte en Tesla Model X 23. mars 2018. Føreren av bilen døde da den traff en motorveisperre. Tesla beskyldte det for barrierenes forstyrrelse av kjøretøyets autonome kjøresystem:

"Årsaken til at dette krasj var så alvorlig, er at kollisjonsdemperen, en motorveissikkerhetsbarriere som er designet for å redusere støtet i en betongfeltdeler, ble knust i en tidligere ulykke uten å bli erstattet," sa Tesla i sin uttalelse.

Selskapet la til: "Vi har aldri sett dette nivået av skade på en Model X i noen annen krasj."

Dessverre var det imidlertid ikke slutten på fatale krasj for Teslas selvkjørende biler. Flere av dem skjedde i år.

Blant hendelsene var en 1. mars 2019. Det ble bekreftet av US National Transportation Safety Board (NTSB) at den semi-autonome Autopilot-programvaren var engasjert i en Tesla Model 3 da den ble smeltet inn i en traktorvogn som forsøkte å krysse en Florida. motorveien og bilføreren ble drept.

Selv om de fremdeles er relativt sjeldne, sammenlignet med bilulykker forårsaket av menneskelige sjåfører, har det faktum at det er noen ulykker og drepte forårsaket av selvkjørende biler, gjort folk bekymret for deres sikkerhet og programmering. Faktisk kastet Quartz litt tvil om Teslas sikkerhetskrav.

I likhet med den Tesla-ulykken fører de fleste autonome bilulykkene til at personen som sitter i førersetet, dør. Imidlertid har det vært tilfeller av mennesker utenfor bilen som ble slått og drept av autonome biler.

Den mest beryktede hendelsen av den typen kan være den som involverte Uber i Elaine Herzbergs død i mars 2018. Den 49 år gamle kvinnen gikk og dyttet sykkelen sin over Mille Avenue i Tempe, Arizona da Uber-bilen traff henne.

Du kan se videoen av hendelsen som ble utgitt av politiet her:

Som et resultat av det vedtok Uber en policy for å sørge for å inkludere menneskelige sjåfører i bilene sine. Historien ble rapportert her: Uber setter selvkjørende biler tilbake til jobb, men med menneskelige sjåfører.

Dette er en måte for Uber å omgå problemet vi må møte, hvis og når helt autonome biler blir normen: hvordan man programmerer dem for å innlemme instinktet for å bevare menneskelivet.

Programmering av AI med omtanke for etikk

Som vi så i en annen artikkel, kommer Our Brave New World: Why the Advance of AI Raises Ethical Concerns, med den store kraften til AI, et stort ansvar for å fastslå at teknologien ikke ender opp med å gjøre situasjonene verre i fremdriftens navn. Studiet av etikk for AI har fanget oppmerksomheten til folk som tenker på hva som må gjøres før implementering av automatiserte løsninger.

En av disse menneskene er Paul Thagard, Ph.D., en kanadisk filosof og kognitiv forsker som tok opp noen av problemene vi nå må konfrontere med hensyn til programmering av etikk til AI i Hvordan bygge etisk kunstig intelligens.

Han løfter følgende tre hindringer:

  1. Etiske teorier er svært kontroversielle. Noen mennesker foretrekker etiske prinsipper etablert av religiøse tekster som Bibelen eller Koranen. Filosofer krangler om hvorvidt etikk skal være basert på rettigheter og plikter, på det største gode for flest mulig mennesker, eller på å handle dydig.
  2. Å handle etisk krever tilfredsstillende moralske verdier, men det er ikke enighet om hvilke verdier som er passende eller til og med om hva verdier er. Uten en redegjørelse for passende verdier som mennesker bruker når de handler etisk, er det umulig å justere verdiene til AI-systemer med verdiene til mennesker.
  3. For å bygge et AI-system som oppfører seg etisk, må ideer om verdier og rett og galt gjøres tilstrekkelig presise til at de kan implementeres i algoritmer, men presisjon og algoritmer mangler veldig i dagens etiske overveielser.

Thagard tilbyr en tilnærming for å overvinne disse utfordringene, sier han, og refererer til boken sin, Naturfilosofi: Fra sosiale hjerner til kunnskap, virkelighet, moral og skjønnhet. I løpet av artikkelen tilbyr han imidlertid ikke en løsning som spesifikt tar for seg selvkjørende bilprogrammering.

Selvkjørende biler og tralleproblemet

Ideelt sett unngår sjåfører å treffe noe eller noen. Men det er mulig å finne seg i en situasjon der det er umulig å unngå en kollisjon, og det eneste valget er hvilken person eller personer du skal treffe.

Dette etiske dilemmaet er det som er kjent som Trolley Problem, som, i likhet med tralle selv, går tilbake over et århundre. Det presenteres vanligvis som følger:

Du ser en rømningsvogn som beveger seg mot fem bundet (eller på annen måte inhabiliserte) mennesker som ligger på sporene. Du står ved siden av en spak som styrer en bryter. Hvis du trekker i spaken, blir vognen omdirigert til et sidespor, og de fem personene på hovedsporet blir lagret. Imidlertid er det en enkelt person som ligger på sidesporet.

Du har to alternativer:

  1. Gjør ingenting og la vognen drepe de fem menneskene på hovedsporet;
  2. Trekk i spaken, og før vognen på sidesporet der den vil drepe en person.

Selvfølgelig er det ikke noe veldig godt valg her. Spørsmålet er hvilken som er den minste av to dårlige alternativer. Det var nettopp denne typen dilemma Green Goblin presenterte Spiderman i filmen fra 2002, og forsøkte å tvinge ham til å velge mellom å redde en taubane full av barn eller kvinnen han elsker:

Å være en superhelt, var Spiderman i stand til å bruke sine web-spinning evner og styrke til å redde begge deler. Men noen ganger må til og med superhelter ta et tragisk valg, slik det var i 2008-filmenThe Dark Knight hvor Batmans valg var å la kvinnen han elsket i bygningen som eksploderte.

Så selv de som har overlegne evner, kan ikke alltid redde alle, og den samme situasjonen kan gjelde for AI-aktiverte biler.

Spørsmålet er da: Hvilken etisk kode bruker vi for å programmere dem til å ta slike valg?

Hva skal den selvkjørende bilen gjøre?

MIT Technology Review gjorde oppmerksom på noen forskere som jobbet med å formulere svarene for noen år siden i Hvordan hjelpe selvkjørende biler med å ta etiske beslutninger. Blant forskerne på området er Chris Gerdes, professor ved Stanford University som har sett på "de etiske dilemmaene som kan oppstå når kjøretøyets selvkjøring blir utplassert i den virkelige verden."

Han tilbød et enklere valg: det å håndtere et barn som løp ut på gaten, noe som tvinger bilen til å treffe noe, men lar det velge mellom barnet og en varebil på veien. For et menneske som skal være en no-brainer, er det viktigere å beskytte barnet enn å beskytte varebilen eller selve den autonome bilen.

Men hva ville AI tenke? Og hva med passasjerene i kjøretøyet som kan ende med å pådra seg noen skader fra en slik kollisjon?

Gerdes bemerket: "Dette er veldig tøffe beslutninger som de som designer kontrollalgoritmer for automatiserte kjøretøyer møter hver dag."

Artikkelen siterer også Adriano Alessandrini, en forsker som arbeider med automatiserte biler ved University de Roma La Sapienza, i Italia, som har fungert som leder for den italienske delen av det europeiske baserte CityMobil2-prosjektet for å teste automatisert transittbil. Se videoen om det nedenfor:

Hun innkapslet Tralle-problemet for sjåfører og selvkjørende biler i denne summeringen:

“Du kan se noe i veien for deg, og du bestemmer deg for å bytte kjørefelt, og som du gjør, er det noe annet i den kjørefilen. Så dette er et etisk dilemma. ”

En annen fremtredende ekspert på området er Patrick Lin, professor i filosofi ved Cal Poly, som Geerdes har jobbet med. Lin's TED-Ed tar de etiske problemene i programmering av selvkjørende biler for å ta liv eller dødsbeslutninger, blir presentert som et tankeeksperiment i denne videoen:

Hvis vi kjørte boksen i bilen i manuell modus, ville den måten vi ville reagere forstått som nettopp det, en reaksjon, ikke en bevisst beslutning, "sier Lin i videoen. Følgelig vil det bli forstått å være" en instinktivt panikkbevegelse uten fortenking eller ondskap. "

Den veldig reelle muligheten for at dødsfall oppstår som et resultat ikke av en funksjonsfeil, men som et resultat av at bilene følger deres programmering, er det som gjør det så viktig å tenke fremover hvordan man skal håndtere det Lin beskriver som "en slags målalgoritme."

Han forklarer at slike programmer "systematisk favoriserer eller diskriminerer en bestemt type gjenstand å krasje inn i."

Som et resultat vil de i "målkjøretøyene lide de negative konsekvensene av denne algoritmen uten egen skyld."

Han tilbyr ikke en løsning på dette problemet, men det er en advarsel om at vi må tenke på hvordan vi skal håndtere det:

"Å få øye på disse moralske hårnålssvingene nå, vil hjelpe oss å manøvrere den ukjente veien til teknologietikk, og tillate oss å cruise trygt og samvittighetsfullt inn i vår modige nye fremtid."

Det vil sannsynligvis være en enda større utfordring å navigere enn veiene de autonome kjøretøyene må kjøre på.


Se videoen: Grand Theft Auto V - Christine The Killer Cars (Juni 2022).