Vem bär ansvaret för en olycka när en självstyrande bil krockar?

Publicerat:13 februari, 2017
EU-parlamentets rättsliga utskott har den 12 januari beslutat att föreslå Parlamentet att uppmana EU-kommissionen att ta fram regler för robotar och artificiell intelligens. Legala frågor kring ansvar, säkerhet och förändringar inom arbetsmarknaden på grund av det snabbt växande området måste utredas enligt utskottet. Legala standarder måste till, och utskottet vill att EU fastställer egna etiska och legala standarder innan EU tvingas följa sådana upprättade av ett tredje land. Syftet är att tillse att robotar är och förblir i människans tjänst, och att utnyttja istället för att hindra den ekonomiska potentialen som ligger i robotutvecklingen.

I förslaget till Parlamentet är det uppenbart vilken koppling dagens verklighet har till fiktionen. Man hänvisar uttryckligen till Mary Shelleys Frankensteins monster, Pygmalion, legenden om Golem, Karel Čapek (den tjeckiske författaren som redan 1920 myntade ordet ”robot”) och drömmen som länge funnits att människor ska kunna skapa intelligenta maskiner, i fiktionens värld ofta androider med mänskliga drag. Det rättsliga utskottet hänvisar till och med till författaren Isaac Asimovs lagar från 40-talet som man menar ska utgöra grunden till ansvar för utvecklare och designers. Asimovs lagar (också kallade robotikens lagar) säger att (1) En robot får aldrig skada en människa eller, genom att inte ingripa, tillåta att en människa kommer till skada. (2) En robot måste lyda order från en människa, förutom om sådana order kommer i konflikt med första lagen. (3) En robot måste skydda sin egen existens, såvida detta inte kommer i konflikt med första eller andra lagen.

Utskottet föreslår också att man ska skapa en ”European Agency” inom området för att tillhandahålla europeiska myndigheter med teknisk, etisk och legal expertis. Man efterfrågar även en frivillig etisk code of conduct som ska reglera vem som ska hållas ansvarig för sociala, hälso- och miljömässiga aspekter och som ska säkerställa att man agerar i enlighet med legala, etiska och säkerhetsmässiga standarder. I denna code of conduct föreslås att en ”kill switch” ska finnas, så att robotar i en akut situation ska kunna stängas av. Man talar vidare om att det bör övervägas om robotar ska erhålla en specifik legal status som ”electronic persons”, för de mest avancerade autonoma robotarna, för att tydliggöra ansvar vid skador eller olyckor.

Robotics, som det tekniska området kallas, är mer och mer betydande, och har redan nu ett större inflytande i allas våra liv än vad vi förmodligen är medvetna om.

Det talas mycket om självkörande bilar, men även Internet of Things (IoT) – den uppkoppling mot Internet som sker genom att sensorer och datorer byggs in i fordon, verktyg, telefoner, hushållsaparatera och kläder till exempel – kan komma att omfattas av EUs lagstiftningsarbete inom detta område.

Man beräknar att omkring 50 miljarder IoT-enheter kommer att vara uppkopplade runt 2020. Självkörande bilar finns redan på marknaden, och utvecklas vidare i rask takt av flera biltillverkare. Vad händer när robotar ska ge finansiella eller legala råd? Den legala utvecklingen på området kommer att få konkreta effekter för de företag som arbetar med denna typ av teknologi.

Av naturliga skäl uppkommer frågor som får både etiska och legala konsekvenser – vem ska ansvara för en olycka med en självkörande bil som beror på en felprogrammering? Hur ska man hantera artificiell intelligens och kontrollera ansvaret för en robot som lär sig själv?

Den 16 februari är det tänkt att Parlamentet ska fatta beslut på förslaget, och laginitiativet överlämnas därefter till Kommissionen för vidare beslut om man ska påbörja lagstiftningsarbetet.

____________________

Sara Malmgren, advokat på Foyen Advokatfirma