Water droplet in shallow tank. Photo by Terry Vlisidis on Unsplash

Strategier för utveckling av framtidens artificiella intelligens

AI i framtidens hållbara städer, del 2

Magnus Boman
Viable Cities
Published in
8 min readOct 3, 2019

--

Både Sverige och EU jobbar på en strategi kring artificiell intelligens. Den svenska skrivs det på just nu så den får vi återkomma till. Sverige har emellertid en representant i EU-kommissionens expertgrupp inom artificiell intelligens. Jag träffade Fredrik Heintz, som länge drivit AI-forskningsfrågor i nationellt perspektiv i Sverige, i en kort paus på ett AI-seminarium kring svensk-indiskt samarbete tidigare i år. Fredrik hade just fått den tryckta rapporten i näven och han var glad och inte så lite stolt över vad den så kallade High-Level Expert Group on AI åstadkommit.

Bland de 52 medlemmarna i gruppen finns också Virginia Dignum, som värvats från Nederländerna till Umeå universitet. Precis som Fredrik har Virginia i över två decennier ägnat sig åt AI-frågor, i hennes fall mer inriktat på etik och normer. Detta, märk väl, långt innan det blev på modet. Hon är en av 24 kvinnor i gruppen. Det är värt att titta på sammansättningen på den officiella sidan, som kan ha det brokigaste bildgalleri som någonsin prytt en officiell EU-sida. Inga blå bakgrunder och enhetliga profiler här, utan ett spektrum från mest propra ’business attire’ till bilder som ser ut som de kom från en kontaktannons. Uppfriskande i sig.

Så tillsattes också gruppens medlemmar i en öppen process. Google fick i våras känna på hur det kan gå om processen är sluten, efter att deras grupp för AI-etik stängdes ned efter en vecka. Då hade bland annat 2.300 Google-anställda skrivit på ett upprop för att protestera emot en av ledamöterna företaget hade valt ut för gruppen. EU-gruppen har nu jobbat, också det i en öppen process, i ett år med att stödja införandet av en europeisk AI-strategi. Hur har det gått hittills? Rapporten som Fredrik sträckte över till mig på det där seminariet i New Delhi är det första konkreta resultatet. Den heter Ethics Guidelines for Trustworthy AI och det går bra att anmäla sig för att bidra till det fortsatta arbetet via samskapandeplattformen Futurium.

Vad ska då EU med en sån här rapport till? Rapporten säger sig vilja stimulera användningen av pålitlig AI. Med det menas etisk och robust AI. Laglig behöver den vara dessutom, men författarna till rapporten skjuter upp den aspekten, kanske för att EU-juristerna är en jobbig grupp att ta i båten när det ska färdas framåt fort. Etisk AI, hävdas det:

1. respekterar mänsklig bestämmanderätt,

2. förhindrar skada,

3. är rättvis, samt

4. är explikerbar.

Den andra punkten ovan blir lite snårig, exempelvis för att lite skada kan krävas för mycket nytta. Låt säga att ett AI-system kan effektivisera fördelningen av dricksvatten i Chennai, där just nu vattenbrist råder. Systemet körs på ett datorsystem som kräver vattenkylning. På så vis sitter den andra punkten ihop med den första och tredje. Författarna till rapporten medger också att punkterna inte kan behandlas en och en. Punkt 4 är ontologisk: filosofer skiljer på att förklara något och att explikera det. Men i stort handlar det om att en medborgare ska kunna få begripliga svar på varför ett AI-system beslutat eller rekommenderat något.

Hur pålitlig AI ska kunna bli verklighet behandlas i ett eget kapitel, i vilket sju krav listas. Men mer spännande är för mig frågan om opålitlig AI. Om vi nu får lära oss precis vad EU tycker att pålitlig är, vad göra med all AI som inte uppfyller kraven och alltså är opålitlig? Att frågan engagerar mig beror på att jag både sett och själv försökt använda uppenbart opålitlig AI-programvara. Det senaste exemplet var ett system jag själv varit med och utvecklat, för analys av bland annat ögonkontakt mellan mor och barn i filmad interaktion. Systemet fungerar utmärkt så länge alla ansikten är vita, annars knappt alls. Det skulle jag kalla opålitligt och till och med oanvändbart. Att sälja sådan programvara som en produkt vore direkt oetiskt.

Vad jag hoppas på är att alla som inom EU utvecklar intelligenta programvarutjänster med tveksamma etiska följder ska kunna stoppas. Det kan ju å ena sidan låta onödigt negativt, eftersom jag fokuserar på att hindra istället för att stödja mjukvaruutvecklingen inom EU. Det står exempelvis i rapporten att: ”We also want producers of AI systems to get a competitive advantage by embedding Trustworthy AI in their products and services.” (s.4). Å andra sidan kan jag inte tänka mig något mer negativt i sammanhanget än att de etiska perspektiven åsidosätts och en tjänst används för, låt säga, smarta vapen mot civila.

EU kan inte köpa sig trygghet eller hitta på lagar och regler som ger medborgarna garantier vad gäller trygghet. Det beror inte på lagarna eller reglerna, ej heller på någon etisk strategi. Problemet är istället begreppet ’trygghet’. Det är sällan något att sträva efter, särskilt i en innovationsmiljö. Att balansera på kanten av lagarna och reglerna, som en Bladerunner, är istället en fantastiskt bra plats för att utmana existerande lösningar. Och det är väl det som behövs för att möta målen i Agenda 2030, att vi balanserar på randen? Så det är inte för tryggheten jag längtar efter hindersprövning på etisk grund. Jag tänker istället på ett slags extra varv av funderande hos uppfinnare. Lite som den forskare som vill göra försök på djur eller människa, eller hantera känsliga data om människor, som då behöver genomgå etisk prövning. Den som tvingas motivera sitt teknikval har valt mer noga, vill jag påstå. Det borde vara bra för alla.

Tryggheten finns med i ett helt annat slags dokument om AI också. Jonas Bjarne på Stiftelsen för Strategisk Forskning (SSF) uppmärksammade mig på president Trumps Executive Order on Maintaining American Leadership in Artificial Intelligence. Jonas är en av dem som tagit chansen att påverka EU:s arbete med AI och vill gärna se andra svenskar göra detsamma. Kanske för att han noggrant läst Trumps dokument. Här är anslaget nämligen ett helt annat. Som strategiskt dokument är detta en chauvinistisk beskrivning av AI-forskning och utveckling, där USA är världsledande och ska så förbli. Ingenstans står att läsa om hur Kanada lockat både enskilda forskare och forskargrupper inom området över gränsen, ej heller om hur start-ups och spin-outs från dessa forskare nu och i framtiden börjat betala kanadensiska skattepengar. Varken EU eller Kina nämns heller. Istället klumpas fiender till USA ihop i ett uttalande om hur federala myndigheter ska skydda den amerikanska AI-tekniken från ”… attempted acquisition by strategic competitors and adversarial nations.” Dessa otäcka länder dyker upp igen som den femte och sista paragrafen från det presidenten kallar det amerikanska AI-initiativet: ”The United States must promote an international environment that supports American AI research and innovation and opens markets for American AI industries, while protecting our technological advantage in AI and protecting our critical AI technologies from acquisition by strategic competitors and adversarial nations.”

Även om vi förväntas tänka på Iran och inte ett EU-land som Sverige som en typisk anti-amerikansk nation så finns det i den amerikanska strategin påståenden och riktlinjer som gör att den kan användas genom att förbjuda saker som strider emot amerikanska intressen. Så har också skett inom andra teknikområden, såsom 5G. Infineon och Huawei är exempel på storföretag som fått känna på detta. Just fallet Huawei har även fått EU-kommissionen att överväga en blockad av företagets teknik inom medlemsländerna. Nätverkssidan är oerhört mycket mer reglerad än AI-sidan så ingen vet idag precis hur liknande obstruktioner rörande AI-teknik kan komma att se ut. Men min poäng är att USA har strategiska dokument som stöder såna aggressiva handlingar, medan EU och många andra länder inte har det. Det filas som sagt just nu på den svenska AI-strategin. En sak att analysera när den är färdig är huruvida den är passiv likt EU-strategin eller aktiv likt USA-strategin. Till dess kan vi notera att EU-kommissionens expertgrupp i juni släppte ett policydokument kallat Policy and investment recommendations for trustworthy artificial intelligence. I det dokumentet finns rubriker som antyder att EU vill ta upp kampen med USA kring AI-utveckling och användning, bland annat genom att producera forskning i världsklass. Men vid noggrannare läsning framkommer det att gruppen tycker att en färdplan för AI i Europa borde utvecklas och upprätthållas. Så färdplanen finns inte ännu.

Ingen av rapporterna innehåller någonting speciellt om städer. Det finns naturligtvis generella aspekter av AI som behandlas och som har bäring på våra städer, men vill vi explicit studera frågan om framtidens smarta hållbara städer kan vi istället läsa om vad Viable Cities medlemmar tycker och tror. Glädjande nog tar EU-rapporten upp flera saker som oroat Viable Cities svenska intressenter. Där finns stycken om individens medbestämmanderätt, risker med AI rörande demokratin, samt hur vi måste ta hänsyn till särskilt utsatta grupper. Däri ligger kanske rapportens största fördel: att författarna är så optimistiska kring hur de kan styra AI-utvecklingen inom EU. Det gör att utbildningen kring AI kan ta med dessa aspekter från början, istället för som en eftertanke, när AI-idéerna redan har byggts in i systemen.

Den här optimismen finns också i den svenske professorn Olle Häggströms kapitel i den högst relevanta skriften från europeiska parlamentet kallad Should we fear artificial intelligence?. Olle, som ofta bloggar färgstarkt om AI-relaterade saker, skriver om hur viktigt det är att ha en väl kalibrerad epistemologisk syn på framtiden och de osäkerhetsresonemang vi behöver föra om den. Han påminner också om att framtiden inte är ristad i sten, våra handlingar har betydelse. I den amerikanska motsvarigheten finns inget av detta med, utan endast en uppmaning att vinna världens förtroende för att det är USA som bör leverera framtidens AI-teknik. Som de gjort de senaste dryga 50 åren. För den amerikanske presidenten finns det bara ett slags opålitlig AI-teknik, tycks det mig, nämligen sådan som tas fram utanför USA:s gränser.

Det här är ett inlägg i bloggserien AI i framtidens hållbara städer som skärskådar löften om att artificiell intelligens (AI) ska göra framtidens hållbara smarta städer möjliga. I inläggen tittar vi särskilt på Sverige och den ambition många av våra städer har i linje med Viable Cities mission att vara klimatneutrala år 2030, som en del i uppfyllandet av FN:s 17 hållbarhetsmål i Agenda 2030. Serien pekar också på relevanta och lyckade satsningar på AI världen över och gör intervjuer med särskilt intressanta personer i sammanhanget.

Serien tar sikte på att analysera det gap som skribenterna tror finns mellan AI som idé och AI tillämpat i verkligheten. Idén diskuteras oftast (men inte alltid) av icke-experter som läst sig till vad AI kan göra genom att läsa populärbeskrivningar, medan tillämpningarna diskuteras av experter som är djupt försjunkna i snäva teknikutmaningar och mest läser specialistlitteratur. När de som bestämmer över vad som ska hända i en stad kring AI i framtiden tar fram och nyttjar beslutsunderlag kan detta gap skapa felaktiga förväntningar och i värsta fall leda till felaktiga beslut. Förhoppningen är att belysa och bidra till att förbättra den här situationen.

Bloggserien görs inom ramen för Viable Cities av AI-professorerna Hedvig Kjellström och Magnus Boman (båda KTH) och kommunikatören Marcus Törncrantz. Ta gärna kontakt med hedvig@kth.se, mab@kth.se, eller marcustorn@gmail.com. Tack för att du läser!

--

--

Magnus Boman
Viable Cities

Professor in Intelligent Software Services at The Royal Institute of Technology (KTH)