96 miljoner till forskningsprojekt inom AI och autonoma system
Marianne och Marcus Wallenbergs Stiftelse har beviljat 96 miljoner kronor till 16 forskningsprojekt för att studera hur artificiell intelligens och autonoma system påverkar vårt samhälle och våra beteenden. Projektet är tvärvetenskapligt och består av forskare inom robotik, filosofi och kognitionsvetenskap. Stefan Larsson, Institutionen för teknik och samhälle på LTH, har fått sex miljoner kronor till projektet som han leder.
– Published 13 September 2019
De 16 projekten söker svar på ett antal frågor som rör etik, samhälle och beteenden i samband med det teknikskifte som samhället står inför. Några exempel på frågor är: Hur förändras arbetsmarknaden när robotar tar över arbeten? Vad innebär den framväxande tekniken av ansikts- och röstigenkänning? Hur påverkas människors beteende när drönare blir allt mer vanliga? Vad händer i handeln när AI allt mer styr konsumenters val? Kan digitala assistenter motverka stressrelaterad ohälsa? Vem avgör vilka etiska val som AI ska göra?
– Det är oerhört viktigt att Sverige hänger med i det teknikskifte som nu sker. Det handlar dels om att vara med och utveckla och implementera tekniken dels om att vi som användare ska ta den till oss och våga nyttja den. Det är därför viktigt att studera såväl positiva som negativa effekter både för den enskilda människan och samhället i stort. Genom att undersöka nyttor och faror kan vi få ett tryggare förhållningsätt till det nya, säger Peter Wallenberg Jr, ordförande för Marianne och Marcus Wallenbergs Stiftelse.
De 16 projekten är fördelade på nio universitet och institutioner över hela landet.
Projekten ingår i det nationella forskningsprogrammet, WASP-HS, där förkortningen HS står för humaniora och samhälle. Forskningsprogrammet som är initierat av Marianne och Marcus Wallenbergs Stiftelse och Stiftelsen Marcus och Amalia Wallenbergs Minnesfond, omfattar totalt 660 miljoner kronor under tio år. Programmet ska framför allt analysera etiska, ekonomiska, arbetsmarknadsmässiga, sociala och juridiska aspekter som kan komma med det pågående teknikskiftet i samhället.
Inom WASP-HS kommer även en omfattande forskarskola att bedrivas med upp till 70 doktorander, minst tio nya forskargrupper, tolv gästprofessorer och ett antal forskningsprojekt.
Nedan följer beskrivning av de tre Lundaprojekt som fått ekonomiskt stöd:
Hur stärks konsumenters tillit för artificiell intelligens?
Hur mycket behöver man som konsument förstå av artificiell intelligens, AI, för att känna tillit till den i handeln, till försäkringsbolagets användning eller för röstassistenten i hemmet? Hur transparent behöver den vara för konsumenter, företag och tillsynsmyndigheter?
De är några av de frågor som ska studeras i projektet "AI Transparency and Consumer Trust" som leds av Stefan Larsson, institutionen för teknik och samhälle på LTH.
Konsumenter interagerar i allt högre utsträckning med AI och autonoma system i sin vardag, genom rekommendationssystem, automatiserat beslutsfattande och röst- och ansiktsigenkänning. Fördelarna är många och möjligheterna enorma, för både individer, tjänsteutvecklare, handlare och samhället i stort. Konsumenternas tillit och teknologiernas tillförlitlighet utgör samtidigt en tröskel för AI-utvecklingen.
Forskargruppen kommer framför allt att studera hur AI regleras på konsumentmarknader, konsumenternas egen inställning och förståelse för AI samt hur AI-processer kan bli mer transparenta utifrån ett kombinerat samhällsvetenskapligt, rättsligt och tekniskt perspektiv.
Rättsliga aspekter på kvantdatorer
Utvecklingen av kvantteknologin och kvantdatorer kommer att få stor betydelse för det framtida samhället. Valentin Jeutner, vid juridiska institutionen, leder projektet ”Quantum law: The legal significance of quantum computing” som ska undersöka vad den nya teknologin kan komma att innebära för våra lagar och hur den kan nyttjas av rättssystemet.
Kvantteknologin i kombination med artificiell intelligens och maskininlärning blir både betydligt snabbare och effektivare än dagens datorkapacitet. Teknologin innebär många nya möjligheter men kan även ge upphov till nya problem och risker med skadliga konsekvenser. Till exempel kommer kvantdatorer att göra dagens kryptering verkningslös. Att processer som styrs av artificiell intelligens blir snabbare och mer effektiva innebär också att fel som uppstår kan bli allvarligare och mer omfattande.
Projektet utgå från tre övergripande frågor. Hur kommer kvantteknologin att påverka lagstiftningen inom olika rättsområden? Bland annat undersöks hur det rättsliga skyddet för privatlivet behöver anpassas samt var det juridiska ansvaret ligger om användning av kvantteknologi leder till oavsiktliga konsekvenser, till exempel i medicinska sammanhang.
Kan kvantdatorer användas för att optimera rättslig tvistlösning? Exempelvis genom nya modeller för rättslig argumentation eller för att förutse utgången i en rättslig process?
Den sista frågan lyder: kan studier av kvantteknologi hjälpa oss att nå en fördjupad förståelse av rätten och dess funktioner? Forskarna ställer sig frågan om det går att finna gemensamma nämnare mellan fysikens, och specifikt kvantfysikens, lagar och de lagar som stiftas i en stat.
Etik för autonoma system och artificiell intelligens
Vilka värderingar och normer bör användas när vi bedömer hur autonoma AI-system fungerar ur ett etiskt perspektiv? Det är en fråga som en forskargrupp vid Lunds universitet kommer att undersöka under ledning av Christian Balkenius, kognitionsvetenskap. Deras projekt går under namnet "The imperfect creator creating the perfect: Ethics for autonomous systems/AI".
Även om teknologin är universell är moralen det inte. Redan nu styr olika etiska teorier debatten om vad AI ska, eller borde göra.
Forskarna i projektet kommer att göra en konsekvensanalys av olika etiska teorier för att beskriva de mekanismer som krävs för att autonoma AI-system ska kunna bete sig i enlighet med vad de etiska teorierna förespråkar. Arbetet kommer att utgå ifrån modern inlärningsteori som utgår från att AI-systemen kan lära sig om konsekvenser utifrån erfarenhet samt genom observationer av människors beteende och känslor.
Begreppen nytta, jämlikhet och överlägsenhet i jämförelse med människan kommer att vara centrala. Robotars förmåga att ta över enkla arbetsuppgifter och utföra dem billigare, mer exakt och utan att behöva vila gör nyttan uppenbar. Robotars och AI-systems förmåga att ta över mer komplicerade arbetsuppgifter och utföra dem som om de nästan vore människor, gör likheten tydlig. AI-utvecklingens nästa stora steg, då de blir självlärande men utan mänskliga fel och brister och då de kanske kommer att kunna fatta bättre beslut än människan, kan göra dem till överlägsna övermänniskor. Men hur beter de sig vid etiska dilemman? Ska nyttan för många ske på bekostnad av några? Vilken hänsyn ska tas till mänskliga rättigheter och integritet? Vilka algoritmer ska styra? Vad bedömer en stat, ett samhälle som gott? Vem avgör?
Projektet är tvärvetenskapligt och består av forskare inom robotik, filosofi och kognitionsvetenskap.