En inblick i dagens och framtidens reglering av AI
Sedan 2012 har processorkraften som används för att träna Artificiell Intelligens, AI, nästan fördubblats en gång i kvartalet . Denna exponentiella ökning har lett till monumentala framsteg. Nya möjligheter har skapats inom allt från molntjänster och big data till IT-säkerhet, sjukvård och industri. Verksamheter kan effektiviseras, nya affärsområden dyker upp och revolutionerande produkter kan skapas – men alla mynt har också en baksida. Det har lett till en allt intensivare diskussion kring reglering av AI.
“The development of full artificial intelligence could spell the end of the human race” – Stephen Hawking
Alla är inte övertygade om att AI enbart är av godo. Ett öppet brev om reglering av AI signerades 2015 av 20 000 personer, däribland robot- och AI-forskare, fysikern Stephen Hawking och entreprenören Elon Musk. Det är dock inte bara på det militära området det finns en efterfrågan på reglering av AI. Bill Gates, grundaren av Microsoft, säger att superintelligent AI utgör ett hot för mänskligheten. Om AI når så kallad singularitet, enkelt förklarat punkten där en artificiell intelligens blir självmedveten, riskerar mänskligheten att helt tappa kontrollen över den.
Regleringen utgör en komplex fråga, och den tekniska utvecklingen har legat långt framför den politiska. Sedan en tid tillbaka har dock lagstiftare runtom i världen börjat agera. I USA har Federal Trade Commission satt riktlinjer om ”sanning, rättvisa och jämlikhet inom AI”. Myndigheten som ofta kallats Kinas vakthund på internet, CAC, har i ett uttalande sagt att den kinesiska staten kommer att reglera teknikbolag så att algoritmerna upprätthåller socialistiska kärnvärden. Under de nya reglerna kommer kinesiska myndigheter kunna inspektera algoritmer och begära ändringar hos inhemska tech-bolag. Och Europa har också drivit igenom regleringar.
EU-kommissionen har lanserat ett nytt paket av lagar och regler för hur AI får användas – med böter på upp till 30 miljoner euro vid eventuella regelbrott. Det europeiska systemet är möjligen det mest utvecklade regelverket för artificiell intelligens, där en indelning i fyra riskklasser för icke-militär AI leder till olika nivåer av lagar att efterleva – och olika nivåer av påföljder.
Oacceptabel risk
AI-system som bedöms utgöra ett klart hot mot människors säkerhet och rättigheter, till exempel nationella system för social poängsättning eller leksaker som använder röstprogram för att uppmana barn till farligt beteende, är under den nya förordningen förbjudna.Hög risk
Den här nivån inkluderar känsliga processer som AI i självkörande fordon, betygssättning inom utbildning, kreditbedömning och biometrisk igenkänning. Dessa system ligger enligt den nya förordningen under strikt reglering och kräver bland annat djupgående riskbedömningar, högkvalitativa dataunderlag, detaljerad dokumentation, tydlig användarinformation och lämplig mänsklig insyn och kontroll.Begränsad risk
En nivå som till exempel inkluderar AI-baserad kundtjänst. Det viktiga på denna risknivå är att vara transparent och informera kunden om att den kommunicerar med en maskin.Minimal risk
Detta inkluderar användning i datorspel eller spamfilter för e-mail – och majoriteten av övrig AI. Dessa berörs i väldigt låg utsträckning av de nya lagarna, och kan i princip användas fritt.
Ur ett svenskt perspektiv finns det både möjligheter och risker. Sverige ligger under EU-förordningen, och den svenska regeringen har uttalat sig positivt om den, om än med en större betoning på teknikens potential än fara. För ett framåtlutande land med stor tekniksektor finns det en relevans att inte bara stå för begränsning utan även för möjliggörande. AI-användningen i Sverige är redan utbredd, särskilt inom offentlig sektor, och på det akademiska forskningsfältet för AI är det Wallenberg-finansierade programmet WASP med 5,5 miljarder kr i anslag till 2029 den enskilt största forskningssatsningen i Sverige någonsin. En alltför hård inbromsning av AI-utvecklingen i EU och Sverige skulle vara att skänka ett försprång till andra marknader, särskilt USA och Kina.
Det vore naivt att försöka göra exakta förutsägelser av AI-regleringen – men ett genomgående skifte mot ökad reglering är tydlig. Den globala regleringstrenden för AI kommer inte att avta, vilket för berörda bolag och organisationer kommer innebära en ökad kravbild på resurser, kunskap och flexibilitet för att möta nya regleringar, lagar och branschföreskrifter.
Annars riskerar man att bli straffad – hårt.