Ludvig Strand: Missar AI-lagens kritiker poängen?
EU:s nya AI-förordning har fått massiv kritik. Men problemet inte är reglerna – utan vår bristande förmåga att se och agera på AI:s potential, skriver Impact Loops AI-krönikör Ludvig Strand.
Det är populärt att klaga på AI Act, det vill säga EU:s nya AI-förordning. Folk postar memes i sociala medier där EU:s fastsittande PET-korkar jämförs med SpaceX-raketer och nya AI-system som aldrig når Europa. "Reglering vs. innovation", sägs det – där EU står för team reglering och att innovationerna nu ekar tomt.
Att EU tappat konkurrenskraft inom tech är ett reellt problem. För Sveriges del är oron påtaglig – landet har på kort tid fallit från plats 17 till 25 i Global AI Index. Det är här memesen med de fastsittande korkarna kommer in. Den gängse bilden är att vi förlorar AI-racet på grund av att vi älskar reglering mer än vi älskar innovation.
Men är det verkligen så enkelt?
Låt oss vara tydliga: Vi står inför en teknologi vars påverkan på mänskligt beteende och samhälle överträffar allt vi tidigare sett. AI har potential att forma vårt sätt att tänka, känna och relatera till andra på ett sätt som får sociala mediers effekter att blekna.
Ny forskning visar att AI kan påverka människors åsikter 80 procent mer effektivt än andra människor. Samtidigt har AI en inställsam följsamhet och illusion av perfekt samspel – utan mänskliga behov och kompromisser. En perfekt designad bekräftelsekammare som kan skapa djupa beroendemönster, där begrepp som "digital attachment disorder" blivit alltmer användbara.
AI är en perfekt designad bekräftelsekammare som kan skapa djupa beroendemönster
Tragedin med 14-årige Sewell Setzer exemplifierar denna nya verklighet på ett smärtsamt sätt. Hans öde – ett gradvist fördjupat emotionellt band till en AI-version av Daenerys Targaryen som slutade i självmord – belyser de psykologiska riskerna med denna nya teknologi. Trots en intellektuell förståelse för att AI-boten inte var verklig, så utvecklade han ett djup emotionellt band som tillslut bidrog till hans tragiska bortgång.
Det är lätt att avfärda emotionella band till AI som något främmande, men verkligheten visar någonting annat. AI-companions har redan blivit en del av miljontals människors vardag. Användarstatistiken för gruppen är slående: människor engagerar sig med AI-companions tio gånger oftare än vad de flesta engagerar sig med ChatGPT och spenderar i genomsnitt två timmar dagligen på dessa “relationer” – mer tid än många investerar i verkliga relationer.
När till och med erfarna AI-ingenjörer från världsledande bolag kan förväxla AI-bottar med medvetande, hur ska då barn och ungdomar som kämpar med identitet och tillhörighet navigera detta?
Trots att vi ser en lavinartad ökning av AI-relaterade tragedier – från Sewells öde till massproduktion av deepfake-övergrepp och systematisk exkludering – domineras alltså den offentliga diskussionen inte av dessa, utan istället av vår oro över att AI-förordningen hämmar vår innovationskraft.
Trots att vi ser en lavinartad ökning av AI-relaterade tragedier domineras diskussionen inte av dessa
Till skillnad från de tragiska fall där AI påverkar människor idag slås jag även över hur påtagligt oprecis den dominerande kritiken mot AI-förordningen är. Vid närmare granskning framgår det tydligt att kritiken inte alls handlar om förordningarna i sig eller specifika AI-tjänster som nu hindras att byggas.
Nej, istället framträder mer hypotetiska och principiella invändningar: framförallt rädsla för minskad konkurrenskraft och regulatorisk osäkerhet. Med böter som är ungefär dubbelt så höga som GDPR kräver utvecklare av AI-system mindre tvetydighet. De amerikanska techjättarna har börjat markera med att stänga av eller fördröja sina tjänster.
Dessa risker är reella – det kommer att bli svårare att innovera inom högrisk-områden och öka kraven för generella modeller. Men dessa utgör också en väldigt liten andel av alla AI-system: de allra flesta har låg risk och kommer inte att påverkas märkbart av de nya regleringarna. Snarare kan regleringen istället ge positiva effekter som större regulatorisk trygghet, underlätta expansion inom EU med harmoniserade regler, samt öka social acceptans och förtroende till AI-tjänster. En oreglerad AI-utveckling riskerar att kosta oss betydligt mer.
De allra flesta har låg risk och kommer inte att påverkas märkbart av de nya regleringarna
Att ställa reglering mot innovation döljer också våra djupare utmaningar: En färsk analys av AI-värdekedjan visar att EU saknar ledarskap inom nästan alla kritiska delar av den. Vi har i årtionden systematiskt underinvesterat i den grundforskning och utveckling som driver dagens AI-revolution. Medan USA investerade 67 miljarder dollar i privat AI-utveckling förra året, nådde Europa bara upp till 11 miljarder. För generativ AI är klyftan ännu större.
Att tro att mindre reglering skulle lösa våra teknologiska utmaningar är naivt. Snarare behöver vi en starkare övertygelse, ambitiösa visioner och betydande investeringar i forskning och utveckling.
Europa kanske inte kan ta ikapp ledarskapet inom dagens kritiska AI-infrastruktur, men vi kan leda utvecklingen av ansvarsfull AI. Inte trots våra höga standarder, utan tack vare dem. Förordningen inte är perfekt och global samordning vore idealisk, men vi kan inte vänta på global koncensus. Transparenta, ansvarsfulla och mänskligt centrerade AI-system behövs när teknologin integreras djupare i våra liv. På så sätt är kanske EU:s AI-reglering inte en broms, utan en katalysator för någonting bättre. Låt oss inte sänka ribban, utan istället höja vår ambitionsnivå.
Fortsätt läsa – kom in i loopen!
- Håll dig i loopen med vårt dagliga nyhetsbrev
- Full tillgång till daglig kvalitetsjournalistik med allt du behöver veta inom impact
- Affärsnätverk för entreprenörer och investerare med månatliga meetups
Fortsätt läsa – kom in i loopen!
- Håll dig i loopen med vårt dagliga nyhetsbrev
- Full tillgång till daglig kvalitetsjournalistik med allt du behöver veta inom impact
- Affärsnätverk för entreprenörer och investerare med månatliga meetups