vrijdag 8 november 2024

De EU en AI

 

Afbeelding via Pixabay

Ai, we gaan het over een wat ingewikkeld onderwerp hebben: AI. Oftewel artificial intelligence, dan wel kunstmatige intelligentie. Dat we in het Nederlands meestal de Engelse afkorting gebruiken, komt misschien wel omdat we ‘KI’ in het Nederlands associëren met kunstmatige inseminatie, bedenk ik net. Overigens geeft de Dikke Van Dale beide betekenissen voor de afkorting ki (ja, in kleine letters).

Ik heb al eerder gezegd dat je niet aan een informatiebeveiliger moet vragen of je AI mag gebruiken voor je werk, want dan volgt er een risicoanalyse waarvan de uitkomst ongetwijfeld zal zijn: niet doen. Nee, beslissingen over het toepassen van bepaalde vormen van technologie horen bij ‘de business’ te liggen, of, met misschien een betere term, bij de beslissers. Ze mogen zich gerust laten beïnvloeden door onze risicoanalyses, maar er zijn meer factoren waar beslissers rekening mee moeten en/of willen houden.

Soms ligt de beslissing nog hoger, op politiek niveau. Dat is met AI ook het geval. Er is een heuse Europese AI Act, oftewel een verordening op kunstmatige intelligentie (een verordening is wetgeving die in de hele EU van toepassing is, zonder afzonderlijke interpretatie per land). Doel van de AI Act is dat we veilige AI-systemen krijgen, die onze fundamentele rechten respecteren. Die rechten omvatten transparantie, traceerbaarheid, non-discriminatie en milieuvriendelijkheid. En de systemen moeten – om schadelijke gevolgen te voorkomen – onder menselijk toezicht staan.

De verordening verdeelt het AI-landschap in vier risiconiveaus. Het hoogste niveau bevat systemen die een onacceptabel risico voor de veiligheid, bestaanszekerheid en rechten van mensen vormen en daarom verboden zijn. Voorbeelden die de EU hierbij noemt zijn speelgoed met stembediening dat gevaarlijk gedrag aanmoedigt en real-time biometrische identificatie (denk hierbij aan de in China wél toegepaste gezichtsherkenning bij verkeerslichten: loop je door rood, krijg je een bekeuring op de mat).

De volgende categorie bevat systemen die een hoog, maar acceptabel risico vormen. Ze kunnen een negatieve invloed hebben op onze veiligheid en fundamentele rechten, en ze vallen uiteen in twee subcategorieën: systemen, die onder productveiligheidswetgeving van de EU vallen, zoals speelgoed, auto’s, luchtvaart, medische apparatuur en liften, en systemen die in bepaalde gebieden vallen, zoals kritieke infrastructuur, onderwijs, werkgelegenheid, wetshandhaving en migratie. Dergelijke systemen worden beoordeeld voordat ze op de markt mogen worden gebracht, en daarna gedurende hun hele levensduur. Nationale toezichthouders moeten een klachtenprocedure inrichten.

Nog een niveau lager gaat het over systemen waarbij het risico op misleiding bestaat. Hier zit de generatieve AI in, die zelf content creëert, zoals ChatGPT en Gemini. Kunstmatig gegenereerde content moet als zodanig gemerkt worden. Dus als je op een website met een AI-chatbot kletst, dan moeten ze je dat duidelijk vertellen. Ook deepfakes – filmpjes, foto’s en geluidsfragmenten waarin het door manipulatie lijkt alsof iemand iets doet of zegt – moeten een labeltje krijgen. AI-systemen, die een minimaal risico vormen, worden niet gereguleerd. Je kunt hierbij denken aan games en spamfilters. Volgens de EU valt de overgrote meerderheid van de nu gebruikte AI-systemen in deze categorie.

De AI-Act wordt gefaseerd ingevoerd. In februari volgend jaar worden de onacceptabele systemen verboden. Een half jaar later moeten de nationale toezichthouders in het zadel zitten. Volgend jaar worden ook de transparantieregels voor algemene AI (zoals ChatGPT) van kracht. En weer een jaar later worden de regels voor de hoog-risicosystemen van kracht.

Het is prettig om te zien dat de EU dit onderwerp tijdig bij de horens vat. Maar ik heb ook niet de illusie dat iedereen zich aan de regelgeving zal houden. Met name criminelen hebben er een handje van om de wet te overtreden. Zij zullen heus wel deepfakes blijven gebruiken om mensen te laten geloven dat een familielid in nood verkeert en dringend geld nodig heeft.

 

En in de grote boze buitenwereld …

Geen opmerkingen:

Een reactie posten