Afbeelding via Pixabay |
Ai,
we gaan het over een wat ingewikkeld onderwerp hebben: AI. Oftewel artificial
intelligence, dan wel kunstmatige intelligentie. Dat we in het Nederlands
meestal de Engelse afkorting gebruiken, komt misschien wel omdat we ‘KI’ in het
Nederlands associëren met kunstmatige inseminatie, bedenk ik net. Overigens
geeft de Dikke Van Dale beide betekenissen voor de afkorting ki (ja, in kleine
letters).
Ik
heb al eerder gezegd dat je niet aan een informatiebeveiliger moet vragen of je
AI mag gebruiken voor je werk, want dan volgt er een risicoanalyse waarvan de
uitkomst ongetwijfeld zal zijn: niet doen. Nee, beslissingen over het toepassen
van bepaalde vormen van technologie horen bij ‘de business’ te liggen, of, met
misschien een betere term, bij de beslissers. Ze mogen zich gerust laten
beïnvloeden door onze risicoanalyses, maar er zijn meer factoren waar
beslissers rekening mee moeten en/of willen houden.
Soms
ligt de beslissing nog hoger, op politiek niveau. Dat is met AI ook het geval. Er
is een heuse Europese AI Act, oftewel een verordening op kunstmatige
intelligentie (een verordening is wetgeving die in de hele EU van toepassing
is, zonder afzonderlijke interpretatie per land). Doel van de AI Act is dat we
veilige AI-systemen krijgen, die onze fundamentele rechten respecteren. Die
rechten omvatten transparantie, traceerbaarheid, non-discriminatie en
milieuvriendelijkheid. En de systemen moeten – om schadelijke gevolgen te
voorkomen – onder menselijk toezicht staan.
De
verordening verdeelt het AI-landschap in vier risiconiveaus. Het hoogste niveau
bevat systemen die een onacceptabel risico voor de veiligheid,
bestaanszekerheid en rechten van mensen vormen en daarom verboden zijn.
Voorbeelden die de EU hierbij noemt zijn speelgoed met stembediening dat
gevaarlijk gedrag aanmoedigt en real-time biometrische identificatie (denk
hierbij aan de in China wél toegepaste gezichtsherkenning bij verkeerslichten:
loop je door rood, krijg je een bekeuring op de mat).
De
volgende categorie bevat systemen die een hoog, maar acceptabel risico vormen.
Ze kunnen een negatieve invloed hebben op onze veiligheid en fundamentele
rechten, en ze vallen uiteen in twee subcategorieën: systemen, die onder
productveiligheidswetgeving van de EU vallen, zoals speelgoed, auto’s,
luchtvaart, medische apparatuur en liften, en systemen die in bepaalde gebieden
vallen, zoals kritieke infrastructuur, onderwijs, werkgelegenheid,
wetshandhaving en migratie. Dergelijke systemen worden beoordeeld voordat ze op
de markt mogen worden gebracht, en daarna gedurende hun hele levensduur.
Nationale toezichthouders moeten een klachtenprocedure inrichten.
Nog
een niveau lager gaat het over systemen waarbij het risico op misleiding
bestaat. Hier zit de generatieve AI in, die zelf content creëert, zoals ChatGPT
en Gemini. Kunstmatig gegenereerde content moet als zodanig gemerkt worden. Dus
als je op een website met een AI-chatbot kletst, dan moeten ze je dat duidelijk
vertellen. Ook deepfakes – filmpjes, foto’s en geluidsfragmenten waarin het
door manipulatie lijkt alsof iemand iets doet of zegt – moeten een labeltje
krijgen. AI-systemen, die een minimaal risico vormen, worden niet gereguleerd.
Je kunt hierbij denken aan games en spamfilters. Volgens de EU valt de
overgrote meerderheid van de nu gebruikte AI-systemen in deze categorie.
De
AI-Act wordt gefaseerd ingevoerd. In februari volgend jaar worden de
onacceptabele systemen verboden. Een half jaar later moeten de nationale
toezichthouders in het zadel zitten. Volgend jaar worden ook de
transparantieregels voor algemene AI (zoals ChatGPT) van kracht. En weer een
jaar later worden de regels voor de hoog-risicosystemen van kracht.
Het
is prettig om te zien dat de EU dit onderwerp tijdig bij de horens vat. Maar ik
heb ook niet de illusie dat iedereen zich aan de regelgeving zal houden. Met
name criminelen hebben er een handje van om de wet te overtreden. Zij zullen
heus wel deepfakes blijven gebruiken om mensen te laten geloven dat een
familielid in nood verkeert en dringend geld nodig heeft.
En in de grote boze buitenwereld …
- hebben ook militairen behoefte aan AI-regelgeving.
- is ChatGPT geen formele bron.
- haalde de Belastingdienst de luchtverkeersleiding onderuit.
- moet je soms teruggrijpen op ouderwetse systemen.
- verzamelt deze website Europese alternatieven voor digitale producten en diensten.
- worden ethische hackers in Duitsland wettelijk beschermd.
- moet je alert zijn op phishing vanuit booking.com.
- wil Australië kinderen en tieners van social media weren, om hun mentale gezondheid te beschermen.
Geen opmerkingen:
Een reactie posten