Het ruimteschip van James T. Kirk, de voorganger van Jean-Luc Picard. Afbeelding via Pixabay. |
“We are
the Borg. You will be assimilated. Resistance is futile.” Deze drie zinnetjes bezorgden de
bemanning van het ruimteschip USS Enterprise, onder leiding van captain
Jean-Luc Picard, de nodige hoofdbrekens. Nee nee, nu niet afhaken als je niks
met Star Trek hebt! Zoals zo vaak gaat mijn blog ook deze keer uiteindelijk
over iets heel anders.
De Borg vormen een collectieve
levensvorm, bestaande uit vele wezens die samen één bewustzijn delen en
daardoor geen eigen wil of persoonlijkheid meer hebben. Ze trekken door het heelal
en nemen iedereen, die een bijdrage kan leveren aan hun streven naar perfectie,
gewelddadig op in hun collectief (assimilatie). Ze zijn erg machtig; daarom
zeggen ze er maar meteen bij dat het zinloos is om zich tegen hen te verzetten.
De Borg worden steeds machtiger doordat de biologische en technologische
kenmerken van de onderworpenen aan het collectief worden toegevoegd. Alle Borg
zijn voorzien van diverse technologische implantaten – ze moeten natuurlijk wel
herkenbaar zijn voor de kijker. Als ze niks te doen hebben, staan de Borg in
een regeneratie-alkoof. Terwijl het lichaam in een soort slaap verkeert, wordt
het brein ingezet voor collectieve taken.
Dat is allemaal leuk op tv, maar in
het echt moet je er toch niet aan denken dat je in zo’n samenleving zit. Hoewel
– soms zou je best willen dat bepaalde mensen over wat meer collectieve
intelligentie en fatsoenstrekjes zouden beschikken. Maar ja, zeker in de
westerse samenleving stellen we individualiteit boven alles, en daar horen ook
verschillen in intelligentie en gedrag bij. Tot op zekere hoogte is die
diversiteit geweldig; als het moedwillig extreem wordt, kan het een prettige
samenleving hinderen.
Kunstmatige intelligentie (vaak
artificial intelligence (AI) genoemd) is aan een flinke opmars bezig. ChatGPT
heeft zich, als een soort consumentenversie van AI, razendsnel in onze
maatschappij genesteld. Veel mensen begrijpen dat een dergelijk gereedschap hun
leven aanzienlijk kan vergemakkelijken. Denk alleen al aan scholieren en studenten,
die er gretig – en niet zelden tot verdriet van hun docenten – gebruik van
maken. Overigens worden er ook alweer AI-detectiemiddelen ontwikkeld, zodat is
na te gaan of iemand werk inlevert dat ontsproten is aan biologische of
kunstmatige intelligentie. ChatGPT is een ‘groot taalmodel’, wat ik een lastig
begrip vind. Maar eerder deze week werd het een beetje duidelijker, toen een
collega me vroeg wat ook alweer de term is voor een bepaald fenomeen. Ik kon er
ook niet op komen en ging te rade bij Google, hetgeen ook niks opleverde. Zo’n
taalmodel veel beter dan een zoekmachine in staat om te begrijpen wat je
bedoelt, en ChatGPT kwam dan ook met de juiste term op de proppen.
AI is als dynamiet: uitgevonden met
de beste bedoelingen, vaak kwaadaardig gebruikt. Daar hebben we nog de
Nobelprijzen aan overgehouden. ChatGPT en zijn soortgenoten bewandelen
hetzelfde pad. Je kunt ze vragen om naar een beveiligingslek te zoeken zodat je
het kunt dichten, maar je kunt dat ook gebruiken om juist in te breken. En dus
zien we de laatste tijd vaak de vraag langskomen of we het gebruik van ChatGPT
in onze organisatie aan banden moeten leggen.
Misschien moet je zo’n vraag niet aan
een informatiebeveiliger voorleggen. Wij laten er dan een risicoanalyse op los
en kijken daarmee per definitie vanuit de vraagstelling: wat zou er allemaal
mis kunnen gaan? Nou, ik verzeker je dat AI daar als een levensgrote bedreiging
uit gaat komen. Vervolgens moet je iets met al die geconstateerde risico’s. Je
kunt er misschien compenserende maatregelen tegenover stellen, of het
management kan de risico’s accepteren. Met dat alles zitten we echter naar de
kwade hoek te kijken, terwijl AI ook een zegen kan zijn. Ik wil niet degene
zijn die de komst van de stoomtrein tegenhoud omdat die zo vreselijk hard kan.
Een wijze, al lang gepensioneerde
collega zei altijd: “Een maatregel zonder controle is geen maatregel.” Ik heb
misschien wel controle over welke websites je mag bezoeken met je zakelijke
laptop en je daarmee weghouden bij ChatGPT, maar ik kan niet verhinderen dat je
privé-apparatuur daarvoor gebruikt. Althans, niet technisch; organisatorisch
hebben we daar allerlei regels voor. En dan maar hopen dat je die kent en dat
je je eraan houdt.
Er moet beleid komen voor het
toepassen van kunstmatige intelligentie voor je werk. Vanuit beveiligingsoptiek
moet rekening worden gehouden met het lekken van informatie als er (te)
specifieke vragen aan AI worden gesteld. Overigens kun je net zo gemakkelijk
informatie lekken via zoekmachines. Misschien is AI voor informatiebeveiligers
ook helemaal niet zo bijzonder. Het is hoe dan ook zinloos om je ertegen te
verzetten: het is er en het gaat niet meer weg. Zolang we maar weten wat echt
is en wat uit het collectieve brein van de computer komt.
En in de grote boze buitenwereld …
- wordt AI volgens deze auteur vooral ten kwade ingezet.
- komt het kabinet met een standpunt over ChatGPT c.s.
- kun je ChatGPT nu trainen met je bedrijfsdocumenten (en daar kleven vast weer risico’s aan).
- kunnen de klanten van een Deense cloudprovider naar hun gegevens fluiten.
- houdt Noord-Korea een aardig kapitaal over aan z’n zomerse cybercriminaliteit.
- mag een bedrijf je niet om een kopie van je paspoort vragen als je een AVG-inzageverzoek doet.
- verzoekt dit telefoonhackbedrijf opsporingsdiensten om niet uit de school te klappen over hun spullen.
- wordt ransomware tegenwoordig sneller ontdekt.
- achterhaalt deze malware haar locatie via wifi-routers.
- is deze slimme lamp toch niet zo helder van geest.
Geen opmerkingen:
Een reactie posten