vrijdag 25 augustus 2023

Verzet is zinloos

 

Het ruimteschip van James T. Kirk, de voorganger van Jean-Luc Picard. 
Afbeelding via Pixabay.

“We are the Borg. You will be assimilated. Resistance is futile.” Deze drie zinnetjes bezorgden de bemanning van het ruimteschip USS Enterprise, onder leiding van captain Jean-Luc Picard, de nodige hoofdbrekens. Nee nee, nu niet afhaken als je niks met Star Trek hebt! Zoals zo vaak gaat mijn blog ook deze keer uiteindelijk over iets heel anders.

De Borg vormen een collectieve levensvorm, bestaande uit vele wezens die samen één bewustzijn delen en daardoor geen eigen wil of persoonlijkheid meer hebben. Ze trekken door het heelal en nemen iedereen, die een bijdrage kan leveren aan hun streven naar perfectie, gewelddadig op in hun collectief (assimilatie). Ze zijn erg machtig; daarom zeggen ze er maar meteen bij dat het zinloos is om zich tegen hen te verzetten. De Borg worden steeds machtiger doordat de biologische en technologische kenmerken van de onderworpenen aan het collectief worden toegevoegd. Alle Borg zijn voorzien van diverse technologische implantaten – ze moeten natuurlijk wel herkenbaar zijn voor de kijker. Als ze niks te doen hebben, staan de Borg in een regeneratie-alkoof. Terwijl het lichaam in een soort slaap verkeert, wordt het brein ingezet voor collectieve taken.

Dat is allemaal leuk op tv, maar in het echt moet je er toch niet aan denken dat je in zo’n samenleving zit. Hoewel – soms zou je best willen dat bepaalde mensen over wat meer collectieve intelligentie en fatsoenstrekjes zouden beschikken. Maar ja, zeker in de westerse samenleving stellen we individualiteit boven alles, en daar horen ook verschillen in intelligentie en gedrag bij. Tot op zekere hoogte is die diversiteit geweldig; als het moedwillig extreem wordt, kan het een prettige samenleving hinderen.

Kunstmatige intelligentie (vaak artificial intelligence (AI) genoemd) is aan een flinke opmars bezig. ChatGPT heeft zich, als een soort consumentenversie van AI, razendsnel in onze maatschappij genesteld. Veel mensen begrijpen dat een dergelijk gereedschap hun leven aanzienlijk kan vergemakkelijken. Denk alleen al aan scholieren en studenten, die er gretig – en niet zelden tot verdriet van hun docenten – gebruik van maken. Overigens worden er ook alweer AI-detectiemiddelen ontwikkeld, zodat is na te gaan of iemand werk inlevert dat ontsproten is aan biologische of kunstmatige intelligentie. ChatGPT is een ‘groot taalmodel’, wat ik een lastig begrip vind. Maar eerder deze week werd het een beetje duidelijker, toen een collega me vroeg wat ook alweer de term is voor een bepaald fenomeen. Ik kon er ook niet op komen en ging te rade bij Google, hetgeen ook niks opleverde. Zo’n taalmodel veel beter dan een zoekmachine in staat om te begrijpen wat je bedoelt, en ChatGPT kwam dan ook met de juiste term op de proppen.

AI is als dynamiet: uitgevonden met de beste bedoelingen, vaak kwaadaardig gebruikt. Daar hebben we nog de Nobelprijzen aan overgehouden. ChatGPT en zijn soortgenoten bewandelen hetzelfde pad. Je kunt ze vragen om naar een beveiligingslek te zoeken zodat je het kunt dichten, maar je kunt dat ook gebruiken om juist in te breken. En dus zien we de laatste tijd vaak de vraag langskomen of we het gebruik van ChatGPT in onze organisatie aan banden moeten leggen.

Misschien moet je zo’n vraag niet aan een informatiebeveiliger voorleggen. Wij laten er dan een risicoanalyse op los en kijken daarmee per definitie vanuit de vraagstelling: wat zou er allemaal mis kunnen gaan? Nou, ik verzeker je dat AI daar als een levensgrote bedreiging uit gaat komen. Vervolgens moet je iets met al die geconstateerde risico’s. Je kunt er misschien compenserende maatregelen tegenover stellen, of het management kan de risico’s accepteren. Met dat alles zitten we echter naar de kwade hoek te kijken, terwijl AI ook een zegen kan zijn. Ik wil niet degene zijn die de komst van de stoomtrein tegenhoud omdat die zo vreselijk hard kan.

Een wijze, al lang gepensioneerde collega zei altijd: “Een maatregel zonder controle is geen maatregel.” Ik heb misschien wel controle over welke websites je mag bezoeken met je zakelijke laptop en je daarmee weghouden bij ChatGPT, maar ik kan niet verhinderen dat je privé-apparatuur daarvoor gebruikt. Althans, niet technisch; organisatorisch hebben we daar allerlei regels voor. En dan maar hopen dat je die kent en dat je je eraan houdt.

Er moet beleid komen voor het toepassen van kunstmatige intelligentie voor je werk. Vanuit beveiligingsoptiek moet rekening worden gehouden met het lekken van informatie als er (te) specifieke vragen aan AI worden gesteld. Overigens kun je net zo gemakkelijk informatie lekken via zoekmachines. Misschien is AI voor informatiebeveiligers ook helemaal niet zo bijzonder. Het is hoe dan ook zinloos om je ertegen te verzetten: het is er en het gaat niet meer weg. Zolang we maar weten wat echt is en wat uit het collectieve brein van de computer komt.

 

En in de grote boze buitenwereld …

 

Geen opmerkingen:

Een reactie posten