AI: veilig of toch stiekem een data-lek?
- 24 mei 2023
- van
- Coen Visser
Voor we verder duiken in de praktische toepassingen van AI (artificial intelligence) wil ik toch even een uitstapje maken naar een stukje AVG en daarmee ook Ethiek. Want wat we op dit moment zien is een enorme discussie of eigenlijk onzekerheid omtrent de AI en hoe we ermee omgaan of moeten gaan.
Je verantwoordelijkheid als accountant
Laat ik gelijk met de deur in huis vallen, hoe lastig het ook is (of gemakkelijk), maar als accountant zul je verantwoordelijk zijn voor hoe je met een AI-toepassing omgaat. Wat bedoel ik daarmee, nou precies zoals ik het zeg. Als accountant heb je de beschikking over heel veel data: bankmutaties, grootboekmutaties, personeelsmutaties, bonussen etc. Als je blindelings die data gaat uploaden in een model, maar eigenlijk niet goed heb bedacht hoe de communicatie met dat model werkt, loop je een risico op een data-lek met alle gevolgen van dien.
In mijn serie wil ik die communicatie met die modellen ook bespreken, maar ook tips geven over de beveiliging ervan, zodat je het risico beperkt. Maar terug naar dat data-lek. Op dit moment is ChatGPT een hot item en zo’n beetje iedereen gaat ermee aan de slag. Maar los van de AI-achtergrond en hoe dat werkt met zo’n neural network en hoe een dergelijk model komt tot een response, is niet alleen de uitkomst van belang, maar ook de communicatie.
Hoe werkt dat toch met die data?
In de meest simpele vorm ga je naar een site toe, in het geval van mijn voorbeeld dus naar chat.openai.com. Daar wordt je gevraagd in te loggen, wat ook een gevoel van zekerheid kan geven. Dus dit is veilig denk je dan…. Goed, kom ik nog op terug. We spoelen even door na het starten van de chat en je gaat ermee aan de slag. Je wilt dat de ChatGPT een analyse gaat uitvoeren op een stuk tekst of juist op wat financiële data. Om ervoor te zorgen dat de context duidelijk is, ga je de data selecteren en in de chatbalk plakken met erbij je vraag. Maar dan?
Natuurlijk krijg je een antwoord terug, maar wat is er nu met je data gebeurd? In deze vorm is je data dus verzonden naar het model wat op een server draait. Ik hou de werking van het model even simpel, dus je data en vraag worden door het model gelezen, geanalyseerd en je krijgt een response in de vorm van een leesbaar antwoord. Even doorgaand op wat je hier doet: je plakt data in de chatbalk, die wordt verzonden via de internetlijn naar een externe server en door het model gelezen en geanalyseerd. Maar niet alleen dat, als je namelijk in de voorwaarden kijkt, wordt die data ook gekopieerd en op die server opgeslagen om weer te dienen om het model met trainingsdata te voorzien zodat het verbeterd (net als met ons mensen, hoe meer keren je iets doet hoe beter je het gaat doen).
Oeps, een datalek
Ik ben geen AVG-expert, maar ik denk dat iedereen wel ziet dat het behoorlijk fout kan gaan, want je data is dus gekopieerd en achtergebleven op een externe, buiten de organisatie vallende server. Nog even los van de beginvraag of je überhaupt al die data in een chatregel had moeten plakken?! Aangezien ik ervan uitga dat je met OpenAI geen gebruikersovereenkomsten en dergelijke hebt gesloten, kunnen we dit classificeren als een data-lek!
Nu zal dit de meest logische vorm zijn en iedereen zal hopelijk denken: “dit is te dom voor woorden dat je zoiets doet…”. Dan nu de vervolgcasus: je maakt je eigen applicatie en je gebruikt een API (kort gezegd: verbinding voor gegevensuitwisseling), dit maakt het alweer een stuk lastiger, want wat doet die api nu precies. Wisselt zo’n API model-informatie uit of stuurt het net als de chat puur de informatie digitaal op en krijg je een response via de API…. Laat ik je gelijk maar uit de droom helpen: zo’n API werkt net als een chat, dus opnieuw wordt je data gekopieerd en blijft achter.
Dus we kunnen niks met AI of ChatGPT?
Ook dit is te kort door de bocht, we kunnen er zeker wat mee. Op dit moment ben ik bezig met een model te ontwikkelen wat dus lokaal/stand-alone staat, waardoor er geen data meer heen en weer gaat. Enige data die dan heen en weer gaat is het downloaden van het benodigde model, erna kun je de wifi uitschakelen en gewoon alsnog je analyses maken. Maar dit zijn wel dingen waar je naar moet gaan kijken als je gebruik gaat maken van AI. In mijn serie hoop ik dit aspect mee te nemen.
Natuurlijk is de hype nu qua ethiek: moeten we dit wel willen? En het is zeer goed om erover na te denken, kritisch te blijven. Zoals je zult begrijpen is mijn benadering die van een tool, zoals excel ook een tool is. Maar voor accountants zit er naast de “wat willen we”-vraag, ook nog een AVG-vraag aan vast: “wat doen we met onze data”. Een vraag die steeds dringender wordt, want die AI-toolbox is zich steeds meer aan het uitbreiden: geen google-search meer, maar een AI-bot die helpt, binnen excel een AI-bot die helpt, binnen word…
Toch nog een open deur
En nog een stap verder: binnen office365, weet u ook nog hoe het met de sharepoint-beveiliging zit? En dan nu, de AI binnen office365, dus wat gebeurt er met uw vertrouwelijke data binnen een excel document, ondersteund door AI binnen de sharepoint van uw office365 omgeving. Het klinkt complex, maar met een beetje verdieping en ondersteuning zullen het ook voor u open deuren blijken te zijn. Veel AI-plezier!