Hoe ChatGPT vertrouwelijke bedrijfsgegevens in België in gevaar brengt

42% van de Belgische werknemers deelt gevoelige bedrijfsgegevens met ChatGPT, waardoor IP-gegevens en vertrouwelijke informatie mogelijk gevaar lopen. Uitleg.

post-image-3
ChatGPT is een doorslaand succes: in de eerste vijf dagen van zijn beschikbaarheid bereikte het één miljoen gebruikers en in slechts twee maanden tijd overschreed het de kaap van 100 miljoen bezoekers. 
Dankzij het brede scala aan functies blijkt de tool zeer praktisch in een professionele context. 

Daarom ging cybersecurityspecialist Kaspersky na hoe Belgen ChatGPT gebruiken op het werk. 
Volgens het nieuwe onderzoek deelt 42% van de werknemers in België gevoelige bedrijfsgegevens met ChatGPT, waardoor IP- en privégegevens en vertrouwelijke informatie mogelijk gevaar lopen. 
Daarnaast zegt 44% van de werknemers dat er geen richtlijnen zijn om het gebruik van ChatGPT op kantoor te reguleren en 43% weet niet hoe er met de gegevens wordt omgegaan. 

Uit het onderzoek blijkt ook dat 57% van de ChatGPT-gebruikers de waarheidsgetrouwheid van antwoorden niet controleert voordat ze deze op hun werk gebruiken.
65% van de Belgische respondenten zegt dat hun organisatie geen richtlijnen heeft voor het gebruik van ChatGPT. 
Slechts 22% van de werknemers weet hoe generatieve AI de gecommuniceerde informatie verwerkt.

Dit onderzoek zou organisaties er daarom toe moeten aanzetten om de kwestie van vertrouwelijkheid van gegevens en verificatie van de inhoud van kunstmatige intelligentietools aan te pakken. 
 

Gespreksagenten die ongefundeerde claims genereren

Op de vraag welke instructies precies werden gegeven, antwoordde 38% van de respondenten dat ze mondelinge instructies hadden gekregen, tijdens een bedrijfsbijeenkomst (22%) of individueel (16%). Slechts 18% zei dat de regels formeel werden uiteengezet in een officiële e-mail en iets minder dan 15% in een specifiek officieel document, wat erop wijst dat de meerderheid van de Belgische organisaties de kwestie niet ernstig neemt. 
 
"Ondanks hun voordelen mogen we niet vergeten dat conversatiemiddelen zoals ChatGPT nog steeds onvolmaakt zijn, aangezien ze de neiging hebben om ongefundeerde beweringen te genereren en informatiebronnen te fabriceren. Privacy is ook een belangrijk punt, aangezien veel AI-diensten bijdragen van gebruikers kunnen hergebruiken om hun systemen te verbeteren, met datalekken als gevolg. Tot slot, als hackers de inloggegevens van gebruikers stelen of deze kopen op het dark web, kunnen ze toegang krijgen tot potentieel gevoelige informatie die is opgeslagen in chatgeschiedenissen," legt Vladislav Tushkanov, Data Science Lead bij Kaspersky, uit. 

?Bedrijven die willen profiteren van het gebruik van ChatGPT op de werkplek en andere LLM-diensten doen er daarom goed aan om een gedetailleerd beleid op te stellen voor werknemers om het gebruik ervan te controleren. Met duidelijke richtlijnen kunnen werknemers zowel overmatig gebruik als potentiële datalekken voorkomen die zelfs de meest robuuste cyberbeveiligingsstrategie zouden ondermijnen." 
 
Het belang van het controleren van de feiten voordat je krediet opneemt 

Een kwart van de respondenten (25%) geeft toe ChatGPT op het werk te gebruiken voor teksttaken, zoals het genereren van content, vertalen of tekstverbetering. Ongeveer hetzelfde percentage (24%) gebruikt het om tijd te besparen door bijvoorbeeld lange teksten of vergadernotities samen te vatten. 
 
Als het echter gaat om het gebruik van gegenereerde content, zegt meer dan de helft van de werknemers (57%) dat ze de nauwkeurigheid of betrouwbaarheid ervan niet controleren voordat ze het als hun eigen werk laten doorgaan. Daarentegen controleert een derde van de respondenten (34%) de output wel voordat ze deze gebruiken, zelfs als deze letterlijk is gekopieerd en geplakt.
Show More
Back to top button
Close
Close