Innovatie & Strategie

Bedrijven verbieden intern gebruik ChatGPT
Onder meer Apple, Samsung en diverse banken vrezen weglekken bedrijfsgeheimen.
Onder meer Apple, Samsung en diverse banken vrezen weglekken bedrijfsgeheimen.
Apple verbiedt personeel nog langer gebruik te maken van tekstrobot ChatGPT omdat er mogelijk bedrijfsgeheimen door weglekken. Samsung nam eerder een vergelijkbaar besluit na twee incidenten.
Het verbod om ChatGPT te gebruiken, werd door Apple eind vorige week medegedeeld in een interne memo, die werd doorgespeeld aan The Wall Street Journal. De afgelopen weken heeft een reeks andere bedrijven waaronder Samsung, maar ook de banken JPMorgan Chase, Bank of America, Citigroup en Deutsche Bank vergelijkbare besluiten genomen, merkt The Register op. De reden is dat werknemers gevoelige informatie voeden aan de tekstrobot, die in de gebruiksvoorwaarden meldt dat alle ingevoerde data gebruikt kunnen worden voor trainingsdoeleinden door ChatGPT-eigenaar OpenAI.
Broncode en omzetcijfers
Bij Samsung ging het al twee keer mis waardoor het concern eerder deze maand een tijdelijk verbod omzette in een permanent verbod op het intern gebruik van ChatGPT. Volgens een intern memo waar Bloomberg over beschikte, waren er bedrijfsgeheimen gevoerd aan de tekstrobot in een poging een oplossing te vinden voor bugs in een problematisch stuk broncode. Bij de andere gelegenheid was de chatbot ingezet om een verslag te maken van een belangrijke vergadering. Daarbij zouden meetresultaten van apparatuur en opbrengstcijfers op de servers van OpenAI terecht zijn gekomen.
OpenAI biedt inmiddels wel een mogelijkheid om eerder gevoerde chatsessies te wissen en door die in te schakelen, belooft OpenAI ook ingevoerde data niet te gebruiken voor training. Desondanks worden ingevoerde gegevens wel dertig dagen bewaard voor het geval er de noodzaak ontstaat terug te kijken of er geen misbruik is gemaakt van de ChatGPT-mogelijkheden.
Het bedrijf zegt wel te werken aan een versie voor bedrijven die deze klanten meer zeggenschap geeft over hoe de ingevoerde gegevens worden gebruikt. In dat geval zouden ze in iedere geval niet worden gebruikt voor training van Large Language Models.
Weer regeltjes maken en de boel kapot reguleren zoals gezegd weerd heeft geen zin.
Scholen en trainen misschien.
Maar zo lang mensen voor hun eigen gewin gaan als ze de kans schoon zien heeft geen van beide zin.
Vergelijk het met een geweer.
Je kunt er ern hert mee schieten zodat je weer een maand te eten hebt voor je gezin.
Je kunt er een mens mee dood schieten.
Het is aan de persoon wat die er mee doet.
Niet aan de regeltjes en niet aan de scholing.
Als voorbeeld bij de vorige reactie (zie hieronder) hoe belangrijk het is om te kunnen bewijzen dat een informatiedrager (zoals een foto, audio, video) echt is (bijvoorbeeld met een watermerk of vingerafdruk) is te vinden op https://twitter.com/mrgreen/status/1660914122907688961
Ik zou het mooi vinden wanneer ik een nieuwskop zie dat organisaties zich hard gaan inzetten om (alle) medewerkers te scholen en trainen in het gebruik van AI. Alles kapot reguleren is een methode, alleen wanneer mensen AI willen inzetten voor zichzelf doen ze dat toch wel. Al dan niet via een ander netwerk, VPN, Darkweb, whatever.net, enz. Bewustwording, innovatie en verandering zijn processen, geen artikelen in een Code of Conduct.
Tegelijk hebben ze wel gelijk, immers, de AI's die we kennen zijn eigendom van commerciële bedrijven. Wanneer je dan je blauwdrukken van een product laat vertalen naar bv. het Nederlands door een AI, lijkt met dat geen handige zet. We weten niet wat met al die input en output gebeurt.... Blijven nadenken is natuurlijk wel een continue proces.
Deze nieuwe ontwikkeling van de mogelijkheden van AI geeft ook weer aan dat het belangrijk is om informatiedragers zoals foto's, audio's en video's te beveiligen met een onzichtbaar en onkraakbaar watermerk of vingerafdruk, zie ook de masterclass op https://www.tweedekamer.nl/nieuws/kamernieuws/masterclass-over-toepassi…