01/20/2022 | News release | Distributed by Public on 01/20/2022 04:29
Steeds meer bedrijven gebruiken artificial intelligence (AI). Een AI-systeem kan een organisatie grote voordelen bieden. Denk aan efficiëntere processen, het in beeld brengen van potentiële klanten en het ontwikkelen van nieuwe producten. Maar er kleven ook risico's aan. Er is nog geen wereldwijd uniform kader en de juridische en ethische aspecten ervan zijn ingewikkeld. Waar moet je allemaal rekening mee houden wanneer je als organisatie een AI-systeem wil ontwikkelen of implementeren? Interim privacy counsel David Lovell deelt de belangrijkste richtlijnen.
Artificial Intelligence (AI) of Kunstmatige Intelligentie (KI) is een verzamelbegrip waar machine learning, deep learning en rule based AI voorbeelden van zijn. Er bestaan oneindig veel toepassingen voor. AI-systemen zijn door mensen ontworpen systemen die mensachtige vaardigheden zoals interpreteren, redeneren en leren nabootsen. Het is zelfs mogelijk dat een AI-systeem zichzelf daarin op basis van data verbetert (machine learning en deep learning). Actuele voorbeelden van AI-systemen die organisaties helpen efficiënter te werken? Denk aan een klantenservice-chatbot, een systeem dat helpt ziektes te herkennen, maar ook aan een algoritme op basis van cookies waarmee je gepersonaliseerde content weergeeft aan je websitebezoekers.
Wereldwijd bestaat er niet één "standaard" defintie voor een AI-systeem. In april 2021 heeft de Europese Commissie daarom een eerste voorstel gedaan voor een verordening tot vaststelling van geharmoniseerde regels betreffende AI. Het doel hiervan is een technologieneutrale definitie van AI-systemen in EU-recht vast te stellen. En een classificatie vast te stellen voor AI-systemen met verschillende eisen en verplichtingen, toegespitst op een 'risicogebaseerde benadering'.
Voor je als organisatie een AI-systeem ontwikkelt of gebruikt, is het raadzaam rekening te houden met:
Onder de AVG heeft de persoon het recht niet te worden onderworpen aan geautomatiseerde besluitvorming die duidelijke gevolgen heeft voor deze persoon. Dit betekent dat de organisatie die een AI-systeem wil inzetten waarin geautomatiseerde besluitvorming aan de orde is, effectieve menselijke controle op het besluit moet garanderen. Privacy en gegevensbescherming moeten worden gegarandeerd vanaf het begin tot en met de ontmanteling of vernietiging van een systeem.
Het voorstel van de Europese Commissie classificeert AI-systemen in drie categorieën: systemen met een onacceptabel risico, systemen met een hoog risico en systemen met een laag risico. AI-systemen met een onacceptabel risico zijn in het voorstel verboden. Bijvoorbeeld een systeem dat besluiten neemt die de kwetsbaarheid van een groep personen vergroot. Denk hierbij bijvoorbeeld aan een geautomatiseerd besluit waarbij iemand wordt benadeeld doordat diegene in een bepaald profiel past, zonder dat met zijn/haar persoonlijke situatie rekening gehouden is. Het voorstel stelt voorwaarden aan systemen met een hoog risico en, in mindere mate, voor systemen met een laag risico.
AI-systemen kunnen grote gevolgen hebben voor de gebruiker en de samenleving in het algemeen. Daarom moeten organisaties ook rekeninghouden met het ethische aspect en de mogelijke vooroordelen/vooringenomenheden (bias) in het systeem. Hoewel het begrip 'ethisch' normatief is, is het als bedrijf noodzakelijk om ethiek mee te nemen in het creëren van een AI-systeem. De AI HLEG heeft nuttige richtlijnen opgesteld met daarin vier ethische beginselen. Deze beginselen bieden een goede basis voor een AI-traject:
Hulp nodig van een interim privacy counsel zoals David? Krijg meer informatie en neem vrijblijvend contact op.
Toezicht op AI en algoritmes is één van de drie focusgebieden van de Autoriteit Persoonsgegevens (AP) voor 2020-2023. Ook vermeldt de AP op haar website dat belangrijke beslissingen met noemenswaardige menselijke tussenkomst dienen te worden genomen. In veel gevallen zal een Data protection impact assessment (DPIA) nodig zijn bij de inzet van AI. Dit is een instrument om vooraf de privacyrisico's van een gegevensverwerking in kaart te brengen.
De potentiële voordelen van AI zijn enorm en wegen sterk op tegen de nadelen. Net zoals met een verwerking van persoonsgegevens, moeten organisaties goed nadenken over mogelijke gevolgen voor gebruikers en alle keuzes documenteren. Maar neemt een organisatie alle genoemde beginselen mee en is het systeem te verklaren voor zowel organisatie als de gebruiker? Dan kan er op een verantwoorde manier van de potentie van AI gebruik worden gemaakt die de samenleving tot dienst is.
Heeft jouw organisatie hulp nodig bij het ontwikkelen van een AI-systeem of een ander privacyvraagstuk? Ons team van interim privacy counsels staat voor je klaar.
Interim privacy counsel
David Lovell is werkzaam als interim privacy counsel. Via DPA werkte hij onder andere voor Philips, Bilfinger, Conexxion/Transdef en het COA. David houdt zich onder meer bezig met het privacybeleid binnen organisaties en is verantwoordelijk voor de daadwerkelijke beoordeling van complexe privacyvraagstukken.