EU Artificial Intelligence Act: The European Approach to AI

Stanford - Vienna Transatlantic Technology Law Forum, Transatlantic Antitrust and IPR Developments, Stanford University, Issue No. 2/2021

New Stanford tech policy research: “EU Artificial Intelligence Act: The European Approach to AI”.

EU regulatory framework for AI

On 21 April 2021, the European Commission presented the Artificial Intelligence Act. This Stanford Law School contribution lists the main points of the proposed regulatory framework for AI.

The Act seeks to codify the high standards of the EU trustworthy AI paradigm, which requires AI to be legally, ethically and technically robust, while respecting democratic values, human rights and the rule of law. The draft regulation sets out core horizontal rules for the development, commodification and use of AI-driven products, services and systems within the territory of the EU, that apply to all industries.

Legal sandboxes fostering innovation

The EC aims to prevent the rules from stifling innovation and hindering the creation of a flourishing AI ecosystem in Europe. This is ensured by introducing various flexibilities, including the application of legal sandboxes that afford breathing room to AI developers.

Sophisticated ‘product safety regime’

The EU AI Act introduces a sophisticated ‘product safety framework’ constructed around a set of 4 risk categories. It imposes requirements for market entrance and certification of High-Risk AI Systems through a mandatory CE-marking procedure. To ensure equitable outcomes, this pre-market conformity regime also applies to machine learning training, testing and validation datasets.

Pyramid of criticality

The AI Act draft combines a risk-based approach based on the pyramid of criticality, with a modern, layered enforcement mechanism. This means, among other things, that a lighter legal regime applies to AI applications with a negligible risk, and that applications with an unacceptable risk are banned. Stricter regulations apply as risk increases.

Enforcement at both Union and Member State level

The draft regulation provides for the installation of a new enforcement body at Union level: the European Artificial Intelligence Board (EAIB). At Member State level, the EAIB will be flanked by national supervisors, similar to the GDPR’s oversight mechanism. Fines for violation of the rules can be up to 6% of global turnover, or 30 million euros for private entities.

CE-marking for High-Risk AI Systems

In line with my recommendations, Article 49 of the Act requires high-risk AI and data-driven systems, products and services to comply with EU benchmarks, including safety and compliance assessments. This is crucial because it requires AI infused products and services to meet the high technical, legal and ethical standards that reflect the core values of trustworthy AI. Only then will they receive a CE marking that allows them to enter the European markets. This pre-market conformity mechanism works in the same manner as the existing CE marking: as safety certification for products traded in the European Economic Area (EEA).

Trustworthy AI by Design: ex ante and life-cycle auditing

Responsible, trustworthy AI by design requires awareness from all parties involved, from the first line of code. Indispensable tools to facilitate this awareness process are AI impact and conformity assessments, best practices, technology roadmaps and codes of conduct. These tools are executed by inclusive, multidisciplinary teams, that use them to monitor, validate and benchmark AI systems. It will all come down to ex ante and life-cycle auditing.

The new European rules will forever change the way AI is formed. Pursuing trustworthy AI by design seems like a sensible strategy, wherever you are in the world.

Read More

De Wet op de Artificiële Intelligentie

Een bewerkte versie van deze bijdrage is gepubliceerd op platform VerderDenken.nl van het Centrum voor Postacademisch Juridisch Onderwijs (CPO) van de Radboud Universiteit Nijmegen. https://www.ru.nl/cpo/verderdenken/columns/wet-artificiele-intelligentie-belangrijkste-punten/

Nieuwe regels voor AI gedreven producten, diensten en systemen

Op 21 april 2021 presenteerde de Europese Commissie haar langverwachte Wet op de Artificiële Intelligentie (AI). Deze concept Verordening geeft regels voor de ontwikkeling, commodificatie en gebruik van AI gedreven producten, diensten en systemen binnen het territorium van de Europese Unie. Het was bemoedigend te zien dat het team van President Ursula von der Leyen een belangrijk aantal van onze strategische aanbevelingen op het gebied van de regulering van AI heeft overgenomen, danwel zelfstandig tot dezelfde conclusies is gekomen.

Doelstellingen wettelijk kader voor AI

De concept Verordening biedt horizontale overkoepelende kernregels voor kunstmatige intelligentie die op alle industrieën (verticals) van toepassing zijn. De wet beoogt de hoge maatstaven van het EU Trustworthy AI paradigma te codificeren, dat voorschrijft dat AI wettig, ethisch en technisch robuust dient te zijn en daartoe 7 vereisten hanteert.

De Wet op de Artificiële Intelligentie heeft de volgende 4 doelstellingen:

“1. ervoor zorgen dat AI-systemen die in de Unie in de handel worden gebracht en gebruikt, veilig zijn en de bestaande wetgeving inzake grondrechten en waarden van de Unie eerbiedigen;

2. rechtszekerheid garanderen om investeringen en innovatie in AI te vergemakkelijken;

3. het beheer en de doeltreffende handhaving van de bestaande wetgeving inzake grondrechten en veiligheidsvoorschriften die van toepassing zijn op AI-systemen, verbeteren;

4. de ontwikkeling van een eengemaakte markt voor wettige, veilige en betrouwbare AI-toepassingen vergemakkelijken en marktversnippering voorkomen.“

Risico gebaseerde aanpak kunstmatig intelligente applicaties

Om deze doelstellingen te realiseren combineert de concept Artificial Intelligence Act een risk-based approach op basis van de pyramid of criticality, met een modern, gelaagd handhavingsmechanisme. Dit houdt onder meer in dat er voor AI applicaties met een verwaarloosbaar risico een licht wettelijk regime geldt, en onacceptabel risico applicaties verboden worden. Tussen deze 2 uitersten gelden er naarmate het risico toeneemt strengere voorschriften. Deze variëren van vrijblijvende zelfregulerende soft law impact assessments met gedragscodes, tot zwaar, multidisciplinair extern geauditeerde compliance vereisten inzake kwaliteit, veiligheid en transparantie inclusief risicobeheer, monitoring, certificering, benchmarking, validatie, documentatieplicht en markttoezicht gedurende de levenscyclus van de toepassing.

Handhaving en governance

De definitie van hoog risico AI applicaties binnen de diverse industriële sectoren is nog niet in steen gehouwen. Een ondubbelzinnige risicotaxonomie zal bijdragen aan rechtszekerheid en biedt belanghebbenden een adequaat antwoord op vragen over aansprakelijkheid en verzekering. Om ruimte voor innovatie door SME’s waaronder tech-startups te waarborgen, worden er flexibele AI regulatory sandboxes geïntroduceerd en is er IP Action Plan opgesteld voor intellectueel eigendom. De concept Verordening voorziet tenslotte in de installatie van een nieuwe handhavende instantie op Unieniveau: het European Artificial Intelligence Board. De EAIB zal op lidstaatniveau worden geflankeerd door nationale toezichthouders.

Read More

Nieuw naburig recht voor uitgevers schiet zijn doel voorbij

Dit blog is een transcript van het interview dat AIRecht Managing Partner en Stanford Law School Fellow mr. Mauritz Kop op 1 februari 2021 gaf aan Reinier Kist, Redacteur Digitale Media bij NRC Handelsblad, over intellectueel eigendom en nieuwsaggregatie. Het artikel in NRC is hier te raadplegen: Techbedrijven versus Nieuwsmedia - De grootste nieuwsgrazers betalen liever niet voor journalistiek.

Vergoedingen voor nieuwsaggregatie

Regeringen in Australië, Frankrijk en Nederland proberen machtige tech platforms zoals Google en Facebook te dwingen om te betalen voor het met commercieel oogmerk linken naar en weergeven van korte stukken tekst uit nieuwsartikelen. Het gaat hier om vergoedingen voor nieuwsaggregatie. Hierbij spelen auteursrechten, naburige rechten, fiscaal recht, het contractenrecht en het mededingingsrecht een rol. We zoomen hieronder in op het nieuwe naburige recht voor uitgevers van nieuwsmedia en journalistieke content, dat door de Europese wetgever in artikel 15 van de recente Richtlijn inzake auteursrechten in de digitale eengemaakte markt (Directive on Copyright in the Digital Single Market) wordt geïntroduceerd.

Wordingsgeschiedenis van de nieuwe EU Copyright Directive

1. Een belangrijke vraag in het artikel is hoe de implementatie van de Europese copyrighthervorming in Nederland ervoor staat, en of we een Franse licentiedeal ook hier ten lande kunnen verwachten.

Laten we beginnen bij de wordingsgeschiedenis van de nieuwe Copyright Directive. Het gaat bij de EU Copyright Reform om 3 doelstellingen die in de huidige marktconstellatie niet goed verenigbaar zijn. Dit zijn toegang tot hoge kwaliteit legale content voor consumenten (1), een innovatievriendelijk klimaat voor SME’s waaronder startups (2) en handhaving van auteursrechten (3). Daarnaast werd er bij de totstandkoming van deze richtlijn, en tijdens de publieke consultatie stevig gelobbyd door belanghebbenden. Zoals auteursrechthebbenden, collectieve rechteninstanties, consumentenbelangengroepen, online platforms en uitgeverijen. We zagen vervolgens bepaalde wensen van deze partijen terugkomen in de wetsvoorstellen, zowel op Europees als op nationaal niveau. Omdat die wensen vaak compleet tegengesteld zijn aan elkaar, is het resultaat van deze Europese wetgevingsinspanning een ingewikkeld compromis.

Het introduceren van nieuwe lagen IP rechten is zelden een goed idee

We zien dat de verdienmodellen van de oude contentindustrie, het momenteel afleggen tegen de verdienmodellen van de grote internetplatforms. Overheden willen een gezonde markt en een divers ecosysteem voor nieuwsgaring in stand houden. Dat is belangrijk in een democratie. Dat betekent dat je soms corrigerend moet optreden door het introduceren van wetgeving. De vraag is echter of die wetgeving effectief zal zijn. Want als het over 10 jaar niet blijkt te werken, kom je er moeilijk vanaf! Dit geldt des te meer voor intellectuele eigendomsrechten. Het introduceren van nieuwe lagen IP rechten om de effecten van technologische innovatie op de markt en de maatschappij in balans te brengen, is zelden een goed idee. Een voorbeeld van zo’n mislukt wetgevingsproject is de Databankenrichtlijn, die bedoeld was om EU bedrijven een minder nadelige concurrentiepositie te geven ten opzichte van Amerikaanse bedrijven. Maar ook de Copyrightrichtlijn dreigt te ontaarden in een mislukt project en wordt door experts inmiddels algemeen beschouwd als een degeneratie van het auteursrecht.

Read More

Een Juridisch-Ethisch Kader voor Quantum Technologie

Een bewerkte versie van deze bijdrage is gepubliceerd op platform VerderDenken.nl van het Centrum voor Postacademisch Juridisch Onderwijs (CPO) van de Radboud Universiteit Nijmegen. https://www.ru.nl/cpo/verderdenken/columns/we-nederland-voorbereiden-kwantumtoekomst/

Nederland moet zich voorbereiden op de toepassing van kwantumtechnologie, zegt jurist en Stanford Law School Fellow Mauritz Kop. Op het gebied van regulering, intellectueel eigendom en ethiek is er nog veel werk aan de winkel.

De Quantum Age roept veel juridische vragen op

Het gedrag van de natuur op de kleinste schaal kan vreemd en contra-intuïtief zijn. Hoe kunnen beleidsmakers de toepassingsgebieden van kwantumtechnologie, zoals quantum computing, quantum sensing en het quantum internet op een maatschappelijk verantwoorde manier reguleren? Dienen ethische kwesties een rol te spelen in regulering? De Quantum Age roept veel juridische vragen op.

Hoe kunnen we kwantumtechnologie reguleren?

Regulering van transformatieve technologie is een dynamisch, cyclisch proces dat de levensduur van de technologie en de toepassing volgt. Het vraagt om een flexibel wetgevend systeem dat zich snel kan aanpassen aan veranderende omstandigheden en maatschappelijke behoeften.

De eerste regelgevende stap om te komen tot een bruikbaar juridisch-ethisch kader is het koppelen van de Trustworthy AI-principes aan kwantumtechnologie. Die vullen we vervolgens aan met horizontale, overkoepelende regels die recht doen aan de unieke natuurkundige eigenschappen van quantum. Aan deze horizontale kernregels voegt de wetgever tenslotte verticale, industrie- of sectorspecifieke voorschriften toe. Die verticale voorschriften en gedragscodes zijn risk-based en houden rekening met de uiteenlopende behoeftes van economische sectoren waar het duurzame innovatiestimuli betreft. Zo ontstaat een gedifferentieerde, sectorspecifieke benadering aangaande incentives en risks.

Bewustwording van ethische, juridische en sociale aspecten

Een belangrijk onderdeel van het synchroniseren van onze normen, waarden, standaarden en principes met kwantumtechnologie is het creëren van bewustwording van de ethische, juridische en sociale aspecten ervan. De architectuur van systemen die zijn uitgerust met kwantumtechnologie moet waarden vertegenwoordigen die wij als samenleving belangrijk vinden.

Vooruitlopend op spectaculaire doorbraken in de toepassing van kwantumtechnologie is de tijd nu rijp voor regeringen, onderzoeksinstellingen en de markt om regulatoire en intellectuele eigendomsstrategieën voor te bereiden die passen bij de power van de technologie.

Nederland moet zich voorbereiden op een kwantumtoekomst, want die komt eraan.

Read More

We hebben dringend een recht op dataprocessing nodig

Deze column is gepubliceerd op platform VerderDenken.nl van het Centrum voor Postacademisch Juridisch Onderwijs (CPO) van de Radboud Universiteit Nijmegen. https://www.ru.nl/cpo/verderdenken/columns/we-dringend-recht-dataprocessing-nodig/

Bij een datagedreven economie hoort een gezond ecosysteem voor machine learning en artificial intelligence. Mauritz Kop beschrijft de juridische problemen en oplossingen hierbij. “We hebben dringend een recht op dataprocessing nodig.”

5 juridische obstakels voor een succesvol AI-ecosysteem

Eerder schreef ik dat vraagstukken over het (intellectueel) eigendom van data, databescherming en privacy een belemmering vormen voor het (her)gebruiken en delen van hoge kwaliteit data tussen burgers, bedrijven, onderzoeksinstellingen en de overheid. Er bestaat in Europa nog geen goed functionerend juridisch-technisch systeem dat rechtszekerheid en een gunstig investeringsklimaat biedt en bovenal is gemaakt met de datagedreven economie in het achterhoofd. We hebben hier te maken met een complex probleem dat in de weg staat aan exponentiële innovatie.

Auteursrechten, Privacy en Rechtsonzekerheid over eigendom van data

De eerste juridische horde bij datadelen is auteursrechtelijk van aard. Ten tweede kunnen er (sui generis) databankenrechten van derden rusten op (delen van) de training-, testing- of validatiedataset. Ten derde zullen bedrijven na een strategische afweging kiezen voor geheimhouding, en niet voor het patenteren van hun technische vondst. Het vierde probleempunt is rechtsonzekerheid over juridisch eigendom van data. Een vijfde belemmering is de vrees voor de Algemene verordening gegevensbescherming (AVG). Onwetendheid en rechtsonzekerheid resulteert hier in risicomijdend gedrag. Het leidt niet tot spectaculaire Europese unicorns die de concurrentie aankunnen met Amerika en China.

Wat is machine learning eigenlijk?

Vertrouwdheid met technische aspecten van data in machine learning geeft juristen, datawetenschappers en beleidsmakers de mogelijkheid om effectiever te communiceren over toekomstige regelgeving voor AI en het delen van data.

Machine learning en datadelen zijn van elementair belang voor de geboorte en de evolutie van AI. En daarmee voor het behoud van onze democratische waarden, welvaart en welzijn. Een machine learning-systeem wordt niet geprogrammeerd, maar getraind. Tijdens het leerproces ontvangt een computer uitgerust met kustmatige intelligentie zowel invoergegevens (trainingdata), als de verwachte, bij deze inputdata behorende antwoorden. Het AI-systeem moet zelf de bijpassende regels en wetmatigheden formuleren met een kunstmatig brein. Algoritmische, voorspellende modellen kunnen vervolgens worden toegepast op nieuwe datasets om nieuwe, correcte antwoorden te produceren.

Dringend nodig: het recht op dataprocessing

De Europese Commissie heeft de ambitie om datasoevereiniteit terug te winnen. Europa moet een internationale datahub worden. Dit vereist een modern juridisch raamwerk in de vorm van de Europese Data Act, die in de loop van 2021 wordt verwacht. Het is naar mijn idee cruciaal dat de Data Act een expliciet recht op dataprocessing bevat.

Technologie is niet neutraal

Tegelijkertijd kan de architectuur van digitale systemen de sociaal-maatschappelijke impact van digitale transformatie reguleren. Een digitaal inclusieve samenleving moet technologie actief vormgeven. Technologie an sich is namelijk nooit neutraal. Maatschappelijke waarden zoals transparantie, vertrouwen, rechtvaardigheid, controle en cybersecurity moeten worden ingebouwd in het design van AI-systemen en de benodigde trainingdatasets, vanaf de eerste regel code.

Read More