Twee Amerikaanse uitspraken over Ai

Credits beeld: Gemini
Het hoofdstuk over kunstmatige intelligentie voor mijn boek is al geschreven. Wet- en regelgeving is echter volop in ontwikkeling en er is nog weinig jurisprudentie. Deze week twee nieuwe Amerikaanse uitspraken, weliswaar over teksten, maar omdat er nog zo weinig is, zal ik ze toch moeten doorspitten. Kijken of ik het hoofdstuk nog moet updaten. Mijn gedachtengang leg ik even hier vast, omdat ik met andere hoofdstukken bezig ben.

Ik ben van mening dat Ai gevoed mag worden met alle foto's die onbeschermd op het openbare internet staan. Als je er moeite mee hebt dat iedereen - inclusief machines - je foto's kan downloaden en hotlinken zul je ze op een beveiligde server moeten zetten. En als je niet wilt dat Zuckerberg of Musk je foto's gebruiken moet je je foto's niet bij hen op de servers zetten. Dat is net zoiets als de galeriehouder waar je je kunstwerken etaleert verbieden om naar die kunstwerken te kijken. 

Ik heb van beide uitspraken Gemini een samenvatting laten maken, daar maak ik op mijn beurt een nog kortere samenvatting van. De eerste uitspraak gaat over de input, de tweede over de output.

De uitspraak van 23 juni 2025

Anthropic is aangeklaagd voor het ongeoorloofd kopiëren van miljoenen auteursrechtelijk beschermde boeken, verkregen via piraterij en door gekochte fysieke boeken te scannen. De gekopieerde data wordt gebruikt om taalmodellen voor de Ai-dienst Claude te trainen.

Eisers stellen niet dat Claude exacte kopieën of aanzienlijke nabootsingen van hun werken produceert. Het geschil draait dus niet over de vraag of de outputs inbreuk maken op de originele werken.

De rechtbank concludeert:

  • Het gebruik van boeken om Claude en zijn voorlopers te trainen, is transformatief en valt onder fair use.

  • Het digitaliseren van aangekochte fysieke boeken door Anthropic is ook fair use. Dit komt doordat Anthropic de fysieke kopieën verving door digitale versies voor gemakkelijke opslag en doorzoekbaarheid, zonder nieuwe kopieën toe te voegen of te distribueren.

  • Anthropic had geen recht om illegale kopieën te gebruiken. Het aanleggen van een database met illegaal materiaal is geen fair use.

Wat de gemoederen momenteel bezig houdt is dat in de uitspraak staat dat elke auteur, net als Claude, andere boeken leest voordat hij of zij een boek schrijft.


De uitspraak van 25 juni 2025

De rechtbank geeft Meta gelijk dat de training van de modellen met de boeken van eisers geen auteursrechtinbreuk is.

Belangrijke punten uit de uitspraak:

  • De rechtbank erkent dat generatieve Ai-modellen, die in staat zijn om tekst, afbeeldingen, video's of geluid te genereren op basis van getrainde materialen, de potentie hebben om de markt te overspoelen met vergelijkbare werken, wat de prikkel voor menselijke creatie kan ondermijnen.

  • De rechtbank oordeelt dat Meta's gebruik van de boeken voor het trainen van zijn LLM's transformatief is, aangezien het een nieuw product creëert met een ander doel dan de originele boeken.

  • De rechtbank merkt op dat Llama niet in staat is om meer dan 50 woorden en leestekens uit de boeken van de eisers te genereren. Dit betekent dat Llama de boeken van de eisers niet zinvol kan reproduceren of toegankelijk kan maken.

  • De rechtbank stelt dat de eisers geen bewijs hebben geleverd dat de outputs van Meta's modellen de markt voor hun eigen werken zouden verdunnen.

De uitspraak gaat alleen over de output. De rechtbank benadrukt dat ze geen uitspraak deed over de datamining, omdat eisers dat niet als geschilpunt inbrachten.


Ik kan naar aanleiding van deze twee nieuwe uitspraken mijn conclusie in het hoofdstuk kunstmatige intelligentie ongewijzigd laten. De Amerikaanse rechtbanken bevestigen dat je alleen uit openbare data mag minen. Het staat al in de Auteurswet, artikel 29a.2:

Degene, die doeltreffende technische voorzieningen omzeilt en dat weet of redelijkerwijs behoort te weten, handelt onrechtmatig.

Verder ben ik het ook eens met de rechtbanken dat je moet kijken of de output de exploitatiemogelijkheden van de makers schaadt. Dus in hoeverre de output gelijkenis vertoont. Ik vrees dat dat het grootste pijnpunt van fotografen gaat worden in de toekomst. Want stel dat je een foto vindt die duidelijk ontleend is aan jouw foto. Wie moet je dan aanspreken? Degene die de foto beschikbaar stelde aan de Ai-tool? De Ai-tool omdat die teveel overnam? Of degene die de Ai-tool bediende? En die laatste weet dus niet dat jouw foto gebruikt is... En dan kan het ook nog zijn dat jouw foto helemaal niet gebruikt is door de Ai-tool, dat de gelijkenis op toeval berust. Zoals dat IRL veelvuldig gebeurt, denk aan foto's van gebouwen, dieren etc. 

In het hoofdstuk behandel ik de door Robert Kneschke verloren rechtszaak over het trainen van Ai met zijn foto's. Het ging om foto's uit het openbare gedeelte van de beeldbank Shutterstock, het grote logo van Shutterstock is duidelijk zichtbaar.
Ik begreep dat hij in hoger beroep is gegaan. Het lijkt me kansloos, zeker gezien Shutterstock Ai-bedrijven tegen betaling toegang geeft tot haar servers... Als Kneschke niet wil dat zijn foto's worden gebruikt kan hij beter zijn foto's weghalen van openbare servers en van servers waar de eigenaren dealtjes sluiten waar hij het niet mee eens is.


Alles op dit blog is en blijft gratis, al kost het meer tijd en frustratie dan me lief is. In 2017 viel ik in de beerput van een pervers verdienmodel met fotorechten. Inmiddels heb ik de studie Mediarecht afgerond en schrijf ik een boek waarmee fotografen en fotogebruikers geschillen onderling moeten kunnen oplossen.