Koda beder den danske regering tage affære under EU-formandskabet. Det er en ladeport for misbrug af kreative værker, mener flere.
40 europæiske rettighedsorganisationer, herunder danske Koda, retter nu en skarp kritik mod EU-Kommissionens nye praksiskodeks for generativ kunstig intelligens. I en fælles erklæring kalder de det en ’spildt chance’, der risikerer at underminere centrale principper om ophavsret og gennemsigtighed i det digitale indre marked.
Det skriver Koda i en pressemeddelelse.
Det såkaldte GPAI Code of Practice er en del af den implementeringspakke, der skal følge op på EU’s AI-forordning (AI Act). Kodekset skal fungere som vejledning for AI-udbydere i forhold til, hvordan de oplyser om, hvilke træningsdata – fx musik, billeder og tekst – deres modeller er baseret på.
Men det er netop her, kunstnerorganisationerne slår alarm.
“Det risikerer at åbne en ladeport for AI-tjenesterne til at stjæle musikere og kunstneres arbejde uden betaling eller tilladelse. Vi håber, at den danske regering vil bruge EU-formandskabet til at lægge pres på EU-Kommissionen,” siger Mette Vestergaard Andersen, forretningsudviklingschef i Koda.
Ifølge organisationerne giver kodekset AI-udbyderne alt for vide rammer og stiller ingen bindende krav om at offentliggøre brugen af ophavsretligt beskyttet materiale i træningsdata. Det betyder, at rettighedshavere som komponister, forfattere og billedkunstnere reelt ikke kan finde ud af, om deres værker er blevet anvendt – eller om det er sket uden samtykke.
“Ambitionsniveauet i kodekset er bekymrende lavt, og det ærgrer os. Trods de gode intentioner i AI-forordningen, skyder Kommissionen langt forbi skiven,” siger Mette Vestergaard Andersen.
Koda tilslutter sig nu de europæiske aktørers opfordring til, at EU reviderer kodekset. De beder samtidig den danske regering gå aktivt ind i sagen under det igangværende EU-formandskab.
Eksperter advarer om “black box”-effekt og uigennemsigtighed
Flere europæiske forskere og juridiske eksperter har advaret om, at den manglende gennemsigtighed i AI-træningsdata skaber en såkaldt “black box-effekt”, hvor det er umuligt at kontrollere, hvilke kilder modellerne bygger på. Ifølge en rapport fra det uafhængige EU-agentur EUIPO (European Union Intellectual Property Office) er der allerede udbredt brug af ophavsretligt beskyttet indhold i træningen af AI-modeller uden at rettighedshaverne ved det.
Rapporten konkluderer, at mange kreative brancher inden for fx musik, film og litteratur risikerer alvorlige tab, hvis der ikke skabes gennemsigtighed og mulighed for at gøre krav gældende. Den opfordrer derfor også til politisk handling og til at skabe tekniske standarder, der gør det muligt at identificere og dokumentere brug af værker.
Næsten ingen ved det: Så tit skal din smartphone egentlig oplades