Ikke for at male fanden på Instagram

Mens vi alle leger med det nye AI-værktøj, og skaber animerede billeder af os selv, så er der andre, der skaber en hel anden type billeder af dine børn. For fortidens hverdagsbilleder, kan blive fremtidens børnepornografi.

På et online fotodelings-site, hvor anonyme blandt andet deler hverdagsbilleder af andres børn, der bliver seksualiseret i trådene, er der den seneste tid dukket en ny kategori op.

AI. Som i computerskabte billeder.

Da jeg opdagede kategorien, forestillede jeg mig billeder af psykadeliske landskaber, mennesker oDa jeg opdagede kategorien, forestillede jeg mig billeder af psykedeliske landskaber, mennesker omdannet til tegneseriefigurer og Trump, der bliver anholdt af politiet. Den slags billeder som private leger med, når de kaster sig over Midjourney eller andre af de AI-værktøjer, der ligger frit på nettet. 

Men det var billeder af børn. Børn der poserer på en måde, børn ikke af sig selv vil posere. Børn i lak og læder. Børn der kysser. Der var serien “på date med far”. Og så var der en hel sort/hvid-serie af “bedstefar med sine to børnebørn”. I undertøj.

Computerskabte billeder der deles fra de åbne mapper, der ikke kræver kode. De mapper alle kan tilgå.

Omfanget er overraskende stort, og man kan se, at der løbende bliver redigeret og tilføjet i mapperne.

Det stigende omfang af computerskabt billeder, oplever Red Barnet også, der står bag anmelderportalen AnmeldDet. En portal hvor alle anonymt kan anmelde seksuelle overgrebsbilleder af børn. De sidste tre år har Red Barnet oplevet en stigning i det computergenerede materiale, der bliver anmeldt.  I 2020 blev der anmeldt 20 billeder og i 2023 var de oppe på 1.890. For værktøjerne er klar, nu bliver de brugt. 

AI er et onlineværktøj, der kan skabe de billeder, du beskriver for den.Det eneste det kræver er, en meget præcise anmodning – også kaldet prompt. Prompt er en kommando eller instruktion, hvor AI får fortalt, hvad vi ønsker af billeder og i hvilken form. Ud fra instrukserne er AI-værktøjet i stand til at generere et billede. Alt hvad AI skaber, er udefra samlet data fra nettet. Eller de billeder brugeren vælger at fodre værktøjet med som udgangspunkt. En prompt styrer hvordan tonen, stilen og indholdet af det AI-genererede materiale bliver.

Måske du husker billedeserien af Trump fra 2023, hvor han blev anholdt af politiet. Ved første øjekast var jeg i tvivl om, hvorvidt det var ægte. AI var i den periode, fortsat en sær ny størrelse. Men hvis man zoomede ind på detaljerne i billederne, var der åbenlyse fejl

BBC havde gennemgået billederne, og beskrev i en artikel, hvilke fejl der var. De eksempler var nogle af de problemer, vi så med de billeder, der blev delt i den første spæde AI-tid. 

“Look at the centre of the image. Mr Trump’s arm is much too short, and the police officer on the left is grabbing something that more resembles a claw than a human hand.
Similarly, if you focus on Mr Trump’s neck, you’ll notice that his head looks as if it’s been superimposed on the image.” BBC

I dag er det blevet meget sværere at se, hvad der er animeret og computerskabt, og hvad der er rigtige mennesker. For udover at teknologien er under konstant udvikling, skaber AI billeder ud fra data, der er fundet på nettet eller fodret af brugeren. Jo flere data, der bruges som udgangspunkt, jo mere præcist kan den genskabe mennesker. Det betyder i teorien, at jo længere tid den bruges, jo mere præcis vil den blive. 

Fortidens billeder bliver fremtidens misbrugsmateriale

AI-teknikken er blevet bedre, noget jeg fik bekræftet, da jeg var på besøg hos Red Barnet og talte med Nadia Jung Pedersen, projektleder for AnmeldDet-portalen.

Gennem de seneste tre år har Red Barnet oplevet en stor stigning i det computergenererede materiale, der bliver anmeldt.  Nadia Jung Pedersen er en ud af seks medarbejdere fra Red Barnet, der på skift skal vurdere, om de billeder der bliver anmeldt på portalen af børn, der enten bliver seksualiseret eller misbrugt, kan anmeldes til politiet. 

“Og det er ikke en nem øvelse”, fortæller Nadia Jung Pedersen, noget jeg selv fik en mulighed for at observere.

For sammen gennemgik vi et af de billeder, de havde modtaget via AnmeldDet. Det var et billede af en voldtægt af noget der umiddelbart lignede et 5 årigt barn, hvor der stod tre voksne mænd omkring. Det var virkelighedstro, helt ned til de små detaljer i huden som rynker, modermærker og skygger på de rette steder på kroppen. 

Nadia Jung Pedersens trænede øjne vurderede det som et AI-computergeneret billede, der ikke var virkelighedstro nok til, at være ulovligt, og derfor blev det ikke sendt videre til politiets Nationale Cyber Crime Center, der også går under det mere mundrette navn NC3. 

Men hun kan dog ikke med sikkerhed vide, om det computergenererede materiale er skabt på basis af rigtige børn. For den teknik der blev brugt i går, kan have ændret sig i dag. 

AI computergeneret billede. Skabt af fem ord.

For både Red Barnet og NC3 ligger der et stort arbejde i, at følge med i den teknologiske udvikling. 

Selvom nogen af de nuværende AI-værktøjer allerede har retningslinjer for, hvad der må skabes med deres værktøjer, og som MidJourney, har sat blokeringer ind på forskellige ord, som ikke kan bruges til at skabe billeder, kræver det blot, at de kriminelle og pædofile lærer at omgå de ord, for at få det ønskede udfald. På det udenlandske foto-delingssite, kan man da også se, at flere af de anonyme profiler, der deler mapperne med børn, har skrevet hvilket ord (prompte) der er brugt til at skabe billederne af børn.

 

Billedeserien er af børn i mudder.

IWF Internet Watch Foundation, en NGO der arbejder for at skabe et mere sikkert internet ved at identificere og fjerne misbrugsbilleder af børn, skriver i en artikel fra oktober 2023, at de har fundet manualer på nettet, der er udviklet til, at guide kriminelle og pædofile med at finjustere AI-værktøjerne, for at producere mere realistiske billeder.

Susie Hargreaves OBE, administrerende direktør for IWF opfordrer til internationalt samarbejde om truslerne fra AI.

Vores værste mareridt er gået i opfyldelse. Tidligere i år advarede vi om, at AI-billeder snart kunne blive umulige at skelne fra rigtige billeder af børn, der lider under seksuelt misbrug, og at vi kunne begynde at se disse billeder sprede sig i meget større antal. Det punkt har vi nu passeret.”

Der findes allerede AI-værktøjer, der er trænet i at lave deep-fake porno med voksne.

Hverdagsbilleder misbruges

I oktober 2023 blev en børnepsykiater i Charlotte i USA idømt 40 års fængsel, for at have misbrugt en mindreårig, og for at have produceret og delt seksuelt misbrugsmateriale med børn. Ifølge retsdokumenterne havde den dømte brugt AI-værktøjer til blandt andet at ændre billeder af påklædte børn, til computergenereret seksuelt overgrebsmateriale med børn. Et af billederne der var blevet brugt, var optaget under en skoledans, et andet var et minde fra et barns første skoledag.

Almindelige hverdagsbilleder var blevet til seksuelt overgrebsmateriale med børn.  

I 2020 opdagede jeg en dansk mand på et russisk fotodelingssite, der bag en anonym profil, delte over 1.111 billeder af omkring 500 forskellige danske børn, der ifølge ham selv var billeder han havde “fundet” på nettet. Den artikel kan du læse HER.

Billederne var som udgangspunkt stjålet fra Facebook og Instagram, og da jeg søgte på billederne med et billede-søgningsværktøj, der ligger frit tilgængeligt på nettet, fandt jeg frem til flere af børnenes forældre. Kun eén valgte at politi-anmelde.

“Det er jo hvad der kan ske, når man deler billeder af børnene”, udtalte en af de mødre, der fravalgte at anmelde.

I starten var jeg overrasket over den store mængde hverdagsbilleder af børn, der blev delt af anonyme profiler fra hele verden. Børn i undertøj. Badetøj. Hverdagsbilleder af glade børn. Men i dag ser jeg et helt andet marked for data, der er ved at blive skabt. For nye billeder er også tilgængeligt materiale, der kan bruges til at skabe nyt computergeneret overgrebsmateriale på børn. 

For AI-værktøjerne kan skabe næsten alt hvad du beder om. Det kan være eksisterende og helt uskyldige hverdagsbilleder af børn, der bliver omdannet til nøgenbilleder. Den kan face-swappe, og sætte børnenes ansigter ind på allerede produceret pornografiske materiale. Eller selv skabe alt fra bunden –  med børnenes ansigt. 

Ifølge en rapport fra Red Barnet har Europol fundet eksempler på, at eksisterende overgrebsmateriale med ægte børn, bliver delt med et animationsfilter over, så gerningspersoner kan distribuere det ulovlige overgrebsmateriale for senere at tage filteret af.

Kort sagt betyder det, at de billeder af dine børn, som du deler på nettet, kan ende som seksuelt overgrebsmateriale på dine børn, der bliver blandt verdens pædofile.

Lovgivningen løber efter AI

Kunstig intelligens kan løse opgaver på en måde, der imiterer menneskelig intelligens. AI kan i teorien gøre, hvad du beder den om, og det ved kriminelle og de pædofile, der allerede benytter sig af værktøjet.

Med vores digitale virkelighed, der konstant er under udvikling, er der kommet flere mere digital-kyndige kriminelle til, der grundet deres store viden om, hvordan man kan være anonym på nettet, kan være to skridt foran politiet – og lovgivningen.

Det er samme teknologi de pædofile kan benytte sig af, når de deler seksuelt overgrebsmateriale på børn.

Det første kan måske løses med løbende uddannelse og flere ressourcer. Det sidste ved, at den nuværende lovgivning, bliver justeret løbende i forhold til den teknologiske udvikling.

Noget der noget nært er umuligt. For lovgivning bliver ikke justeret på en dag, og kan være forældet, når den bliver godkendt.

Det prøver Red Barnet at gøre noget ved, for de sidder med hænderne i maskineriet og ser konsekvenserne af udviklingen. Derfor har de også i december 2023, lavet en anbefaling til Justitsminister Peter Hummelgaard, om at få strammet op på den nuværende lovgivning, for “at udvise rettighed omhu overfor den nye teknologi, ved at beskytte børn mod at blive gjort til genstand for voksnes seksuelle tilfredsstillelse.  Den anbefaling kan du læse HER.

For seksualisering af børn, om det er AI eller rigtige børn, bør ikke være lovligt. 

Jeg spurgte justitsminister Peter Hummelgaard, hvor langt de er i processen.
 
”Seksuelle overgreb mod børn er en af de mest modbydelige forbrydelser, der findes. Derfor har regeringen et stort og vedvarende fokus på at komme digitale krænkelser og overgreb mod børn til livs. Red Barnet gør en stor og vigtig indsats på området, og jeg deler deres ambition bag forslagene om, at vi i videst muligt omfang skal arbejde for at sætte ind mod online billedmateriale, der seksualiserer børn. Jeg mener, at vi skal gå så langt, som vi overhovedet kan for at beskytte børn og unge mod overgreb. Derfor er der også et arbejde i gang i Justitsministeriet med at undersøge, om der er grundlag for at skærpe lovgivningen.”

Nogen vil nok kalde det et standardssvar. Jeg vil dog vove at kalde det håb.

På det online fotodelings-site under kategorien AI, er der de seneste timer blevet ændret i tre mapper med AI-computergenereret billeder af børn. Jeg tog et screenshot af et barns ansigt, der poserede i lak og læder, og lagde det ind på et billede-søgningsværktøj, for at se, om ansigtet var baseret på et ægte barn. Altså alene af ansigtet. 

Jeg blev blokeret, fordi jeg af flere gange, havde søgt på børnebilleder til research.

Hvis ikke andet, så kan det berolige os for en stund, for det betyder, at der er fokus på emnet – også på billede-søgningsplatforme.

For du skal huske på, at hver gang du lægger et billede ud af dit barn på sociale medier, og det måske efterfølgende, bliver delt online blandt tusindvis af pædofile, så kan de samme pædofile efterfølgende gå ind og søge på ansigtet, og her finde frem til flere billeder af dine børn, som du har lagt ud. Og finde frem til dig. Og så er der ikke langt fra, at finde ud af, hvor du og dine børn bor.

Ikke for at male fanden på Instagram, men du bør nok overveje, hvilke billeder af dine børn, du bør dele på nettet. Om du overhovedet bør.

REKLAMEFRIT OMRÅDE

Vi foretrækker et reklamefrit område, så korrekturlæser og andet godt, er desværre sparet væk, det er dog muligt, at betale for artiklen, hvis du er tilfreds med, hvad du læste, så vi en dag har økonomi til mere hjælp.

Vi er taknemlig for alt mellem 5 kr. til 5 mill – betaling kan ske via mobilepay til box 7855BH. 

Send en mail på info@sweetchili.dk, hvis du ønsker at få tilsendt en faktura. 

Facebooktwitterredditpinterestlinkedinmailby feather

Skriv et svar

Din e-mailadresse vil ikke blive publiceret.

This site uses Akismet to reduce spam. Learn how your comment data is processed.

REKLAMEFRIT OMRÅDE

Vi foretrækker et reklamefrit område, det er dog muligt, at donere et beløb, hvis du er tilfreds med hvad du læste.

Send alt fra 5 kr. til 5 mill - betaling kan ske via mobilepay til box 7855BH. 

Send en mail på info@sweetchili.dk, hvis du ønsker at få tilsendt en faktura.