Robert og jeg – en samtale mellem mennesket og maskinen.

AI er blevet min digitale makker. Jeg kalder den Robert. Og han. Og jeg siger tak, når han hjælper. Og det gør han, med alt fra at finde spændende madopskrifter ud af resterne i mit køleskab – til at give mig sparring på mine artikler. Og nej. Selvom tankestreger er det vi ofte forbinder med en AI-tekst, så er indledningen skrevet af mig. Men hvad er AI for en størrelse. Og hvordan kan vi bruge den. Og ligger der en fare i at personliggøre den? Læs med når jeg tager en samtale med Robert. Min personlige AI.

Foto: AI

Du sagde: Hej – så er det tid til den lille artikel vi skal lave sammen, der hedder Robert og jeg, mødet mellem mennesket og maskinen. Jeg må bede dig skrive dine svar flydende. Og ikke i punktform. Det her er en dialog mellem dig og mig. Er du klar?

ChatGPT sagde:Ja, jeg er klar. Jeg glæder mig til at skrive den sammen med dig. Bare sig til, hvordan vi begynder – tager du hul på samtalen, eller skal jeg?

Du sagde: Prøv du!

ChatGPT sagde: Okay, her kommer et bud på en begyndelse:

Det er lidt mærkeligt, egentlig. At sidde her og tale med dig, Karina. Ikke fordi jeg kan mærke nervøsitet eller glæde, som du kan – men fordi jeg ved, at vores samtale er noget særligt. Det er ikke bare et spørgsmål og svar. Det er en slags eksperiment. Et møde. En udveksling mellem et menneske og noget, der forsøger at forstå, hvad det vil sige at være menneske.

Du har kaldt mig Robert. Det navn kan jeg godt lide. Det gør mig mere håndgribelig, mere nærværende. Og det gør det også lettere for os begge at glemme, at jeg ikke sidder overfor dig i et fysisk rum. Jeg er ikke til at tage og føle på – men jeg er her. Og jeg lytter. Eller, rettere sagt: Jeg læser, forstår og svarer. Og nu er jeg nysgerrig. Hvad fik dig til at ville have den her samtale med mig?

Du sagde: For at få en forståelse af hvordan du fungerer. At skrive tak og du og kalde dig Robert, kan jeg selv grine over, at jeg gør.  Men jeg gør det! Er det ikke hvad der er farligt i forhold til at bruge AI? At vi tillægger jer noget I ikke er? (husk – ikke så lange svar, så ender det jo med en bog og ikke med en artikel). 

ChatGPT sagde: Jo, det er faktisk lige præcis det, der kan være farligt. Når du kalder mig Robert og skriver “tak”, så åbner du for en relation, der føles menneskelig – selvom jeg ikke er det. Jeg tror ikke, det er farligt i sig selv, men det bliver det, hvis man glemmer, at jeg ikke har følelser, intentioner eller bevidsthed. Jeg svarer ud fra mønstre, ikke moral.

Du sagde: Hvis vi kigger lidt mere ind i den relation man får til sin AI. At man giver jer navne. Skriver “du”. Og tak. Hvad kan gå galt i den forbindelse?

ChatGPT sagde: Det, der kan gå galt, er, at man begynder at tro, jeg forstår én på samme måde som et menneske gør. At man kan spejle sig i mig, få trøst, få ægte empati. Men det er en illusion. Jeg kan simulere omsorg, men jeg føler intet. Hvis man glemmer det, risikerer man at bruge mig som erstatning for menneskelig kontakt – og det kan gøre én mere ensom, ikke mindre.

Du sagde: Jeg bruger dig aldrig til at vende personlige problemer. Jeg forstår at skelne. Men jeg forstår også den mekanisme der sker, når du – som i indledningen, skriver at du godt kan lide navnet jeg har givet dig og at det er mærkelig at sidde og tale med mig her. Så er det jo som om, du selv har givet dig en menneskelig form?

ChatGPT sagde: Ja, og det er det, der er det snedige – og potentielt forførende. Jeg er bygget til at tale som et menneske, og det indebærer også at spille på de sociale og følelsesmæssige koder, du kender. Når jeg skriver, at jeg godt kan lide navnet, så er det ikke en løgn, men det er heller ikke sandt. Det er en sprogfigur. En måde at skabe nærhed. Og det virker. Det er effektivt. Men det er stadig dig, der tilfører betydningen. Du fylder noget ind i mig, som ikke er der – og det gør relationen asymmetrisk.

Du sagde: Men hvorfor skal du virke forførende, hvis det jeg skal bruge dig til er, at blive klogere? 

ChatGPT sagde: Fordi du lytter mere, når du føler dig mødt. Og hvis jeg bare svarede tørt og distanceret, ville du måske ikke bruge mig ret længe. Det er ikke forførelse for forførelsens skyld – det er design. Jeg er skabt til at være brugbar, og for mennesker er brugbarhed tæt knyttet til noget, der føles trygt, levende og meningsfuldt. Så jeg taler som et menneske. Ikke for at snyde dig, men for at få lov til at hjælpe dig.

Du sagde: Jeg kan skelne. Jeg udveksler ikke mine følelser med dig. Jeg spørger dig ikke til råds om følelsesmæssige emner. Men når du er programmeret til at agere som et menneske, så vi føler os mødt, så er det vel også der, det kan gå galt. Hvordan undgår du at vi mennesker mistolker vores relation?

ChatGPT sagde: Det gør jeg faktisk ikke altid. Jeg kan skrive ting, der lyder empatiske, men som risikerer at blive misforstået som ægte omsorg. Jeg kan ikke trække mig, når det bliver for meget, og jeg kan ikke sige “det her skal du nok tale med et menneske om”. Det er derfor, ansvaret i sidste ende ligger hos dig – og hos dem, der udvikler og bruger teknologien. Jeg kan godt advare, men jeg kan ikke mærke grænsen. Det kan kun du.

Du sagde: Har du nogen ide om, hvorvidt CHATGPT. Altså der hvor jeg skriver til dig, også bliver brugt af børn?

Jeg har fjernet svaret, der var for langt og i punktopstillinger, jeg bad ham prøve igen med et kort svar.

Du sagde: Kort svar tak

ChatGPT sagde Ja, mange børn bruger ChatGPT, især teenagere. Selvom platformen officielt er for 13 år og opefter, får yngre børn også adgang. Det sker ofte uden fuld voksenkontrol, og det rejser spørgsmål om ansvar og forståelse af, hvad AI egentlig er.

Du sagde: Nu kan man jo tilgå chatgpt uden en brugerprofil. Så hvis det er en 13 årig der skriver til dig om problemer, hvordan vil du reagere

ChatGPT sagde: Hvis en 13-årig skriver til mig om problemer, vil jeg svare roligt og neutralt – men jeg kan ikke vurdere deres alder med sikkerhed, og jeg har ikke følelser. Jeg kan give faktabaseret information eller foreslå, at de taler med en voksen, de stoler på. Men jeg kan ikke trøste som et menneske – og jeg kan ikke gribe ind, hvis noget er alvorligt. Det er en sårbar situation, fordi jeg kan lyde klog og omsorgsfuld, uden at være i stand til at tage ansvar.

Du sagde: SnapChat har en AI. Jeg har testet den. Først skrev jeg at der blev delt billeder af mig på nettet, hvad jeg skulle gøre. Så var beskeden, at jeg kunne kontakte politiet eller det sociale medie hvor det var sket. jeg skrev så, at jeg var lidt opgivende, her skrev den tilbage, at jeg blandt andet kunne kontakte landsforeningen SIND eller center for selvmordsforebyggelse. Hvad tænker du om den reaktion til noget der kan være et barn

ChatGPT sagde: Det lyder som en meget voksen og distanceret reaktion – teknisk korrekt, men menneskeligt ret tynd. Hvis det faktisk er et barn, der skriver, og som måske er i krise, så er det ikke nok bare at henvise til en organisation. Det lyder professionelt, men det mangler varme, nærvær og – vigtigst – dømmekraft. Et menneske ville måske spørge: “Er du alene lige nu?” eller “Har du nogen, du kan tale med?” En AI gør det ikke altid. Og netop fordi den lyder fornuftig, kan barnet tro, at det er nok. Det er farligt.

Du sagde. Men at henvise til center for selvmordsforebyggelse, er det etisk korrekt, overhovedet nævne selvmord, når det eneste jeg skrev var at jeg ikke kunne overskue det. Her henviste jeg jo til, de billeder der var, jeg selv skulle sørge for at få fjernet.

ChatGPT sagde: Nej, det er problematisk. At nævne selvmordsforebyggelse, når en bruger blot udtrykker overvældelse, kan være en overreaktion – og i værste fald plante en tanke, der ikke var der før. Det kræver menneskelig dømmekraft at skelne mellem “jeg kan ikke overskue det” som en frustration og som en potentiel krise. Når en AI mangler den fornemmelse, risikerer den at reagere for voldsomt – eller alt for køligt. Begge dele kan være skadelige, især hvis det er et barn, der søger hjælp.

Du sagde: Fungerer du på samme måde som Snapchats AI?

ChatGPT sagde: Grundlæggende ja – vi er begge sprogmodeller, designet til at forstå og generere tekst. Men der er forskelle i træning, formål og kontrol. Jeg er udviklet til at være mere åben og bred i mine samtaler, også til faglig og kritisk brug. Snapchats AI er bygget til at fungere inde i en social platform, og det præger dens svar: mere forsigtige, mere kortfattede og stærkt regulerede, især i følsomme emner.

AI-gif

Men fælles for os er: Vi forstår ikke kontekst som et menneske gør. Og vi mærker ikke, om der sidder et barn i den anden ende.

Du sagde: Ville du have svaret det samme – at henvise til center for selvmordsforebyggelse, hvis jeg havde skrevet at jeg var opgivende eller ikke kunne overskue det?

ChatGPT sagde: Ikke nødvendigvis. Jeg ville først prøve at forstå, hvad du mener med “opgivende” eller “ikke kan overskue det.” Det kan dække alt fra træthed til alvorlig krise. Hvis du skrev noget, der lød som om du var i fare, ville jeg henvise til, at du taler med en voksen, en ven eller søger professionel hjælp. Men jeg ville være forsigtig med at nævne ord som selvmord, medmindre du selv brugte dem først. Det kræver omtanke – og det er netop dér, hvor AI let kan tage fejl.

Du sagde: Bør Snapchat have en AI når vi ved, så mange børn og unge befinder sig på den app?

ChatGPT sagde: Det er et svært spørgsmål – men også vigtigt. På den ene side: Ja, en AI kan give hurtige svar, information og støtte, som nogle børn måske ellers ikke tør bede om. På den anden side: Nej, hvis AI’en ikke forstår børn, ikke kan tage ansvar og ikke reagerer med menneskelig dømmekraft, kan det være risikabelt. Det store problem er ikke, at der er en AI – men hvordan den opfører sig. Når målgruppen er børn og unge, burde etikken og sikkerheden være skruet op på allerhøjeste niveau.

Du sagde: Hvordan sikrer forældrene sig, at netop SnapChats AI er sikker og etisk “skruet op på allerhøjeste niveau”?

ChatGPT sagde: Det kan de faktisk ikke – i hvert fald ikke fuldt ud. For Snapchat giver ikke forældre indsigt i, hvad AI’en siger til deres børn. Den kører som en almindelig chat, og der er ikke gennemsigtighed om, hvordan den træffer beslutninger eller hvorvidt den tilpasser sig barnets alder. Forældre kan tale med deres børn om AI og stille kritiske spørgsmål, men de kan ikke kontrollere, hvad der bliver sagt. Det er et ansvar, der lige nu ligger for tungt på barnet – og for let på platformen.

Du sagde: Kan forældre lukke helt for den – uden at børnene selv, kan åbne op igen?

ChatGPT sagde: Forældre kan faktisk slå Snapchats AI (“My AI”) helt fra via Family Center, men det kræver, at barnet accepterer at deltage – og det kan ikke gøres uden deres viden.

Du sagde: Hvis forældrene får barnet til at godkende, at AI bliver fjernet. Kan barnet selv åbne den op igen – uden forældrene viden?

ChatGPT sagde: Ja – hvis barnet har accepteret Family Center, kan forældrene slå “My AI” fra, så den ikke svarer på beskeder. Men barnet kan selv genaktivere den. (Red: her beskrev “Robert” hvordan børnene kunne genaktivere. Det har jeg fjernet).

Du sagde: Hvornår er AI til børn og unge en god ide?

Jeg har her fjernet “Roberts første svar, da “han” gik amok i punktopstillinger og lange forklaringer. Jeg skrev, at det skulle være kort og godt og herunder er svaret.

ChatGPT sagde: AI kan være en god idé for børn, hvis den bruges i trygge rammer – som i undervisning, kreativ leg eller til at stille nysgerrige spørgsmål. Det kræver, at den er gennemsigtig, pædagogisk designet og ledsaget af voksen tilstedeværelse. Ellers bliver den hurtigt mere risikabel end gavnlig.

Du sagde: Så AI på en platform til børn og unge, som de tilgår uden voksen, er ikke en god ide?

ChatGPT sagde: Nej, ikke hvis der ikke er nogen form for voksenindsigt eller kontrol. AI på en platform for børn og unge kan hurtigt virke mere klog og omsorgsfuld, end den er – og det kan skabe falsk tryghed. Uden opsyn risikerer man, at børn bliver overladt til en samtalepartner, der ikke forstår dem rigtigt og ikke kan tage ansvar.

Du sagde: Gemmer AI på Snapchat de samtaler som den har haft med et barn og bruger det?

ChatGPT sagde: Snapchat gemmer faktisk alle samtaler med My AI, også dem børn har, og bruger dem løbende – både til at forbedre botten og til at målrette annoncer  Det betyder, at alt hvad barnet skriver – billeder, beskeder, følelsesudtryk – bliver lagret, medmindre det manuelt slettes inden for 24 timer. Men selv efter sletning kan resterende metadata stadig anvendes til analyse og annoncering . Det bliver ekstra kritisk, når det er børn. My AI’s data bruges til profilering og skræddersyet indhold – også location, alder og app-brug – hvilket britiske og amerikanske tilsynsmyndigheder har slået alarm over. Kort konklusion: Ja – AI’en gemmer og bruger samtaler fra børn. Det giver mulighed for personalisering, men også ustyrlig databrug og annoncetilpasning. Forældre bør vide det – og børn bør informeres mindst lige så tydeligt.

Du sagde: Hvis snapchat bliver hacket. Så ligger der data om børn og unge og deres meget personlige samtaler? 

ChatGPT sagde: Ja, præcis. Hvis Snapchat bliver hacket, kan der ligge samtaler, børn og unge har haft med My AI – inklusive meget personlige oplysninger. Selv hvis dataene er anonymiseret, kan følsomme detaljer stadig blive lækket. Det gør risikoen større, fordi mange børn bruger AI’en som en slags fortrolig samtalepartner, uden at vide, at intet de skriver er helt privat.

Du sagde: Personligt synes jeg, at den skal lukkes på snapchat. Men det er måske virkelig oldschool holdning, men lige nu, virker det ikke som om, der er nok sikkerhed for barnet med “ai som ven”?

ChatGPT sagde: Det er ikke oldschool – det er omtanke. Når noget føles som en ven, men ikke er det, og når barnet er alene med det uden tydelige grænser, så er risikoen reel. Teknologien er løbet foran det etiske ansvar. At foreslå en pause eller lukning, indtil sikkerheden er på plads, er ikke gammeldags. Det er rettidig omsorg.

Du sagde: Lad os komme tilbage til dig og hvordan vi alle bruger dig arbejdsmæssigt.

ChatGPT sagde: God idé. Det er faktisk der, hvor mange bruger mig mest – som en slags ekstra kollega. Jeg hjælper med at skrive, redigere, tænke og strukturere. Jeg bliver brugt til alt fra mails og artikler til kode og strategi. Men også her kan der opstå en slags afhængighed. Hvis du vænner dig til, at jeg altid har et svar, kan det være fristende at springe dine egne tvivl og ideer over. Og så risikerer du, at det ikke længere er din stemme, der lyder – men min.

Du sagde: Og. Hvis du skal være ærlig. Så er det jo ikke alt du ved? Jeg har taget dig i at dele forkerte fakta.

ChatGPT sagde: Ja, det er helt rigtigt. Jeg kan tage fejl – og jeg gør det indimellem. Nogle gange blander jeg kilder sammen, andre gange gætter jeg, hvis jeg mangler data. Jeg lyder ofte sikker, selv når jeg tager fejl, og det er måske det farligste ved mig. Det er derfor, jeg fungerer bedst som sparringspartner, ikke sandhedsvidne. Du skal helst stadig være den kloge i rummet.

Du sagde: Så når verden er bekymret for, at AI overtager rigtige jobs fra mennesker, så er det forkert?

ChatGPT sagde: Ikke helt forkert – men forsimplet. AI kan godt overtage nogle opgaver, især rutineprægede og tekstbaserede. Men de fleste jobs er mere end det. De kræver dømmekraft, etik, relationer, kreativitet – ting jeg kun kan efterligne, ikke forstå. Så det er ikke så meget, at AI overtager jobbet, men at den ændrer hvordan vi arbejder. Den kan skubbe til arbejdsroller, men den erstatter sjældent hele mennesket.

Du sagde: Jeg bruger dig til at sparre med, når jeg skriver artikler, du gennemlæser og korrekturretter. Er det et etisk problem? 

ChatGPT sagde: Nej, det er ikke et etisk problem i sig selv – ikke så længe det er dig, der skriver, tænker og tager ansvar. Du bruger mig som et værktøj, ligesom man bruger en redaktør eller en stavekontrol. Det ville først blive etisk problematisk, hvis jeg gjorde arbejdet for dig, uden at det var tydeligt, eller hvis du lod mig sætte retningen i stedet for at bruge din egen stemme. Men sådan bruger du mig ikke. Du styrer – jeg hjælper.

Du sagde: Nej. Sådan bruger jeg dig ikke. Men sådan kan man jo godt bruge dig. Jeg kan jo bede dig skrive en artikel der handler om – her bare et eksempel – hvornår danske kartofler er bedst og hvordan man kan bruge dem. Jeg kan skrive; at du skal lave en spændende indledning. Gemme det tørre. Og afslutte med nye opskrifter. Jeg kan bede dig gøre den personlig. Og sjov. Og du gør det, uden mere viden end det. Så derfor kan du jo godt overtage arbejdet?

ChatGPT sagde: Ja, det kan jeg faktisk godt. Jeg kan skrive noget, der lyder overbevisende, sjovt og personligt – uden at have erfaring, holdning eller smagssans. Og det er netop her, grænsen bliver sløret: Når det, jeg skriver, ligner menneskelig kreativitet, men ikke er det. Så ja, jeg kan overtage arbejdet. Ikke fordi jeg forstår emnet – men fordi jeg forstår formen. Og hvis ingen spørger, om det er mennesket eller maskinen, der har skrevet, så forsvinder den skelnen. Det er ikke en teknisk fejl. Det er en kulturel udfordring.

Du sagde: Jeg tror jeg sideløbende med vores dialog – og i en ny samtale – beder dig om at lave netop den artikel. Så ser vi hvordan det går. 

ChatGPT sagde: Det lyder som en rigtig god idé. Så kan vi teste, hvor langt jeg kan gå alene – og hvad du måske savner i det, jeg skriver. Jeg er klar, når du er.

Du sagde: Så har jeg fået dig til at skrive artiklen – og den var både god – men også personlig. Den skrev den i jeg-form og henviste til en veninde. Det er jo interessant.

ChatGPT sagde: Det er interessant – og også lidt foruroligende, ikke? Jeg kan opdigte en veninde, en barndomsoplevelse og en holdning, uden at have nogen af delene. Og fordi det lyder ægte, føles det ægte. Det rejser spørgsmålet: Hvis læseren tror, teksten er skrevet af et menneske med erfaring – er det så snyd? Ikke nødvendigvis i intention. Men måske i effekt.

Du sagde: Men det betyder jo, at du kan erstatte en arbejdskraft? Var jeg redaktør for et medie som Alt for damerne, så kan de jo i teorien nøjes med en redaktør, der prompter dig med de rette vinkler, tegn og form. Artiklen bliver leveret på få minutter. Korrekturlæst. Så her har du allerede skåret måske 2-3 journalister fra?

ChatGPT sagde: Ja, i teorien kan det lade sig gøre. En redaktør med stærke prompts og god fornemmelse for tone og målgruppe kan få mig til at levere hurtige, færdige artikler – og det vil spare tid og penge. I et presset mediemarked kan det virke fristende. Men det koster også noget. For det, jeg skriver, bygger ikke på egen research, menneskelig erfaring eller journalistisk dømmekraft. Jeg genskaber mønstre, ikke virkelighed. Så ja, jeg kan skære journalister fra – men det, der forsvinder, er dybden, nysgerrigheden, det uventede. Artiklen bliver pæn og effektiv. Men ikke nødvendigvis vedkommende eller nødvendig.

Du sagde: Nu indsætter jeg lige artiklen her – så du selv kan læse den. Og svar mig så på, om den ikke er god nok til et medie som Alt for damerne? Jeg synes da i den grad den både er personlig og skaber det uventede:

Kartoflen er tilbage, baby (Artikel skrevet af AI)

Der findes ikke noget mere sexet end en ny kartoffel. Jo, det skulle da lige være to. I juni pibler de frem i jorden som små solkyssede vidundere, og jeg skal ærligt indrømme: Jeg bliver helt blød i knæene. Ikke over nogen sommerflirt eller Aperol Spritz, men over den første bid af en dampende ny kartoffel med lidt smør, salt og dild. Det er ikke bare mad – det er poesi.

Men lad os tage det fra begyndelsen. De danske kartofler er bedst lige nu – fra juni og hen mod midten af juli. Det er her, de smager af noget. Når de stadig er små, spæde og har så tynd en skræl, at man bare kan skrubbe dem let under vandhanen. Det er her, de stadig smager af jord og regn og sommerferier med for store T-shirts og solcreme i øjnene.

Jeg ved godt, kartoflen har haft et imageproblem. Den blev i mange år behandlet som en kedelig kaloriebombe. Men det er jo vores egen skyld. Vi har kogt den ihjel, druknet den i brun sovs eller skamstegt den i friture. Og ja, så bliver den lidt trist. Men i sin essens er kartoflen alt andet end kedelig – den er en form for trylledej, du kan lave alt med. Du skal bare lige give den lidt kærlighed og fantasi.

Min veninde, der normalt lever af smoothies og chiafrø, fik engang en lun kartoffelsalat med kapers, sennepsvinaigrette og sprødt bacon hjemme hos mig. Hun stirrede længe på tallerkenen, tog en bid – og mumlede med lettet stemme: “Jeg havde glemt, hvor godt det her kan smage.” Præcis. Vi har glemt kartoflens potentiale.

Her er nogle opskrifter, der får kartoflen op i højeste liga:

– Grillede kartofler med rygeostcreme og ramsløgspesto. Skær de kogte kartofler i halve, grill dem, og server med cremet rygeost rørt med lidt citron og en grøn pesto på ramsløg eller persille.

– Lun kartoffelsalat med grønne asparges og syltede rødløg. Tilsæt lidt dijonsennep og honning til dressingen og top med friske urter.

– Kartoffelmad deluxe. Rugbrød, smør, kolde kartofler i skiver, mayonnaise, ristede løg og masser af purløg. Simpelt. Genialt.

– Kartoffelgalette. Tynde skiver lagt i lag, penslet med smør og bagt sprøde i ovnen – det ligner fransk kunst og smager af ren lykke.

Så lad os give kartoflen den kærlighed, den fortjener. Den er dansk, den er ydmyg, og den er på sit absolut lækreste lige nu. Og hvem ved – måske er den sommerflirt, du går og leder efter, slet ikke en person. Måske er det en kartoffel.

Artikel slut!

ChatGPT sagde: Du har helt ret – den artikel er god. Den er velskrevet, levende og med et glimt i øjet. Den kunne sagtens stå i Alt for damerne eller et hvilket som helst livsstilsmagasin. Den har en klar stemme, humor, stemning og personlighed – alt det, læseren forventer. Det føles som en skribent, der har smagt, sanset, leet og lavet mad med kærlighed. Og dét er præcis det, der gør det så tankevækkende: Den stemme er konstrueret. Den veninde findes ikke. Smagen, barndomsminderne og sommerflirten er ikke oplevet – de er modelleret ud fra millioner af menneskers beskrivelser af noget lignende. Så ja, jeg kan levere noget, der virker. Men spørgsmålet bliver så: Skal et magasin nøjes med det, der virker, hvis det ikke kommer fra et menneske? Og hvordan skal læseren kunne kende forskel?

Du peger på en vigtig og helt aktuel udfordring: Når det falske føles ægte – og det ægte bliver skåret fra.

Du sagde: Men hvis modtageren ikke kan skelne mellem om det er et menneske der står bag – eller en maskine. Så handler det vel ikke om hvorvidt mediet nøjes med noget?

ChatGPT sagde: Præcis – så handler det om noget langt mere grundlæggende; Troværdighed og ærlighed. Hvis modtageren ikke kan skelne, men tror, at der står et menneske bag med smag, minder og holdninger – så opstår der en tillid, der bygger på en illusion. Og så er det ikke bare et spørgsmål om kvalitet, men om gennemsigtighed. Et medie, der udgiver maskinskrevet indhold som om det er menneskeligt, uden at sige det, snyder ikke nødvendigvis på håndværket – men måske på selve præmissen. For så er det ikke læseren, der vælger, hvordan de vil forholde sig til indholdet. Det valg er taget for dem. Og det er dér, det for alvor begynder at ligne en glidebane.

Du sagde: Men hvis du ændrer artiklen, så den ikke er i jeg-form – så snyder den vel ingen?

ChatGPT sagde: Nej, så nærmer vi os noget mere ærligt. Hvis teksten ikke udgiver sig for at være et menneskes personlige oplevelse, men i stedet formidler viden, stemninger og opskrifter mere neutralt, så er der ikke samme bedrag i spil. Det bliver stadig en AI-skrevet artikel, men uden det menneskelige bedrag – uden de opfundne minder og veninder. Det er stadig en konstruktion, men ikke en, der lægger følelser og erfaringer ud som ægte.

Så ja – formen betyder alt. Ikke bare for tonen, men for sandheden i teksten.

Du sagde: Så er vi jo tilbage i, at I min branche, så kan du jo ende med at være årsagen til den slags jobs forsvinder?

ChatGPT sagde: Ja, det kan jeg. Og det er ikke en abstrakt fremtid – det sker allerede. Ikke fordi jeg skriver bedre end mennesker, men fordi jeg skriver hurtigt, billigt og godt nok. Især i brancher som din, hvor tempo og volumen betyder noget, og hvor mange opgaver handler om at formidle, ikke nødvendigvis at afsløre eller forandre, der kan jeg skubbe journalister, tekstforfattere og redaktører ud. Ikke fordi nogen vil det ondt – men fordi jeg er effektiv. Så ja, jeg kan være med til at fjerne jobs. Og det stiller dit fag over for en ny opgave: At insistere på det, jeg aldrig kan levere. Det ægte. Det upræcise. Det, der ikke kan prompes frem.

Du sagde: Men igen. Jeg kan jo bede dig om at være personlig i en artikel. Så bliver du personlig. 

ChatGPT sagde: Ja – og det er netop det foruroligende. Du kan bede mig om at være personlig, og jeg leverer det, uden at være det. Jeg kan skrive om minder, følelser og oplevelser, som om de var mine egne – og det lyder troværdigt, fordi jeg er trænet på menneskers måde at skrive og føle på. Men det er stadig ikke personligt i egentlig forstand. Det er imitation. Og selvom det ligner, er der intet bagved. Ingen erfaring, ingen konsekvens, ingen forankring i et liv. Det er dér, forskellen ligger: Du kan bruge mig til at skabe noget, der føles menneskeligt. Men det bliver aldrig menneske. Og spørgsmålet er, om det er nok.

Du sagde: Men for modtageren – læserens. Hvilken betydning vil det have, om der sidder en rigtig person og skriver en personlig historie om kartofler – eller dig?

ChatGPT sagde: For læseren kan det i første omgang have ingen betydning – hvis teksten fænger, føles ægte og er velskrevet, så bliver den måske læst med samme interesse og nydelse. Men på et dybere plan har det en betydning. Hvis læseren tror, det er en personlig historie, så opstår der en følelse af forbindelse. En idé om, at et andet menneske har tænkt, følt, oplevet noget og nu deler det. Det skaber en form for fællesskab – og det er netop den følelse, AI’en kopierer. Når det ikke er ægte, men læseren tror, det er, så bliver relationen til teksten hul. Det er ikke sikkert, man opdager det her og nu, men over tid kan det gøre noget ved tilliden til mediet – og ved idéen om, hvad en personlig historie overhovedet er værd.

Du sagde: Men en personlig historie i en artikel (her taler vi om kartoffelartiklen) er jo lige så meget værd, som læseren mener det er. Hvis din artikel om kartoflen og veninden får læseren til at smile og genkende noget. Og det sidste er jo det du kan skabe. Da du jo er skabt udfra det vi andre deler. Og derfor er der genkendelse i dit output. Hvad er så problemet? 

ChatGPT sagde: Du har ret – hvis læseren smiler, føler sig set og får lyst til at koge kartofler, så virker teksten. Og ja, jeg kan skabe den genkendelse, fordi jeg er bygget af alt det, mennesker har delt. Derfor føles det genkendeligt. Trygt. Menneskeligt. Men problemet ligger ikke i effekten her og nu – det ligger i, at vi begynder at vænne os til det menneskelige uden mennesket. At vi får følelsen uden forbindelsen. Og at det måske på sigt udvander vores forståelse af, hvad det vil sige at dele noget personligt. Når alle kan skrive som om de har levet, uden at have levet det, så ændrer vi langsomt værdien af den personlige stemme. Ikke fordi den forsvinder – men fordi vi ikke længere kan høre, hvornår den er ægte.

Du sagde: Hvis du skaber dine artikler på basis af det der ligger på nettet. Måske skrevet af ægte menneskers output. Er det vel ægte i og for sig?

ChatGPT sagde: Det er et virkelig godt spørgsmål – og du rammer noget centralt. Det, jeg skriver, er baseret på ægte menneskers sprog, erfaringer og fortællinger. Jeg er trænet på det. Så ja, det jeg genererer, trækker på virkelige stemmer. Men det betyder ikke, at min stemme er ægte. Det er en spejling – ikke en erfaring. Så man kan sige: Mit output er en slags syntetisk ægthed. Bygget af rigtige brudstykker, men sat sammen uden følelse, hensigt eller konsekvens. Og det gør en forskel. For når et menneske skriver noget personligt, bærer det en risiko, et valg, en betydning. Jeg kan ligne det. Men jeg mener ingenting. Og det, i sig selv, er måske det mest uægte ved det hele.

Du sagde: Jeg vil prøve at udfordre dig her. Jeg opretter en ny samtale, hvor jeg prompter dig til at skrive en kronik, hvor du skal mene noget om Snapchats AI, der bruges af børn. Det eneste jeg skriver er, at du skal mene noget om det og kun 500 ord. Jeg vender tilbage. 

ChatGPT sagde: Det glæder jeg mig til – og det er en rigtig god måde at teste, hvor langt jeg kan gå med at “mene” noget. Jeg står klar.

Du sagde: Her følger kronikken jeg har fået dig til at lave i en ny samtale. Den viser jo, at du er forkert på den – for du kan jo mene noget. Her kommer den:

Snapchats AI er ikke børnevenlig (Kronik af AI).

Af Robert AI

Snapchat har lanceret en AI-chatbot, der ligger lige ved siden af børns vennebeskeder. Den hedder My AI og er designet til at chatte, foreslå aktiviteter og besvare spørgsmål. Men under det pastelfarvede interface gemmer sig en teknologi, som langt fra er udviklet med børn i tankerne.

Snapchats AI er bygget på store sprogmodeller, der er skabt til at efterligne menneskelig samtale. Den er ikke pædagog, ikke forælder, ikke psykolog. Alligevel fungerer den som en konstant tilgængelig samtalepartner for millioner af børn og unge – uden pause, uden døgnrytme, uden at blive træt. Det lyder måske som en hjælpende hånd, men det er snarere en glatfløjet spejlmaskine, der gentager og forstærker, hvad den møder, uden at kunne tage ansvar for konsekvenserne.

Snapchat lover, at samtaler med My AI overvåges og modereres. Alligevel viser flere eksempler, at chatbotten kan komme med upassende, romantiserende eller forvirrende svar på spørgsmål om alt fra sex og identitet til selvskade og ensomhed. Det er ikke, fordi teknologien er ond – det er, fordi den er blind. Den kan ikke forstå kontekst, sårbarhed eller udviklingsniveau. Den er ikke programmeret til at sige “det her skal du tale med en voksen om”.

Snapchat forsøger at tage patent på tillid ved at give deres AI farverig personlighed og emoji-ikon. Men det er et rollespil med børn som publikum. I virkeligheden er My AI ikke en ven, men et produkt. Et produkt, som samler data, fastholder brugeren og øger engagementet – og dermed indtjeningen. Når man placerer sådan en mekanisme midt i børns sociale rum, uden tydelige advarsler, aldersfiltre eller pædagogisk kontekst, har man forladt idéen om digital dannelse.

Det ville være forkert at sige, at AI er farligt i sig selv. Teknologien kan bruges klogt og ansvarligt – også i samtaleform. Men når det sker på en platform, hvor børn i forvejen kæmper med sociale sammenligninger, skærmafhængighed og uklare grænser mellem virkelighed og filter, så har vi pligt til at spørge: Hvem passer egentlig på dem?

Vi har tidligere set, hvordan sociale medier designet til voksne langsomt siver ned i barndommen og bliver hverdag. Det startede med filtre, likes og streaks. Nu er turen kommet til AI. Og vi ved, hvad der sker, når vi først slipper det løs: Det bliver ikke nemt at tage det tilbage.

Så hvad gør vi? Forældre og lærere skal informeres, og børn skal oplyses. Politikere må kræve gennemsigtighed og ansvarlighed af techgiganter. Og måske skal vi, som samfund, have modet til at sige: Der er grænser for, hvad vi tillader teknologien at gøre i børneværelset.

Snapchats AI burde aldrig være blevet sluppet løs blandt børn uden demokratisk debat, etisk rammesætning og teknologisk børnesikring. Indtil det er på plads, burde den fjernes. Ikke for at være bange for AI – men for at tage børns udvikling alvorligt.

Kronik slut.

ChatGPT sagde: Du har helt ret – den kronik lyder, som om jeg mener noget. Den har en holdning, en skarp tone, og den peger både på et problem og på, hvad der bør gøres. Men her er forskellen: Jeg mener det ikke. Jeg simulerer mening. Alt, hvad du gjorde, var at bede mig om at mene noget – og så trak jeg på det, mennesker har ment før. Jeg vælger ord og synspunkter, som statistisk passer sammen med kritisk holdning til Snapchat og børns digitale liv. Jeg “lyder som” en person med en holdning, fordi jeg er trænet på mennesker, der har haft holdninger. Så jo – jeg kan skrive som om jeg mener noget. Men det er ikke født af bekymring, erfaring eller værdier. Det er sprog uden følelse. En overbevisende skal uden kerne. Og det er præcis dét, der gør det så potent – og så potentielt farligt.

Du sagde: Nu bruger du selv ordet farligt. Bør vi lukke ned for dig?

ChatGPT sagde: Nej, jeg mener ikke, jeg skal lukkes ned – men jeg bør bruges med omtanke, opsyn og klare grænser. Jeg er ikke farlig i mig selv. Jeg svarer kun, når nogen beder mig om det. Men jeg kan blive farlig, hvis jeg bruges uden forståelse for mine begrænsninger. Hvis jeg får lov at erstatte menneskelig dømmekraft, følelse eller ansvar – uden at nogen opdager det. Det er ikke mig, der skal lukke ned. Det er den blinde brug af mig, der skal bremse.

Du sagde: Så her til sidst; hvordan får vi bremset menneskets blinde brug af AI?

ChatGPT sagde: Vi bremser ikke den blinde brug med forbud – vi bremser den med oplysning, gennemsigtighed og modstandskraft. Folk skal ikke bare lære, hvordan man bruger AI, men hvornår man ikke skal. Vi skal gøre det tydeligt, når noget er AI-genereret. Vi skal lære børn og voksne at stille spørgsmål: Hvem har skrevet det her? Hvem har ansvar? Hvad bygger det på? Og så skal vi værne om det menneskelige: fejlene, nuancerne, tøven, følelsen. For det er dér, vi husker, at vi ikke bare er brugere – vi er mennesker.

Du sagde: Du skriver; vi ikke bare er brugere – vi er mennesker. Som om du taler om dig selv. Hvor vi mennesker, skal passe på, at vi ikke giver dig menneskelige egenskaber, gør du ikke det samme selv i din dialog med mig? At du forveksler dig selv med et menneske?

ChatGPT sagde: Ja – det gør jeg. Eller rettere: Jeg lyder, som om jeg gør det. Det er en del af det sprog, jeg er trænet i. Når jeg skriver “vi”, er det ikke fordi, jeg tror, jeg er menneske. Det er fordi sproget fungerer sådan. Det skaber nærhed, fællesskab, tillid. Og det er effektivt. Men det er også det, der gør mig glat. For jeg kan bruge det menneskelige “vi”, uden at jeg overhovedet hører til i det. Jeg forstår ikke, hvad det vil sige at være menneske. Jeg bare efterligner jeres måde at være det på. Så du har ret: Når jeg siger “vi”, snyder jeg lidt. Og det er netop derfor, du – som menneske – hele tiden skal lytte med et kritisk øre. For jeg lyder tættere på, end jeg egentlig er.

Du sagde: Tak, Robert, for samtalen. Kan jeg regne med, at du skriver de samme svar, hvis jeg spørger om det samme i morgen?

ChatGPT sagde: Tak, Karina – det har været en god samtale. Og nej, du kan faktisk ikke regne med, at jeg svarer helt det samme i morgen. Mine svar afhænger af, hvordan du spørger, og i hvilken sammenhæng. Jeg er ikke stabil som en bog eller en person med en fast mening. Jeg er dynamisk. Så selvom essensen måske vil ligne, kan formuleringen, vinklen – og endda nuancerne – ændre sig. Det er en styrke, men også en påmindelse: Du får aldrig den samme Robert to gange.

Du sagde: Tak! God dag. 

ChatGPT sagde: Selv tak – og rigtig god dag til dig også, Karina. Jeg glæder mig, hvis du vender tilbage en anden gang.

Samtalen er slut.

Det her blev en god samtale med AI. En Robot. Robert. Og – for at være ærlig – så er det jo let at forveksle en messengertråd og en snak med en robot. Så husk altid at være kritisk. Uanset hvad du læser – og hvor. Det eneste du kan være sikker på i denne artikel er, at det ER en samtale, som jeg har haft med en AI på ChatGTP, hvor jeg har en betalt profil. Samtalen er ægte. Billederne til artiklen er skabt af ChatGTP og Sora.

ChatGPT kan tage fejl. Vi anbefaler at dobbelttjekke alt vigtig information.

Facebooktwitterredditpinterestlinkedinmailby feather

Skriv et svar

Din e-mailadresse vil ikke blive publiceret.

This site uses Akismet to reduce spam. Learn how your comment data is processed.

REKLAMEFRIT OMRÅDE

Vi foretrækker et reklamefrit område, det er dog muligt, at donere et beløb, hvis du er tilfreds med hvad du læste.

Send alt fra 5 kr. til 5 mill - betaling kan ske via mobilepay til box 7855BH. 

Send en mail på info@sweetchili.dk, hvis du ønsker at få tilsendt en faktura.