Tale holdt ved Nordic Meetup – 2. september 2024.
Read in english
Siden ChatGPT brød igennem lydmuren i november 2022, er der ingen der har været i tvivl om at kunstig intelligens vil ændre verden og ændre medieverdenen.
Der har været masser af fokus på de direkte potentialer og masser af fokus på de oplagte udfordringer og trusler.
Men hvad med alle de indirekte bivirkninger? Dem har vi slet ikke snakket nok om, og det skyldes nok, at de er sværere at få øje på, da de viser sig langsommere.
Den næste halve time vil jeg forsøge at tegne nogle mulige konturer af.
Som menneske er jeg nysgerrig og optimistisk og derfor har jeg også siden ChatGPT blev tilgængelig for alle, været meget optaget af alle de spændende muligheder, som generativ ai giver os alle sammen.
Nogle vil måske kalde mig en AI-evangelist. Det er både en fair udlægning og en ikke helt fair.
Sandheden er, at jo mere jeg har arbejdet med AI og jo hurtigere udviklingen går, er jeg også blevet mere og mere bekymret.
Så det vil jeg dele med jer den næste halve time.
På forhånd undskyld, hvis jeg kommer til at ødelægge den gode stemning.
Før vi graver os ned i substansen, vil jeg gerne understrege en vigtig præmis. Vi står midt i udviklingen, og ingen, som i absolut ingen, kan forudsige, hvad der kommer til at ske.
Lad mig tage jer med tilbage til 1779, hvor verdens første bro i støbejern blev bygget i Shropshire i England.
Støbejern er et fantastisk materiale, som på næsten alle mulige måder afviger fra materialet træ.
Men hvad skete der, da de byggede broen med dette nye innovative materiale?
De brugte støbejernet som om det var træ.
De brugte det, som de plejede, og som de var vandt til.
Med kiler og navler – fuldstændig, som var det en træbro, der skulle samles.
Pointen her er, at vi sjældent har fantasi, intelligens og kreativitet til at udtænke, hvordan nye ting kan udnyttes. Så vi gør som vi plejer. Løser de sædvanlige opgaver, tilfredsstiller de sædvanlige behov mens vi glæder os over, at vi har fået et nyt værktøj eller materiale, der kan reducere tidsforbruget med en eller anden ligegyldig procentdel.
Men efter noget tid, er der nogle kvikke guys, som finder nye måder at udnytte de nye potentialer. De connecter the dots på overraskende måder. Det er innovation, som forandrer vores måde at leve på. Forandring som er irreversibel og derfor vanvittig interessant og vigtig.
AI har indiskutabelt styrken til at ændre vores liv. Men vi er ikke helt der endnu. Teknologien er vild, men den har ikke ændret os mennesker endnu. Men jeg tror vi nærmer os hastigt.
Det skræmmende er, at vi nok først kan se hvordan vores liv er blevet ændret længe efter, det er sket.
Jeg er ikke dommedagsprofet. Jeg er glad for AI. Men som de fleste andre, kan jeg ikke lade være med at spekulere over, hvad der sker – eller kan ske.
Tag de følgende scenarier som mulige bud på nogle bivirkninger, der måske opstår, når AI for alvor udrulles.
#1
Summary fatigue
Jeg kalder dette første scenarium for summary fatigue, fordi jeg det måske ville være at gå for langt at kaldet det summary plague.
Men der er en mulig downside ved denne fantastiske mulighed for at opsummere lange tekster og artikler, som AI har givet os.
Ikke at summary-feature er ny. Den har eksisteret med succes som fast artikel-udstyr i mange år hos medier som for eksempel CNN og Business Insider. Men nu gør AI det let og muligt for alle at lave summaries.
Lad os først kigge kort på de mange fordele:
Behind the scenes… På det redaktionelle niveau får journalisterne mulighed for at håndtere langt større tekstmængder end tidligere. Dette bør isoleret set føre til bedre research og dermed bedre journalistik.
Der er naturligvis åbenlyse udfordringer i at outsource prioriteringen af vigtige pointer i rapporter og dokumenter til AI, som altid vil have en medfødt bias. Der er også risiko for hallucinationer og kritiske udeladelser.
Alt det, er der allerede masser af fokus på.
På brugersiden er der også gode ting at sige om summaries. De imødekommer brugernes travlhed og mangel på tid. Med et snuptag får de mulighed for at få essensen af en nyhed, og hvis de ønsker at læse den, kan de tage beslutningen på et oplyst grundlag, fordi de allerede har læst pointerne.
Vi ved fra mange nordiske medier, at summaries er en succes. De øger engagementet og flere betalingsmedier anser dem endda så værdifulde, at de lægger dem bag deres betalingsvæg.
Men hvad sker der for os – brugere eller journalister – når vi vænner os til ikke at skulle anstrenge os for at konsumere ny viden?
Vi ved allerede, at vores attention span er i frit fald. Tal fra Pew Research Center viser, at tidsforbruget på de største amerikanske medier er faldet stødt i årevis.
Så hvad sker der, når vi ikke behøver at læse lange tekster for at få essensen?
Risikerer vi en mere overfladisk, unuanceret journalistik, der mister detaljerne og fremmer polarisering?
Mister den offentlige debat nuancer, dybde og anerkendelse af afbalancerede argumenter?
Og hvad sker der med os som nyhedsbrugere?
Vil det gå lige som med GPS og lommeregnere, som har nedbrudt vores evner til at finde vej eller regne i hovedet.
Forskning viser klare beviser for, at vi har svært ved at indlære og fastholde evner, hvis ikke vi løbende træner dem. Så er vi i risiko for at miste evnen til at læse langt? Eller i det mindste nyheder i lange formater.
Hvis ja, hvordan skal vi som medier så kunne fortælle komplekse historier? Hvordan formidler vi nuancer i bullet points?
Jeg er sikker på, at der kan findes en vej, men det kræver et bevidst fokus på risikoen for, at opsummeringer potentielt nedsmelter det skrevne format, som vi har kendt det siden Gutenberg opfandt trykpressen.
Et lyspunkt er dog, at vi mennesker ikke ubetinget går efter quick fixes. Som I ved er der fortsat fremdrift i podcast og det repræsenterer jo netop fordybelse og langvarigt tidsforbrug.
Måske skal vi bare acceptere, at long reads bliver til long listenings.
#2
AI devaluerer værdien af indhold
Nyheder har længe været et commodity, som det var svært at tjene penge på fordi udbuddet er større end efterspørgslen.
Men lige nu ser vi ind i en udvikling, hvor udbuddet af indhold eksploderer, og hvis nogen ikke kan finde det, de har brug for, kan de selv lave det med de samme AI-værktøjer, som de professionelle anvender.
Set med fagligt kompetente øjne, kan vi godt blive enige om, at kvaliteten af hjemmelavede artikler, billeder, lyd og video oftest ikke har samme niveau, som det indhold, der skabes i de mediehuse, I repræsenterer.
Men hvad betyder det, hvis flere og flere mediebrugere føler, at de kan lave det selv.
Perception is truth.
Nogen kan også tro, at mediernes indhold er skabt af en robot på 10 sekunder. For det ved alle jo, at man kan og gør. Så falmer anerkendelsen af at journalistik er noget særligt.
Det er jo dybest set en helt fair overvejelse om man gider bruge tre minutter på at læse en artikel, som man forventer, at journalisten har produceret på 10 sekunder.
Hvis redigerede publicistiske medier skal fastholde deres markedsværdi i en verden af syntetisk og hurtigtproduceret indhold, skal der skabes en brandfortælling af en meget voldsom kaliber.
Brugerne skal hjernevaskes til at forstå, at dette indhold fra DR, SVT, NRK, YLE, RUV, etc er noget helt helt anderledes end alt det andet der ude – inklusive det, som folk selv kan lave.
Ved alle touch points skal det tydeliggøres, at der er rigtige mennesker bag. Ikke fordi, at mennesker i sig selv er et kvalitetsstempel, men fordi mennesker kan noget andet end algoritmer.
Det drejer sig især om dømmekraft, etik, sund fornuft og evnen til at sætte nyheder og begivenheder ind i en relevant kontekst.
Denne analyse er ikke ny, men den er mere presserende end tidligere.
New York Times har set udfordringen og er begyndt at dyrke deres mennesker meget mere bevidst end tidligere.
Og hvordan formidler man mest effektivt at menneskeskabt indhold er skabt af mennesker end ved at vise menneskerne bag journalistikken.
De har derfor udviklet nogle særdeles omfattende biografier som er knyttet til bylines.
Klikker man på en byline – i hvert fald de fleste af dem – åbner en side med alverdens oplysninger om journalisten.
Hvem er hun, hvad er hendes etik, hvad arbejder hun typisk med og hvordan kan du komme i kontakt med hende.
Det løser nok ikke alt, men det er en begyndelse, hvis vi skal differentiere os i en vild og meget disruptiv fremtid.
#3
We are running out of content
I foråret fik jeg lidt af en aha-oplevelse, da jeg deltog på Nordic AI Media Summit, som blev holdt her i København.
På en session med Aftenposten fra Sverige fortalte en af deres redaktører, at personalisering havde øget antallet af klik med 7,1 procent.
En succeshistorie, som dog havde en lidt absurd bivirkning. Personaliseringen gik nemlig så godt, at Aftenposten var tæt på at løbe tør for indhold.
We are running out of content, sagde Aftenpostens mand på scenen.
Lad mig understrege, at jeg er tilhænger af at mixe nyhederne, så flest mulige bliver præsenteret for det, der betyder mest for netop dem. Det giver rigtig god publicistisk og økonomisk mening.
Men det løsrevne citat rummer også et potentielt selvskabt, selvforstærkende selvsving, som medier, der kaster sig over personalisering, risikerer at havne i.
Her er situationen:
Et medie har en masse journalistik, som de gerne vil præsentere for flest mulige mennesker. Men hvis alle læsere ser den samme forside, vil der være alt for få læsere, som opdager og klikker på det, der er vigtigt for netop dem.
Der er under alle omstændigheder heller ikke plads til 150 forskellige artikler på en stakkels forside, så derfor er mediet nødt til at prioritere. Og så kan man jo lige så godt gøre det ved at bruge algoritmer til at udvælge præcis de artikler, der giver bedst mening for hver enkelt.
Så langt, så godt. Men det, der med at ”løbe tør for indhold”, er værd at tænke lidt over.
Udgangspunktet for problemstillingen er jo faktisk, at det pågældende medie allerede har for ”meget” indhold. Havde man kun 10 daglige artikler, ville der ikke være behov for at personalisere dem. Alle der kom ind på forsiden, skulle nok kunne overskue hver eneste af dem og selv vælge, hvad de ville læse.
Der er selvfølgelig mange gode grunde til, at et stort medie producerer flere elementer end selv den mest trofaste kernelæser kan konsumere på en enkelt dag, og derfor opstår behovet for at personalisere.
Forudsætningen for personalisering er altså, at mediet i princippet har for meget indhold.
Omvendt betyder personaliseringen også, at mediet forpligter sig til rent faktisk at have en bred masse af indhold, så der er lidt for enhver smag. Ellers er det ikke noget at personalisere.
På den måde giver citatet om at løbe tør for indhold mening.
Aftenposten har fået 7,1 procent mere ud af den samme journalistiske indholdsinvestering, og det er superflot. Skal resultatet vokse til meget mere end 7 procents vækst, kan mere indhold være en nødvendig knap at skrue på.
Ret skal være ret. Aftenpostens repræsentant sagde ikke … og derfor skal vi skynde os at udgive mere indhold.
Men bemærkningen faldt på en konference, hvor flere medier fortalte, hvordan de udvikler AI-skabeloner, der lynhurtigt skriver udkast til artikler i mediets egen tone of voice, som journalisterne så kan arbejde videre med.
At øge produktionen af artikler med hjælp fra AI er derfor en reel mulighed.
Om det sker for at give journalisterne bedre tid til de vigtige historier, som det typiske narrativ lyder, eller for at fodre personaliseringsbæstet, bør ikke være et tilfældigt valg, men et bevidst og gennemtænkt strategisk valg.
AI giver medierne nogle fantastiske muligheder. Men på længere sigt bør vi ikke lade os friste af at masseproducere journalistik alene for at please en umættelig teknologi, som belønner med enkeltstående forbedrede KPI’er.
Medieledere skal bevare det kølige overblik, have en sikker fornemmelse af mediets eksistensgrund og nøje integrere AI efter den analyse.
For at gøre maleriet endnu mere komplekst, så er brugerfokus også vigtigere end nogensinde, og dermed er vi tilbage i personaliseringssporet.
Men måske kan spørgsmålet alligevel skæres ind til et ja-nej-spørgsmål. Skal vi have en masse indhold til alle, eller noget særligt lækkert til de lidt færre?
Vi kan også stille spørgsmålet: Er du “more is more-typen” eller ”less is more-typen”?
#4
Underminerer AI mediernes særstatus?
Jeg har netop lanceret gode argumenter for, at medier vil bruge AI til at øge mængden af indhold. Ikke kun for at kunne personalisere til glæde for brugerne, men også for at kunne øge udbyttet af de investeringer, der allerede laves eller er blevet gjort i indholdsproduktion.
De fleste ideer, som jeg ser, giver rigtig god mening. Hvem kan være uenig i, at det er godt at få mere ud af sit indhold og samtidig skabe nogle produkter, som kommer til gavn for brugerne.
Men det kommer med en mulig omkostning.
Lad mig være konkret og lad mig starte med forsiden af medaljen.
Alle medier har et kæmpe bagkatalog af gammelt kvalitetsindhold, som bruges alt for lidt. Er man heldig vil noget af indholdet have en høj SEO-værdi og derfor en longtail, men størstedelen af indholdet er – uanset hvor klogt og godt det var ved sin lancering – forsvundet fra overfladen og har derfor reelt mistet sin værdi.
Men med AI kan vi puste nyt liv i arkivet. Vi kan genskabe værdien ved at lade AI være vores superhjerne, som uden friktion kan raffinere ny viden og værdi ud af arkivet.
Allerede for et år siden byggede jeg en chatbot, som blev fodret med alt indholdet fra min hjemmeside og som kunne skrive nye artikler til brugerne baseret på deres spørgsmål og den viden, der allerede lå i Medietrends arkiv.
Jeg var dog ikke tilfreds med kvaliteten og derfor satte jeg projektet på stand by. Sagen er jo, at chatbotten arbejder i real tid og at eventuelle fejl ikke ville blive opdaget før det var for sent.
Hvis jeg skal bryde det hævdvundne princip om human in the loop, skal jeg være 99,99 procent sikker på, at det sker uden fejl. Og selv i den situation, er det alligevel ikke sikkert, at det er en vej jeg skal ned ad.
Andre og meget større aktører har dog ræset videre i samme spor, og det betyder, at vi nu har chatbots fra både Financial Times og Washington Post.
I sommerferien lancerede Washington Post en chatbot kaldet Climate Answers, hvor brugerne kan chatte direkte med indholdet fra de seneste otte års artikler om klima.
Hvis en eller flere artikler i arkivet kan besvare spørgsmålet, forfatter chatbotten et velformuleret svar og linker til de pågældende artikler. Eftersom alt foregår i real tid, er der intet human in the loop, som ellers er mediernes bærende princip i implementeringen af AI.
Samme proces foregår hos Financial Times, der i marts lancerede Ask FT for et mindre publikum.
Også her forfattes svarene uden menneskelig indblanding og kvalitetssikring.
Når medierne generelt hylder princippet om, at et kvalificeret menneske skal tjekke det kunstigt skabte indhold, er det ikke kun for at undgå at misinformere.
Det er også et afgørende signal om, at der er fundamentale forskelle på redigerede kvalitetsmedier og diverse tech platforme, som er helt algoritmestyrede.
Redigerende mennesker er en key differentiator.
Mennesker er det som får medier til at skille sig ud på internettet.
Mange mediemennesker læner sig trygt op ad fortællingen, om at behovet for redigerede og menneskestyrede medier vil stige jo mere syntetisk den digitale verden bliver.
Spørgsmålet er bare om den fortælling holder, når toneangivende medier selv opfører sig som Googles nye AI-søgemaskine. Og er der ikke risiko for, at princippet om human in the loop udvandes endnu mere, når der nu er prikket hul i det?
Alt dette er helt nøgternt konstateret.
Sandheden er dog også, at chatbots er en realitet, hvad enten medierne spiller med eller ej på udviklingen. Hvis det er et faktum, at fremtidens søgekultur bliver med AI-formulerede svar i stedet for links, så er det måske svært at argumentere for at medierne skal se passivt til.
Og det er vel også bedre, at der søges i kvalitetsmediernes arkiver end blandt mere eller mindre tilfældige kilder, som Google hiver frem fra det store og bredspektrede internet.
Men indsatsen er høj, for det handler om journalistiske kerneværdier og i sidste ende tillid og troværdighed.
Selv uden at konflikte med princippet om human in the loop gambler medierne med det værdifulde brand om at de er noget andet end resten af internettet. Jeg er kæmpe tilhænger af, at vi skal bruge AI til at forbedre vores arbejdsprocesser, så vi kan skabe bedre indhold. Jeg er også åben for at vi kan lade AI skabe slutprodukter, der kan udgives.
Men når vi gør det, skal vi vide, at der er en smertegrænse for, hvor meget vi må gøre det uden at vores core value proposition nedsmelter.
—
Kloge medieledere var hurtige til at gennemskue, at AI-genererede fotorealistiske billeder var et no go.
Uanset hvor meget man deklarerer dem, vil de bidrage til at brugerne mister tillid til medierne. Det du ser, skal være virkeligheden og ikke en konstrueret virkelighed.
Det er et gennemgående princip på alle kvalitetsmedier.
Desværre sker der alligevel fejl fordi billedbureauerne også markedsfører AI-genererede billeder og i et travlt newsroom, kan man komme til at udvælge det forkerte billede.
Det skete blandt andet for Sjællandske Medier, der tidligere på året ved en fejl publicerede et AI-skabt nyhedsbillede.
Det interessante er, at det fine princip om brugerne skal kunne stole på at billeder er virkelighed, ikke er gældende, når det kommer til lyd.
Medierne har i årevis tilbudt oplæste artikler, hvilket giver super god mening. Men med de seneste forbedringer inden for stemmekloninger og text to speech er det blevet muligt at klone mediets bedste og mest populære stemme og lade den oplæse alle artikler.
Det giver et meget bedre oplevelse for brugerne. Men hvorfor have et princip om, at du skal kunne regne med det, du ser på et medie, hvis ikke princippet også gælder for det, du hører på et medie?
Next level bliver når Aftonbladet i Sverige snart lancerer AI-sammenfatninger som en slags mini-podcast. Her vil AI først læse udvalgte nyhedsartikler fra Aftonbladet, derefter sammenskrive dem som manuskripter og til sidst lade en klon af en af deres populære podcastværter speake lyden.
Det er fascinerende og fristende at gøre det, men hvad med kerneværdien af menneskeredigeret journalistik?
Det du kommer til at høre, er jo en konstrueret virkelighed for værten, har hverken skrevet det eller oplæst det.
Hvor er den grænse, som ikke må overtrædes?
Medierne står ved en skillevej: Skal de fortsætte med at være en bastion for redigeret, menneskestyret indhold, eller skal de omfavne en digital virkelighed, hvor hastighed og tilgængelighed prioriteres over menneskelig indsigt og dømmekraft?
Svaret på dette spørgsmål vil forme fremtidens medielandskab og måske endda afgøre, om medierne formår at bevare deres relevans i en fremtid, hvor der ikke ligefrem mangler informationer eller adgang til dem.
#5
Infocalypse
Hvis medierne er Superman, er svigtende tillid den kryptonit, som kan svække os og måske endda overflødiggøre os.
Den manglende tillid behøver ikke engang være rettet mod mediernes indhold, men blot være en generel nul-tillid fordi mængden af kunstigt skabt indhold vænner os til ikke at stole på noget.
Dette er ikke et teoretisk skrækscenarium. It is real.
Jeg havde min første infocalypse oplevelse for nogle måneder siden.
Infocalypse er en tilstand, hvor vores medfødte tillid til informationer undermineres af vores lige så medfødte skepsis. Eller faktisk mistillid. En apatisk tilstand, hvor vi ikke kan skelne sandt fra falsk, eller ægte fra uægte, og derfor stopper med at stole på noget som helst.
Hellere afvise en nyhed for meget, end en for lidt.
Og det var præcis min oplevelse, da jeg doomscrollede på X og faldt over en overraskende nyhed om Gaza. Opslaget var ellers ledsaget af en kort video fra BBCs nyhedsstudie.
Men selvom BBC er blandt verdens mest troværdige medier, blev jeg ramt af en mavefornemmelse af, at nyheden måske var fake og at videoen var fabrikeret med AI.
Min skepsis tog fejl, men skaden er sket alligevel. For hvis ikke vi stoler på BBC og andre redaktionelle medier, så mister de deres værdi. Nyheder, som ingen stoler på, er tæt på værdiløse uanset om de er sande eller ej.
Skal vi hive den helt op på den store klinge, så er det den fjerde statsmagt, der er i risiko for at miste tænderne. Og dermed krakelerer en nødvendig søjle i demokratiet.
Det er også vinklen i den seneste rapport fra den danske regeringens ekspertgruppe om tech-giganter, hvor fænomenet behandles under betegnelsen informationstroværdighed.
Romantikere drømmer om, at det infocalyptiske kaos vil skabe en modreaktion, hvor folk indser, at det sikreste sted at finde sandheden, er ved at komme hjem til medierne, museerne, myndighederne og andre autoriserede kilder.
Sidstnævnte er sandt, men det er svært at vurdere om hjemrejsen til de lødige institutioner vil ske i stor stil, eller snarere minde om de mindre forbrugergrupper, der foretrækker vinylplader fremfor streaming eller dumbphones fremfor smartphones.
Den bedste modgift mod infocalypse er naturligvis, at flest mulige besøger de traditionelle kilder. Når informationer ses, læses eller lyttes på disse domæner, er det en verifikation i sig selv imod, at de er fabrikerede.
Så kunne historien slutte her med en konklusion om, at folk bare skal klikke ind på de rigtige medier. Men det ved vi jo godt, at medierne allerede arbejder på højtryk for at få det til at ske.
Med lanceringen af nye AI-platforme som ChatGPT, Microsoft CoPilot, Claude, Google Gemini m.fl. er der bare endnu flere grunde til at fravælge medierne, for man kan jo få nyhederne tygget på præcis den måde man ønsker på sin foretrukne AI-service.
Og sker det alligevel, at vi opsøger medierne, så opdager vi ofte, at der er et mismatch mellem mediernes lineære fremadbrusende nyhedsstrøm og den agenda, der cirkulerer på de sociale medier, hvor samtalen let kan tage udgangspunkt i begivenheder med nogle dage på bagen.
I tilfældet BBC, kunne jeg ikke finde det konkrete nyhedsindslag – formentlig fordi BBC allerede var hastet videre.
Dette er ikke en kritik af BBC eller andre mediers søgefunktioner. Blot en konstatering af, at mediernes infrastruktur i højere grad er indrettet efter mediernes egne logikker fremfor samfundets.
Hvordan medierne skal kunne løfte både at være nyhedsskabende og samtidig være reaktive og et brugbart værktøj til at sikre informationstroværdighed i en bredere forstand end bare den enkelte nyhed, kommer til at være en af de største og mest komplekse udfordringer i den kommende tid.