I forbindelse med skrivning af en artikel, bad jeg ChatGPT om inspiration til artikler om studerendes agency. Blandt de nævnte forslag, var der særligt en artikel, som fangede min interesse, og jeg bad derfor botten om følgende:
Det svarede botten hurtigt på, herunder bl.a.:
Det synes jeg egentlig lød meget fornuftigt, så jeg søgte efter artiklen, både på nettet og i Absalons databaser i biblioteket – uden held. Måske har botten taget fejl af, hvor artiklen er publiceret, tænkte jeg og spurgte igen, men fik det samme svar:
Det er ikke helt usædvanligt, at artikler kan være svære at lokalisere. Her plejer jeg så at tjekke forfatternes publikationslister, og jeg beder derfor botten om fornavne på forfatterne. Men de forskere, jeg kan finde med de navne, har ikke en sådan artikel. Så jeg spørger igen, denne gang til artiklens identifikationsnummer, det såkaldte DOI:
Det giver stadig ikke noget resultat, så jeg slår op i det nævnte tidsskrifts arkiver og kigger på 2019, hvor der findes et volume 9, men ikke et issue 2, så jeg beder om en forklaring. Botten er trænet til at være høflig, så den beklager fluks og forklarer, at den har lavet en fejl i citationen – uden dog at forholde sig til, at der ikke findes et issue 2:
Jeg har dog svært ved at se forskellen og spørger igen, men den gentager blot – stadig høfligt:
Her orkede jeg så ikke mere og stoppede chatten. Nu er jeg vant til at arbejde kildekritisk og bruge tid på at tjekke referencer og måden, hvorpå de bliver anvendt. Men hvor mange er det? Og ville man ikke nemt kunne blive fristet til at tage bottens svar for pålydende, når den kommer med, hvad der ligner en helt korrekt reference – endda med DOI? Når botten ovenikøbet er trænet til både at være høflig og indrømme fejl, så er det nemt at lade sig overbevise.
Jeg kan godt have tvivl om, hvorvidt vores elever, studerende og kursister er klædt på til at være tilstrækkeligt kildekritiske, men faktisk også til at have motivationen til at være det hele tiden. Det er tidligere blevet påpeget, at ChatGPT kan give fejlagtige oplysninger, så jeg er ikke som sådan overrasket. Men jeg er overrasket over, hvor vanskeligt og tidskrævende det faktisk kan være at gennemskue, om botten har svaret fejlagtigt.
Eksempler som disse vil nok kunne undgås i de former for kunstig intelligens, der også linker direkte til referencer på nettet, men jeg tvivler på, at det mindsker behovet for kildekritik, der jo ikke kun handler om, hvorvidt referencen faktisk eksisterer, men også om, hvorvidt den er citeret og anvendt korrekt. Der tales med rettet meget om, hvordan kunstig intelligens og chatbots vil kunne effektivisere diverse arbejdsprocesser. Det er jeg for så vidt ikke i tvivl om, men jeg synes også, at det bliver mere og mere tydeligt, at vi er nødt til at skelne mellem hvilke typer af processer og hvornår det/ikke giver mening.
Jeg har tidligere refereret til UNESCO’s (2023) guide om ChatGPT and artificial intelligence in higher education, hvor dette flow-chart fremgår (s.6):
Det er jo specifikt rettet mod ChatGPT, men bør vel gælde al den information, som vi støder på, nok særligt på nettet.
“Do you have the expertise to verify that the output is accurate?”
Så om ikke andet, så kan al den snak, der pt er om kunstig intelligens og diverse former for chatbots måske skærpe vores opmærksomhed på behovet for kildekritik i uddannelse. Det er jo ikke nyt med misinformation, men måske er dette faktisk den nødvendige øjenåbner …
Jeg har opgivet at finde ud af om den nævnte artikel eksisterer. Jeg tvivler, men hvis den faktisk gør, så er det stadig et problem. Og jeg frygter ikke for at forskere, undervisere og lærere bliver gjort arbejdsløse i den nærmeste fremtid – snarere tværtimod. I samarbejde med vores dygtige informationsspecialister på bibliotekerne vil der være nok at tage fat på.
/Marianne