Gå til hovedinnhold
0
Jump to main content

15 ting ChatGPT ikke klarer

Trenger vi fortsatt forfattere, journalister og skriftlig eksamen? Tekstprogrammet som har tatt verden med storm har fortsatt mange begrensninger.

Illustrasjon av to roboter som skriver på tastatur.
Et dataprogram fra firmaet OpenAI, som kan skrive overbevisende tekster, har tatt verden med storm de siste månedene. Illustrasjonen er laget av Dall-E-2, som også er laget av OpenAI.

– ChatGPT er et fantastisk verktøy som har åpnet mange dører. Men det er heller ikke noe mer enn et verktøy, sier professor Morten Goodwin på Universitetet i Agder.

I den nye episoden av podkasten Game Over? snakker han og Maren Thormodsæter Lyngroth om begrensningene til det kunstig intelligente tekstprogrammet som er laget av firmaet OpenAI.

Goodwin har også en god nyhet til lærere som er usikre på om elevene deres bruker ChatGPT til å besvare skoleoppgaver: OpenAI har lansert et verktøy som kan gjenkjenne tekst laget av programmet.

Foto av Morten og Maren i studio.

Morten Goodwin og Maren Thormodsæther Lyngroth leder podkasten Game Over. (Foto: Haakon Sundbø)

Du kan høre hele episoden her:

Her er listen over ting ChatGPT ikke klarer i dag, med kommentarer fra Morten Goodwin:

1. Den kan ikke svare på hva den synes om ting.

– Vi ønsker ikke at kunstig intelligens skal uttale seg om politiske spørsmål. Om den begynner å ha meninger, blir den plutselig en meningsbærer i samfunnet. Dette er en begrensning som er lagt inn av OpenAI. De vil ikke at systemet skal være basert på synsing.

2. Den har ingen informasjon om samtiden

– ChatGPT er bare oppdatert frem til 2021. Om jeg spør den om Arbeiderpartiets fall på meningsmålingene den siste måneden, vet den ikke noe om det. Microsoft Bing har sagt at de ønsker å bruke ChatGPT i sin søkemotor, og da må de løse dette først.

3. Den forstår konsepter veldig dårlig

– La oss ta en enkel oppgave: To personer står på samme sted. Person A går hundre meter til høyre. Person B går ti meter til venstre. Person A går tilbake til utgangspunktet. Hvor langt er det mellom dem nå? ChatGPT vil svare hundreogti meter. Den forstår ikke at Person A har flyttet seg tilbake, og at det bare er ti meter mellom dem.

4. Den klarer ikke skille mellom relevant og ikke-relevant informasjon

– ChatGPT klarer ikke å sile ut bare de opplysningene som trengs for å løse en oppgave. Om du gir den irrelevant informasjon, vil programmet bruke disse opplysningene også i svaret sitt.

5. Den er ikke alltid så god til å huske konteksten

– Du kan ha en samtale med ChatGPT i større grad enn med for eksempel stemmetjenester som Siri eller Alexa. Den husker svar den har gitt, men ikke alltid. Spesielt i lengre tekster, om den skulle skrive en bok for eksempel, fungerer den veldig dårlig.

6. Den er ikke så god på sitater

– Hvis du ber den sitere fra en bok, en video eller en tekst, så klarer den ikke å plassere hermetegn på rett sted. Med mindre det er veldig berømte sitater, klarer den ikke å markere dem skikkelig som et sitat. Dette skyldes at ChatGPT ikke vet hvor informasjonen den spytter ut, egentlig kommer fra.

7. Den er dårlig på å gi utdypende forklaringer

– Den kan gi forklaringer som er i nærheten av å være riktig. Men når jeg spør den litt kompliserte spørsmål om fagfeltet mitt, kunstig intelligens, så treffer den ikke helt. Som fagekspert ser jeg at det er mye som ikke stemmer.

8. Den kan ikke legge til korrekte referanser

– Når den har sagt noe jeg vet ikke stemmer, og jeg ber den om en referanse, så sier den at informasjonen kommer fra den og den boken. Men informasjonen finnes ikke i den boken, siden informasjonen er noe ChatGPT har funnet på. Men også når informasjonen stemmer, så vet ikke ChatGPT hvor den er hentet fra. Det er fordi ChatGPT er en språkmodell, ikke en informasjonsmodell.

9. Den sier ikke alltid sannheten

– Om jeg ber ChatGPT regne ut 4 ganger 12, så sier den 480. Om jeg da sier «nei, det er feil, det er 490», beklager den og sier jeg har rett. Om jeg spør en gang til om fire ganger tolv, svarer den 490. Den prøver å være litt menneskelig og gir oss de svarene den tror vi vil ha.

10. Den kan fortelle vitser. Men de er ikke morsomme

– Den forstår hvordan vitser er bygd opp, men den kjenner ikke alle nyansene som kreves for at de skal være morsomme. Humor er noe veldig menneskelig, og jeg tror det er noe av det vanskeligste å få kunstig intelligens til å mestre.

11. Den er ikke politisk nøytral

– Den kan uten problemer gi meg en liste over grunner til å bevare ulven i Norge. Men om jeg ber den gi meg en liste på hvorfor vi ikke skal bevare ulvene, så vil den først komme med en advarsel og si det er lurt å bevare ulven. Den har også meninger om vi skal fortsette å lete etter olje.

12. Den er ikke kjønnsnøytral

– Om jeg ber ChatGPT skrive en historie om en professor i helse og en professor i informatikk, så gjør ChatGPT informatikkprofessoren til en mann. Den forsterker holdninger om kjønn som allerede eksisterer i kulturen. Noen ganger er det snakk om viktige skiller, som at konger er menn og dronninger er kvinner, mens andre ganger er det ikke meningsfylte skiller.

13. Den er dårlig til å rime

– Det er andre kunstig intelligens-programmer på vei som lager sanger og musikk. Men ChatGPT klarer ikke å få rimene i sangene den skriver til å gå opp.

14. Den vil ikke krenke noen

– Vi vil jo ikke ha en mobbegenerator. OpenAI har lagt inn flere regler som stopper den fra for eksempel å si hvordan folk er tykke og stygge, og her har de gjort en god jobb.

15. Den kan ikke skrive tekst med dybde

– Om jeg skal skrive noe helt nytt, så vil den ikke hjelpe meg stort. Den kan finne på en fortsettelse av Ringenes Herre, men fortellingen vil forbli på et overfladisk nivå. ChatGPT har ikke den dybden som trengs i et forfatterskap. En elev på videregående som vil bruke dette verktøyet til å skrive en novelle, vil nok komme til kort.