Alle bruger det, men ingen forst氓r det: S氓dan f氓r du det bedste ud af ChatGPT
For blot et 氓r siden brugte folk internettet anderledes, end de g酶r i dag.
Hvis nogen fx spurgte dig til et middagsselskab, hvor Napoleon voksede op, ville du nok google det p氓 din telefon, finde svaret p氓 Wikipedia og sige 鈥滽orsika鈥�.
Men nu er det m氓ske lige s氓 sandsynligt, at du sp酶rger ChatGPT, for den fort忙ller dig helt pr忙cist, hvad du har brug for. Napoleon blev f酶dt p氓 Korsika og flyttede til fastlandet, da han blev ni 氓r.
Du beh酶ver ikke l忙se en masse tekst, og hvis du vil vide pr忙cist, hvor han flyttede hen, kan du bare stille et opf酶lgende sp酶rgsm氓l.
Der er dog en hage ved det. Den kommer vi tilbage til senere.
Der er sket meget p氓 et 氓r
Nyt氓rsaften 2022 havde en masse mennesker nok allerede fornemmet, at kunstig intelligens var p氓 vej ind i en ny 忙ra. Da de stod og betragtede fyrv忙rkeriet, var de nok ikke klar over, hvor hurtigt det ville g氓.
S氓 snart lunten blev t忙ndt p氓 ChatGPT, sprang det i luften.
Siden lanceringen i december 2022 har ChatGPT bogstaveligt talt forandret den m氓de, millioner af mennesker bruger internettet p氓.
ChatGPT er den hurtigst voksende forbrugerapp nogensinde. P氓 bare to m氓neder fik den mere end 100 millioner m氓nedlige brugere.
Til sammenligning tog det TikTok ni m氓neder at opn氓 samme antal brugere og rundt regnet to et halvt 氓r for Instagram.
鈥淒et er virkeligt imponerende. Og nemt at se hvorfor. ChatGPT har et flot interface og kan de mest fantastiske ting. Den kan svare p氓 n忙sten alle sp酶rgsm氓l, du kan komme i tanker om. Det er et k忙mpe skridt fremad for informationsbearbejdelse i forhold til de s酶gemaskiner, vi kender. Men det allermest interessante ved den er, at den virker menneskelig,鈥� siger Daniel Hardt, lektor i computerlingvistik ved Institut for Ledelse, Samfund og Kommunikation ved Copenhagen Business School.
Hagen
Men tilbage til hagen og middagsselskabet.
Du har selvsikkert fortalt alle, at Napoleon levede p氓 Korsika, indtil han blev ni 氓r.
Men en af g忙sterne, en skeptisk bedrevidende type med silkeslips og h酶j hat 鈥� m氓ske har han endda monokel p氓 鈥� kigger pludselig p氓 dig og udbryder:
鈥淗vordan ved du, at han flyttede, da han var ni?鈥�.
鈥淛eg l忙ste det p氓 ChatGPT,鈥� svarer du.
鈥淥g hvor har ChatGPT svaret fra?鈥�, sp酶rger han igen.
Nu kigger de andre g忙ster p氓 dig. Og du indser, at du ikke aner det. Svaret er sikkert rigtigt, men du kan ikke underbygge det p氓 nogen m氓de.
N氓r du googler, ved du, at Wikipedia er skrevet og modereret af frivillige, s氓 du er i forvejen lettere skeptisk over for de oplysninger, du f氓r.
Men Wikipedia fort忙ller dig ogs氓, at de oplysninger, du f氓r omkring Napoleons f酶dsel og barndom, kommer fra to forskellige b酶ger. Du f氓r ogs氓 b酶gernes titler samt links, s氓 du har mulighed for at tjekke det.
ChatGPT fort忙ller dig intet om, hvor oplysningerne kommer fra.
鈥淛eg synes, det er et stort problem. Og det er ikke kun brugeren, der ikke er i stand til at verificere ChatGPT's kilde til information. Forskere som jeg og selv ChatGPT鈥檚 programm酶rer kan heller ikke,鈥� siger Daniel Hardt.
Og grunden er ikke bare, at ChatGPT tr忙nes p氓 baggrund af store m忙ngder information. St酶rrelsen p氓 datas忙ttet er ikke et problem i sig selv.
鈥淢en det faktum, at ChatGPT bliver tr忙net igen og igen i at forudsige oplysningerne og optimere svarene, g酶r, at ChatGPT 忙ndrer sin egen algoritme og proces s氓 mange gange, at programm酶rerne i sidste ende ikke vil kunne kende dens konklusioner.鈥�
ChatGPT er en sort boks
ChatGPT er en speciel chatbot; en s氓kaldt stor sprogmodel (Large Language Model, ogs氓 kaldet LLM).
Den mest simple forklaring er, at den forudsiger ord. S氓dan var det i hvert fald i ChatGPT's unge dage.
Du giver den en tekst og fjerner et af ordene, hvorefter du beder den om at g忙tte det manglende ord. S氓 g酶r du det igen. Og igen. Og igen. S氓 l忙nge man l酶bende fodrer den med nye tekster og mere data, bliver den ikke kun bedre til at g忙tte ordene, men den opn氓r ogs氓 en v忙sentlig m忙ngde viden og producerer tekster og svar, der ligner svar fra et menneske.
Denne proces er en slags maskinl忙ring; deep learning, hvor modellen tr忙ner sig selv med meget lidt eller ingen menneskelig indblanding. Den korrigerer simpelthen bare sin egen model igennem rigtige og forkerte svar.
鈥淢odeller som disse ser alt p氓 alle st酶rre sprog i verden. De har s氓 meget viden. Deep learning er ofte en meget effektiv tr忙ningsmetode men giver os ikke noget viden om, hvordan ChatGPT forudsiger svarene,鈥� siger Daniel Hardt.
Udover deep learning har ChatGPT, som vi kender den, ogs氓 v忙ret udsat for s氓kaldt reinforcement learning, hvor man tester de svar, den kommer med, giver feedback og afholder den fra at generere svar, der eventuelt kan st酶de nogen.
鈥淒og er denne m氓de at tr忙ne ChatGPT p氓 uendelig lille sammenlignet med deep learning, s氓 ChatGPT's menneskelighed skraber alts氓 kun lige overfladen. For det vil kr忙ve enorme ressourcer at bruge reinforcement learning p氓 en model, der er s氓 omfangsrig som ChatGPT,鈥� siger Daniel Hardt.
Da ChatGPT 3.5 var f忙rdig med at blive tr忙net i begyndelsen af 2022, havde den tygget sig igennem et k忙mpestort datas忙t p氓 570 gigabyte tekst, der indeholdt hjemmesider, b酶ger, artikler, tidsskrifter og sociale medier.
Nyere versioner som betalingsudgaven ChatGPT 4 og den kommende ChatGPT 5 酶ger computerkraften i ChatGPT 3.5 og g酶r tr忙ningen meget mere omfattende.
I denne proces, hvor den kunstige intelligens bliver bedre og bedre til at forudsige, bliver dens evne til at r忙sonnere samtidig mere og mere uforst氓elig.
鈥淚 sidste ende er der ingen, der har et klart overblik over processen, fordi den er blevet s氓 avanceret. Det er en sort boks for alle,鈥� siger Daniel Hardt.
Problemerne
Okay. S氓 ChatGPT afsl酶rer ikke sine kilder. Men er det ikke fint nok, s氓 l忙nge oplysningerne er korrekte?
Ikke helt. For det f酶rste kan du aldrig v忙re 100 % sikker p氓, at data er korrekt. ChatGPT laver stadig fejl, nogle gange er der fejl i dens data, og andre gange forst氓r den ikke dit sp酶rgsm氓l. Den er fx ikke vanvittig god til at l酶se matematiske ligninger.
Men s氓dan er det ogs氓 for Google, Bing og andre konventionelle s酶gemaskiner. Du kan aldrig v忙re sikker p氓, at data er korrekt.
Den store forskel er bare, at uden en kilde er det umuligt at finde grunden til, at oplysningerne ikke er korrekte, hvilket fx kunne v忙re en mulig bias, ondsindede hensigter eller bare at forfatteren helt oprindeligt har skrevet noget forkert.
鈥淢askinen tr忙nes p氓 baggrund af vores sprog, s氓 den l忙rer de samme fejlslutninger, som mennesket ogs氓 drager. S氓 selvf酶lgelig laver den fejl. Og ingen kilde er perfekt 鈥� heller ikke en professor fra casino 168. Men hvad der virkelig er en kilde til bekymring, er at vi aldrig kan tjekke vores informationskilder. Heller ikke selvom vi har adgang til tr忙ningsdata. Det er blevet tr忙net s氓 indg氓ende, at det er for vanskeligt at finde ud af,鈥� siger Daniel Hardt og tilf酶jer:
鈥淗vis vi havner i en situation, hvor alle deler oplysninger uden kilder, f氓r vi et k忙mpe problem med misinformation. Derudover kan ChatGPT anvendes og bliver ogs氓 anvendt til at skrive kode til hackere og producere spam og phishingmails til bots og cyberkriminelle. S氓 som alle andre v忙rkt酶jer kan ChatGPT b氓de v忙re til gavn og skade."
Det st酶rste problem er ikke, at den brede befolkning ikke forst氓r, hvordan ChatGPT fungerer. Det st酶rste problem er, at ingen forst氓r det. Forskere og ChatGPT's egne programm酶rer forst氓r heller ikke, hvad der sker, n氓r f酶rst du har bedt den om noget.
鈥淐hatGPT er et mirakel鈥�
M氓ske bliver du nu bekymret for, at ChatGPT og lignende chatbots vil p氓virke din viden i negativ retning. Men det g酶r den overhovedet ikke if酶lge Daniel Hardt. Faktisk kalder han ChatGPT for et mirakel.
鈥淒en er utvivlsomt et mirakel. Den har v忙ret en hellig gral for alle forskere i kunstig intelligens, siden begrebet blev opfundet i 50鈥檈rne. Faktisk har en maskinel version af menneskesprog v忙ret noget, oplysningstidens filosoffer som Descartes og Leibniz kun dr酶mte om. Historiens st酶rste t忙nkere har v忙ret overbevist om, at dette aldrig ville ske. S氓 fra et intellektuelt perspektiv har det v忙sentlig betydning. Praktisk set er det selvf酶lgelig ogs氓 ekstremt vigtigt. Sproget er jo helt 氓benlyst en perfekt m氓de for mennesker at kommunikere p氓. ChatGPT er den ultimative killer app, og det er derfor, at folk har taget ChatGPT hurtigere til sig end nogen anden app,鈥� siger han.
Ligesom da internettet s氓 dagens lys, har vi nu et meget mere kraftfuldt v忙rkt酶j til informationsbehandling, som vi alle har adgang til. Men hvad med misinformationen?
鈥淪predningen af misinformation har v忙ret et problem lige siden vi begyndte at kommunikere via medier. ChatGPT og andre store LLM'er fremskynder alt, der har noget med information at g酶re, og det g忙lder b氓de udbredelsen af vigtig viden og spredningen af misinformation. Det, vi kan h氓be p氓, er, at ChatGPT udbreder mere v忙rdifuld viden, end den spreder misinformation. Hvis ChatGPT kan hj忙lpe folk til mere viden, kan den ogs氓 hj忙lpe dem med at forholde sig mere kritisk til misinformation.
Uddannelse kan hj忙lpe os med at bruge ChatGPT i lang tid fremover
S氓 hvordan kan vi egentlig sikre, at ChatGPT g酶r mere gavn end skade? If酶lge Daniel Hardt handler det om uddannelse og lovgivning.
Vi kan l忙re at reflektere over, hvordan vi rent faktisk anvender ChatGPT selv og forholder os til, at kilder kan v忙re fejlagtige 鈥� simpelthen lige tjekke oplysningerne en ekstra gang, inden vi bare fort忙ller videre, hvad ChatGPT har fortalt.
鈥淪om det allerf酶rste m氓 du vide, hvad du egentlig vil bruge ChatGPT til. Skal den v忙re faktuel eller skal den komme med argumenter eller v忙re overbevisende? M氓ske vil du have, at den kan komme med b氓de h酶jre- s氓vel som venstreorienterede perspektiver p氓 en sag, og det er jo fint. Vi skal bare v忙re klare p氓, hvad vi vil have fra ChatGPT, og hvordan vi forbereder den p氓 det. Lige pr忙cis forberedelsen er et aktivt forskningsomr氓de og noget, jeg synes, vi skal begynde at l忙re vores studerende,鈥� siger Daniel Hardt og tilf酶jer:
鈥淢en det sker ogs氓 naturligt. Jeg mener, at teknologien er s氓 popul忙r og tiltalende, at mange hurtigt er blevet eksperter i ChatGPT, og det er sket, imens vi forskere har siddet og overvejet, hvordan vi bedst skal undervise de studerende.鈥�
Lovgivning er en del af l酶sningen
Daniel Hardt understreger ogs氓 vigtigheden af at lovgive mod, at modeller som ChatGPT spreder misinformation.
鈥淛eg kunne godt t忙nke mig, at alle LLM'er blev bedt om at vandm忙rke deres output, s氓 du altid kan se, om en tekst er produceret af en LLM og i s氓 fald hvilken. Det er teknisk vanskeligt, men jeg er overbevist om, at det er muligt. Hvis man kr忙vede det af en virksomhed, ville den finde en l酶sning. Jeg kunne ogs氓 godt t忙nke mig, at vi bremsede udviklingen af LLM'er. Dem, vi har nu, er k忙mpestore og ekstremt kraftige. Vi er n酶dt til at l忙re at bruge dem og styre dem. Vi har ikke brug for st酶rre modeller.鈥�
Og husk p氓:
鈥漇elvom ChatGPT selvf酶lgelig kan tage fejl, er den s氓 meget dygtigere til at give os de oplysninger, vi har brug for, end noget andet, vi har set. Uanset hvilken opgave, der kr忙ver informationsbearbejdelse, kan ChatGPT forbedre. Derfor er det vigtigt, at vi l忙rer at anvende den bedst muligt.鈥�