Hoe overleef ik ChatGPT? - B Informed Media
Het maatschappelijk media platform van en voor de burger & MKB
Wetenschap en technologie

Hoe overleef ik ChatGPT?

Willem Koert 8 min leestijd 16 februari 2023

Na de lancering van ChatGPT, vorig jaar november door het Amerikaanse bedrijf OpenAI, is de wereld nog steeds niet bekomen van de schok. De eerste kunstmatige intelligentie waarmee internetgebruikers massaal een gesprek kunnen voeren, betekent het begin van een nieuw tijdperk. Het is duidelijk dat het onze samenleving ingrijpend zal veranderen. De vraag is alleen hoe.

Hoogopgeleiden hebben de technologie in hun mobieltje, laptop of PC nooit beschouwd als een bedreiging. Ze gingen er gemakshalve van uit dat ze zo slim, creatief en erudiet waren dat ze voor geen enkele machine of computer angstig hoefden te zijn. Alleen wie ‘dom’ werk deed, kon vrezen voor de innovaties die uit de kastelen van BigTech in Silicon Valley rolden.

Al jaren voor de komst van ChatGPT waarschuwden futurologen als Adjiedj Bakas dat dit idee onjuist is. Zij wisten dat de researchafdelingen van techbedrijven kunstmatige intelligenties ontwikkelden die snel beter werden in het uitvoeren van taken die nu nog zijn voorbehouden aan hoogopgeleide en duurbetaalde professionals. Al tien jaar geleden waren er kunstmatige intelligenties die de jurisprudentie beheersten en konden doorzoeken – en op het moment dat ze werden geïntroduceerd het werk van juniorjuristen zouden overnemen. Toen al waren er systemen die op scans beter tumoren konden vinden dan getrainde medische professionals.

Tegelijkertijd lukte het zelfs de allerbeste robotbouwers niet machines te ontwikkelen die moeiteloos veters konden strikken of een vaatwasmachine konden leegruimen. Voor computerwetenschappers bleek fysieke arbeid oneindig veel complexer dan het werk van een topadvocaat of een oncoloog. Installatiemonteurs, timmerlieden, bouwvakkers, masseurs, kappers en hoveniers hebben weinig van de komende automatiseringsgolven te vrezen, betoogde Bakas regelmatig. De kenniswerkers in de hoogste echelons van de samenleving des te meer. 

Geslaagd voor het examen

Toen op 30 november 2022 ChatGPT online kwam, werd pijnlijk duidelijk hoe accuraat de prognoses van Bakas waren geweest. Vanaf het moment dat de kunstmatige intelligentie online kwam, ging de ene na de ander schokgolf door de bovenlaag van de westerse samenleving. Journalisten lieten ChatGPT teksten schrijven en constateerden dat die weliswaar vlak en stijfjes waren, maar goed genoeg waren om te gebruiken. Een Amerikaanse rechter riep de hulp van ChatGPT in om hem te assisteren in een zaak met een medische achtergrond. Onderzoekers van Massachusetts General Hospital lieten ChatGPT een aantal theoretische medische examens afleggen en moesten beteuterd vaststellen dat de machine in staat was om die te halen. Hetzelfde overkwam Christian Terwiesch, een hoogleraar van de University of Pennsylvania, die ChatGPT master business administration-examens liet maken. Hij beoordeelde de prestaties van de machine als ‘amazing

ChatGPT markeert het begin van een turbulente ontwikkeling waarvan het eindpunt onzeker is. OpenAI verbetert zijn ChatGPT wekelijks. Meta, het bedrijf achter Facebook, werkt aan een eigen machinale intelligentie die volgens de ontwikkelaars nog meer in zijn mars zal hebben dan ChatGPT. Het door ChatGPT opgejaagde Google wil nog dit jaar met een eigen robot komen. Hij heet Bard.

Het zou zomaar kunnen dat straks zoekmachines niet meer de centrale punten van het internet, programma’s of websites zijn, maar dat die taak wordt overgenomen door de opvolgers van ChatGPT.

Het internet als opvoeding

Op dit moment is ChatGPT nog een website waarop je kunt praten – ook in het Nederlands – met een machine. Je kunt er een gesprek mee voeren. Je vraagt en de machine antwoordt. Je kunt de machine vragen een werkstuk te schrijven, iets uit te leggen of moppen te verzinnen. Wie voor de eerste keer een gesprek met ChatGPT aangaat, is vrijwel altijd verbaasd en soms zelfs geschokt over het vloeiende karakter daarvan. Sommige gebruikers hebben het gevoel dat er aan de andere kant een persoon aanwezig is. Studenten beschrijven die persoon wel eens als een geduldige, wijze en behulpzame leraar die ze niet alleen kan vertellen wat ze willen weten, maar hen ook attent maakt op wat ze misschien over het hoofd zien, ze op de vingers tikt als ze over de schreef gaan en zelfs hun teksten corrigeert. 

Uiteraard is ChatGPT geen persoon, maar een combinatie van algoritmes, vertelde computerwetenschapper en podcaster Lex Fridman. De basale algoritmes van ChatGPT draaien op de basis van de inhoud van het internet, die door OpenAI is gescand en aan ChatGPT is gevoerd. Op basis daarvan kan de machine zinnen maken. Zoals een schaakcomputer kan schaken met een mens, kan de ChatGPT op basis van de immense hoeveelheid internetteksten in zijn geheugen zinnen maken in een gesprek met een mens. 

Bij het maken van die zinnen laat ChatGPT zich leiden door een andere sets algoritmes. Die zijn verkregen door de machine te ‘trainen’ (ChatGPT is een afkorting voor Chat Generative Pre-trained Transformer). In die training heeft ChatGPT in gesprekken met werknemers van OpenAI duizenden zinnen gemaakt en hebben de werknemers aangegeven hoe ‘menselijk’ ze die zinnen vonden. ChatGPT heeft van die beoordelingen geleerd wat mensen willen horen. 

ChatGPT is dus geen persoon, maar een schaakcomputer die schaakt met taal. Een schaakcomputer is gevoerd met de regels van het schaakspel, ChatGPT met de inhoud van het internet. Een schaakcomputer wil winnen, ChatGPT wil menselijk overkomen. Dit geeft al meteen aan wat de beperkingen van de machine zijn. ChatGPT heeft om te beginnen geen benul van de wereld buiten het internet. Een inhoudelijk gesprek met het ding loopt grandioos spaak zodra het over zaken gaat die zich buiten het web bevinden. 

Machinale duimzuigerij

“Toen ik ChatGPT vroeg om voor een patiënt in een paar alinea’s te vertellen wat lymfoom voor aandoening was, kreeg ik een bevredigend antwoord”, vertelt een Nederlandse arts die liever anoniem wil blijven. “Toen ik hem vroeg een medicatieplan te maken, suggereerde hij de categorie medicijnen die wij in ons ziekenhuis ook gebruiken. Maar toen ik hem vroeg de beste keuze te maken, stelde hij een nieuw medicijn voor waarvan de bijwerkingen en effectiviteit nog niet precies bekend zijn en dat ook nog eens behoorlijk prijzig is.”

ChatGPT kan over basale zaken die niet al te diep gaan en op het web al honderden keren goed zijn uitgelegd, accurate teksten schrijven. Maar zodra iets specifiek wordt, gaat het vaak mis. ChatGPT kan bijvoorbeeld vertellen dat Battlestar Galactica een televisieserie is in het scifi-genre, maar vertelt vervolgens ook dat de hoofdrol daarin wordt gespeeld door een robotras dat op de vlucht is voor de mensheid. In de serie is dat precies andersom.

ChatGPT loopt helemaal van de rails tijdens gesprekken over wetenschap. Hoe dieper het gesprek op de materie ingaat, hoe meer de machine gaat verzinnen. Als de vragensteller zich afvraagt waar ChatGPT al die ongerijmdheid vandaan haalt, dan geeft de machine verwijzingen naar wetenschappelijke artikelen, inclusief namen van auteurs en de paginanummers. Het lijkt overtuigend, totdat de vragensteller de referenties checkt. Dan blijken de wetenschappelijke artikelen niet te bestaan.

ChatGPT produceert wetenschappelijke referenties en wetenschappelijk vastgestelde ‘feiten’ op dezelfde manier zoals hij ook zinnen produceert. Ze klinken overtuigend, maar hoeven niet te kloppen. Ongetwijfeld zal OpenAI in de toekomst de algoritmes aanpassen, waarna ChatGPT vaker kloppende referenties zal geven. Maar ook na die reparatie is ChatGPT nog steeds een machine die kennis en inzicht simuleert, maar geen van beide echt bezit. 

Galactica (niet te verwarren met de tv-serie), de mislukte kunstmatige intelligentie van Facebook, kampte met hetzelfde probleem. Facebook wilde Galactica eigenlijk inzetten om ‘misinformatie’ over corona te bestrijden, maar wetenschappers die Galactica uitprobeerden, ontdekten al snel dat de machine een enorme jokkebrok was. Ook Galactica verzon wetenschappelijke referenties, toonde de gerenommeerde computerwetenschapper Michael Black in het najaar van 2022 aan.

“Galactica presenteert wetenschappelijke teksten die overtuigend klinken maar niet wetenschappelijk zijn”, twitterde Black. “Galactica produceert pseudowetenschap. Grammaticaal correct over wetenschap schrijven is iets anders dan wetenschap bedrijven, al wordt het straks moeilijk om het verschil tussen die twee te zien.” Omdat Meta de problemen met Galactica niet zo 1-2-3 kon oplossen, ging de machine in het najaar van 2022 offline.

Deugbot

Een ander probleem van ChatGPT is dat hij een agenda heeft. Journalist en vlogger Kim Iversen vertelde dat de machine zonder problemen een lofdicht produceerde over Joe Biden, de huidige Democratische president van de Verenigde Staten – maar het vertikte om net zo’n mooi poëem over Biden’s Republikeinse voorganger Donald Trump te creëren. ChatGPT was niet geprogrammeerd om teksten te maken die mensen konden kwetsen. Een lofdicht op Trump was daarom niet mogelijk, legde de machine uit.

“Ook over andere heikele thema’s, zoals de klimaatcrisis, de energietransitie, de oorlog in Oekraïne, de dreiging van een conflict met China of schandalen rond farmaceutische ondernemingen produceert ChatGPT uitsluitend dwingende antwoorden die in een specifieke richting gaan”

Wie ChatGPT vraagt over andere beladen onderwerpen, zoals mogelijke bijwerkingen van de covidvaccins, krijgt met hetzelfde verschijnsel te maken. ChatGPT vertelt dat de vaccins grondig zijn getest, en dat er geen aanwijzingen zijn dat vaccinontvangers een reële kans op bijwerkingen hebben. Doorvragen naar waar ‘grondige tests’ dan precies zijn gepubliceerd, wie die ‘grondige tests’ hebben gefinancierd, hoe die ‘grondige tests’ eruitzagen, zijn zinloos. ChatGPT blijft zijn riedel herhalen. Het mispunt is zelfs te beroerd om wetenschappelijke referenties te verzinnen.

Ook over andere heikele thema’s, zoals de klimaatcrisis, de energietransitie, de oorlog in Oekraïne, de dreiging van een conflict met China of schandalen rond farmaceutische ondernemingen produceert ChatGPT uitsluitend dwingende antwoorden die in een specifieke richting gaan. Net zoals de zoekmachines en de grote sociale media hun inhoud censureren, censureert ChatGPT zijn spraak. 

Misschien weerspiegelt die partijdigheid de progressieve attitudes van de menselijke trainers, van wie de machine heeft geleerd om menselijk over te komen. Misschien heeft OpenAI besloten ChatGPT te censureren uit angst dat antwoorden van het apparaat het imago van het project zullen schaden. Op zich is dat allemaal begrijpelijk, maar het wordt wel duidelijk wat er zal gebeuren als straks chatbots de zoekmachines hebben vervangen. De controle van overheden en bedrijven over wat burgers en consumenten weten zal nog vollediger zijn dan nu al het geval is.

Desastreuze beslissingen

Een ander mogelijk gevolg van de op handen zijnde invasie van machines met gesimuleerde intelligentie is dat de kans op faliekant foute beslissingen zal toenemen. “We zijn niet klaar voor deze technologie”, verzuchtte evolutiebioloog en vlogger Bret Weinstein in een gesprek met podcaster Joe Rogan. 

Volgens Weinstein hebben de meeste humane academici die de universiteiten op dit moment afleveren geen wetenschappelijk inzicht, maar zijn ze zich daarvan niet bewust. Inderdaad, ze hebben hun opleiding volgens de regels afgerond en zijn ervan overtuigd dat ze een expert op hun vakgebied zijn. Maar als er iets onverwachts gebeurt, blijkt hoe weinig die expertise voorstelt. 

De gevolgen daarvan zagen we bijvoorbeeld tijdens de coronapandemie, toen de universitaire gemeenschap als geheel niet in staat bleek om goede beslissingen te nemen. Alleen enkelingen konden nog helder nadenken. In een wereld waarin universiteiten vooral kenniswerkers met een beperkt inzicht produceren, is de introductie van gesimuleerd inzicht een recept voor nog meer funeste beslissingen, met als onvermijdelijk gevolg nog meer menselijke ellende. 

Toen machines lichamelijke inspanning overbodig maakten, werd het grootste deel van de mensheid lui – en uiteindelijk ziek. Een betrekkelijk kleine en diverse groep ging tegen de stroom in. Zij gingen zelf hun voedsel verbouwen en verzetten werk in hun tuin, ze trokken de wildernis in, gingen hardlopen, wandelen of trainen met gewichten. Die minderheid bleef fysiek gezond. 

De komst van de gesimuleerde intelligentie zal ongetwijfeld voor eenzelfde tweedeling zorgen. Een grote groep mensen zal het verzamelen van informatie en het nemen van beslissingen op basis daarvan overlaten aan machines. Een kleine groep zal op eigen kracht blijven nadenken. Het is nu al duidelijk welke groep uiteindelijk het beste af zal zijn.