#4 : Hoe slim is ChatGPT?

Hoe slim is ChatGPT?

Een speelse manier om slimmer te leren prompten.

Maar hoe heeft ChatGTP zo goed teksten leren schrijven?

Volgens Onno is dat weer de volgende stap na supervised learning.

Even de begrippen op een rij.

(Klik op een woord om verder te gaan)




Taalmodellen zijn een vorm van Gen(eratieve) AI.

Sommige mensen vinden ChatGPT niet zo fijn.

Ze stellen dan een simpele vraag, maar krijgen een antwoord van 9 alinea's.

ai course

”Een papegaai met een olifantengeheugen”

Zo wordt ChatGPT door sommigen genoemd. Begrijpelijk, maar niet helemaal juist. Laten we eens kijken hoe het wél zit.

ai course

ChatGPT is inderdaad getraind met heel veel teksten.

Zoals Onno al omschreef: bijna alle teksten die online te vinden zijn. Daar zitten dus ook nieuwsberichten en boeken in.

bibliotheek

Omdat ChatGPT heeft geleerd van zoveel oude teksten, kan het algoritme bij nieuwe zinnen uitrekenen welke woorden op welke plek moeten komen.

Het raadt in feite steeds het volgende woord en het woord daarna... enzovoort.

En dan nu over de naam...

Waar staat GPT eigenlijk voor?




”Zolang jij maar een beginnetje maakt”

En dat brengt ons bij de prompt! Dat zou je ook een ander woord voor "instructie" kunnen noemen. Hoe beter jij je prompt afstelt, hoe beter ChatGPT de tekst zal schrijven.

Vergelijk deze prompts eens...

(Klik op de twee voorbeelden)




1. Geef duidelijke context mee

"Je bent een rappende dichter." Dat was de context. Op die manier help je ChatGPT om in de goede sfeer te komen. 

Als je dat niet doet, zal het resultaat te vaag of vrijblijvend zijn.

ai course

2. Maak geen geheim van je verwachtingen

In het gegeven voorbeeld lieten we geen misverstand bestaan over onze verwachting: een gedicht over een romantische ontmoeting van een kater.

ai course

3. En natuurlijk de instructie

Ook daar waren we streng en concreet: twee coupletten, zes woorden per regel, in jongerentaal.

gangster cat

Misschien is het je nieuwe collega!

Je kunt er allerlei dingen aan vragen. Zoals:




Valkuilen van ChatGPT.

(Klik op de woorden om verder te lezen)




Dus: het is geen orakel

Sommige mensen zijn zo onder de indruk van ChatGPT dat ze niet meer verder kijken. Ze stellen een vraag en slikken het antwoord als zoete koek. Dat is heel onverstandig. 

Dat is hetzelfde als alleen het eerste resultaat van een Google-zoekopdracht geloven. Je moet altijd verder kijken en je eigen bronnenonderzoek doen.

Maar hoe slim is ChatGPT dan echt?

Bij Nieuwsuur mocht Jim Stolze uitleggen waarom het wél een Havo-examen kan maken, maar geen gezond verstand heeft.

Samenvattend




Track 4 afgerond!

NEXT UP: Aan de slag met Copilot


Je wordt automatisch doorgeschakeld, of klik op bovenstaande knop.