Geavanceerd prompt engineering

U heeft de basis onder de knie, nu is het tijd om dieper te graven! Geavanceerd prompt engineering omvat meer gesofisticeerde technieken om fijnere controle te krijgen over LLM-responsen, complexe taken aan te pakken en de betrouwbaarheid en creativiteit van uw outputs te verbeteren.

Uw prompts naar een hoger niveau tillen: geavanceerde technieken

1. Systeem-, contextueel en rolprompting

Deze drie soorten prompts werken samen om uitgebreide begeleiding te bieden aan de LLM:

  • Systeemprompt: definieert het algemene doel, instructies op hoog niveau of de overkoepelende context voor het gedrag van de LLM gedurende het gesprek (bv. "u bent een behulpzame assistent gespecialiseerd in astrofysica.").
  • Contextuele prompt: levert onmiddellijke, taakspecifieke details, data of achtergrondinformatie die de LLM nodig heeft voor de huidige beurt in het gesprek. Dit is cruciaal voor aanpassing aan dynamische inputs.
  • Rolprompt (persona prompting): wijst een specifieke persona of karakter toe aan de LLM (bv. "gedraag u als een ervaren reisgids die een reisplan voor Parijs aanbeveelt."). Dit beïnvloedt de toon, stijl en het type informatie dat de LLM verstrekt.

Voorbeeld: gecombineerde prompting

Systeem: u bent een vriendelijke en aanmoedigende fitnesscoach.
Context: de gebruiker heeft de wens geuit om een hardloopprogramma voor beginners te starten, maar weet niet hoe te beginnen. Hij/zij heeft toegang tot een nabijgelegen park.

Gebruiker (rolprompt geïmpliceerd door systeem & context):
"Ik wil beginnen met hardlopen, maar ik ben een absolute beginner. Kunt u mij helpen een eenvoudig 4-wekenplan op te stellen dat ik in het park kan doen?"

Deze combinatie helpt de LLM een op maat gemaakt, motiverend en relevant hardloopplan te bieden.

2. Step-back prompting

Step-back prompting is een techniek om vooroordelen te verminderen en redeneren te verbeteren. Het houdt in dat de LLM wordt gevraagd om eerst algemene principes of abstracte concepten met betrekking tot de vraag te overwegen *voordat* de specifieke taak wordt aangepakt. Dit moedigt kritischer denken aan.

Voorbeeld: step-back voor financieel advies

In plaats van rechtstreeks te vragen:

"moet ik investeren in tech-aandelen of vastgoed voor langetermijngroei als ik een gemiddelde risicotolerantie heb?"

Probeer een step-back aanpak:

Prompt:
1. Leg eerst de algemene principes uit van langetermijnbeleggen voor groei voor iemand met een gemiddelde risicotolerantie.
2. Bespreek op basis van deze principes de mogelijke voor- en nadelen van investeren in tech-aandelen versus vastgoed.
3. Geef tot slot enkele overwegingen voor het nemen van een beslissing.

3. Chain-of-thought (CoT) prompting

Chain-of-thought prompting verbetert de redeneercapaciteiten van een LLM aanzienlijk, vooral voor problemen met meerdere stappen (zoals wiskunde- of logische puzzels). U instrueert het model om "stap voor stap te denken" of geeft voorbeelden die expliciet de tussenliggende redeneerstappen tonen om tot een eindantwoord te komen.

Voorbeeld: CoT voor een wiskundeprobleem

V: Natalia verkocht clips aan 4 van haar vrienden. Ze verkocht 8 clips aan elke vriend. Hoeveel clips verkocht ze in totaal?

A: Natalia verkocht clips aan 4 vrienden. Ze verkocht 8 clips aan elke vriend. Om het totale aantal clips te vinden, vermenigvuldigen we het aantal vrienden met het aantal clips dat aan elke vriend is verkocht. 4 vrienden * 8 clips/vriend = 32 clips. Het antwoord is 32.

V: John heeft 28 knikkers. Hij verloor 7 knikkers in een spel en kocht er vervolgens 15 bij. Hoeveel knikkers heeft John nu?

A:

Door de redenering voor de eerste vraag te geven, wordt de LLM begeleid om een vergelijkbaar stap-voor-stap antwoord te produceren voor de tweede.

CoT best practices
  • Gebruik het voor taken die redenering vereisen, zoals rekenkunde, gezond verstand redeneren en symbolische manipulatie.
  • Zorg ervoor dat uw voorbeelden van gedachteketens logisch en gemakkelijk te volgen zijn.

4. Zelfconsistentie (Self-consistency)

Zelfconsistentie bouwt voort op CoT. In plaats van slechts één gedachteketen, vraagt u de LLM om meerdere verschillende redeneerpaden voor hetzelfde probleem te genereren (vaak door een hogere temperatuurinstelling te gebruiken voor meer diverse outputs). Vervolgens neemt u het meest voorkomende antwoord onder deze paden als het definitieve, betrouwbaardere antwoord. Dit is alsof u meerdere keren een "second opinion" krijgt en met de consensus meegaat.

5. Tree of thoughts (ToT) & ReAct (kort)

Tree of thoughts (Gedachtenboom): dit is een nog geavanceerdere techniek die CoT generaliseert. Het stelt LLM's in staat om meerdere redeneervertakkingen of "gedachten" tegelijkertijd te verkennen, zoals het verkennen van verschillende paden in een doolhof. Het kan tussentijdse gedachten evalueren en meer globale keuzes maken in zijn redeneerproces.

ReAct (reason + act): dit framework combineert de redeneercapaciteiten van de LLM met de mogelijkheid om externe tools of API's te gebruiken. De LLM kan "redeneren" over welke informatie het nodig heeft, "handelen" door een tool aan te roepen (bv. een zoekmachine, een rekenmachine of een interne database), en vervolgens de output van de tool weer in zijn redeneerproces opnemen om tot een antwoord te komen. Dit bootst na hoe mensen vaak problemen oplossen door informatie op te zoeken of acties uit te voeren.

LLM-output beheersen: configuratieparameters

Naast de prompt zelf kunt u het gedrag van de LLM aanzienlijk beïnvloeden door de configuratieparameters aan te passen. Deze instellingen regelen aspecten zoals de willekeurigheid, lengte en diversiteit van de gegenereerde tekst.

Belangrijke configuratieparameters

  • Outputlengte (max tokens): definieert het maximale aantal tokens (woorden/subwoorden) dat de LLM zal genereren. Te laag instellen kan responsen afkappen, terwijl te hoog de kosten en rekentijd kan verhogen. Dit vereist een zorgvuldige afweging met het promptontwerp.
  • Temperatuur: regelt de willekeurigheid van de output.
    • Lage temperatuur (bv. 0.0 - 0.2): meer deterministisch, gericht en voorspelbaar. Goed voor feitelijke antwoorden of wanneer u minder variatie wenst.
    • Hoge temperatuur (bv. 0.7 - 1.0): creatiever, diverser en potentieel verrassend. Goed voor brainstormen of creatief schrijven, maar kan soms leiden tot minder relevante of onzinnige output.
  • Top-K sampling: bij elke generatiestap houdt de LLM alleen rekening met de 'K' meest waarschijnlijke volgende tokens. Een hogere K zorgt voor meer diversiteit, terwijl K=1 (greedy decoding) betekent dat het altijd het meest waarschijnlijke token kiest.
  • Top-P (nucleus) sampling: selecteert de kleinste set tokens waarvan de cumulatieve waarschijnlijkheid een drempel 'P' overschrijdt. Dit is een alternatief voor Top-K dat het aantal keuzes kan aanpassen op basis van de waarschijnlijkheidsverdeling. Bijvoorbeeld, als P=0.9, kiest het uit de meest waarschijnlijke tokens die samen 90% waarschijnlijkheid bereiken.
Praktische richtlijnen voor sampling (algemene startpunten)
  • Gebalanceerde output: temperatuur ~0.5, top-P ~0.95, top-K ~30-40.
  • Creatieve output: temperatuur ~0.7-0.9, top-P ~0.99, top-K ~40-50.
  • Feitelijke/deterministische output: temperatuur ~0.1-0.2, top-P ~0.9, top-K ~20 (of temperatuur=0).
  • Wiskunde/logica problemen: temperatuur ~0.0.
Interacties & waarschuwingen bij sampling-instellingen
  • Als de temperatuur 0 is, hebben top-K en top-P meestal geen effect, aangezien de output deterministisch is.
  • Als top-K 1 is, worden temperatuur en top-P vaak genegeerd omdat alleen het meest waarschijnlijke token wordt gekozen.
  • Extreme waarden in een enkele sampling-instelling kunnen de effecten van andere tenietdoen.
  • Herhalingslussen: onjuist afgestelde temperatuur, top-K en top-P kunnen er soms voor zorgen dat LLM's vastlopen in het herhalen van woorden of zinnen. Zorgvuldige afstemming en experimenteren zijn essentieel.

Conceptuele API-aanroep met parameters

Hier ziet u hoe u zich kunt voorstellen deze in te stellen in een hypothetische API-aanroep (syntaxis varieert per provider):

// Hypothetical API call structure
const response = await llmProvider.generate({
  model: "some-advanced-model",
  prompt: "Write a futuristic short story about AI discovering music.",
  max_tokens: 500,
  temperature: 0.85,
  top_p: 0.9,
  top_k: 40
});

console.log(response.text);

Geavanceerde best practices voor robuuste prompts

Gebruik instructies, geen beperkingen (meestal)

Formuleer uw prompts positief, en vertel de LLM wat u *wilt* dat het doet, in plaats van wat u *niet* wilt. Echter, om schadelijke, bevooroordeelde of off-topic content te voorkomen, zijn expliciete beperkingen noodzakelijk en gepast.

Beheer de tokenlengte verstandig

Zorg voor een evenwicht tussen het verstrekken van voldoende details zodat de LLM de taak begrijpt en het beknopt houden van prompts om "doorlopende" generatie te voorkomen en kosten te beheren. Houd rekening met het contextvenster van de LLM.

Gebruik variabelen voor dynamische prompts

Voor toepassingen waarbij delen van de prompt vaak veranderen (bv. gebruikersinvoer, data uit een database), ontwerp uw prompts met placeholders of variabelen. Dit maakt ze herbruikbaar en aanpasbaar.
Voorbeeld: vertaal de volgende tekst naar Spanish: Your text here

Gestructureerde output met JSON

Wanneer u gegevens in een specifiek, consistent formaat nodig heeft, instrueer de LLM dan om JSON-output te genereren. Dit is van onschatbare waarde voor gegevensextractie en integratie met andere systemen.

  • Voordelen: gegarandeerd consistente stijl, focus op gegevensextractie in plaats van het parsen van rommelige tekst.
  • Tip: u kunt een JSON-schema of een voorbeeld van de gewenste JSON-structuur in uw prompt geven om de LLM te sturen.
  • JSON-reparatie: houd er rekening mee dat LLM's soms misvormde JSON kunnen produceren, vooral als de output wordt afgekapt. Overweeg het gebruik van JSON-reparatietools of promptingstrategieën om hiermee om te gaan.
Prompt:
extraheer de naam, e-mail en het product van interesse uit de volgende klantvraag. Output als een JSON-object met de sleutels "name", "email" en "product".

Query: "hallo, mijn naam is Jane Doe en ik ben geïnteresseerd in uw premium widget. mijn e-mail is jane.doe@example.com."
De gouden regel: experimenteer & documenteer!

Prompt engineering is een empirische wetenschap. De belangrijkste best practice is om continu te experimenteren met verschillende formuleringen, structuren, voorbeelden en modelconfiguraties.

Cruciaal, documenteer uw pogingen! Houd een logboek bij met:

  • Prompt naam/doel
  • Gebruikt LLM-model
  • Configuratieparameters (temperatuur, top-K, top-P, max tokens)
  • De volledige prompttekst
  • De output van de LLM (en uw evaluatie ervan)

Deze documentatie zal van onschatbare waarde zijn om te leren wat werkt, wat niet werkt, en te itereren naar optimale prompts.

Met deze geavanceerde technieken en best practices bent u goed op weg om een expert in prompt engineering te worden! Laten we vervolgens enkele praktische gebruikscases verkennen.

Volgend hoofdstuk: Praktijkvoorbeelden
    promptengineering.be

    Ontdek prompts van hoge kwaliteit voor ChatGPT, Midjourney en andere AI-tools om uw creativiteit en productiviteit te verbeteren.

    Snelle links

    • Categorieën
    • Prompts
    • Packs

    Leren

    • Basis prompting
    • Geavanceerd prompting
    • Gebruikscases
    • Onze blog
    • Over ons

    Juridisch

    • Privacy
    • Voorwaarden
    • Contact

    © 2025 promptengineering.be - Alle rechten voorbehouden.

    PrivacyVoorwaardenContact
      promptengineering.be logopromptengineering.be
      Inloggen