Le prompt engineering est souvent présenté comme une recette magique — quelques mots-clés bien placés et le modèle devient brillant. La réalité est plus nuancée, et ce module se donne pour objectif de remplacer les recettes par une méthode : comment formuler un prompt de façon robuste, comment diagnostiquer un prompt qui échoue, et comment éviter les pièges qui font perdre un temps considérable en itérations stériles.
On aborde d’abord les briques d’un prompt structuré : contexte, rôle, tâche, format de sortie, exemples. Chaque brique est illustrée avec un cas réel (extraction d’entités, synthèse, classification) et ses variantes dégradées — car apprendre à prompter consiste autant à construire qu’à repérer ce qui cloche dans un prompt qui fonctionne mal. Le module insiste particulièrement sur deux écueils fréquents : la sur-spécification qui bride le modèle, et la sous-spécification qui le laisse livré à lui-même.
Le deuxième axe du module porte sur la reproductibilité. Un prompt n’est pas une incantation jetable : il doit pouvoir être versionné, testé sur plusieurs entrées, et évalué sur des critères quantifiables. On introduit les notions d’évaluation par échantillon, de A/B testing de prompts, et de templating avec variables — pratiques indispensables dès qu’on passe d’un POC à un usage en production, même modeste.