Définition
Dans le prompt engineering, adapter les instructions aux spécificités du modèle d’IA utilisé est crucial. Par exemple, certains modèles de traitement du langage naturel réagissent mieux à des questions ouvertes tandis que d’autres préfèrent des directives précises.
En d’autres termes, 2 modèles différents vont réagir différemment à un même prompt. C’est la raison pour laquelle Brume v1 était très optimisé pour GPT-4, alors que la v2 est très optimisé pour GPT-4o.
Une technique utile consiste à intégrer des scénarios concrets dans vos prompts. Cela peut se faire en décrivant une situation spécifique ou en posant une question qui nécessite une réponse contextualisée. Par exemple, au lieu de demander simplement « Qu’est-ce que l’énergie renouvelable ? », vous pourriez formuler : « Explique comment l’énergie solaire peut être utilisée dans une maison familiale. »
Pour évaluer l’efficacité d’un prompt, utiliser des méthodes spécifiques comme l’analyse comparative des résultats attendus est recommandé. Cela peut inclure la mise en place de tests A/B où différents prompts sont testés pour voir lequel génère les réponses les plus pertinentes.
Documenter les variations et leurs résultats crée une base de connaissances utile pour optimiser les interactions futures avec le même modèle ou un similaire. Cette documentation aide à identifier quelles stratégies fonctionnent le mieux selon le contexte et le type de modèle utilisé.