L’invite de commande du moins au plus (least-to-most prompting) peut être combinée avec d’autres techniques d’incitation telles que la chaîne de pensée et l’auto-cohérence. Pour certaines tâches, les deux étapes de l’invite du moins au plus peuvent être fusionnées pour former une invite en un seul passage.
Here is a practical example:
CUSTOMER INQUIRY: I just bought a T-shirt from your Arnold collection on March 1st. I saw that it was on discount, so bought a shirt that was originally $30, and got 40% off. I saw that you have a new discount for shirts at 50%. I'm wondering if I can return the shirt and have enough store credit to buy two of your shirts? INSTRUCTIONS: You are a customer service agent tasked with kindly responding to customer inquiries. Returns are allowed within 30 days. Today's date is March 29th. There is currently a 50% discount on all shirts. Shirt prices range from $18-$100 at your store. Do not make up any information about discount policies. Determine if the customer is within the 30-day return window.
Il renvoie la mauvaise réponse comme indiqué ci-dessous, lorsqu’il est directement demandé :
L’approche la plus simple à la plus rapide est suivie et illustrée dans le terrain de jeu OpenAI.
La séquence suivie consiste à poser d’abord au modèle (pour des raisons de cohérence, nous utilisons plusieurs invites) la question next:
What subproblems must be solved before answering the inquiry?
Par la suite, le LLM génère 4 sous-problèmes qui doivent être résolus pour que l’instruction soit terminée.
En suivant l’approche du moins au plus, le LLM est invité à répondre aux quatre sous-problèmes ou tâches qu’il a identifiés.
Cependant, les sous-problèmes sont posés un par un, et le problème et la réponse précédents sont inclus dans l’invite. Par conséquent, l’invite est construite sur une question/réponse ou un sous-problème à la fois.
The previous prompts are included for reference and serve a few-step training purpose.
The scenario presented to the LLM may be considered ambiguous, but the LLM does a remarkable job of following the sequence and arriving at the correct answer.
It is also possible to break down each step into a separate prompt. This will allow the LLM to provide more explanation of their response process.