Большинство людей пишут промпты интуитивно. Это работает — но не оптимально. Есть три техники с измеримым эффектом, проверенные в академических исследованиях.
Chain-of-Thought: заставьте модель рассуждать вслух
Добавьте в промпт фразу «Давай рассуждать шаг за шагом» — и модель начинает разбивать задачу на части вместо прыжка к ответу.
Без этой фразы GPT на математическом бенчмарке GSM8K давал 17.9% правильных ответов. С ней — 58.1%. Разрыв в три с лишним раза.
Работает только на моделях от 100 миллиардов параметров. На маленьких — эффекта нет.
Few-Shot: покажите пример нужного формата
Дайте модели 2–8 примеров нужного ввода и вывода — она воспроизводит паттерн точнее. Прирост точности по сравнению с нулевым промптом — от 15% до 40% в зависимости от задачи.
Формула простая: пример 1 → ответ 1, пример 2 → ответ 2, затем ваш запрос. Модель считывает структуру и следует ей.
Few-Shot + CoT вместе
Комбинация обоих методов — самый стабильный результат. Self-consistency (несколько CoT-ответов, потом выбор большинства) дала прирост на GSM8K +17.9%, на SVAMP +11%, на AQuA +12.2%.
Три правила хорошего промпта
Один промпт — одна задача. Если нужно сделать A и B — это два промпта.
Роль работает. «Ты опытный редактор» даёт другой результат, чем просто запрос без контекста.
Конкретика выигрывает у абстракции. Не «напиши текст для сайта», а «напиши 150 слов для главной страницы онлайн-курса по Python для начинающих в возрасте 25–35 лет, без технического жаргона».