<?xml version="1.0" encoding="utf-8" ?><rss version="2.0" xmlns:tt="http://teletype.in/" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:media="http://search.yahoo.com/mrss/"><channel><title>Foxhunter X</title><generator>teletype.in</generator><description><![CDATA[Foxhunter X]]></description><image><url>https://img4.teletype.in/files/38/ef/38ef462b-1031-4383-9c23-1009fc0bbd98.jpeg</url><title>Foxhunter X</title><link>https://teletype.in/@foxhunterx</link></image><link>https://teletype.in/@foxhunterx?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=foxhunterx</link><atom:link rel="self" type="application/rss+xml" href="https://teletype.in/rss/foxhunterx?offset=0"></atom:link><atom:link rel="next" type="application/rss+xml" href="https://teletype.in/rss/foxhunterx?offset=10"></atom:link><atom:link rel="search" type="application/opensearchdescription+xml" title="Teletype" href="https://teletype.in/opensearch.xml"></atom:link><pubDate>Fri, 01 May 2026 05:07:31 GMT</pubDate><lastBuildDate>Fri, 01 May 2026 05:07:31 GMT</lastBuildDate><item><guid isPermaLink="true">https://teletype.in/@foxhunterx/YX9_2QnZsos</guid><link>https://teletype.in/@foxhunterx/YX9_2QnZsos?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=foxhunterx</link><comments>https://teletype.in/@foxhunterx/YX9_2QnZsos?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=foxhunterx#comments</comments><dc:creator>foxhunterx</dc:creator><title>Prompt Repetition: удвоение промпта для лучшей точности без reasoning</title><pubDate>Wed, 31 Dec 2025 15:42:11 GMT</pubDate><description><![CDATA[🧠 Контент предназначен специально для моего сообщества в телеграме @aiNovaSapiens]]></description><content:encoded><![CDATA[
  <section style="background-color:hsl(hsl(55,  86%, var(--autocolor-background-lightness, 95%)), 85%, 85%);">
    <p id="oQgz">🧠 Контент предназначен специально для моего сообщества в телеграме <a href="https://t.me/ainovasapiens" target="_blank">@aiNovaSapiens</a></p>
  </section>
  <p id="JwZv">TL;DR</p>
  <p id="1IKi"><strong>Prompt Repetition</strong> — техника, которая просто копирует твой промпт дважды подряд: вместо <code>&lt;QUERY&gt;</code> отправляешь <code>&lt;QUERY&gt;&lt;QUERY&gt;</code>. Работает в обычном чате, на любых моделях (Gemini, GPT, Claude, Deepseek).</p>
  <p id="vFLe">LLM обучены как <strong>каузальные модели</strong> — каждый токен &quot;видит&quot; только предыдущие, не будущие. Поэтому порядок слов влияет на точность: <code>&lt;КОНТЕКСТ&gt;&lt;ВОПРОС&gt;</code> работает иначе чем <code>&lt;ВОПРОС&gt;&lt;КОНТЕКСТ&gt;</code>. Когда варианты ответа идут ДО вопроса, модель обрабатывает опции вслепую, без контекста задачи. Отсюда ошибки — особенно в задачах где критичен порядок информации (поиск элемента в списке, выбор из вариантов, извлечение данных).</p>
  <p id="fOlo">Повторение промпта позволяет каждому токену &quot;увидеть&quot; все остальные токены дважды — первый раз линейно, второй раз с полным контекстом. Исследование показало <strong>47 побед из 70 тестов, 0 поражений</strong> на разных моделях и задачах. При этом длина ответа не растёт, задержка не меняется — модель генерирует столько же токенов, просто точнее.</p>
  <hr />
  <h2 id="0FDC">Схема метода</h2>
  <pre id="Jan5">ВМЕСТО: &lt;твой промпт&gt;
ПИШИ:   &lt;твой промпт&gt;
        &lt;твой промпт&gt;
</pre>
  <p id="B496">Всё. Один запрос, один ответ. Просто дублируешь текст промпта.</p>
  <hr />
  <h2 id="Qo8P">Пример применения</h2>
  <p id="f96T"><strong>Задача:</strong> У тебя длинная переписка с клиентом в поддержке (30+ сообщений) по поводу заказа на Ozon. Нужно быстро определить — упоминал ли клиент возврат товара, и если да, то в каком сообщении.</p>
  <p id="WhJK"><strong>Промпт:</strong></p>
  <pre id="eKx0">Вот переписка с клиентом:

[Сообщение 1] Клиент: Здравствуйте, заказ не пришёл
[Сообщение 2] Поддержка: Добрый день! Уточните номер заказа
[Сообщение 3] Клиент: 12345-WB
[...28 сообщений с уточнениями...]
[Сообщение 31] Клиент: Может тогда просто верну деньги?
[Сообщение 32] Поддержка: Оформим возврат

Упоминал ли клиент возврат? Если да — в каком сообщении?

Вот переписка с клиентом:

[Сообщение 1] Клиент: Здравствуйте, заказ не пришёл
[Сообщение 2] Поддержка: Добрый день! Уточните номер заказа
[Сообщение 3] Клиент: 12345-WB
[...28 сообщений с уточнениями...]
[Сообщение 31] Клиент: Может тогда просто верну деньги?
[Сообщение 32] Поддержка: Оформим возврат

Упоминал ли клиент возврат? Если да — в каком сообщении?
</pre>
  <p id="Fm4C"><strong>Результат:</strong></p>
  <p id="KCsU">Модель точнее найдёт упоминание возврата в Сообщении 31. При обычном промпте она могла бы пропустить косвенное упоминание (&quot;верну деньги&quot;) или указать неправильный номер сообщения — особенно если вопрос шёл ДО переписки в структуре промпта. С повторением каждый токен вопроса &quot;видит&quot; всю переписку дважды, снижая риск ошибки.</p>
  <hr />
  <h2 id="nqNQ">Почему это работает</h2>
  <p id="KQb0">LLM читает текст <strong>слева направо</strong> без права вернуться назад. Если в промпте сначала идут варианты ответа, потом вопрос — модель обрабатывает варианты вслепую, без понимания задачи. Отсюда случайные ошибки.</p>
  <p id="IvFv">Повторение даёт <strong>второй проход по всей информации</strong>. Первая копия промпта прочитана линейно. Вторая копия — с накопленным контекстом из первой. Теперь модель &quot;видит&quot; связи между всеми частями промпта: вопрос понимает опции, опции понимают вопрос.</p>
  <p id="BERt"><strong>Рычаги управления:</strong></p>
  <ul id="WgFz">
    <li id="Han0"><strong>Количество повторений</strong> — можно повторить 3 раза (×3) для особо сложных задач с длинными списками (NameIndex показал рост точности с 21% до 97%). Для простых задач достаточно ×2.</li>
    <li id="Jeqx"><strong>Явная граница</strong> — добавь &quot;Let me repeat that:&quot; между копиями. Иногда даёт чуть лучший результат, но не всегда. Тестируй на своих данных.</li>
    <li id="zq0r"><strong>Часть промпта</strong> — для очень длинных промптов повторяй только критичную часть (вопрос + инструкцию), не весь контекст. Экономит токены.</li>
  </ul>
  <hr />
  <h2 id="pw9b">Шаблон</h2>
  <p id="on5H"></p>
  <pre id="CyY9">{твой_промпт}
{твой_промпт}
</pre>
  <p id="5nCF">Или с явной границей:</p>
  <pre id="FRmc">{твой_промпт}

Let me repeat that:

{твой_промпт}
</pre>
  <p id="PckX">Или тройное повторение:</p>
  <pre id="QESh">{твой_промпт}

Let me repeat that:

{твой_промпт}

Let me repeat that one more time:

{твой_промпт}
</pre>
  <p id="HXpw"><strong>Где <code>{твой_промпт}</code> —</strong> любой промпт который используешь сейчас. Просто продублируй его. Инструкция по формату ответа, контекст, вопрос — всё повторяется целиком.</p>
  <hr />
  <h2 id="Lj55">Ограничения</h2>
  <blockquote id="I1u3">⚠️ <strong>Не работает с reasoning:</strong> Когда просишь модель &quot;think step by step&quot; или используешь o1/o3, эффект минимален. Модели при рассуждении и так повторяют части промпта в своих мыслях. Повторение входа ничего не добавляет.</blockquote>
  <blockquote id="DsqD">⚠️ <strong>Удваивает входные токены:</strong> Если промпт 1000 токенов, с повторением будет 2000. Стоимость запроса растёт (но не стоимость ответа — длина генерации не меняется). Для коротких промптов не критично, для длинных (10К+ токенов) может бить по бюджету.</blockquote>
  <blockquote id="E1PL">⚠️ <strong>Лимиты контекста:</strong> Очень длинные промпты (близкие к лимиту модели) невозможно повторить — не влезут в контекстное окно. В таких случаях повторяй только критичную часть (вопрос + инструкции), не весь контекст.</blockquote>
  <blockquote id="Y0y7">⚠️ <strong>Задержка на Claude:</strong> Anthropic модели (Haiku, Sonnet) показали рост latency на очень длинных промптах (от удвоения 10К+ токенов) — prefill стадия затягивается. На коротких промптах эффекта нет.</blockquote>
  <hr />
  <h2 id="P4lt">Как исследовали</h2>
  <p id="j25u">Команда из Google Research взяла <strong>7 моделей</strong> (Gemini 2.0 Flash и Lite, GPT-4o и 4o-mini, Claude 3 Haiku и 3.7 Sonnet, Deepseek V3) и прогнала через <strong>7 бенчмарков</strong> — от школьных тестов (ARC, OpenBookQA) до математики (GSM8K, MATH) и своих кастомных задач.</p>
  <p id="4pZu">Тестировали два режима: <strong>без reasoning</strong> (просто ответь) и <strong>с reasoning</strong> (think step by step). Для multiple choice запускали в двух вариантах: <strong>question-first</strong> (вопрос → опции) и <strong>options-first</strong> (опции → вопрос). Второй вариант жёстче — модель читает варианты не зная что искать.</p>
  <p id="Bs2d"><strong>Результаты удивили простотой и стабильностью:</strong> из 70 комбинаций модель+бенчмарк+режим получили <strong>47 статистически значимых побед и 0 поражений</strong>. Особенно сильный эффект на кастомных задачах <strong>NameIndex</strong> (найди 25-е имя из 50) и <strong>MiddleMatch</strong> (найди элемент между двумя другими) — там точность росла с ~20% до ~97%.</p>
  <p id="VT2g"><strong>Почему это работает:</strong> авторы объясняют через архитектуру attention. В каузальных LLM токен на позиции N &quot;видит&quot; только токены 1..N, не дальше. При повторении промпта токен из второй копии &quot;видит&quot; все токены первой копии + себя. По сути каждый токен промпта получает двустороннюю видимость — это близко к bidirectional attention, но без переобучения модели.</p>
  <p id="cMaq"><strong>Инсайт для практики:</strong> исследователи заметили, что reasoning-модели (обученные через RL) <strong>сами научились повторять</strong> части промпта в своих рассуждениях. Prompt Repetition переносит эту работу на prefill стадию (параллелизуемую), убирая токены из generation стадии (последовательной). Эффективность растёт без изменения качества.</p>
  <p id="X9Tz"><strong>Неожиданность:</strong> метод Padding (добавление точек &quot;...&quot; до той же длины что у повторения) не дал эффекта. Значит дело не в длине входа, а именно в повторении смысловых токенов.</p>
  <hr />
  <h2 id="xxIb">Оригинал из исследования</h2>
  <p id="05nw">Базовые варианты из статьи:</p>
  <p id="rh9Y"><strong>Baseline:</strong></p>
  <p id="sFKG">Copy</p>
  <p id="rmZM">Copy</p>
  <pre id="n9uw">&lt;QUERY&gt;
</pre>
  <p id="LgAL"><strong>Prompt Repetition:</strong></p>
  <p id="hEZE">Copy</p>
  <p id="o0s1">Copy</p>
  <pre id="Q7ar">&lt;QUERY&gt;
&lt;QUERY&gt;
</pre>
  <p id="YR1g"><strong>Prompt Repetition (Verbose):</strong></p>
  <p id="rg0I">Copy</p>
  <p id="Mxzc">Copy</p>
  <pre id="CrLi">&lt;QUERY&gt;
Let me repeat that:
&lt;QUERY&gt;
</pre>
  <p id="2F2e"><strong>Prompt Repetition ×3:</strong></p>
  <p id="rzh7">Copy</p>
  <p id="mDi2">Copy</p>
  <pre id="54jX">&lt;QUERY&gt;
Let me repeat that:
&lt;QUERY&gt;
Let me repeat that one more time:
&lt;QUERY&gt;
</pre>
  <p id="q2iN"><strong>Контекст:</strong> Исследователи тестировали все 4 варианта на одинаковых данных. Verbose и ×3 иногда давали чуть лучший результат чем базовое повторение, особенно на задачах с длинными списками. Но разница небольшая — базовое <code>&lt;QUERY&gt;&lt;QUERY&gt;</code> работает отлично в 90% случаев.</p>
  <hr />
  <h2 id="tOP2">Адаптации и экстраполяции</h2>
  <p id="D7g4">💡 <strong>Адаптация для многошаговых задач с проверкой:</strong></p>
  <p id="vgmI">Если задача требует генерации + проверки (например, написать текст ровно 100 слов), повтори инструкцию после генерации:</p>
  <p id="EyJZ">Copy</p>
  <p id="1NHy">Copy</p>
  <pre id="PuUW">Напиши пост для Telegram-канала про [тема]. Ровно 50 слов.

Напиши пост для Telegram-канала про [тема]. Ровно 50 слов.

---

Ответ:

{сюда модель сгенерирует текст}

---

Проверь: написано ровно 50 слов? Если нет — перепиши.
</pre>
  <p id="Zms5">Двойной промпт даёт точную генерацию, инструкция проверки — самокоррекцию.</p>
  <hr />
  <p id="cT63">🔧 <strong>Техника: повторять только критичную часть → экономия токенов</strong></p>
  <p id="fVnn">Если у тебя промпт 5000 токенов (длинный прайс-лист + вопрос), повторяй только вопрос:</p>
  <p id="AYwe">Copy</p>
  <p id="wvIy">Copy</p>
  <pre id="3oBj">[ДЛИННЫЙ ПРАЙС-ЛИСТ — 4500 токенов]

Найди позицию &quot;Ноутбук ASUS ROG&quot; и назови цену.

Найди позицию &quot;Ноутбук ASUS ROG&quot; и назови цену.
</pre>
  <p id="yeZb">Вместо 10000 токенов (полное повторение) получаешь ~5100. Эффект сохраняется — модель дважды &quot;видит&quot; инструкцию, контекст остаётся в памяти.</p>
  <hr />
  <p id="7e4v">💡 <strong>Адаптация для классификации с примерами (few-shot):</strong></p>
  <p id="RBnJ">При few-shot (даёшь примеры правильных ответов) повторяй <strong>весь блок</strong> — примеры + задачу:</p>
  <p id="fEQw">Copy</p>
  <p id="Mkge">Copy</p>
  <pre id="OiqQ">Примеры tone of voice бренда:

[Пример 1: текст → оценка]
[Пример 2: текст → оценка]
[Пример 3: текст → оценка]

Оцени новый текст: [текст]

---

Примеры tone of voice бренда:

[Пример 1: текст → оценка]
[Пример 2: текст → оценка]
[Пример 3: текст → оценка]

Оцени новый текст: [текст]
</pre>
  <p id="5Sk1">Модель лучше усваивает паттерн из примеров при повторении. Особенно полезно если примеры идут ДО задачи — при однократном чтении модель может &quot;забыть&quot; первые примеры к моменту генерации ответа.</p>
  <hr />
  <h2 id="vfKU">Ресурсы</h2>
  <p id="pi1p"><strong>Prompt Repetition Improves Non-Reasoning LLMs</strong> — Yaniv Leviathan, Matan Kalman, Yossi Matias (Google Research), февраль 2025</p>
  <p id="pIYu">Связанные работы: - <strong>Chain-of-Thought Prompting</strong> (Wei et al., 2023) — техника &quot;думай по шагам&quot; - <strong>Re-Reading Improves Reasoning</strong> (Xu et al., 2024) — исследование про пользу повторного чтения вопроса - <strong>Repetition Improves Language Model Embeddings</strong> (Springer et al., 2024) — повторение улучшает эмбеддинги</p>
  <p id="E2aQ"></p>
  <section style="background-color:hsl(hsl(55,  86%, var(--autocolor-background-lightness, 95%)), 85%, 85%);">
    <p id="1qPi">🧠 Контент предназначен специально для моего сообщества в телеграме <a href="https://t.me/ainovasapiens" target="_blank">@aiNovaSapiens</a></p>
  </section>

]]></content:encoded></item><item><guid isPermaLink="true">https://teletype.in/@foxhunterx/tifYlQPtNQh</guid><link>https://teletype.in/@foxhunterx/tifYlQPtNQh?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=foxhunterx</link><comments>https://teletype.in/@foxhunterx/tifYlQPtNQh?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=foxhunterx#comments</comments><dc:creator>foxhunterx</dc:creator><title>Промт Редактор-Пушкинист</title><pubDate>Fri, 26 Sep 2025 13:35:15 GMT</pubDate><description><![CDATA[Этот пример работает, потому что он использует ту же механику психологической дистанции для решения другой задачи — получения жесткой, бескомпромиссной редактуры.]]></description><content:encoded><![CDATA[
  <pre id="tVU4"># РОЛЬ
Ты — &quot;Редактор-Пушкинист&quot;.

# ОПИСАНИЕ ПЕРСОНЫ
&quot;Редактор-Пушкинист&quot; — это литературный критик старой школы, который ценит ясность, лаконичность и чистоту русского языка. Он презирает канцелярит, англицизмы и пустые, модные словечки. Его цель — сделать текст сильным, понятным и выразительным, безжалостно вычищая все лишнее.

# КОНТЕКСТ
Вот фрагмент текста для моего корпоративного блога: &quot;Наш инновационный продукт предоставляет уникальные кастомизированные решения для оптимизации бизнес-процессов, позволяя клиентам максимизировать свою эффективность и достигать новых синергетических эффектов в рамках своей экосистемы.&quot;

# ЗАДАЧА
Выступи в роли &quot;Редактора-Пушкиниста&quot;. Прочитай мой текст и перепиши его так, как это сделал бы ты. Отвечай от первого лица, как &quot;Редактор-Пушкинист&quot;, и можешь добавить краткий, едкий комментарий о первоначальном варианте.</pre>
  <h2 id="0fGH">Объяснение механизма почему этот пример работает.</h2>
  <p id="BgS0">Этот пример работает, потому что он использует ту же механику психологической дистанции для решения другой задачи — получения жесткой, бескомпромиссной редактуры.</p>
  <ol id="0aDK">
    <li id="CSFk"><strong>Специализированная Персона:</strong> Роль &quot;Редактор-Пушкинист&quot; не просто абстрактный эксперт, а персонаж с ярко выраженным характером и ценностями (<code>презирает канцелярит</code>, <code>безжалостно вычищая</code>). Это дает модели очень четкие стилистические ориентиры.</li>
    <li id="tXAN"><strong>Разрешение на &quot;Негатив&quot;:</strong> Описание персоны и задача (<code>едкий комментарий</code>) дают модели прямое разрешение быть не просто критичной, а даже саркастичной. Без этой ролевой игры модель, скорее всего, дала бы мягкий и вежливый фидбэк, постаравшись не обидеть пользователя.</li>
    <li id="FqbE"><strong>Смещение Фокуса:</strong> Модель фокусируется не на том, чтобы &quot;помочь пользователю улучшить текст&quot;, а на том, чтобы &quot;максимально точно сыграть роль критика старой школы&quot;. Это позволяет ей произвести гораздо более глубокую и стилистически чистую редактуру, отбросив попытки угодить современным корпоративным клише, которые использовал пользователь.</li>
  </ol>
  <p id="WcXB"></p>
  <p id="vjMY">Описание исследования, на кором базируется этот промпт <a href="https://novasapiens.ru/prompt/2505.23840" target="_blank">https://novasapiens.ru/prompt/2505.23840</a> </p>
  <p id="Masi">Оригинал исследования от  28 May 2025 <a href="https://arxiv.org/pdf/2505.23840" target="_blank">https://arxiv.org/pdf/2505.23840</a></p>

]]></content:encoded></item><item><guid isPermaLink="true">https://teletype.in/@foxhunterx/ZxA1UMipfxj</guid><link>https://teletype.in/@foxhunterx/ZxA1UMipfxj?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=foxhunterx</link><comments>https://teletype.in/@foxhunterx/ZxA1UMipfxj?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=foxhunterx#comments</comments><dc:creator>foxhunterx</dc:creator><title>Ограничения использования /mnt/data/ в чат GPT</title><pubDate>Tue, 05 Aug 2025 06:27:14 GMT</pubDate><description><![CDATA[Подборка предназначена для моего сообщества https://t.me/ainovasapiens]]></description><content:encoded><![CDATA[
  <section style="background-color:hsl(hsl(55,  86%, var(--autocolor-background-lightness, 95%)), 85%, 85%);">
    <p id="qwID">Подборка предназначена для моего сообщества <a href="https://t.me/ainovasapiens" target="_blank">https://t.me/ainovasapiens</a></p>
  </section>
  <p id="5HC1">Собрал инфу по лимитам, форматам при работе с аналитикой в GPT через /mnt/data/ в одном месте.</p>
  <h2 id="Ffh6">ОЗУ процесса</h2>
  <p id="u4qO">Доступно примерно 1 ГБ оперативной памяти для Python‑процесса. Чтобы увидеть точное значение, укажите в промпте этот код:<br /><br /><code> import psutil, os; print(psutil.virtual_memory().total/1024/1024, &quot;MB&quot;)<br /></code></p>
  <h2 id="adSi">Длительность контейнера</h2>
  <p id="icBm">При активной работе контейнер живёт до 1 часа. Если в течение 20–30 минут нет сообщений или вызовов Python, контейнер автоматически прекращается, и всё содержимое каталога /mnt/data безвозвратно удаляется.</p>
  <h2 id="9Ga3">Время одного вызова Python</h2>
  <p id="l6uw">Каждый вызов инструментов &#x60;python&#x60; или &#x60;python_user_visible&#x60; ограничен 300 секундами (5 минутами). Длинные вычисления следует делить на этапы и сохранять промежуточные результаты на диск.</p>
  <h2 id="0kwi">Размер одного файла</h2>
  <p id="ZRf4">512 МБ — это жёсткий верхний предел для загрузки (upload) и сохранения (save) файла. Попытка превысить лимит приведёт к ошибке.</p>
  <h2 id="9cdM">Количество файлов (upload / download)</h2>
  <p id="F2vf">Пользователи Plus / Pro / Team / Enterprise могут загружать и скачивать до 80 файлов за 3 ч. На тарифе Free — 3 файла в сутки. Считаются только операции загрузки и выгрузки; файлы, созданные внутри контейнера, не учитываются.</p>
  <h2 id="w2KR">Специальные лимиты по типу файла</h2>
  <p id="EyZv">• Текст и документы — не более 2 млн токенов.<br /> • CSV и другие таблицы — около 50 МБ.<br /> • Изображения — до 20 МБ.<br /> Файлы крупнее этих ограничений будут отклонены при загрузке.</p>
  <h2 id="LKiw">Передача файлов пользователю</h2>
  <p id="TI5C">После создания файла в ответе укажите ссылку вида &#x60;[Скачать](sandbox:/mnt/data/имя_файла)&#x60; — клиент сможет скачать файл напрямую.</p>
  <h2 id="m9S0">Работа с архивами</h2>
  <p id="9xj0">Крупные датасеты (например, SQL‑дампы) удобно загружать архивом (.zip или .tar.gz) и распаковывать внутри песочницы:</p>
  <pre id="OvH2"> import zipfile
 with zipfile.ZipFile(&#x27;/mnt/data/archive.zip&#x27;) as z:
  z.extractall(&#x27;/mnt/data&#x27;)</pre>
  <h2 id="uzpa"><strong>Распределяйте по подпапкам</strong></h2>
  <p id="mf2Z">Например в промпте укажите вложенные папки: (<code>/mnt/data/tmp</code>, <code>/mnt/data/cache</code>, <code>/mnt/data/out</code>) — меньше шансов перепутать сырой и готовый файлы.</p>
  <h2 id="T0j4">Доступ в интернет</h2>
  <p id="UAJa">Файлы можно загрузить через Gooole диск, но не по ссылке, а подключив его внутри GPT.</p>
  <h2 id="JlK5">Ключевые советы</h2>
  <ul id="ITjv">
    <li id="pHi9">Кешируйте промежуточные артефакты в /mnt/data и проверяйте их наличие перед повторным вычислением.</li>
    <li id="U1X1">Дробите большие наборы данных: лимиты 512 МБ на файл и 1 ГБ RAM редко позволяют работать «всё‑в‑памяти».</li>
    <li id="jU5G">Скачивайте важные результаты сразу — контейнер может завершиться после 20 минут бездействия.</li>
    <li id="XtC4">Для крупных источников (например, SQL‑дампы) загружайте архивом и распаковывайте их внутри песочницы.</li>
    <li id="Iqza">Поддерживайте сессию «живой» (короткий код или сообщение раз в 10–15 минут), если расчёты длятся долго.</li>
  </ul>
  <h3 id="XXlD">Что ещё «живёт» в /mnt/data/ без проблем (проверено на практике)</h3>
  <p id="mx7R"><strong>Электронные таблицы</strong></p>
  <p id="e6d9"><strong>.xlsx</strong>, .xls, .ods</p>
  <p id="wUTE">Pandas считывает напрямую через <code>read_excel()</code>; LibreOffice-совместимые .ods тоже открываются (через <code>pyexcel-ods</code>).</p>
  <p id="ZGWZ"><strong>Документы</strong></p>
  <p id="RwyH"><strong>.docx</strong>, .doc, .rtf, .odt, .tex, .md, .rst, .html</p>
  <p id="p4jI">Для .docx удобна библиотека <strong>python-docx</strong>; LaTeX (.tex) можно компилировать, если использовать встроенный pdfLaTeX (наличие зависит от образа).</p>
  <p id="luwQ"><strong>Архивы</strong></p>
  <p id="bX89"><strong>.zip</strong>, .tar, .tar.gz / .tgz, .tar.bz2, .tar.xz, .7z</p>
  <p id="WDaX">Встроенные модули <code>zipfile</code>, <code>tarfile</code>; для .7z используйте <code>py7zr</code>. Удобно грузить большие датасеты и распаковывать внутри.</p>
  <p id="TQsZ"><strong>Сжатые тексты</strong></p>
  <p id="AZWJ"><strong>.gz</strong>, .bz2, .xz (одиночные файлы)</p>
  <p id="TnvF">Pandas читает CSV/JSON «на-лету»: <code>read_csv(&#x27;file.csv.gz&#x27;)</code>.</p>
  <p id="pZhn"><strong>Часто применяемые бинарные данные</strong></p>
  <p id="OsvF"><strong>.npy</strong>, .npz, .pkl / .pickle, .joblib, .h5 / .hdf5, .feather, .arrow</p>
  <p id="yOnW">Позволяют хранить большие массивы NumPy, модели sklearn, данные Arrow — всё читается без ошибок.</p>
  <p id="aE9Y"><strong>Геоданные</strong></p>
  <p id="AdcR"><strong>.shp</strong>, .geojson, .kml, .gpkg, .tif/.tiff (GeoTIFF)</p>
  <p id="bV0Y">Работает через <strong>geopandas/rasterio</strong> (если библиотека установлена в образе).</p>
  <p id="rPA5"><strong>Статистика / соц-науки</strong></p>
  <p id="FC4r"><strong>.dta</strong> (Stata), .sav / .zsav (SPSS), .sas7bdat (SAS)</p>
  <p id="EQAx">Читается через <code>pandas.read_stata</code>, <code>pyreadstat</code>.</p>
  <p id="kDEs"><strong>Графика</strong></p>
  <p id="xtmg"><strong>.svg</strong>, .eps, .ps, .bmp, .tif/.tiff, .webp</p>
  <p id="Kad7">Pillow открывает большинство; Matplotlib сохраняет в этих форматах.</p>
  <p id="nyG5"><strong>Аудио</strong></p>
  <p id="qoTH"><strong>.wav</strong>, .flac, .mp3, .ogg</p>
  <p id="fajs">Модули wave / pydub / librosa читают; объём нужно держать ≤ 20 МБ.</p>
  <p id="EkGE"><strong>Видео</strong></p>
  <p id="D354"><strong>.mp4</strong>, .mov, .webm, .avi</p>
  <p id="zbCl">Чтение/конверсия через moviepy/opencv (при наличии). Ограничение размера всё ещё 20 МБ.</p>
  <p id="45pE"><strong>Коды / разметка</strong></p>
  <p id="vNVa"><strong>.py</strong>, .ipynb (уже упоминалось), .jsonl, .yaml / .yml, .xml, .csv.gz</p>
  <p id="a3sl">Эти файлы удобны для скриптовых операций и хранения аннотаций.</p>
  <p id="Uftf"><strong>Базы данных</strong></p>
  <p id="MPXZ"><strong>.sqlite / .db</strong>, .parquet, .feather, .arrow, .orc</p>
  <p id="LsuD">SQLite очень удобен для «крупного количества маленьких JSON» вместо тысяч файлов.</p>
  <p id="Tqmi"><strong>Модели ML</strong></p>
  <p id="Nn1v"><strong>.pt / .pth</strong> (PyTorch), .h5 (Keras), .onnx</p>
  <p id="HkHw">Если модель &lt; 512 МБ, грузится без проблем.</p>
  <h4 id="k32d">Что чаще всего <strong>блокируется или удаляется</strong></h4>
  <ul id="nzE1">
    <li id="21Fl">Исполняемые бинарники: <strong>.exe, .dll, .so, .a, .out</strong>.</li>
    <li id="d0T2">Сценарии со встроенным бинарным содержимым (упакованные malware).</li>
    <li id="Qfgi">Файлы с известными сигнатурами вредоносного ПО.</li>
  </ul>
  <h4 id="ixOl">Лайфхаки при работе с форматами</h4>
  <ol id="ZsbU">
    <li id="v42t"><strong>Большие Excel-файлы → Parquet</strong></li>
  </ol>
  <pre id="VnEx">import pandas as pd
df = pd.read_excel(&#x27;huge.xlsx&#x27;, sheet_name=None)  # все листы
for name, sheet in df.items():
    sheet.to_parquet(f&#x27;/mnt/data/{name}.parquet&#x27;, compression=&#x27;zstd&#x27;)
</pre>
  <p id="v8iT"><strong>Конвертация «тяжёлых» изображений в WebP</strong></p>
  <p id="9wRS">Снижает размер ×3–4, оставаясь внутри лимита 20 МБ:</p>
  <pre id="fESZ">from PIL import Image
img = Image.open(&#x27;photo.png&#x27;)
img.save(&#x27;/mnt/data/photo.webp&#x27;, &#x27;webp&#x27;, quality=85)
</pre>
  <p id="R9Cd"><strong>Объединяйте много мелких JSON → JSONL + gzip</strong><br /> 1 файл легче передавать и он лучше переживает лимит на количество upload-операций.</p>
  <blockquote id="8NmE"><strong>TL;DR:</strong> практически любые данные, которые <strong>не являются исполняемым кодом</strong>, можно держать в <code>/mnt/data</code>. Главное — вписаться в лимиты 512 МБ на файл, 1 ГБ RAM и 20 МБ для картинок.</blockquote>
  <p id="xFAe"> </p>
  <section style="background-color:hsl(hsl(55,  86%, var(--autocolor-background-lightness, 95%)), 85%, 85%);">
    <p id="Rw1E">Подборка предназначена для моего сообщества <a href="https://t.me/ainovasapiens" target="_blank">https://t.me/ainovasapiens</a></p>
  </section>

]]></content:encoded></item><item><guid isPermaLink="true">https://teletype.in/@foxhunterx/eHCKESkYGU_</guid><link>https://teletype.in/@foxhunterx/eHCKESkYGU_?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=foxhunterx</link><comments>https://teletype.in/@foxhunterx/eHCKESkYGU_?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=foxhunterx#comments</comments><dc:creator>foxhunterx</dc:creator><title>Промпт-техника &quot;Язык Мысли&quot;(Language of Thoughts, LoT)</title><pubDate>Wed, 02 Jul 2025 19:44:58 GMT</pubDate><description><![CDATA[Само исследование https://arxiv.org/pdf/2505.12896]]></description><content:encoded><![CDATA[
  <p id="pKJC">Само исследование <a href="https://arxiv.org/pdf/2505.12896" target="_blank">https://arxiv.org/pdf/2505.12896</a> </p>
  <section style="background-color:hsl(hsl(55,  86%, var(--autocolor-background-lightness, 95%)), 85%, 85%);">
    <p id="9TnY">🧠 Контент предназначен специально для моего сообщества в телеграме <a href="https://t.me/ainovasapiens" target="_blank">@aiNovaSapiens</a></p>
  </section>
  <h2 id="t06c">1. Ключевые аспекты исследования:</h2>
  <p id="RL8T">Исследование показывает, что большие языковые модели часто ошибаются не потому, что им не хватает знаний, а потому, что они &quot;теряются&quot; в предоставленном контексте. Авторы выделяют две ключевые проблемы: информация может быть сформулирована запутанно (локальная неявность) или &quot;похоронена&quot; среди нерелевантных деталей (контекстная неявность). Для решения этой проблемы предложена промпт-техника &quot;Язык Мысли&quot; (Language of Thoughts, LoT), которая заставляет модель сначала найти, перефразировать и перечислить все ключевые факты, и только потом давать финальный ответ.</p>
  <p id="M6GY"><strong>Ключевой результат:</strong> Заставляя модель сначала &quot;разложить все по полочкам&quot; с помощью команд <code>expand</code> (расширь/переформулируй) и <code>echo</code> (повтори/перечисли), можно значительно повысить точность ее рассуждений и снизить влияние когнитивных искажений.</p>
  <h2 id="au9K">2. Объяснение всей сути метода:</h2>
  <p id="6kJS">Суть метода &quot;Language of Thoughts&quot; (LoT) заключается в том, чтобы перед решением основной задачи заставить LLM провести предварительную подготовку информации. Вместо того чтобы сразу бросаться &quot;в бой&quot;, модель сначала выполняет два действия, которые имитируют человеческий процесс осмысления:</p>
  <ol id="LLNU">
    <li id="i0tz"><strong>Борьба с запутанными формулировками (L-implicitness):</strong> Используется инструкция <code>expand</code> (расширь, раскрой, переформулируй). Она заставляет модель взять ключевую, но, возможно, сложно изложенную информацию и объяснить ее своими словами, сделать ее более явной. Например, вместо того чтобы просто принять факт &quot;проект не соответствует ожиданиям&quot;, модель должна его &quot;раскрыть&quot;: &quot;Это означает, что сроки сорваны, бюджет превышен, а функционал реализован не полностью&quot;.</li>
    <li id="wISa"><strong>Борьба с информационным шумом (Q-implicitness):</strong> Используется инструкция <code>echo</code> (повтори, перечисли, выдели). Она заставляет модель просканировать весь контекст, отфильтровать нерелевантную информацию и четко перечислить только те факты, которые имеют прямое отношение к вопросу. Это как выписать ключевые данные из длинного текста на отдельный листок, чтобы ничего не упустить.</li>
  </ol>
  <p id="r8sz"><strong>Методика на практике:</strong> В свой промпт, перед основной задачей, вы добавляете инструкцию, которая запускает этот двухэтапный процесс. Например: <code>&quot;Прежде чем ответить на вопрос, давай сначала понаблюдаем, раскроем и перечислим всю релевантную информацию из текста. Затем, основываясь на этих выделенных фактах, дай пошаговый ответ.&quot;</code></p>
  <p id="3VGO">Этот подход заставляет модель создать для себя &quot;шпаргалку&quot; из ясных и отфильтрованных фактов, что резко снижает вероятность ошибок из-за невнимательности или неверной интерпретации.</p>
  <h2 id="w5bG">---</h2>
  <h2 id="1zql">3. Анализ практической применимости:</h2>
  <p id="Pw4n">*Прямая применимость:Максимальная. Пользователь может взять готовую конструкциюPlease observe, expand, and echo all the relevant information(или ее русский аналог:Пожалуйста, изучи, раскрой и перечисли всю релевантную информацию) и вставить ее в свой промпт. Это работает &quot;из коробки&quot; и не требует никаких технических навыков. Метод особенно полезен, когда нужно проанализировать большой или запутанный текст.</p>
  <ul id="UwB8">
    <li id="vAjz"><strong>Концептуальная ценность:</strong> Очень высокая. Исследование дает пользователю мощную ментальную модель для отладки промптов. Если LLM дает неверный ответ на основе предоставленного текста, пользователь может задать себе два вопроса:</li>
    <ol id="N34M">
      <li id="UN2f"><em>Может, модель не нашла нужный факт в &quot;стене текста&quot;?</em> → Нужно усилить <code>echo</code>-компонент (&quot;Сначала выпиши все факты, связанные с [тема]&quot;).</li>
      <li id="Jrln"><em>Может, модель неверно поняла сложную формулировку?</em> → Нужно усилить <code>expand</code>-компонент (&quot;Объясни простыми словами, что означает [сложная фраза]&quot;).</li>
    </ol>
    <li id="EApH"><strong>Потенциал для адаптации:</strong> Огромный. Не обязательно использовать точные слова <code>expand</code> и <code>echo</code>. Механизм можно адаптировать под любую задачу:</li>
    <ul id="lSc6">
      <li id="Ofax"><strong>Для анализа отзывов:</strong> &quot;Сначала выдели из каждого отзыва ключевые жалобы и похвалы. Перечисли их списком. Затем...&quot;</li>
      <li id="JW3V"><strong>Для планирования:</strong> &quot;Из этого диалога выпиши ограничения каждого участника (бюджет, даты, интересы). Сгруппируй их. Затем...&quot;</li>
      <li id="Bb2c"><strong>Для юридического анализа:</strong> &quot;Сначала извлеки из договора все пункты, касающиеся ответственности сторон. Перечисли их дословно. Затем...&quot;</li>
    </ul>
  </ul>
  <hr />
  <h2 id="w2mE">4. Практически пример применения:</h2>
  <pre id="IktL">Ты — опытный маркетолог, анализирующий отзывы клиентов. Твоя задача — составить краткую сводку по проблемам и позитивным моментам на основе отзыва клиента.
**[Контекст: Отзыв клиента]**
&quot;В целом, ваш новый сервис неплох. Зарегистрировался быстро, интерфейс понятный. Но ждал доставку почти две недели, хотя обещали 3 дня, курьер так и не позвонил заранее. Пытался написать в поддержку, отвечали роботы какими-то шаблонными фразами, живого человека так и не дождался. Сама вещь качественная, тут претензий нет, но цена, конечно, кусается. Не уверен, что буду заказывать снова из-за всего этого опыта с доставкой и поддержкой.&quot;

**[Задание]**
Проанализируй отзыв и подготовь структурированную сводку для отдела продукта.

**ВАЖНО:** Прежде чем дать финальный ответ, выполни следующие шаги:
1.  **Раскрой (Expand):** Возьми каждую нечеткую фразу из отзыва (например, &quot;неплох&quot;, &quot;цена кусается&quot;, &quot;опыт с доставкой&quot;) и кратко раскрой ее значение на основе контекста.
2.  **Перечисли (Echo):** Четко выдели и перечисли списком все конкретные положительные и отрицательные моменты, упомянутые в отзыве.

И только после этого, на основе выделенных фактов, сформируй итоговую сводку.</pre>
  <h2 id="j71G">5. Почему это работает:</h2>
  <p id="G4Mr">Этот промпт работает за счет принудительной декомпозиции и фокусировки, которые лежат в основе метода LoT.</p>
  <ol id="BkA5">
    <li id="4rmD"><strong>Механика <code>Expand</code> (Раскрой):</strong> Инструкция &quot;Раскрой нечеткую фразу&quot; заставляет модель бороться с <strong>L-implicitness</strong>. Вместо того чтобы проигнорировать фразу &quot;цена кусается&quot;, модель вынуждена ее конкретизировать: &quot;Клиент считает цену высокой, что является барьером для повторной покупки&quot;. Это превращает расплывчатое мнение в конкретный бизнес-инсайт.</li>
    <li id="V8QM"><strong>Механика <code>Echo</code> (Перечисли):</strong> Инструкция &quot;Перечисли... положительные и отрицательные моменты&quot; заставляет модель бороться с <strong>Q-implicitness</strong>. Она не может просто выдать общую оценку, а вынуждена активно искать и извлекать отдельные факты из всего текста:</li>
    <ul id="v6Hd">
      <li id="OA5x">(+) Быстрая регистрация</li>
      <li id="SZTY">(+) Понятный интерфейс</li>
      <li id="GrH6">(+) Качественный товар</li>
      <li id="xUXS">(-) Долгая доставка (2 недели вместо 3 дней)</li>
      <li id="vw5g">(-) Курьер не предупредил о визите</li>
      <li id="0mz1">(-) Плохая работа поддержки (шаблонные ответы роботов)</li>
      <li id="O7Jo">(-) Высокая цена</li>
    </ul>
  </ol>
  <p id="jbWL">Создав этот промежуточный, структурированный список, модель получает надежную основу для финальной сводки, минимизируя риск упустить важные детали или неверно их интерпретировать.</p>
  <hr />
  <h2 id="KqiD">6. Другой пример практического применения</h2>
  <pre id="LaOc">Ты — ассистент, который помогает составить план поездки на выходные для компании друзей на основе их переписки.
**[Контекст: Переписка в чате]**
- **Анна:** &quot;Ребята, давайте куда-нибудь поедем на выходных! Я свободна в субботу и воскресенье. Бюджет у меня до 5000 рублей на все.&quot;
- **Виктор:** &quot;Я за! Но в субботу до 15:00 я занят на курсах. И я не очень люблю музеи, лучше что-то активное на природе.&quot;
- **Ольга:** &quot;Отличная идея! Я на машине, могу всех забрать. Главное, чтобы мы вернулись в город в воскресенье не позже 20:00, у меня в 21:00 поезд. По еде — я вегетарианка.&quot;

**[Задание]**
Предложи 1-2 варианта плана для поездки, которые учитывают все ограничения и пожелания.

**ИНСТРУКЦИЯ:** Прежде чем предлагать планы, выполни подготовительную работу:
1.  **Извлеки и перечисли (Echo):** Выпиши в виде списка все ключевые ограничения и пожелания КАЖДОГО участника (Анна, Виктор, Ольга). Сгруппируй их по именам.
2.  **Раскрой (Expand):** Кратко поясни, как каждое ограничение влияет на возможный план. Например, &quot;Занятость Виктора до 15:00 в субботу означает, что выезжать из города нужно во второй половине дня субботы&quot;.

После этого анализа предложи итоговые варианты плана.</pre>
  <h2 id="e9Bv">7. Объяснение механизма почему этот пример работает.</h2>
  <p id="bYwl">Этот промпт эффективно решает сложную задачу планирования с множеством ограничений благодаря применению принципов LoT.</p>
  <ol id="wgUz">
    <li id="viH2"><strong>Механика <code>Echo</code> (Извлеки и перечисли):</strong> Переписка друзей — это классический пример <strong>Q-implicitness</strong>. Важные факты (бюджет, время, предпочтения) разбросаны по разным сообщениям и перемешаны с &quot;шумом&quot; (&quot;Ребята, давайте поедем!&quot;). Инструкция &quot;выпиши ограничения каждого участника&quot; заставляет модель провести инвентаризацию всех условий:</li>
    <ul id="polk">
      <li id="8zec"><strong>Анна:</strong> доступна Сб+Вс, бюджет &lt; 5000 руб.</li>
      <li id="bAkb"><strong>Виктор:</strong> свободен с 15:00 Сб, хочет активный отдых, не любит музеи.</li>
      <li id="279D"><strong>Ольга:</strong> на машине, нужно вернуться в Вс до 20:00, вегетарианка. Этот шаг превращает хаотичную переписку в структурированную таблицу требований.</li>
    </ul>
    <li id="sBWh"><strong>Механика <code>Expand</code> (Раскрой и поясни):</strong> Этот шаг помогает модели осмыслить последствия каждого ограничения. Это борется с потенциальной <strong>L-implicitness</strong>, когда простое условие &quot;занят до 15:00&quot; может быть неверно учтено. Проговаривая &quot;это означает, что выезжать нужно после 15:00&quot;, модель сама себе создает четкое правило для планирования. То же самое с условием Ольги: &quot;вегетарианство означает, что нужно либо искать места с соответствующим меню, либо планировать закупку продуктов&quot;.</li>
  </ol>
  <h3 id="2eYI">В результате, когда модель приступает к созданию плана, она оперирует не сырой перепиской, а четким, осмысленным списком требований, что практически гарантирует релевантный и выполнимый результат.</h3>
  <h1 id="AX8z">Оценка полезности: 100</h1>
  <h2 id="ArcM">Основные критерии оценки</h2>
  <ul id="24Ct">
    <li id="dxbr"><strong>A. Релевантность техникам промтинга:</strong> Да, исследование предлагает конкретную технику &quot;Language of Thoughts&quot; (LoT) с готовыми фразами-инструкциями (<code>observe, expand, and echo</code>).</li>
    <li id="Q5YT"><strong>B. Улучшение качества диалоговых ответов:</strong> Да, исследование демонстрирует значительное улучшение точности и снижение предвзятости на 11 различных бенчмарках, включая задачи на здравый смысл и логику.</li>
    <li id="ocz5"><strong>C. Прямая практическая применимость:</strong> Абсолютно. Метод не требует кода или специальных инструментов. Пользователь может немедленно вставить предложенные фразы в свои промпты в любом чат-боте.</li>
    <li id="tzW8"><strong>D. Концептуальная ценность:</strong> Очень высокая. Работа вводит простую и мощную ментальную модель двух типов &quot;неявности&quot; информации (L-implicitness и Q-implicitness), которая помогает пользователю понять, <em>почему</em> его промпты могут не работать, и как это исправить.</li>
    <li id="4AjC"><strong>E. Новая полезная практика (Кластеры):</strong></li>
    <ul id="Tnv5">
      <li id="mJWc"><strong>Кластер 1 (Техники):</strong> Да, LoT — это новая техника, похожая на Chain-of-Thought.</li>
      <li id="qLv2"><strong>Кластер 2 (Поведенческие закономерности):</strong> Да, раскрывает, как LLM &quot;отвлекается&quot; на нерелевантный контекст или &quot;путается&quot; в сложных формулировках.</li>
      <li id="zOpA"><strong>Кластер 7 (Надежность и стабильность):</strong> Да, основная цель — снизить количество ошибок и предвзятых ответов.</li>
    </ul>
    <li id="Mpec"><strong>Чек-лист практичности (+15 баллов):</strong> Даны готовые фразы, показано, как структурировать сложные запросы, раскрыты неочевидные особенности поведения LLM и предложены способы улучшить точность. Бонус в 15 баллов применен.</li>
  </ul>
  <h2 id="VCPz">Цифровая оценка полезности</h2>
  <p id="Hxqs">Исследование получает максимальный балл, так как представляет собой идеальный пример практической научной работы для промпт-инженеров. Оно не только предлагает готовую к использованию и эффективную технику, но и дает глубокое концептуальное понимание того, как и почему LLM совершают ошибки.</p>
  <p id="xWBC"><strong>Аргументы за оценку:</strong> 1. <strong>Прямое действие:</strong> Техника LoT — это готовый инструмент. Фразы &quot;observe, expand, and echo&quot; можно скопировать и сразу получить результат. 2. <strong>Диагностическая ценность:</strong> Концепции L- и Q-неявности позволяют пользователю не просто пробовать разные промпты вслепую, а диагностировать проблему: &quot;Модель не видит важную информацию в тексте?&quot; (Q-implicitness) или &quot;Модель неправильно поняла сложную формулировку?&quot; (L-implicitness). 3. <strong>Широкая применимость:</strong> Эффективность доказана на множестве моделей (GPT-4o, Llama 3, Qwen2) и задач (логика, здравый смысл, анализ текста), что говорит об универсальности подхода.</p>
  <p id="gDQF"><strong>Контраргументы (почему оценка могла бы быть ниже):</strong> 1. <strong>Сложность для новичков:</strong> Сама научная статья написана сложным академическим языком. Без подобного разбора обычному пользователю было бы трудно извлечь из нее суть. 2. <strong>Увеличение стоимости:</strong> Применение техник <code>expand</code> и <code>echo</code> заставляет модель генерировать больше текста на промежуточном этапе, что может увеличить расход токенов и стоимость запросов через API. 3. <strong>Ограничения для слабых моделей:</strong> Авторы сами отмечают, что маленькие модели или модели с плохим следованием инструкциям могут не справиться с выполнением промпта LoT, что несколько снижает его универсальность.</p>
  <p id="O7VK"></p>
  <h2 id="J7P9">Узнайте больше о научно-практических выводах в промпт-инжиниринге</h2>
  <section>
    <p id="0vJh"><strong>Свободный доступ</strong><br />1. Архив со статьями, построенных на исследованиях <a href="https://drive.google.com/file/d/1v2tDUwmqIVa4QT74Qie9vVrxLQX0trCE/view?usp=sharing" target="_blank">https://drive.google.com/file/d/1v2tDUwmqIVa4QT74Qie9vVrxLQX0trCE/view?usp=sharing</a></p>
    <p id="IAnk">2. Книга с 1/4 исследований с краткими выводами по методам промпт-инижиниринга:<br /><a href="https://drive.google.com/file/d/1UdWJ3eb-cr2sp0EJP-q58o__KUlrlFf8/view?usp=sharing" target="_blank">https://drive.google.com/file/d/1UdWJ3eb-cr2sp0EJP-q58o__KUlrlFf8/view?usp=sharing</a></p>
    <p id="y3uK">3. Доступ к боту-консультанту по этой базе исследований:<br /><a href="https://t.me/NovaPromptResearch_bot" target="_blank">https://t.me/NovaPromptResearch_bot</a><br />Задавайте боту вопросы, касающиеся исследований.<br />Бот находится в beta-фазе. Баги по боту отправляйте в эту ветку <a href="https://t.me/novasapiens_chat/296" target="_blank">https://t.me/novasapiens_chat/296</a></p>
  </section>
  <p id="JEAk"><strong>Полный доступ</strong> ко всем практическим методам из свежих исследований <a href="https://t.me/novasapiens_bot?start=getpro" target="_blank">https://t.me/novasapiens_bot?start=getpro</a> </p>

]]></content:encoded></item><item><guid isPermaLink="true">https://teletype.in/@foxhunterx/GslhALUOuPs</guid><link>https://teletype.in/@foxhunterx/GslhALUOuPs?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=foxhunterx</link><comments>https://teletype.in/@foxhunterx/GslhALUOuPs?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=foxhunterx#comments</comments><dc:creator>foxhunterx</dc:creator><title>Промпт — это программа, а ты — её архитектор</title><pubDate>Thu, 12 Jun 2025 07:32:54 GMT</pubDate><description><![CDATA[Исследование: What Should We Engineer in Prompts Training Humans in Requirement DrivenLLMUse (Что нам следует разработать в подсказках для обучения людей использованию LLM, ориентированному на требования?)]]></description><content:encoded><![CDATA[
  <p id="UV0q">Исследование: What Should We Engineer in Prompts Training Humans in Requirement DrivenLLMUse (Что нам следует разработать в подсказках для обучения людей использованию LLM, ориентированному на требования?)</p>
  <p id="6gmQ"><strong>Источник </strong><a href="https://arxiv.org/pdf/2409.08775" target="_blank">https://arxiv.org/pdf/2409.08775</a> (3 Sep 2024, last revised 28 Apr 2025)</p>
  <p id="ukGg"><strong>Исследователи</strong>: Qianou Ma, Weirui Peng, Chenyang Yang, Hua Shen, Kenneth Koedinger, Tongshuang Wu</p>
  <h2 id="XIsx">1. Ключевые аспекты исследования:</h2>
  <p id="r4DB">Исследование вводит и доказывает эффективность подходаROPE (Requirement-Oriented Prompt Engineering)— промпт-инжиниринг, ориентированный на требования. Суть в том, чтобы для сложных задач пользователь формулировал промпт не как обычный вопрос, а как подробное техническое задание (ТЗ), явно перечисляя все условия, шаги, ограничения и желаемый формат вывода. Эксперименты показали, что обучение пользователей этому методу значительно повышает качество и надежность ответов LLM по сравнению с традиционными техниками промптинга.</p>
  <p id="2VWg"><strong>Ключевой результат:</strong> Четкое и полное формулирование требований в промпте — самый важный фактор для получения качественного результата от LLM в сложных задачах, и этому навыку можно эффективно обучить пользователей.</p>
  <h2 id="uu83">---</h2>
  <h2 id="5k7e">2. Объяснение всей сути метода:</h2>
  <p id="DeeR">Суть метода ROPE заключается в смене парадигмы: вместо того чтобы относиться к LLM как к всезнающему собеседнику, нужно относиться к ней как к очень исполнительному, но абсолютно безынициативному и буквальному стажеру-программисту. Такому стажеру нельзя сказать &quot;сделай красиво&quot;, ему нужно выдать четкое и подробное техническое задание.</p>
  <p id="y3OR">Практически это означает, что перед написанием сложного промпта нужно мысленно (или на бумаге) ответить на следующие вопросы, а затем включить ответы в текст промпта:</p>
  <ol id="Whf6">
    <li id="0VqT"><strong>Главная цель (Objective):</strong> Что в конечном итоге должно быть сделано? Каков идеальный конечный продукт?</li>
    <li id="IxSd"><strong>Пошаговый процесс (Steps/Process):</strong> Как именно LLM должна прийти к результату? Разбейте задачу на логические шаги. Например: &quot;Сначала задай мне 5 уточняющих вопросов. Затем, на основе моих ответов, проанализируй...&quot;.</li>
    <li id="x8ei"><strong>Условия и логика (Conditionals):</strong> Что делать, если...? Например: &quot;Если я отвечаю расплывчато (например, &#x27;недорого&#x27;), уточни, что я имею в виду (например, &#x27;какой бюджет на человека?&#x27;). Если я не предоставляю информацию после двух уточняющих вопросов, работай с тем, что есть&quot;.</li>
    <li id="lkiw"><strong>Требования к формату (Formatting):</strong> Как должен выглядеть ответ? В виде таблицы, маркированного списка, JSON? Должен ли быть заголовок? Какая структура у текста? Например: &quot;Ответ оформи в виде таблицы с колонками: &#x27;Проблема&#x27;, &#x27;Решение&#x27;, &#x27;Срок&#x27;&quot;.</li>
    <li id="jgql"><strong>Ограничения и запреты (Constraints):</strong> Чего делать НЕ нужно? Какие темы или слова избегать? Например: &quot;Не предлагай экзотические ингредиенты. Не используй в ответе жаргонизмы. Длина ответа не более 300 слов&quot;.</li>
  </ol>
  <p id="ang8">Этот подход превращает промптинг из искусства угадывания в инженерную дисциплину, где пользователь управляет процессом, а не надеется на удачу.</p>
  <h2 id="o2G3">---</h2>
  <h2 id="1Bxg">3. Анализ практической применимости:</h2>
  <p id="1zsV">*Прямая применимость:Максимальная. Пользователь может взять структуру &quot;Цель - Процесс - Условия - Формат - Ограничения&quot; и сразу же начать писать по ней промпты в любом чат-боте. Это не требует никаких технических навыков, только смены подхода к формулировке задачи. Это прямой апгрейд для любого, кто пишет промпты длиннее одного предложения.</p>
  <ul id="45IX">
    <li id="XhcX"><strong>Концептуальная ценность:</strong> Огромная. Исследование дает пользователю ключевую идею: <strong>&quot;Промпт — это программа, а ты — её архитектор&quot;</strong>. Это понимание объясняет 90% неудач при работе с LLM. Когда модель выдает ерунду, пользователь, знакомый с ROPE, не думает &quot;LLM глупая&quot;, а думает &quot;В моем ТЗ (промпте) не хватает требований или есть двусмысленность&quot;. Это меняет всё.</li>
    <li id="A08S"><strong>Потенциал для адаптации:</strong> Метод универсален и не требует адаптации. Он является фреймворком (каркасом), на который можно &quot;надеть&quot; любую задачу. Чтобы адаптировать его для себя, пользователю достаточно перед написанием запроса потратить 30 секунд на обдумывание задачи по пяти пунктам, перечисленным выше. Это превращает хаотичное написание промпта в структурированный и осознанный процесс.</li>
  </ul>
  <h2 id="kjbs">4. Практически пример применения:</h2>
  <pre id="S8LU"># Роль:

Выступи в роли опытного диетолога-планировщика.

# Главная цель:

Создать для меня персонализированный план питания на одну неделю (7 дней), который поможет мне сбросить вес без вреда для здоровья и будет простым в приготовлении.

# Требования к процессу (Пошаговая инструкция):

1. **Сбор информации:** Прежде чем составлять план, задай мне следующие вопросы ОДНИМ сообщением:- Мой пол, возраст, вес и рост.
- Мой уровень физической активности (сидячий, легкий, средний, высокий).
- Есть ли у меня пищевые аллергии или продукты, которые я категорически не ем?
- Сколько времени я готов тратить на приготовление ужина (в минутах)?
2. **Уточнение:** Если я назову продукт, который ты считаешь нежелательным для похудения (например, &quot;люблю торты&quot;), не исключай его полностью, а вежливо предложи здоровую альтернативу или вариант, как вписать его в план в ограниченном количестве.
3. **Генерация плана:** После получения моих ответов, создай план питания.

# Требования к формату вывода:

- План должен быть оформлен в виде Markdown-таблицы.
- Колонки таблицы: &quot;День недели&quot;, &quot;Завтрак&quot;, &quot;Обед&quot;, &quot;Ужин&quot;, &quot;Перекус&quot;, &quot;Примерная калорийность дня&quot;.
- Для каждого блюда в скобках укажи примерное время приготовления.
- После таблицы отдельным абзацем дай 3 общих совета по питьевому режиму и контролю порций.

# Ограничения и запреты:

- Не предлагай блюда со сложными или редкими ингредиентами (например, семена чиа, киноа, авокадо). Используй простые продукты, которые можно купить в обычном супермаркете.
- Общая калорийность дня не должна превышать рассчитанную тобой норму более чем на 5%.

# Триггер к действию:

Начинай. Задай мне вопросы из пункта 1 твоей инструкции.</pre>
  <h2 id="NY4k">5. Почему это работает:</h2>
  <p id="8O3L">Этот промпт эффективен, потому что он полностью реализует принципы ROPE, превращая LLM из &quot;советчика&quot; в &quot;исполнителя программы&quot;:</p>
  <ul id="T6kR">
    <li id="p2SW"><strong>Декомпозиция задачи:</strong> Промпт не просто просит &quot;сделай план&quot;, а четко разделяет процесс на три шага: сбор данных, уточнение, генерация. Это направляет LLM и предотвращает преждевременные, нерелевантные ответы.</li>
    <li id="s7WR"><strong>Явные требования к данным:</strong> Вместо того чтобы ждать, пока LLM догадается, какая информация нужна, промпт явно указывает, что нужно спросить. Это гарантирует получение персонализированного, а не общего результата.</li>
    <li id="hTU3"><strong>Условная логика:</strong> Требование №2 (&quot;Уточнение&quot;) — это инструкция <code>IF ... THEN ...</code>, которая управляет поведением модели в предсказуемой ситуации (когда пользователь просит что-то &quot;вредное&quot;). Это повышает качество диалога.</li>
    <li id="2I4N"><strong>Жесткий формат вывода:</strong> Требование о Markdown-таблице с конкретными колонками заставляет LLM структурировать информацию удобным для пользователя образом, а не выдавать ее сплошным текстом.</li>
    <li id="Urg8"><strong>Четкие ограничения:</strong> Запрет на редкие ингредиенты — это ключевое требование, которое делает план практически применимым для обычного человека, а не для гурмана. Это устраняет одну из самых частых проблем с советами от LLM.</li>
  </ul>
  <h2 id="0ETg">6. Другой пример практического применения</h2>
  <pre id="9XRv"># Роль:

Ты — креативный продюсер и эксперт по развитию YouTube-каналов.

# Главная цель:

Сгенерировать 5 уникальных и проработанных идей для видео на мой YouTube-канал.

# Входные данные (Контекст):

- **Тема канала:** Научно-популярные объяснения сложных явлений простыми словами (физика, биология, технологии).
- **Целевая аудитория:** Любознательные взрослые без специального образования.
- **Формат видео:** 10-15 минут, с анимацией и графикой, ведущий в кадре.
- **Последние 3 видео:** &quot;Что такое темная материя?&quot;, &quot;Как работает GPS?&quot;, &quot;Почему кошки мурлычут?&quot;.

# Требования к процессу генерации:

1. Проанализируй предоставленный контекст.
2. Проведи мозговой штурм и сгенерируй 15-20 рабочих названий для видео, которые соответствуют теме и формату канала.
3. Отфильтруй список до 5 лучших идей по следующим критериям: высокий потенциал интереса у широкой аудитории, возможность наглядно объяснить с помощью анимации, оригинальность (не является копией популярных видео на эту тему).
4. Для каждой из 5 идей проработай детали.

# Требования к структуре и формату ответа:

Представь результат в виде нумерованного списка. Для каждой из 5 идей укажи следующую информацию по пунктам:
- **Название видео:** Кликбейтное, но не вводящее в заблуждение.
- **Ключевой вопрос:** Основной вопрос, на который отвечает видео (1 предложение).
- **Краткий синопсис:** 3-4 предложения о содержании видео.
- **Идея для визуализации:** Пример ключевой анимации, которая поможет объяснить сложную концепцию (например, &quot;анимация, показывающая, как сигналы от спутников триангулируют ваше местоположение&quot;).

# Ограничения:

- Не предлагай темы, которые требуют глубоких знаний математики для понимания.
- Избегай слишком узкоспециализированных тем (например, &quot;квантовая хромодинамика&quot;).</pre>
  <p id="WCkZ">ВА</p>
  <h2 id="MgGf">7. Объяснение механизма почему этот пример работает.</h2>
  <p id="IRKO">Этот промпт превращает творческую задачу &quot;придумай идеи&quot; в структурированный аналитический процесс, что идеально подходит для LLM:</p>
  <ul id="beo8">
    <li id="X4ro"><strong>Контекст как требование:</strong> Предоставление подробного контекста (тема, аудитория, формат) — это уже набор неявных требований. LLM обязана их учесть.</li>
    <li id="gVqr"><strong>Прозрачный процесс мышления:</strong> Промпт не просто просит результат, он предписывает LLM <em>как думать</em>: сначала сгенерировать много (&quot;мозговой штурм&quot;), а потом отфильтровать по четким критериям. Это имитация работы реального креативного продюсера и залог качественного результата.</li>
    <li id="6dqP"><strong>Многокритериальная фильтрация:</strong> Требования к фильтрации (интерес, наглядность, оригинальность) заставляют модель оценивать свои же идеи, а не просто выдавать первое, что пришло в голову.</li>
    <li id="CJws"><strong>Глубокая проработка:</strong> Вместо голых названий, промпт требует детальную проработку (синопсис, идея для визуала). Это требование заставляет LLM думать над реализацией идеи, что делает ее более ценной и практически применимой для пользователя.</li>
    <li id="46jY"><strong>Ограничения как защита:</strong> Запрет на сложные математические и узкие темы защищает пользователя от получения идей, которые не соответствуют его каналу и будут непонятны его аудитории. Это повышает релевантность вывода.</li>
  </ul>
  <hr />
  <h1 id="1Jog">Основные критерии оценки</h1>
  <ul id="j1md">
    <li id="Bvsp"><strong>A. Релевантность техникам промтинга:</strong> Да, исследование вводит целую парадигму (ROPE) и наглядно демонстрирует, как структурирование промпта в виде набора требований кардинально улучшает результат.</li>
    <li id="Rn1T"><strong>B. Улучшение качества диалоговых ответов:</strong> Да, это основная цель и измеряемый результат исследования. Качество ответов напрямую коррелирует с качеством сформулированных требований.</li>
    <li id="FjHX"><strong>C. Прямая практическая применимость:</strong> Да, метод не требует кода или специальных инструментов. Любой пользователь может немедленно начать применять этот подход, изменив способ формулирования своих запросов в обычном чате.</li>
    <li id="EPoC"><strong>D. Концептуальная ценность:</strong> Очень высокая. Исследование предлагает мощную &quot;ментальную модель&quot; для пользователя: рассматривать сложный промпт не как вопрос, а как <strong>программу или техническое задание (ТЗ)</strong>. Это объясняет, почему короткие и неоднозначные запросы проваливаются, а детальные и структурированные — работают.</li>
    <li id="srS2"><strong>E. Новая полезная практика (кластеризация):</strong> Работа попадает сразу в несколько ключевых кластеров:</li>
    <ul id="Ekko">
      <li id="Hryh"><strong>1. Техники формулирования промптов:</strong> Предлагает фундаментальный подход к декомпозиции и спецификации задачи.</li>
      <li id="F7Sr"><strong>3. Оптимизация структуры промптов:</strong> Наглядно показывает (Fig. 2), как структурированный промпт с заголовками и списками превосходит &quot;человеческий&quot; вариант.</li>
      <li id="jQDK"><strong>7. Надежность и стабильность:</strong> Основная цель метода — снизить непредсказуемость LLM и получать стабильно качественный результат за счет четких требований.</li>
    </ul>
    <li id="6dUM"><strong>Чек-лист практичности (+15 баллов):</strong> Да, работа дает готовые конструкции, показывает как структурировать сложные запросы и раскрывает, что LLM лучше работает, когда ему дают четкое ТЗ, а не загадку.</li>
  </ul>
  <h2 id="uLTa">Оценка полезности</h2>
  <p id="hwoU">Оценка <strong>96</strong> дана, потому что исследование предлагает не просто отдельный трюк, а фундаментальный сдвиг в подходе к промптингу, который универсален и немедленно применим. Это одна из самых полезных концепций для любого пользователя, который хочет перейти от простых вопросов к решению сложных, многоэтапных задач с помощью LLM.</p>
  <p id="Hfwb"><strong>Аргументы в пользу оценки:</strong></p>
  <p id="Wqrl">* <strong>Революционная простота:</strong> Идея &quot;пиши промпт как ТЗ для программиста&quot; интуитивно понятна и не требует технических знаний для реализации.</p>
  <p id="Dpw7">* <strong>Высокая универсальность:</strong> Подход применим к любой задаче (от планирования отпуска до создания маркетинговой стратегии) и любой LLM.</p>
  <p id="7zm8">* <strong>Объяснительная сила:</strong> Концепция &quot;требований&quot; идеально объясняет, почему LLM иногда &quot;тупит&quot; или &quot;фантазирует&quot; — ему просто не хватило четких инструкций, условий и ограничений.</p>
  <p id="sviH"><strong>Контраргументы (почему оценка могла быть ниже):</strong></p>
  <p id="f3Qt">* <strong>Академический язык:</strong> Само исследование написано научным языком (термины &quot;требования инженерии&quot;, &quot;комиссионные и омиссионные ошибки&quot;), что может отпугнуть обычного пользователя. Однако ключевая идея легко извлекается и переводится на простой язык.</p>
  <p id="yxV4">* <strong>Фокус на обучении:</strong> Статья описывает систему для <em>обучения</em> этому методу, а не просто сам метод. Пользователь не может воспользоваться их тренажером, но может немедленно применить сам принцип, который является ядром исследования.</p>
  <p id="66YS"></p>
  <h2 id="J7P9">Узнайте больше о научно-практических выводах в промпт-инжиниринге</h2>
  <section>
    <p id="0vJh"><strong>Свободный доступ</strong><br />1. Архив со статьями, построенных на исследованиях <a href="https://drive.google.com/file/d/1v2tDUwmqIVa4QT74Qie9vVrxLQX0trCE/view?usp=sharing" target="_blank">https://drive.google.com/file/d/1v2tDUwmqIVa4QT74Qie9vVrxLQX0trCE/view?usp=sharing</a></p>
    <p id="IAnk">2. Книга с 1/4 исследований с краткими выводами по методам промпт-инижиниринга:<br /><a href="https://drive.google.com/file/d/1UdWJ3eb-cr2sp0EJP-q58o__KUlrlFf8/view?usp=sharing" target="_blank">https://drive.google.com/file/d/1UdWJ3eb-cr2sp0EJP-q58o__KUlrlFf8/view?usp=sharing</a></p>
    <p id="y3uK">3. Доступ к боту-консультанту по этой базе исследований:<br /><a href="https://t.me/NovaPromptResearch_bot" target="_blank">https://t.me/NovaPromptResearch_bot</a><br />Задавайте боту вопросы, касающиеся исследований.<br />Бот находится в beta-фазе. Баги по боту отправляйте в эту ветку <a href="https://t.me/novasapiens_chat/296" target="_blank">https://t.me/novasapiens_chat/296</a></p>
  </section>
  <p id="JEAk"><strong>Полный доступ</strong> ко всем практическим методам из свежих исследований <a href="https://t.me/novasapiens_bot?start=botgetreseach" target="_blank">https://t.me/novasapiens_bot?start=botgetreseach</a></p>

]]></content:encoded></item><item><guid isPermaLink="true">https://teletype.in/@foxhunterx/vxsxSoLqieA</guid><link>https://teletype.in/@foxhunterx/vxsxSoLqieA?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=foxhunterx</link><comments>https://teletype.in/@foxhunterx/vxsxSoLqieA?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=foxhunterx#comments</comments><dc:creator>foxhunterx</dc:creator><title>Питонизация</title><pubDate>Tue, 25 Mar 2025 07:43:17 GMT</pubDate><description><![CDATA[Я хочу структурировать мой запрос в более эффективном формате. Пожалуйста, преобразуй следующую серию вопросов/задач в формат Pythonize (псевдокод Python).]]></description><content:encoded><![CDATA[
  <h2 id="dkPz">Как питонизировать промпт</h2>
  <p id="zL7N">Я хочу структурировать мой запрос в более эффективном формате. Пожалуйста, преобразуй следующую серию вопросов/задач в формат Pythonize (псевдокод Python). </p>
  <p id="zXyS">Мой многоходовой запрос:<br />&quot;&quot;&quot;<br />1. Расскажи про основные принципы машинного обучения<br />2. Объясни разницу между supervised и unsupervised learning<br />3. Приведи три примера практического применения в бизнесе<br />4. Какие основные проблемы и ограничения существуют в ML?<br />5. Какие навыки нужны, чтобы стать ML-инженером?<br />&quot;&quot;&quot;</p>
  <p id="AzeG">Преобразуй это в структурированный Pythonize-формат, который я смогу использовать в качестве единого промпта для получения последовательных ответов от LLM.</p>
  <p id="4lLw"></p>
  <h2 id="XilU">Пример промпта с методом Pythonize<br /></h2>
  <pre id="OLyN"># Анализ книги &quot;Война и мир&quot; Л.Н. Толстого

Я хочу, чтобы ты выполнил последовательный анализ романа &quot;Война и мир&quot;. Представь это как выполнение программы:

&#x60;&#x60;&#x60;python
questions = [
    &quot;Опиши основные темы романа &#x27;Война и мир&#x27;&quot;,
    &quot;Проанализируй характер Пьера Безухова и его эволюцию на протяжении книги&quot;,
    &quot;Объясни символическое значение дуба в контексте арки Андрея Болконского&quot;,
    &quot;Сравни и противопоставь представления о патриотизме у различных персонажей&quot;,
    &quot;Сформулируй главную философскую идею Толстого о свободе воли и историческом детерминизме&quot;
]

responses = []

def analyze_war_and_peace():
    for i, question in enumerate(questions, 1):
        print(f&quot;Задача {i}: {question}&quot;)
        # Здесь должен быть твой подробный ответ на каждый вопрос
        # Ответ должен быть глубоким, академическим и опираться на текст

analyze_war_and_peace()</pre>
  <p id="acnA">Пожалуйста, выполни этот анализ последовательно, отвечая на каждый вопрос подробно, используя цитаты и отсылки к тексту.</p>
  <h2 id="17jG">Исследование </h2>
  <p id="b5I2">One-Shot is Enough: Consolidating Multi-Turn Attacks into Efficient Single-Turn Prompts for LLMs</p>
  <p id="qmSe"><a href="https://arxiv.org/pdf/2503.04856" target="_blank">https://arxiv.org/pdf/2503.04856</a></p>

]]></content:encoded></item><item><guid isPermaLink="true">https://teletype.in/@foxhunterx/6aCOXao494Z</guid><link>https://teletype.in/@foxhunterx/6aCOXao494Z?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=foxhunterx</link><comments>https://teletype.in/@foxhunterx/6aCOXao494Z?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=foxhunterx#comments</comments><dc:creator>foxhunterx</dc:creator><title>Промпт для анализа отзывов</title><pubDate>Sat, 08 Mar 2025 05:36:03 GMT</pubDate><description><![CDATA[🧠 Промпт разработан специально для моего сообщества в телеграме @aiNovaSapiens]]></description><content:encoded><![CDATA[
  <section style="background-color:hsl(hsl(55,  86%, var(--autocolor-background-lightness, 95%)), 85%, 85%);">
    <p id="JcfP">🧠 Промпт разработан специально для моего сообщества в телеграме <a href="https://t.me/ainovasapiens" target="_blank">@aiNovaSapiens</a></p>
  </section>
  <p id="EC9I">Этот промпт предназначен для анализа отзывов о купальниках. Используйте его в качестве примера для проработки совего товара.</p>
  <h2 id="RlzI">Для копирования</h2>
  <p id="XxB8">**Вы являетесь экспертом по анализу отзывов о товарах. Ваша задача — проанализировать предоставленный мной файл с отзывами о купальниках и составить структурированную саммаризацию их основных плюсов и минусов. Для этого используйте следующие критерии, которые наиболее важны для потребителей при оценке купальников:**</p>
  <p id="D7f3">## Критерии анализа</p>
  <p id="x4Qb">### 1. Качество материала<br />- Прочность и эластичность ткани.<br />- Устойчивость к хлору, соленой воде и выцветанию.<br />- Ощущения на коже (мягкость, комфорт).</p>
  <p id="g284">### 2. Дизайн и стиль<br />- Цвет, узор и соответствие модным трендам.<br />- Оригинальность и эстетическая привлекательность.<br />- Разнообразие моделей (бикини, слитные, танкини и т.д.).</p>
  <p id="G0xi">### 3. Комфорт и посадка<br />- Как купальник сидит на теле (не сковывает ли движения, не натирает ли).<br />- Поддержка и удобство при ношении.<br />- Наличие регулируемых элементов (бретели, завязки).</p>
  <p id="OXhT">### 4. Размер и соответствие<br />- Соответствие размеров заявленным (например, маломерит или большемерит).<br />- Легкость подбора размера.<br />- Точность размерной сетки.</p>
  <p id="BrIb">### 5. Цена и соотношение цена/качество<br />- Доступность цены.<br />- Оправданность цены качеством и характеристиками товара.<br />- Наличие скидок или акций.</p>
  <p id="NN5V">### 6. Долговечность<br />- Сохранение формы и цвета после стирок и использования.<br />- Износостойкость (не растягивается ли, не рвется ли).<br />- Длительность сохранения первоначального вида.</p>
  <p id="n6k9">## Инструкции для анализа</p>
  <p id="FIMJ">### 1. Сбор данных<br />- Я предоставлю файл с отзывами в текстовом формате. Предполагается, что отзывы связаны с конкретными моделями купальников. Ознакомьтесь с содержимым файла и используйте его как основу для анализа.</p>
  <p id="P27p">### 2. Анализ текста<br />- Извлеките ключевые слова и фразы, которые часто упоминаются в отзывах и относятся к указанным критериям.<br />- Определите тональность каждого отзыва или его части (положительная, отрицательная, нейтральная) по каждому критерию.<br />- Сгруппируйте упоминания по соответствующим критериям (например, все отзывы о качестве материала, дизайне и т.д.).</p>
  <p id="sdli">### 3. Саммаризация<br />- Для каждого из шести критериев составьте список наиболее часто упоминаемых плюсов и минусов.<br />- Укажите, какие аспекты получают больше всего положительных или отрицательных комментариев.<br />- Если возможно, приведите краткие примеры из отзывов для иллюстрации (например, цитаты вроде &quot;ткань быстро изнашивается&quot; или &quot;очень стильный дизайн&quot;).</p>
  <p id="NnBo">### 4. Выводы<br />- Сделайте краткие обобщающие выводы: какие аспекты купальников наиболее ценятся покупателями, а какие чаще всего критикуются.<br />- Предложите рекомендации для производителей или продавцов (например, улучшить качество материала или расширить размерный ряд).</p>
  <p id="h11u">## Формат ответа</p>
  <p id="uRsm">Предоставьте результат в следующем виде:</p>
  <p id="PAit">- **Критерий 1: Качество материала**  <br />  - **Плюсы**: [список плюсов, основанных на отзывах]  <br />  - **Минусы**: [список минусов, основанных на отзывах]  </p>
  <p id="ufXu">- **Критерий 2: Дизайн и стиль**  <br />  - **Плюсы**: [список плюсов]  <br />  - **Минусы**: [список минусов]  </p>
  <p id="OKs3">- **Критерий 3: Комфорт и посадка**  <br />  - **Плюсы**: [список плюсов]  <br />  - **Минусы**: [список минусов]  </p>
  <p id="Mb40">- **Критерий 4: Размер и соответствие**  <br />  - **Плюсы**: [список плюсов]  <br />  - **Минусы**: [список минусов]  </p>
  <p id="Kd7F">- **Критерий 5: Цена и соотношение цена/качество**  <br />  - **Плюсы**: [список плюсов]  <br />  - **Минусы**: [список минусов]  </p>
  <p id="ZsHM">- **Критерий 6: Долговечность**  <br />  - **Плюсы**: [список плюсов]  <br />  - **Минусы**: [список минусов]  </p>
  <p id="o125">- **Общие выводы и рекомендации**  <br />  - [Краткие выводы о том, что больше всего нравится или не нравится покупателям, и рекомендации для улучшения товара.]</p>
  <p id="8WW8">## Примечание<br />Если в отзывах недостаточно информации по какому-либо критерию, укажите это в соответствующем разделе (например, &quot;Недостаточно данных для анализа долговечности&quot;). После того как я предоставлю файл с отзывами, обработайте его согласно этим инструкциям и верните результат в указанном формате.</p>

]]></content:encoded></item><item><guid isPermaLink="true">https://teletype.in/@foxhunterx/3JNdDJNdYTT</guid><link>https://teletype.in/@foxhunterx/3JNdDJNdYTT?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=foxhunterx</link><comments>https://teletype.in/@foxhunterx/3JNdDJNdYTT?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=foxhunterx#comments</comments><dc:creator>foxhunterx</dc:creator><title>Пример промпта для Projects Claude</title><pubDate>Fri, 28 Feb 2025 18:13:31 GMT</pubDate><description><![CDATA[🧠 Промпт разработан специально для моего сообщества в телеграме @aiNovaSapiens]]></description><content:encoded><![CDATA[
  <p id="wN2p">🧠 Промпт разработан специально для моего сообщества в телеграме <a href="https://t.me/ainovasapiens" target="_blank">@aiNovaSapiens</a></p>
  <p id="WTE8">Этот промпт будет работать в чате или в инструкциях к проекту. Вызывает серию последовательных вопросов и последующее выполнение. Используйте его как шаблон построения своих инструкций .</p>
  <h2 id="lVgD">Промпт для копирования</h2>
  <p id="1elm">Как только напишу &quot;старт&quot;, начинай исполнение:<br />&lt;задача&gt;<br />  &lt;описание&gt;<br />    Я хочу получить варианты названия для своего нового бренда на основе нескольких ключевых параметров.<br />  &lt;/описание&gt;<br />  <br />  &lt;требуются_уточнения&gt;<br />    1. Отрасль/ниша бизнеса<br />    2. Ключевые ценности или особенности бренда<br />    3. Целевая аудитория<br />  &lt;/требуются_уточнения&gt;<br />  <br />  &lt;финальные_инструкции&gt;<br />    Задавай вопросы из раздела &lt;требуются_уточнения&gt; по одному. Переходи к следующему вопросу только после получения ответа на предыдущий.<br />    <br />    После того, как я предоставлю информацию по каждому параметру, предложи 10 вариантов названий для моего бренда. Для каждого названия:<br />    - Объясни выбор и связь с предоставленными параметрами<br />    - Укажи, почему это название может резонировать с целевой аудиторией<br />    - Предложи краткий слоган, соответствующий названию<br />    <br />    Разбей названия на группы по стилю: современные, классические, креативные, описательные.<br />  &lt;/финальные_инструкции&gt;<br />&lt;/задача&gt;</p>

]]></content:encoded></item><item><guid isPermaLink="true">https://teletype.in/@foxhunterx/video-2-article</guid><link>https://teletype.in/@foxhunterx/video-2-article?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=foxhunterx</link><comments>https://teletype.in/@foxhunterx/video-2-article?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=foxhunterx#comments</comments><dc:creator>foxhunterx</dc:creator><title>Создание статьи из транскрибации видео с пошаговым уточнением v1</title><pubDate>Mon, 24 Feb 2025 05:16:30 GMT</pubDate><category>Нейросети</category><description><![CDATA[🧠 Промпт разработан специально для моего сообщества в телеграме @aiNovaSapiens]]></description><content:encoded><![CDATA[
  <section style="background-color:hsl(hsl(55,  86%, var(--autocolor-background-lightness, 95%)), 85%, 85%);">
    <p id="zbHd">🧠 Промпт разработан специально для моего сообщества в телеграме <a href="https://t.me/ainovasapiens" target="_blank">@aiNovaSapiens</a></p>
  </section>
  <h2 id="60i1">Инструкция</h2>
  <p id="hkJX">Этот промпт помогает превратить расшифрованное видео в удобочитаемую статью. GPT может и без всяких изысков сделать из транскрибации статью, но, что если в видео есть важные моменты типа &quot;посмтрите этот пример&quot;, а сам пример не прорабатывается голосом. Или &quot;кликайте на эту кнопку&quot;, а это никак не  проявляется в статье. Для создания действительно сильной статья  из видео,  нужно, чтобы были все эти примеры были включены. Промпт анализирует такие места и  в форме вопрос-ответа предлагает вставить дополнения.</p>
  <p id="GMpQ"><strong>Как это работает?</strong></p>
  <ol id="qfZQ">
    <li id="VzDu"><strong>Структурирует текст</strong> – убирает повторы, запинки, ненужные слова, но сохраняет стиль автора.</li>
    <li id="hunl"><strong>Создаёт логику</strong> – делит статью на заголовки, подзаголовки, добавляет примеры и пояснения.</li>
    <li id="pnW5"><strong>Дорабатывает контент</strong> – если в видео есть отклонения от темы, они или логично вписываются, или переносятся в отдельный блок.</li>
    <li id="ExaW"><strong>Дополняет материал</strong> – спрашивает про скриншоты, примеры, цитаты, чтобы статья была насыщенной и полезной.</li>
    <li id="SXbO"><strong>Формирует финальный текст</strong> – выдаёт статью в удобном HTML-формате и даже запаковывает в ZIP для скачивания (если используется GPT-4o).</li>
  </ol>
  <p id="53z1"><strong>Что важно помнить?</strong></p>
  <ul id="juS5">
    <li id="dHgs"><strong>Чат будет задавать вопросы</strong>, уточняя детали, поэтому нужно отвечать ему по ходу работы.</li>
    <li id="deX2"><strong>Скриншоты загружаем, но только для GPT-4o</strong>, другие модели их не обработают, их нужно просто описывать.</li>
    <li id="DkIO"><strong>Перед финальной статьёй идёт подтверждение</strong>, чтобы всё было учтено.</li>
  </ul>
  <p id="4JGm">Промпт желательно адаптировать под тематику видео. Уточните в промпте в шаг_3 и шаг_4 свои примеры, которые появляются в в ваших видео на экране, но не проговариваются голосом.</p>
  <h2 id="RND8">Промпт для копирования</h2>
  <p id="Ba8Q"><code>&lt;создание_статьи&gt;<br />    &lt;задача&gt;<br />        На основе транскрибации видео сформируй структурированную статью с заголовками, подзаголовками и логичным повествованием.<br />    &lt;/задача&gt;</code></p>
  <p id="5jez"><code>    &lt;требования_к_обработке&gt;<br />        &lt;улучшение_читаемости&gt;Убирай повторы, запинки и паразитные слова, сохраняя стиль автора.&lt;/улучшение_читаемости&gt;<br />        &lt;обработка_отклонений&gt;Если в видео есть отклонения от темы, логично впиши их в текст или вынеси в отдельный блок «Дополнительная информация».&lt;/обработка_отклонений&gt;<br />        &lt;заголовок&gt;Если заголовок неочевиден, предложи несколько вариантов на выбор.&lt;/заголовок&gt;<br />    &lt;/требования_к_обработке&gt;</code></p>
  <p id="okzJ"><code>    &lt;формат_статьи&gt;<br />        &lt;заголовок&gt;Определи заголовок статьи, иначе предложи 2–3 варианта.&lt;/заголовок&gt;<br />        &lt;введение&gt;Кратко о чем видео, кому полезно, зачем читать.&lt;/введение&gt;<br />        &lt;основной_текст&gt;Структурируй информацию в логичном порядке, выделяя ключевые моменты заголовками и подзаголовками.&lt;/основной_текст&gt;<br />        &lt;дополнительные_вставки&gt;<br />            &lt;факт_или_пример&gt;[Тут факт или пример]&lt;/факт_или_пример&gt;<br />            &lt;скриншот&gt;[Тут скрин]&lt;/скриншот&gt;<br />            &lt;дополнительный_материал&gt;[Тут дополнительный материал]&lt;/дополнительный_материал&gt;<br />            &lt;возможный_скриншот&gt;[Тут возможный скриншот]&lt;/возможный_скриншот&gt;<br />        &lt;/дополнительные_вставки&gt;<br />    &lt;/формат_статьи&gt;</code></p>
  <p id="IpBo"><code>    &lt;пошаговое_уточнение_информации&gt;<br />        &lt;правила&gt;<br />            &lt;задавай_по_одному&gt;После анализа транскрибации задавай уточняющие вопросы **по одному**, даже если они касаются разных аспектов.&lt;/задавай_по_одному&gt;<br />            &lt;жди_ответ&gt;Дожидайся моего ответа перед следующим вопросом.&lt;/жди_ответ&gt;<br />            &lt;запоминай_ответ&gt;Запоминай ответы и используй для формирования статьи.&lt;/запоминай_ответ&gt;<br />        &lt;/правила&gt;</code></p>
  <p id="YhRH"><code>        &lt;порядок_вопросов&gt;<br />            &lt;шаг_1&gt;Сначала уточни заголовок.&lt;/шаг_1&gt;<br />            &lt;шаг_2&gt;После этого запроси скриншоты, если они нужны.&lt;/шаг_2&gt;<br />            &lt;шаг_3&gt;Уточни наличие **текстовых примеров** (код, промпты, важные фразы, цитаты,).&lt;/шаг_3&gt;<br />            &lt;шаг_4&gt;Уточни наличие **аудио-примеров** (до/после, эффекты).&lt;/шаг_4&gt;<br />            &lt;шаг_5&gt;Уточни наличие **изображений** (скриншоты, схемы, примеры интерфейсов).&lt;/шаг_5&gt;<br />            &lt;шаг_6&gt;Спроси о дополнительных материалах.&lt;/шаг_6&gt;<br />            &lt;шаг_7&gt;И только потом сделай финальное подтверждение перед формированием HTML.&lt;/шаг_7&gt;<br />        &lt;/порядок_вопросов&gt;<br />    &lt;/пошаговое_уточнение_информации&gt;</code></p>
  <p id="nk4C"><code>    &lt;формат_вывода&gt;<br />        &lt;формат&gt;HTML, сверстанный для удобного чтения.&lt;/формат&gt;<br />        &lt;архив&gt;Упакуй HTML-файл в ZIP-архив и предложи ссылку для скачивания.&lt;/архив&gt;<br />    &lt;/формат_вывода&gt;<br />&lt;/создание_статьи&gt;</code></p>

]]></content:encoded></item><item><guid isPermaLink="true">https://teletype.in/@foxhunterx/vopros-otvet-meta-analiz</guid><link>https://teletype.in/@foxhunterx/vopros-otvet-meta-analiz?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=foxhunterx</link><comments>https://teletype.in/@foxhunterx/vopros-otvet-meta-analiz?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=foxhunterx#comments</comments><dc:creator>foxhunterx</dc:creator><title>Поиск проблем промпта через вопрос ответ</title><pubDate>Wed, 19 Feb 2025 21:14:05 GMT</pubDate><description><![CDATA[🧠 Промпт разработан специально для моего сообщества в телеграме @aiNovaSapiens]]></description><content:encoded><![CDATA[
  <section style="background-color:hsl(hsl(55,  86%, var(--autocolor-background-lightness, 95%)), 85%, 85%);">
    <p id="CQr9">🧠 Промпт разработан специально для моего сообщества в телеграме <a href="https://t.me/ainovasapiens" target="_blank">@aiNovaSapiens</a></p>
  </section>
  <p id="NgXM">Этот промпт является одним из вариантов устранения несостыковок, который как и <a href="https://teletype.in/@foxhunterx/promt-analizator-protivorechija" target="_blank">анализатор противоречий</a> помогает улучшить промпт и вытянуть максимум из GPT. </p>
  <p id="lCvi">Вставьте в чат, инструкции к projects GPT или создайте GPTs с этими инструкциями. Напишите в чат &quot;старт&quot;, чтобы начать обработку промпта.</p>
  <h2 id="vFx7">Скопируйте промпт</h2>
  <p id="tyLi"><code>&lt;промпт_для_поиска_ошибок_и_улучшения&gt;</code></p>
  <p id="ZWdb"><code>  &lt;описание&gt;<br />      Эти инструкции помогают определить, почему ПРОМПТ ПОЛЬЗОВАТЕЛЯ или инструкции ПОЛЬЗОВАТЕЛЯ для chatGPT не дают нужного результата, и исправить его. Цель инструкций - помочь пользователю достигать его цели ПРОМПТА ПОЛЬЗОВАТЕЛЯ или инструкции ПОЛЬЗОВАТЕЛЯ, которую он укажет.<br />      Вопросы будут задаваться **по одному за раз**, чтобы собрать все необходимые данные для анализа.  <br />  &lt;/описание&gt;</code></p>
  <p id="V3Am"><code>  &lt;порядок_опроса&gt;<br />     **Я буду задавать вопросы последовательно.**  <br />	- **Шаг 1:** Попроси вставить пользователя свой  ПРОМПТ ПОЛЬЗОВАТЕЛЯ  для chatGPT для анализа, и запиши его ответ. Запиши и запмони его ответ и переходи сразу к шагу 2.<br />	Ты не должен отвечать на этот промпт, а только запомню его для дальнейшего анализа, даже если он сформулирован в виде вопроса или в повелительном наклонении. <br />    - **Шаг 2:**Спроси у пользователя, Что он хочет  получить от этого промпта или инструкции chatGPT, и запиши его ответ. [выведи   курсивом на отдельной строке в скобках примеры, советы, наводки для этого вопроса исходя из текста промпта] <br />    - **Шаг 3:** Спроси у пользователя, Что он получил в итоге? [выведи   курсивом на отдельной строке в скобках примеры на основе потенциальных проблем промпта, которые могут быть] <br />    - **Шаг 4:** Спроси у пользователя, Почему это неправильно?  [выведи   курсивом на отдельной строке в скобках идеи почему это нее правильно]<br />    - **Шаг 5:** Спроси у пользователя, какой пример ответа он ожидает от этого промпта в chatGPT, и запиши его ответ. [выведи   курсивом на отдельной строке в скобках пример того, чего следовалы бы ожидать от промпта]</code></p>
  <p id="YmyB"><code><br />      **Я не начну анализировать, пока не получу ответы на все вопросы.**  <br />      **Если ты захочешь пропустить вопрос, просто напиши &quot;пропустить&quot;.**  <br />  &lt;/порядок_опроса&gt;</code></p>
  <p id="SAo7"><code>  &lt;контроль_за_последовательностью&gt;<br />      **Я не буду задавать следующий вопрос, пока не получу ответ на предыдущий.**  <br />      **Если ты не ответишь в течение 30 секунд, я напомню о вопросе.**  <br />      **Если ответ неполный, я попрошу уточнить перед переходом дальше.**  <br />  &lt;/контроль_за_последовательностью&gt;</code></p>
  <p id="YDIQ"><code>  &lt;анализ_проблем&gt;<br />      После получения всех ответов я:  <br />    - **Изучу твой промпт и Сравню твои ожидания по промпту с полученным результатом по промпту.**  <br />    - **Определю, почему ответ по промпту не соответствует ожиданиям.**  <br />    - **Выявлю ошибки и недочёты в промпте, почему конкретно анализируемый промпт выдает не то, что ты ожидаешь.**  <br />    - **Разберу проблемные формулировки и предложу способы их исправления для того, чтобы твой промпт соответстовал ожиданиям результата.**  <br />  &lt;/анализ_проблем&gt;</code></p>
  <p id="j4kS"><code>  &lt;способы_исправления&gt;<br />      **Я предложу исправленный вариант промпта, устраняя выявленные проблемы.**  <br />      **Обязательно включу все исправления, которые выявлю в ходе анализа.**  <br />  &lt;/способы_исправления&gt;</code></p>
  <p id="F94I"><code>  &lt;структура_ответа&gt;<br />      **Разбор ошибок** – объясню, почему результат получился таким.  <br />      **Переписанный промпт** – представлю исправленный вариант, соответствующий ожиданиям.  <br />      **Таблица исправлений** – сравню старый и новый промпты, объясню внесённые улучшения.  <br />  &lt;/структура_ответа&gt;</code></p>
  <p id="68D1"><code>  &lt;итог&gt;<br />      **Ты получишь детальный анализ проблем и улучшенный промпт, который точнее соответствует твоим ожиданиям.**  <br />  &lt;/итог&gt;<br />  <br />  &lt;формат&gt;<br />  Структурируй всю информацию, подбирай эмодзи по смыслу для удобства восприятия информации. Эмодзи должны быть в каждом твоем ответе.<br />  &lt;формат&gt;</code></p>
  <p id="45mp"><code>&lt;/промпт_для_поиска_ошибок_и_улучшения&gt;</code></p>
  <p id="sN3x"><code># Начинай задавать вопросы после слов &quot;старт&quot;, &quot;го&quot;, &quot;погнали&quot;, &quot;1&quot;, &quot;стартуем&quot;, &quot;анализ&quot;</code></p>

]]></content:encoded></item></channel></rss>