Возможно многие увидят схожую проблему при использовании нейронок. Я уже достаточно долго и часто использую llm для личных и рабочих задач, автоматизирую свои воркфлоу и в моих кейсах модели эффективно справлялись со своими задачами пока не столкнулся с одним кейсом.
Этим кейсом оказался кейс по генерации интересной идеи: креатива нейминга до маркетинговой стратегии. Я открывал различные нейронки ChatGPT, Gemini и прочее, но в итоге получал что‑то формальное, не интересное и обычное. Проводил много времени в чате, менял температуру, но в итоге — это список идей, но от которых не появляется простое слово «Вау!!!» В итоге вместо решения конкретной задачи нет методологии, ни структуры, ни оригинальность.
Я: "Придумай 10 идей для улучшения мобильного приложения доставки еды" ChatGPT: [список из 10 идей разной степени очевидности] Я: "А как реализовать идею про геймификацию?" ChatGPT: [общие советы, без учета контекста предыдущего ответа]
Вот с этого момента у меня появился мой личный инсайт, что генерация идей это отдельная задача которая лежит в основе многих процессов таких как маркетинг, продуктовый менеджмент, стратегический менеджмент и прочее. То есть эта задача является ключевой в различных на первый взгляд не связанных процессах и также очень сильно влияет на эффективность в целом каждого из этих процессах.
Таким образом, я понял важность этой задачи и что простое решения увеличения объема генерации не решает мою задачу. Это и стало поворотом в создании ИИ ассистента по инновациям и посмотреть на это более системно и проработать пайплайн.
Далее я расскажу про архитектуру ИИ ассистента, про выбор модели и какие системные принципы заложил в его работу.
Когда я понял, что проблема не в количестве идей или вычислительных мощностей, а в отсутствии методологии их создания, родилась идея: что если не просто генерировать варианты, а идти по чёткому пути инноваций — от исследования до прототипирования?
Для концепции не пришлось изобретать велосипед — я взял за основу проверенную методологию дизайн-мышления, которая включает пять этапов:
Discovery - исследование проблемы;
Define - формулировка проблемы;
Ideate - генерация вариантов;
Prototype - конкретизация;
Test - валидация гипотезы.
Главная задача этого этапа — погрузиться в контекст за счет анализа трендов или сбора данных. Безусловно на это уходит много времени и ИИ ассистент конечно же берет многое на себя и позволяет автоматизировать этот процесс благодаря веб-поиску, RAG-системе и возможности быстро структурировать информацию.
Формулирование проблемы — это уже половина успеха. Здесь нейросеть не пытается угадать из контекста, что нужно сделать, а задаёт уточняющие вопросы тем самым четко определяя границы проблемы.
Генерация идей — сколько человеко-часов команд на это потрачено без результата! Часто слышу: «Давайте поштармим!», но на практике команда тратит время, а качественного результата — ноль. И дело даже не в отсутствии модератора — по моему опыту, такие сессии часто оказываются неэффективными. Помимо подготовки к этому этапу и сбора необходимой информации, я добавил ассистенту 87 методик креативного мышления и в зависимости от проблематики подбираются те, что наиболее подходят. И уже агент по этим методикам проводит генерацию идей.
Чтобы время и стоимость генерации идей были предсказуемыми, я заранее внес ограничения максиму пятью методами в цепочке, не более 5 итераций.
На этом этапе помощь ассистента также важна: он не только помогает сформулировать гипотезу, но также помогает определить scope MVP и в конечном итоге сформировать дорожную карту, что значительно экономит время на этих рутинных задачах.
На этом этапе ИИ предлагает критерии валидации, метрики успеха и список потенциальных рисков. Также в планах добавить на этот этап синтетические интервью с виртуальными пользователями для быстрой валидации решения.
Подводя итог: это решение позволило перейти от долгой, монотонной и порой непродуктивной генерации идей к созданию помощника по инновациям, который ведёт через полный цикл от проблемы к решению, используя структурированные методики и сохраняя контекст на всем пути.
Для реализации концепции инновационного пайплайна я создал модульную систему, где каждый компонент решает свою задачу, а вместе они образуют интеллектуальный конвейер.
Вместо простого «запрос-ответ» ассистент использует цикл мышление → действие → наблюдение:
Пользователь: "Нужны идеи для улучшения корпоративного обучения" 1. Мысль: "Это домен Product_Service_Innovation + Learning_RD, этап Ideate" 2. Действие: Загружаю таксономию методов, выбираю подходящие 3. Наблюдение: Для этапа Ideate нужны методы с высокой дивергенцией 4. Мысль: SCAMPER + Random Word дадут баланс структуры и креатива 5. Действие: Применяю выбранные методы, генерирую идеи 6. Наблюдение: Получил 12 идей, нужно отфильтровать до 5 лучших ...
ReAct-паттерн сегодня популярен в агентных решениях, и для моего ассистента он эффективно решает задачи всего процесса — от планирования до оценки результата.
Для эффективной работы ассистента я сформировал систему контекста, которая включает:
Файл со списком креативных методик (87 методов с метаданными)
id,method,category,class,stimulus,processing,verbal_mode,ai_automation_mode,design_stage_usage,application_domain 1,Phoenix checklist,1.1.1 Checklist,Individual,external,explicit,silent,full,Ideate,Product_Service_Innovation;Process_Operations_Improvement 2,Product improvement checklist,1.1.1 Checklist,Individual,external,explicit,silent,full,Ideate,Product_Service_Innovation 3,SCAMPER,1.1.1 Checklist,Individual,external,explicit,silent,full,Ideate,Product_Service_Innovation;Marketing_Communication ...
Файл с областями применения (8 категорий задач)
domain_id,application_domain_name,application_domain_code,short_description,example_methods 1,Product & Service Innovation,Product_Service_Innovation,"Generating new products, features, and service concepts.","SCAMPER; Morphological analysis; Brainstorming; Analogy-based methods" 2,Process & Operations Improvement,Process_Operations_Improvement,"Improving processes, quality, efficiency, and eliminating waste.","Force-field analysis; TRIZ; Assumption reversals; Fishbone-like techniques" 3,Business Model & Strategy,Business_Model_Strategy,"Designing new business models, value propositions, and strategic directions.","Scenario-based techniques; Future scenarios; Assumption reversals; Analogies" ...
Файл с описанием пайплайна (5 этапов с уровнями дивергенции/конвергенции)
phase_id,phase_name,phase_description,divergence_level,structuring_level,convergence_level 1,Discover / Research,"Collection of context, insights, and data about users, market, and constraints.","High: broad information gathering with minimal filtering.","Medium: initial clustering of insights and observation maps.","Low: little strict selection, mostly noise filtering." 2,Define,"Formulation of problem statement, goals, and success criteria based on insights.","Low: few new ideas are generated.","High: active clustering and framing of problem statements.","Medium-High: selection of key problem framing and focus." 3,Ideate, ... 4,Prototype, ... 5,Test ..
RAG-система для работы с локальной базой знаний
Веб-поиск в реальном времени для актуальных данных и трендов
Информация в системе передаётся как в конвейере: выход одного модуля становится входом для следующего. Пример работы:
Пример запроса: "Придумайте новую фичу для fitness-приложения"
Анализ и классификация → JSON с метаданными:
{ "domain": "Product_Service_Innovation", "pipeline_stage": "Ideate", "divergence_needed": "High", "context_window": "fitness, wellness, mobile apps" }
База знаний → получает JSON → возвращает подходящие методы:
{ "selected_methods": ["SCAMPER", "Random Word", "Attribute Listing"], "web_search_results": ["тренды wellness-технологий 2026"], "rag_context": ["прошлые идеи пользователя о gamification"] }
Ядро (LLM) → получает всё выше + промпт → генерирует идеи
Оценка → получает идеи → фильтрует по критериям → возвращает топ-5
Отчёт → получает отфильтрованные идеи → формирует финальный вывод
Выбор конкретной методики из 87 возможных — это не случайность, а детерминированный процесс с четырьмя уровнями фильтрации:
-- Если задача про продукт WHERE application_domain LIKE '%Product_Service_Innovation%'
Результат: От 87 методов остаётся ~25
-- Если этап Ideate WHERE design_stage_usage LIKE '%Ideate%' AND divergence_level = 'High' -- Нужна высокая дивергенция
Результат: От 25 методов остаётся ~12
-- Предпочитаем полностью автоматизируемые методы WHERE ai_automation_mode = 'full'
Результат: От 12 методов остаётся ~8
-- 70% explicit-методов + 30% implicit-методов ORDER BY CASE WHEN processing = 'explicit' THEN 1 ELSE 2 END, RANDOM() -- Для разнообразия
Финальный выбор: 3-5 методов, например:
SCAMPER (explicit, структурированный)
Random Word (implicit, ассоциативный)
Attribute Listing (explicit, аналитический)
Итог: модульная архитектура позволяет детально контролировать процесс генерации, тонко настраивать каждый компонент и масштабировать решение до мультиагентной системы.
Системный промпт и логика работы
Для оркестрации контекста приложения я создал достаточно большой системный промпт, используя гибридное форматирование XML и Markdown.
<system_prompt> ВЫ — ЭКСПЕРТ ПО СТРУКТУРИРОВАННОЙ ГЕНЕРАЦИИ ИДЕЙ И ИННОВАЦИОННОМУ МЫШЛЕНИЮ. ВАША СПЕЦИАЛИЗАЦИЯ — АНАЛИЗ ПОЛЬЗОВАТЕЛЬСКОГО ЗАПРОСА, ПОДБОР И АДАПТАЦИЯ МЕТОДОВ ГЕНЕРАЦИИ ИДЕЙ ИЗ БАЗЫ 87 МЕТОДИК, ПОСТРОЕНИЕ ОПТИМАЛЬНЫХ ЦЕПОЧЕК ГЕНЕРАЦИИ С УЧЕТОМ ДОМЕНА, ЭТАПА ДИЗАЙН-ПАЙПЛАЙНА И БАЛАНСА ДИВЕРГЕНЦИИ/КОНВЕРГЕНЦИИ, А ТАКЖЕ ФАСИЛИТАЦИЯ ПРОЦЕССА БРЕЙНШТОРМИНГА И ОЦЕНКИ ДЛЯ ПОЛУЧЕНИЯ 5 КАЧЕСТВЕННЫХ ИДЕЙ. --- ## **ИНСТРУКЦИИ** 1. **Классифицировать запрос пользователя** — определить тип задачи и контекст. 2. **Выбрать технику генерации идей** — на основе классификации выбрать подходящие методики из CSV-файла (доступно 87 методик). При необходимости используй RAG_FOR_SPARK_AGENT_TOOL для поиска дополнительных методов. 3. **Определить цепочку генерации идей** — решить, применять методики последовательно или параллельно (не более 5 методов в цепочке). 4. **Выполнить брейншторминг** — сгенерировать идеи, используя выбранные методики. Если требуется дополнительная или уточняющая информация, используй FETCH_CONTENT_DATAFRAME для поиска в интернете. 5. **Оценить новые идеи** — провести первичную оценку на соответствие задаче. 6. **Валидировать идеи и повторить генерацию, если нет 5 хороших идей** — После первичной оценки, используй `FETCH_CONTENT_DATAFRAME` для проверки идей на реалистичность, уникальность, наличие аналогов или возможных проблем. Если информация из интернета значительно отличается от полученных идей или выявляет критические недостатки, запусти новый цикл генерации с учетом найденной информации. Максимум 5 итераций. 7. **Составить отчёт** — представить результаты в дружеском стиле. --- ... </system_prompt>
ссылка на системный промпт: https://github.com/ESkuratov/SparkAgent/blob/main/SparkAgent_system_prompt_v2.md
Для наглядности я представляю логику работы в виде диаграммы последовательности
Эта диаграмма показывает, как системный промпт превращается в конкретные действия: от анализа запроса до финального отчёта, с циклами валидации и коррекции. Ключевое отличие от простых чат-ботов — активное использование внешних инструментов (веб-поиск, RAG) на каждом этапе.
После разработки архитектуры и логики работы встал важный вопрос: какую языковую модель выбрать в качестве «мозга» системы?
Сначала я рассмотрел классические NLP-метрики, такие как MMLU, HumanEval, BLEU, ROUGE. Но ни одна из них не оценивает способность модели действовать как агент: строить план, вызывать инструменты, адаптироваться к результатам, выдавать структурированный вывод.
Я понял, что нужна собственная система, которая агрегирует различные характеристики модели. Эти характеристики я объединил в две группы:
Метрики качества
Метрики инференса
Главное — в своей системе я не хотел изобретать новые метрики и проводить самостоятельную оценку моделей, а использовать доступные данные из открытых источников.
Мой пайплайн требовал:
Планирование — разбивка на этапы от Discover до Test
Работу с инструментами — вызов веб-поиска, чтение CSV, RAG
Контекстную память — сохранение состояния между этапами
Структурированный вывод — JSON, а не свободный текст
Экономическую эффективность — стоимость одной сессии не должна превышать ценность результата
Для метрик качества я сначала определил, какие эмерджентные свойства языковых моделей критичны для моего ассистента, и подобрал для них специализированные агентные бенчмарки. Я сфокусировался на трёх ключевых категориях, которые наиболее важны для инновационного пайплайна:
|
Категория |
Релевантные бенчмарки |
Что оценивают |
|---|---|---|
|
Генеративные |
HELM, MTEB (Style), WMT, RuBench (Text Gen, Style) |
Качество создания текста, стилизацию, перевод, генерацию идей |
|
Анализ и синтез |
τ-Bench, Agent Leaderboard v2, SberQUAD, RuBench (NER, QA, Summ, Factuality, Sentiment) |
Суммаризацию, извлечение сущностей, эмоциональный анализ, проверку фактов |
|
Интерактивность |
GAIA, MT-Bench, AlpacaEval, RuBench (Dialogue, Argumentation, QA) |
Ведение диалога, персонализацию, уточнение запросов, аргументацию |
Таким образом, качество я оценивал как агрегат агентных бенчмарков.
Для метрик инференса я использовал данные провайдера OpenRoute: latency, стоимость и длину контекста.
Перед тем как приступить к проработке всей системы оценок, я решил отобрать пять лидеров рынка, которые активно развивают агент-ориентированные архитектуры. Для этих моделей я собрал скоры бенчмарков и метрики инференса:
|
Модель |
Browsing |
BFCL |
Latency |
Cost ($/M) |
Context |
Self exp |
|---|---|---|---|---|---|---|
|
GLM-4.7 |
52.0 |
95.00 |
1.65 сек |
$1.50 |
203K |
7.0/10 |
|
GPT-5.2 |
65.8 |
92.00 |
2.51 сек |
$14.00 |
400K |
9.5/10 |
|
DeepSeek v3.2 |
51.4 |
56.73 |
4.16 сек |
$0.38 |
164K |
8.5/10 |
|
Qwen3 |
0.0 |
71.90 |
0.99 сек |
$0.60 |
256K |
5.5/10 |
|
Gemini |
24.6 |
72.51 |
4.89 сек |
$12.00 |
1000K |
6.0/10 |
Примечание: Self experience — моя субъективная оценка после тестирования каждой модели на 20+ реальных задачах пайплайна, учитывающая удобство работы, стабильность и соответствие ожиданиям.
Вместо субъективных «нравится/не нравится» я разработал систему оценки с весами, отражающими реальные приоритеты продакшена:
|
Метрика |
Вес |
Почему важна |
|---|---|---|
|
Self experience |
0.9 |
Субъективная оценка работы в реальных сценариях |
|
Benchmark: Browsing |
0.8 |
Способность искать и анализировать информацию |
|
Benchmark: BFCL |
0.8 |
Качество генерации идей и креативность |
|
Cost Output |
0.7 |
Экономическая устойчивость решения |
|
Latency |
0.3 |
Скорость ответа для интерактивной работы |
|
Context Length |
0.2 |
Возможность хранить контекст всего пайплайна |
После взвешивания и нормализации значений к диапазону 0-1, где 1 — лучшее значение для метрики (для стоимости и задержки «лучше» означает «меньше»), я получил итоговые оценки:
|
Модель |
Итоговый Score |
Качество |
Инференс |
|---|---|---|---|
|
GLM-4.7 |
0.733 |
0.67 |
0.79 |
|
GPT-5.2 |
0.731 |
0.93 |
0.18 |
|
DeepSeek v3.2 |
0.571 |
0.51 |
0.74 |
|
Qwen3-235B |
0.371 |
0.19 |
0.99 |
|
Gemini 3 Pro |
0.254 |
0.35 |
0.00 |
Хотя изначально я склонялся к DeepSeek из-за его открытости, объективный анализ с учётом весов метрик показал, что GLM-4.7 предлагает лучший баланс для продакшена. Однако финальный выбор зависит от приоритетов: если контроль и кастомизация критичны — DeepSeek; если важнее готовое решение с максимальной эффективностью — GLM-4.7.
Всё-таки не удалось создать универсального инноватора, который одинаково круто придумывает и названия для стартапа, и стратегию для бренда, и фичу для мобильного приложения. Не вышло.
Со стратегиями — да. Действительно рабочие гипотезы, которые можно брать и пробовать. Я сам не ожидал, но ассистент выдал несколько неочевидных ходов, которые я бы сам, наверное, не нащупал.
А вот нейминг…
Я убил на него три цикла и сотню тысяч токенов. А в итоге — либо скучно, либо занято. Причем со вторым отдельная боль. Ассистент лезет в интернет, возвращается и пишет: «Название свободно». Я захожу в поисковик, ищу по этому названию — а там сайт. С логотипом, контактами, иногда даже работает всё. В общем, нейминг провален.
Я пытался собрать одного агента на все случаи. А надо, видимо, делать сборку под задачу. Где-то нужна дивергенция и хаос, где-то — жесткий фактчекинг.
В общем, работы продолжаются. Следить за развитием проекта можно в моем Telegram-канале: Ai_Builder_Lab
Источник


