Сейчас про AI говорят из каждого чайника.
Скептики говорят, что AI — это всё хрень и очередной хайп.
Нормисы говорят, что AI в целом норм.
Компании говорят, что они уже используют AI, показывая красивые отчёты инвесторам и руководству.
Школьники и студенты решают домашку с помощью AI.
Айтишники пишут код с помощью AI.
Мотиваторы-пустозвоны спрашивают: «А ты уже внедрил AI?» — правда, не объясняя, зачем он вообще нужен.
AI сейчас везде. И именно поэтому хочется поговорить не о том, какой он крутой или плохой, а о том, к чему приводит его бездумное использование.
Я сразу опущу все социологические и биологические темы вроде «деградации поколения» и прочих апокалиптических прогнозов. Это отдельный большой разговор. Здесь хочется поговорить о более прикладных вещах — о работе, обучении и экспертизе.
Перед тем как идти дальше, коротко про терминологию, чтобы не было путаницы.
В этой статье под AI я буду иметь в виду в первую очередь LLM-модели, вроде ChatGPT, Gemini, Copilot и прочих ассистентов, которые:
генерируют текст,
пишут код,
суммаризируют документацию,
помогают с решениями.
Я сознательно не говорю здесь про классический машин лёрнинг, компьютерное зрение, рекомендательные системы и прочие узкоспециализированные модели. Это отдельная тема и отдельный разговор.
Дальше по тексту я буду использовать слово AI — не потому что это самый точный термин, а потому что так его сейчас понимают большинство людей.
Как по мне, вымирание экспертизы — это главная проблема во всей этой истории с AI.
Если эксперт использует AI, чтобы ускорить свою работу или закрыть какие-то рутинные задачи — это нормально и даже хорошо. Но если AI начинает использовать новичок, у него просто не с чем сравнить результат.
Это не просто знания из книжек или курсов. Экспертиза — это объём живых, динамических знаний, которые накапливаются годами, плюс понимание, где норма, а где ерунда. И, что важно, возможность этим знанием делиться.
Если нет экспертизы — нет экспертов.
Если нет экспертов — некому делиться знаниями.
Если некому делиться знаниями — новые эксперты просто не появляются.
И тут можно сказать:
Хотя бы затем, чтобы появлялись следующие эксперты. Без этого не будет ни новых знаний, ни развития. В какой-то момент даже обучать модели станет не на чем, потому что качественного человеческого контента просто не останется.
Есть люди, которые научились работать с кодом ещё до того, как AI стал массовым. Да, сам AI — не новая технология, он используется давно. Но мы сейчас говорим именно про момент, когда в широкое поле вышли ChatGPT, Copilot, Gemini и прочие ассистенты.
У этих людей есть внутренняя экспертиза. Она позволяет фильтровать откровенный AI-мусор и галлюцинации, когда модель начинает выдумывать несуществующие вещи. Эксперт просто знает базу. Он понимает, где решение нормальное, а где оверинжиниринг или откровенная дичь.
А теперь посмотрим на следующее поколение. Оно всё чаще не учится самостоятельно.
Возьмём стандартный учебный процесс: есть программа, теория, практика и домашние задания. Но что происходит, если домашка делается не самостоятельно, а с помощью AI? Цепочка ломается. Формально образование есть, а по факту — оно перестаёт работать.
И тут уже не важно, о чём речь: школа, университет, колледж или курсы по QA и программированию. Принцип один и тот же.
Если так пойдёт дальше, то через несколько десятков лет, а может и гораздо раньше, просто некому будет фильтровать AI-мусор. Старые эксперты уйдут, а новые не появятся. Некому будет элементарно определить, что именно нагенерировал этот AI и насколько это вообще адекватно.
Эксперт знает базу. Он чувствует границы. Новичок — нет. И AI этого разрыва не закрывает, а только маскирует.
Главная проблема vibe coding в том, что LLM почти всегда заточены на одно — выдать хоть какой-то ответ. Даже если этот ответ бредовый. Модель не скажет: «Я не знаю». Она скорее скажет что-то уверенно и правдоподобно.
Если у человека нет экспертизы, он перед этим слеп. Он просто не может отличить нормальное решение от ерунды. В итоге vibe coding выглядит как работа, но по факту это тупиковая история. Карьеру на этом не построишь.
Представьте человека, который строит вам дом. Он не знает, как это делать. Он не знает, какой фундамент нужен, какую крышу делать, какие нагрузки учитывать. Но у него есть AI, а AI «всё знает».
AI говорит:
Человек делает. Зимой крышу проламывает снег. А весной фундамент заливает водой, и вы ходите по дому по колено в воде.
Что произошло? Виноват AI? Нет.
AI просто не знал контекста. Если бы он знал, где строится дом, какой грунт, какой климат и какие нагрузки, он, возможно, сказал бы, как сделать правильно.
Но этот контекст нужно задать. А чтобы задать контекст, его нужно понимать. А чтобы понимать — нужно самому разбираться в том, как строится дом.
Вот и получается замкнутый круг. Без экспертизы невозможно правильно использовать AI, а без правильного использования AI экспертиза не появляется. Мы снова приходим к тому, что экспертиза first.
AI реально может быть очень полезным. Он мог бы помочь построить дом, таскать кирпичи, заливать фундамент, считать нагрузки. Но чтобы понимать, какой кирпич класть, где и зачем, какую крышу делать и почему именно такую, нужен человек, который в этом разбирается.
То есть снова — нужен эксперт сверху. И снова мы возвращаемся к первому пункту.
Это тоже один из важнейших пунктов.
AI очень плохо что-то изобретает. И это не потому, что он «глупый», а потому что он ориентирован на те знания, которые в нём уже есть. Он может на основе существующих технологий что-то собрать, улучшить или скомбинировать. Но придумать что-то принципиально новое — с этим у него большие проблемы.
AI хорошо редактирует, помогает, ускоряет. Но он не придумывает новое. По своей сути AI — не изобретатель, а исполнитель.
И тут важно понимать очень тонкую грань между изобретением новой технологии и утилизацией уже существующих. Например, если вы сделали новую библиотеку, то, по большому счёту, вы ничего не изобрели. Вы просто решили конкретную проблему уже известными инструментами. Это полезно, это нужно, но это не изобретение.
А вот если вы сделали новый язык программирования — это уже другое. Например, тот же Go. Это не просто набор фич. В язык вложено огромное количество опыта: философия, подходы к конкурентности, синтаксис, нейминг стандартных функций. Всё это — результат многих лет реального инженерного опыта человека или команды, которые этот язык проектировали.
Именно на этом уровне AI и упирается в потолок. Он может помочь инженеру, может ускорить реализацию идеи, может убрать рутину. Но придумать философию, почувствовать ограничения и сделать из этого что-то новое — на это AI не способен.
И да, пример с Go — это всего лишь пример. Таких технологий тысячи. И все они были изобретены инженерами, а не сгенерированы моделью.
Тут тоже есть большая проблема.
Люди перестают читать форумы. Stack Overflow — самый простой пример. Он, по сути, уже мёртв. Когда вы в последний раз туда заходили? Вот и я не помню, хотя когда-то буквально не вылезал оттуда. У меня даже была ачивка за ежедневное посещение сайта в течение года или что-то вроде этого.
Люди перестают писать.
Люди перестают обсуждать технические темы.
Не потому что им лень, а потому что в этом больше нет необходимости.
Это легко проверить. Возьмём тот же Хабр. Раньше люди были реально голодны до знаний. В 2017 году статья про HTTP-протокол или REST API могла спокойно собрать 300–500 тысяч просмотров. Не потому что она была гениальной, а потому что информации просто негде было взять. Если ты находил нормальную статью — ты буквально держался за неё перед собесом.
Сейчас такая статья в лучшем случае соберёт 5 тысяч просмотров за полгода и утонет в общем потоке. И, если честно, в этом есть и плюс — мусора стало меньше. Но вместе с мусором уходит и реально годный контент. Мотивации писать ради 3 тысяч просмотров и пары комментариев нет никакой.
Нет шаринга знаний — не на чем обсуждать, не на чем дообучать модели.
Я сам это постоянно замечаю. Иногда открываю профильные хабы и вижу в основном статьи от компаний в стиле «как мы пофиксили один костыль другим, ещё более грандиозным костылём». Минимум просмотров и комментариев, но максимум плюсиков — потому что Хабр не запрещает компаниям плюсовать самих себя. И всё. Другого контента почти нет.
У этого, конечно, есть и плюсы, и минусы. С одной стороны, теперь сложнее продавать курсы с вопросами из гугла. С другой — это ведёт к оттоку пользователей с площадок, а значит и к демотивации создавать новый контент.
Возможно, я не прав. Это мои личные наблюдения за последние пару лет, в том числе за тем же Хабром. Но тренд выглядит именно так.
Технический контент просто перестал читаться, потому что AI закрывает этот пробел. Зачем мне тратить три часа на поиск нормальной статьи про pytest, если я за 10 секунд могу спросить у AI и получить ответ? Чтобы найти статью, нужно ещё правильно сформулировать запрос, потом надеяться, что кто-то в комментариях ответит на твой вопрос. А AI ответит сразу.
В итоге контент не читают. А раз его не читают — мотивации писать новый нет. Шаринга знаний становится всё меньше.
Текущие LLM обучены на общедоступных ресурсах: документации, форумах, обсуждениях, GitHub. Если этого контента становится всё меньше, новые знания просто не появляются. А значит, обучать будет не на чем.
Да, есть синтетические данные, когда AI обучают на данных, сгенерированных другим AI. Но тут мы снова возвращаемся к предыдущему пункту про отсутствие изобретений и потолок такого подхода.
И давайте скажем прямо: AI в том виде, в котором мы его знаем сейчас, стал возможен только благодаря десятилетиям открытого шаринга знаний. Если бы этого шаринга не было, обучать модели было бы банально не на чем. Это база.
Во многих компаниях сейчас внедряют AI, но ожидания от него сильно завышены.
Все эти посылы в духе «используйте AI везде, где можно» чаще всего либо ничем не заканчиваются, либо заканчиваются тем, что компания просто тратит кучу денег на AI-побрякушки. Инструменты покупаются, внедряются, о них красиво рассказывают, но по факту ими либо не пользуются, либо пользуются, но они ничего не ускоряют.
Зато очень удобно показывать отчёты инвесторам и говорить, какие мы модные и технологичные.
Важно понимать простую вещь: AI сам по себе ничего не ускоряет, если им не уметь пользоваться. Он не волшебная кнопка и не замена мышлению. Без понимания процессов и без экспертизы он превращается либо в игрушку, либо в источник проблем.
Если есть — поделитесь. Press F, Amazon.
Чаще всего всё упирается в то, что такие инструменты не понимают контекста, не чувствуют границ и не несут ответственности за результат. А ответственность в итоге всё равно ложится на людей, которых либо уже уволили, либо которым потом приходится всё это разгребать.
Конечно, есть. И плюсов реально много.
Но тут важно сразу расставить акценты. AI даёт плюс только в одном случае — если им пользуется эксперт. Человек, который понимает, что он делает, зачем и почему именно так.
Если эксперт делает одну условную единицу работы в час, то с AI он может делать две или три. Без потери качества. Это ключевой момент. Не новичок, который пишет лютую дичь, а AI ему радостно отвечает: «Да! Ты прав! Конечно!» — и в итоге человек просто слепой и уверен, что всё ок.
AI отлично снимает рутину.
Он может за секунды пересказать нудную документацию, в которой ты бы иначе сидел полдня, вникая и вычленяя главное. Может суммаризировать длинные обсуждения, таски, спецификации. Тут вообще вопросов нет — это реально удобно и экономит время.
AI может и должен помогать с ревью кода. Если у вас нет времени ревьюить полторы тысячи строк от джуна и каждый раз объяснять, почему размазывать бизнес-логику по всему проекту — плохая идея, это может сделать AI. А эксперт потом быстро пробежится и примет финальное решение.
То же самое с текстами и документами. Проверить, отредактировать, улучшить формулировки, найти ошибки — AI с этим справляется отлично.
И по факту всё, что перечислено выше, — это и есть текущая реальность AI. Именно там он реально помогает и даёт ценность. Всё остальное чаще всего либо жалкие потуги, либо очередная игрушка для C-level, чтобы выглядело модно и прогрессивно.
На практике люди часто даже не могут найти нормального применения тому же Copilot’у, потому что в 90% случаев он просто не нужен. А в оставшихся 10% — он полезен ровно настолько, насколько человек понимает, что именно он делает.
Если эта аналитика из личных наблюдений поможет хотя бы кому-то более осознанно подходить к использованию AI — значит, я писал это не зря.
Источник


