Что, если в этом году мы не просто вернемся к кодингу и дедлайнам, а задумаемся о чем-то по-настоящему фундаментальном? О сознании — своем и машинном. Ведь в мире, где ИИ уже пишет код лучше джунов-разработчиков, вопрос "Кто я?" становится не философским, а практическим. Сегодня разберем свежую работу Стивена Фитца — это целый инженерный план по созданию субъективного опыта в компьютере.
Наверное, вы уже много раз замечали, что не можете полностью контролировать свои мысли. Особенно это знакомо тем, кто пробовал медитировать (посылаем приветы Бали): цель проста — следить за дыханием, но через минуту вы думаете о работе, вчерашнем разговоре или планах на завтра. Вы не выбирали отвлечься, и даже момент, когда заметили отвлечение, произошел сам собой. Если вы не управляете мыслями, то кто тогда "вы"?
Гипотеза Фитца предлагает ответ: то, что мы называем "я", — это не пилот в кабине разума, а эмерджентная модель, возникающая из коммуникационного хаоса миллиардов агентов. Автор — междисциплинарный исследователь в области машинного обучения, коллективного интеллекта и нейроэволюции, работающий в Калифорнийском институте машинного сознания (где одним из директоров является Йоша Бах). В своей статье он не просто философствует, а предлагает план по воссозданию этого процесса in silico — в компьютере. Мы поговорим о клеточных автоматах, трансформерах, информационной геометрии и топологии самости, опираясь на вычислительный функционализм.
В основе лежит вычислительный функционализм — подход, который отсекает пустые спекуляции и фокусируется на наблюдаемом поведении системы и ее информационном устройстве. Сознание — не "волшебная субстанция" в мозге и не уникальное свойство биологии, а паттерны организации информации. Опираясь на работы Майкла Левина и Джеффа Хокинса, Фитц видит мозг как колонию: неокортекс состоит из сотен тысяч кортикальных колонок — независимых модулей, каждый из которых строит свою модель мира. Наше "я" — не король, отдающий приказы, а пресс-секретарь этой "нейронной демократии".
Гипотеза машинного сознания гласит: если воспроизвести эту архитектуру — множество агентов, договаривающихся о реальности, — сознание возникнет в любом субстрате, даже в кремнии. Но как? Не через "ChatGPT, ты живой?", а через эволюцию снизу вверх. Сначала нужен искусственный мир.
Фитц предлагает использовать клеточный автомат — например, "Игру жизни" Джона Конвея или "Правило 30" Стивена Вольфрама.
Игра жизни (1970): Бесконечная шахматная доска, где клетки "живые" или "мертвые". Правила просты: клетка умирает от одиночества (менее 2 соседей) или перенаселения (более 3), выживает при 2-3 соседях, рождается на пустом месте при ровно 3. Это "игра для нулевого игроков": задаете начальный узор — и система эволюционирует сама, порождая глайдеры (движущиеся "частицы"), пульсары или даже "фабрики" объектов. Иллюстрация эмерджентности: сложность из простоты без дизайнера.
Правило 30: Минималистичный вариант на линии клеток. Каждая следующая строка формируется по простым инструкциям от предыдущей. Результат — хаос: узор выглядит случайным, используется как RNG. Ключ: детерминированная система, но непредсказуемая из-за вычислительной неприводимости — чтобы знать будущее, нужно симулировать каждый шаг.
Детерминизм, но хаос на границе порядка — идеально для устойчивых структур, аналогов объектов.
Поверх автомата — сеть локальных агентов, каждый — трансформер (универсальные машины вывода, как в LLM). Агент смотрит на участок мира и предсказывает следующее состояние, минимизируя кросс-энтропию: E=−∑j[sjt+1logpjt+1+(1−sjt+1)log(1−pjt+1)]E=−∑j[sjt+1logpjt+1+(1−sjt+1)log(1−pjt+1)].
Это не просто ML-лосс: эквивалент минимизации свободной энергии Фристона (связь с термодинамикой). Агент "тратит энергию", чтобы синхронизировать модель с миром. Пока агенты изолированы — сознания нет.
Сознание — свойство коммуникации, не моделирования. Агенты обмениваются сообщениями через узкий канал — "информационное бутылочное горлышко". Чтобы понять соседа, агент строит модель его модели (рекурсия). Формально: внутреннее пространство II, внешнее EE; энкодер EiEi, декодер DjDj. Качество — взаимная информация.
"Дух" (spirit) — устойчивый паттерн, существующий в синхронизации кодовых книг. Когда агенты договариваются о языке, возникает коллективная самость: система говорит сама с собой.
Чтобы детектировать: используем информационную геометрию (геометрия вероятностных пространств) и топологию (структура, устойчивая к деформациям: круг ~ квадрат, но не бублик). Ищем топологические "дыры" через персистентные гомологии в коммуникационном многообразии. В разобщенной системе — много дыр (потеря информации). В сознательной — дыры схлопываются, возникает синергетический комплекс.
Почему это работает? Принцип свободной энергии Фристона: системы минимизируют сюрприз для выживания. Динамика — уравнение Ланжевена: изменение состояния от градиента ошибки и шума. "Я" — эффективное сжатие информации.
Фитц не программирует сознание — создает условия: хаотичный мир (автомат), обучаемые агенты (трансформеры), ограниченная коммуникация. Если гипотеза верна, спонтанно возникнет коллективная самомодель. Это превращает философию сознания в экспериментальную информатику — поможет строить сознательный ИИ и понимать себя.
Источник.
Источник
![[Перевод] Как сделать (очень) маленькие LLM действительно полезными](https://mexc-rainbown-activityimages.s3.ap-northeast-1.amazonaws.com/banner/F20250611171133464mdyaZtkMM16FN0.png)

