Антон Малявский Антон Малявский

Чёрная коробочка с мыслями

16 апреля 2026 г.
009
Доступна стенограмма

В этом выпуске честный разговор о том, как технологии пытаются имитировать наше мышление и почему мы так легко на это покупаемся. Мы разберем концепцию «второго мозга», изучим манифест LLM-Wiki Андрея Карпатого и поймем, почему красивый граф в Obsidian часто оказывается лишь «интеллектуальным порно», подменяющим реальную мыслительную работу имитацией мышления.

Продолжительность: 1 час 54 минуты・Скачать mp3

Антон нажал RESET_ Антон нажал RESET_

Человек в цифровую эпоху. Чувства против алгоритмов. Порядок против хаоса. Дизайн, технологии, будущее. Антон нажал RESET_

Содержание выпуска  Ссылка на этот раздел

  • 00:00:00 Информационный шум и усталость от «готовых знаний»
  • 00:08:06 Манифест LLM-Wiki Андрея Карпатого: база знаний на стероидах ИИ
  • 00:14:34 Технический слой: Obsidian CLI, агенты и «компилируемая вики»
  • 00:20:34 Главный вопрос: какой смысл в исследовании, которое за вас делает машина?
  • 00:32:00 «Петля глупости» и опасные фантазии о загрузке мозга (brain upload)
  • 00:55:50 Перформативная стадия: почему ясность перестала быть целью
  • 01:00:00 Джастин Мёрфи: почему PKM — это чушь, и как провести линию через свой граф
  • 01:12:50 Проблема устаревания данных и «эффект Голлума» в заметках
  • 01:46:00 Итоги эксперимента: от летописи к «Игровому руководству»

В этом выпуске упоминается  Ссылка на этот раздел

  • Андрей Карпатый (Andrej Karpathy) — сооснователь OpenAI и его концепция LLM-Wiki.
  • Джастин Мёрфи (Justin Murphy) — эссе «Personal Knowledge Management is Bullshit».
  • Моё эссе Универсальная пилюля
  • Венкатеш Рао (Venkatesh Rao) — идеи об «эффекте Голлума» и «интеллектуальном порно».
  • Тобиас ван Шнайдер (Tobias van Schneider) — критика перформативности в дизайне и жизни.
  • Энди Матушак (Andy Matuschak) — концепция «вечнозеленых заметок».
  • Джеймс Скотт — книга «Благими намерениями государства».
  • Инструменты: Obsidian, ChatGPT, NotebookLM.
  • Концепция: «Игровое руководство»

Цитаты из выпуска  Ссылка на этот раздел

  • «Основная идея исследования — расширить кругозор, а не просто потратить токены. Какой смысл в том, чтобы за вас думала машина?» 
  • «Ясность не является целью; всё сводится к сигналу о статусе внутри группы». 
  • «Проведите линию через свой граф. Сильное письмо требует решимости, а не только организации». 
  • «Если ваш мозг ожидает, что внешняя система что-то запомнит, он перестаёт беспокоиться о том, чтобы это понять». 

Ключевые мысли  Ссылка на этот раздел

  • ИИ как летописец, а не творец. Системы вроде LLM-Wiki хороши для компиляции и поиска связей, но они склонны к синтезу и сглаживанию углов. Истинное мышление рождается в «трении» и неразрешённых противоречиях, которые модель пытается устранить. 
  • Ловушка «Второго мозга». Мы часто начинаем обслуживать систему (закидывать заметки, настраивать плагины), забывая, что цель — эффективно мыслить, а не строить красивый граф связей. Это «эффект Голлума», где инструмент начинает управлять хозяином. 
  • Принцип «File over App». Ваши знания должны принадлежать вам в виде простых Markdown-файлов. Технологии меняются, агенты обновляются, но доступ к вашему контексту должен оставаться независимым от конкретного сервиса или базы данных. 
  • Режим архитектора текста. Будущее за взаимодействием с ИИ в формате «Игрового руководства». Это процесс, где автор сохраняет волю и голос, используя ИИ как инструмент для сборки сложных структур, но оставляя за собой право «провести финальную линию». 

Стенограмма выпуска ✨  Ссылка на этот раздел

00:00

Сегодня должен получиться интересный выпуск. Я набросал целый черновик тем, о которых нужно поговорить. С одной стороны, я люблю готовиться и исследовать — я делаю это постоянно, и сегодняшний эпизод в том числе об этом. При этом я понимаю, что сейчас подобных исследований, «готовых» знаний и пошаговых инструкций стало слишком много.

00:46

Ранее я уже упоминал: стоит зайти в LinkedIn, Threads или YouTube, и ты в 99% случаев безошибочно понимаешь, какой пост увидишь следующим. Алгоритмы YouTube чуть более разносторонние, но в целом лента перенасыщена форматами вроде «пять шагов к успеху» или «десять полезных советов». Я стараюсь от этого отстраняться.

01:49

Исследовательский интерес помогает мне понять живое и настоящее. Мой подкаст — для тех, кто столкнулся с ним впервые — как раз об этом: о столкновении живого человека с технологиями. Мы можем использовать их с умом, ограниченно или, наоборот, очень эффективно.

02:33

Неделю назад я столкнулся с темой, которая, как мне кажется, станет точкой входа для многих. На мой сайт заходит много людей по запросам из Google про «вечнозеленые заметки» или технические настройки инструментов вроде FFmpeg. Люди сегодня настроены на поиск быстрых решений и мгновенного результата. Иногда это доходит до античеловечности, когда идут «по головам».

04:05

Если вы пришли сюда за четкими рекомендациями и списками «делай раз, делай два», то вряд ли их получите. Это скорее человеческий подкаст. Он отражает мой взгляд на мир, те несостыковки, которые я вижу, и то, как это понимание может помочь человеку, бизнесу или даже планете.

05:03

Сегодня мы поговорим про заметки, графы знаний, Obsidian и искусственный интеллект. Меня зовут Антон Малявский, мой подкаст — о человеке в цифровую эпоху.

05:39

Прежде чем перейти к теме, напомню: вы можете подписаться на платформе, где слушаете подкаст, а также на мой уютный Telegram-канал и рассылку. Это разные каналы общения, ссылки на которые есть в описании. Ваша оценка в Apple Podcasts или лайк в Яндекс Музыке очень помогают увеличить охват. И, конечно, пишите мне на почту — я всегда за живое общение и сотрудничество.

08:06

Начнем с твита Андрея Карпатого (Andrej Karpathy), сооснователя и бывшего сотрудника OpenAI. Он написал о создании базы знаний на основе LLM (Large Language Model). Карпатый отмечает, что современные модели отлично подходят для работы с исследовательскими интересами. Значительная часть его «трафика токенов» теперь уходит не на манипуляции с кодом, а на работу со знаниями, хранящимися в формате Markdown и изображениях.

09:33

Эта идея меня зацепила. Я веду заметки в Obsidian примерно с 2021 года. Скажу честно: заметок у меня немного, и я этому рад. Прочитав твит, который набрал огромную популярность, я решил провести эксперимент: создал отдельное хранилище Obsidian и воссоздал описанную Карпатым архитектуру.

11:34

Я общался с ИИ-агентом, чтобы прописать правила работы — файл agents.md. Использовал Obsidian CLI, что дало ощущение «входа через служебный ход»: вместо привычного интерфейса — командная строка.

12:20

Структура системы достаточно простая:

  • Папка raw — для сырых данных.
  • Файлы agents.md (правила) и skills (навыки работы с Obsidian).
  • Папка wiki — уровень «вечнозеленых» заметок (после обработки сырых данных).
  • Папка out — финальный результат: компилируемые файлы для подготовки к выступлениям или подкастам, где контекст раскрыт плавно и без внутренних ссылок.

14:34

Интересное решение, к которому я пришел: разделение источников внутри папки raw. Мы не можем относиться ко всем данным одинаково — у нас нет «единой правды». В процессе настройки у меня с ChatGPT проскочило понятие «компилируемая вики». Это база знаний, которая с помощью генеративной модели постоянно переписывает и уплотняет сама себя. Она видит пересечения, удаляет лишнее и перегруппировывает информацию.

18:40

Позже Карпатый опубликовал на GitHub манифест под названием LLM-Wiki. Люди тут же начали делать форки, превращая простую идею в сложный «комбайн». Я тоже сначала загорелся, но потом остыл. И вот почему.

20:34

Я наткнулся на критический комментарий к идее Карпатого: «Зачем нужны исследовательские базы данных, в которых вы сами не пытались разобраться? Смысл исследования — расширить кругозор и отобрать важное. Какой смысл в том, чтобы это делала машина?»

21:20

Я абсолютно согласен с этой мыслью. Конечно, поиграть с технологией, посмотреть, «как она мыслит» — это прекрасно и по-детски любопытно. Но есть риск. Если 100 человек используют инструмент неправильно, а ты найдешь свой, верный путь — это здорово. Однако важно не становиться просто «священником» технологии, а оставаться исследователем.

24:11

Ответ Карпатого на критику был глубоким: «Основная идея в том, чтобы обойтись без написания текста, но не без чтения и размышления». Он сам обрабатывает документы, читая резюме и выводы модели о том, как новая информация вписывается в общую картину. Это гибкий подход.

26:09

Я продолжаю эксперимент: закидываю в систему диктофонные записи (мой «аналоговый» слой), субтитры видео, фрагменты книг. Установил строгое правило: добавлять только то, что действительно прочитал или прослушал.

29:42

Меня поразило, как модель связывает знания. Для этого проекта я использовал gpt-4o-mini (или аналогичную среднего уровня) — её способностей вполне хватает для базовой компиляции. Для «режима обслуживания» (Lint), когда нужно глубоко проверить связи и актуальность, можно включать более продвинутые модели.

32:00

Но тут мой внутренний скептик сказал: «Стой, Антон, ты не туда идешь». Пока индустрия восторгалась «гениальностью» Карпатого, я начал замечать «петлю глупости». В чем она заключается? Люди одобряют вещи, которые звучат красиво, но лишены смысла.

40:40

Одна женщина написала: «Когда нас не станет, наши дети унаследуют интерактивную карту нашего разума, страстей и идей». Звучит романтично, правда? Карпатый ответил ей, что это «управляемая версия загрузки мозга» (brain upload). Он даже предположил появление стартапов, которые после видеоинтервью будут создавать вашу LLM-симуляцию с API-эндопоинтом.

45:00

Меня это пугает. Люди ретвитят такие мысли как откровение, не включая критическое мышление. Это не «загрузка мозга». Это создание цифрового оракула, компаньона, но никак не перенос личности.

48:50

Сегодня люди ищут быстрых и громких решений — «фейерверков». Но за этим часто нет содержания. Дизайнер Тобиас ван Шнайдер (Tobias van Schneider) верно подметил: сообщество «второго мозга» часто страдает псевдоинтеллектуализмом и сконструированной сложностью. Простые вещи делают избыточно сложными, чтобы «сигнализировать» о статусе внутри группы. Ясность не является целью — целью является сигнал.

59:22

Венкатеш Рао (Venkatesh Rao) использовал отличное выражение — «интеллектуальное порно». Это как раз про те самые красивые графы знаний в Obsidian, которыми люди хвастаются, вместо того чтобы создавать что-то реальное.

01:00:00

Я вспомнил эссе Джастина Мёрфи (Justin Murphy) «Personal Knowledge Management is Bullshit». Его главная мысль: «Проведите линию через свой граф». Сильное письмо и сильное мышление требуют решимости — способности отсечь лишнее, зачеркнуть банальное и сказать: «Я считаю вот так». Граф — это просто облако точек, а линия — это ваш путь и ваша воля.

01:08:15

Я сам почти не пользуюсь визуализацией графа в Obsidian. За три года — ноль раз. Вместо этого я использую индексы и ссылки. Иногда мне важнее просто выгрузить структуру мыслей списком, чем писать складные абзацы.

01:11:30

Важный технический момент: принцип File over App. Ваши знания должны принадлежать вам в виде простых Markdown-файлов, а не быть заперты внутри базы данных конкретного приложения (как это случилось с некоторыми функциями Logseq). В LLM-Wiki это соблюдено — вы можете натравить на папку любую модель.

01:12:50

Теперь о проблеме устаревания данных. Агент относится к старой и новой информации одинаково. Если в вашей базе 10 000 заметок, как модель поймет, что вы уже не согласны с тем, что писали два года назад? Для точных наук это критично. Для философии — это повод для игры. Но полагаться на такую систему как на «источник истины» нельзя.

01:31:00

Что такое мозг? Нас невозможно описать даже миллионом заметок. Это будет лишь бледная копия. Живое общение с человеком — женой, ребенком или коллегой — дает то, чего не даст ни один «оракул».

01:34:50

Еще одна проблема: «эффект Голлума». Когда система ожидает, что вы что-то запишете, мозг перестает стараться это запомнить. Но самое ценное в исследовании — это как раз неразрешенное противоречие между источниками. LLM всегда стремится к синтезу, к сглаживанию углов. Однако истина часто рождается именно в трении и шероховатостях.

01:42:50

Цель не в том, чтобы «делать заметки», а в том, чтобы эффективно мыслить. Сейчас я разрабатываю свой инструмент — «инструмент для возвращения к важному». Он будет простым и поможет ежедневно направлять внимание на то, что действительно имеет значение для вас самих, а не для системы.

01:45:00

Энди Матушак (Andy Matuschak) как-то заметил, что самые эффективные мыслители часто вообще не делают заметок во время чтения. Они просто делают свое дело.

01:46:00

Для меня LLM-Wiki на данный момент — это «летописец». Библиотека моих мыслей, написанная по моим словам. Это кривое зеркало, странности и ошибки которого я хочу использовать в своих интересах. Мне нравится технология RAG (Retrieval-Augmented Generation) — как в NotebookLM — за то, что она дает доступ к контексту без огромных накладных расходов на «обслуживание» системы.

01:50:00

Завершая этот длинный выпуск: я начинаю эксперимент под названием «Игровое руководство». Тексты в эпоху ИИ становятся игрушками. Я хочу создать «открытую лабораторию» для совместной игры с моделями, где мы будем выступать в роли «архитекторов текста». Я буду публиковать «протоколы сборки», показывая, где в тексте голос автора, а где — работа алгоритма.

01:53:00

Это был самый долгий выпуск. Если вам откликнулось — ставьте лайки, пять звездочек в Apple Podcasts и подписывайтесь на рассылку. Все ссылки в описании. Спасибо за внимание. Будьте людьми. Пока.

Есть что сказать? Напишите мне!
Комментировать по почте
Понравилось? Подпишитесь на меня!
RSS Телеграм