Антон Малявский Антон Малявский

Теги / Инструмент

RSS


28 апреля 2026 г.
Из серии Карточки (crds)
  1. Встречайте карточки

В 2024 году я написал заметку с названием «Я хочу создать продукт».

Сейчас это название звучит для меня немного странно, потому что на странице «Карточек» я пишу обратное: у меня не было задачи «сделать ещё один цифровой продукт». Но противоречия здесь нет. Я не хотел делать продукт ради продукта. Я хотел найти форму для того, что уже было частью моей жизни: привычки возвращаться к важному и маленьких точек внимания, которые помогают не потеряться в потоке.

Интерфейс Obsidian: список категорий для интервальных заметок: петля-делаю, петля-вспоминаю, петля-записываю, петля-пишу, петля-думаю, петля-человек, петля-читаю, петля-смотрю.
Мой Obsidian: управление вниманием до «Карточек»

Тогда это ещё не было отдельной вещью, которую можно открыть по ссылке. Скорее был рабочий контур: мои заметки, карточки, привычка возвращаться к ним и попытка понять, какой формы всё это просит. Я не знал, получится ли собрать из этого самостоятельный инструмент, но уже чувствовал, что сама работа над ним что-то проясняет.

Вот что я писал 2024-07-27:

Насчёт работы над crds. Работая над продуктом, которого нет технически, я могу извлечь очень много пользы от самого процесса проектирования продукта, понимания что это и зачем, для кого, как. От айдентики до интерфейса и размышлений о целесообразности применения той или иной технологии.

Важно, что я уже сейчас пользуюсь этим продуктом каждый день. Просто пока это собрано из подручных инструментов. Но это даёт мне возможность понять, что нужно и чего не хватает, а что лишнее и только создаёт лишнюю нагрузку.

Лучший продукт сначала для себя самого.

Сейчас у этой старой заметки появилось продолжение. Я собрал первую версию карточек и открыл её для всех.

На экране карточки с текстом: «Не превращай живое слишком рано в продукт, систему или объяснение…» и другой текст.
Интерфейс «Карточек» (crds) v.1.0

Это всё ещё очень простая вещь. В ней нет аккаунтов, сложной системы и большого объяснительного слоя. Можно просто зайти и попробовать: бесплатно и без регистрации.

Главное для меня в другом: теперь это не только набросок и не только внутренняя практика, а рабочий инструмент. Я сам пользуюсь карточками каждый день: добавляю мысли, вопросы, ссылки, напоминания, маленькие шаги. Смотрю, как они возвращаются, что срабатывает, что оказывается лишним, что хочется изменить.

Текст «Мои мысли» и «111 карт» на черном фоне.
Моя колода в «Карточках»

Теперь мне важно увидеть, как это будет работать не только у меня. Буду рад, если вы тоже попробуете и расскажете о своём опыте.

В 2024 году это была фраза про желание. Теперь у неё есть адрес: crds.day — попробуйте бесплатно и без регистрации. 

Как только ты уходишь в сложную инфраструктуру, ты начинаешь обслуживать её, а не идею.

По этому Держи это простым, пока оно остаётся простым.

Не нужно усложнять то, что и так работает. Может показаться, что само по себе усложнение делает вещь лучше, но это не так. Простота тоже преимущество. Чем проще инструмент, тем ближе ты к самой идее.

Но важно не путать это с минимально жизнеспособным продуктом. В современной продуктовой логике MVP это, скорее, что-то собранное быстро и «на коленке». И эта логика понятна – лучшее решение где-то впереди и мы должны сделать хоть один тестовый полу-шаг к нему. Но почему бы не сделать первый, пусть и простой, но твёрдый шаг. Вместо абстрактной задачи «проверить гипотезу» стоит сразу решать основную задачу, но минимальными средствами. Просто первая версия должна быть максимально аэродинамичной.

Эта логика относится не только к первым шагам, но ко всему пути. Нужно выбирать простые технологии.

Например, преимущество crds в том, что сейчас это single file application – приложение в виде index.html – внутри вся логика, js, css. Кажется, что нудно разделять на элементы и зоны ответственности, планировать масштабирование, бэкенд. Но это ошибка. Сейчас я могу пользоваться преимуществом гибкости – легко закинуть код в любой чат, покрутить, что-то изменить. Очень надеюсь, что я смогу сохранить это простым.

9 апреля 2026 г.

Оригинальный gist Андрея Карпатого (LLM Wiki)

TEXT
 1# LLM Wiki
 2
 3A pattern for building personal knowledge bases using LLMs.
 4
 5This is an idea file, it is designed to be copy pasted to your own LLM Agent (e.g. OpenAI Codex, Claude Code, OpenCode / Pi, or etc.). Its goal is to communicate the high level idea, but your agent will build out the specifics in collaboration with you.
 6
 7## The core idea
 8
 9Most people's experience with LLMs and documents looks like RAG: you upload a collection of files, the LLM retrieves relevant chunks at query time, and generates an answer. This works, but the LLM is rediscovering knowledge from scratch on every question. There's no accumulation. Ask a subtle question that requires synthesizing five documents, and the LLM has to find and piece together the relevant fragments every time. Nothing is built up. NotebookLM, ChatGPT file uploads, and most RAG systems work this way.
10
11The idea here is different. Instead of just retrieving from raw documents at query time, the LLM **incrementally builds and maintains a persistent wiki** — a structured, interlinked collection of markdown files that sits between you and the raw sources. When you add a new source, the LLM doesn't just index it for later retrieval. It reads it, extracts the key information, and integrates it into the existing wiki — updating entity pages, revising topic summaries, noting where new data contradicts old claims, strengthening or challenging the evolving synthesis. The knowledge is compiled once and then *kept current*, not re-derived on every query.
12
13This is the key difference: **the wiki is a persistent, compounding artifact.** The cross-references are already there. The contradictions have already been flagged. The synthesis already reflects everything you've read. The wiki keeps getting richer with every source you add and every question you ask.
14
15You never (or rarely) write the wiki yourself — the LLM writes and maintains all of it. You're in charge of sourcing, exploration, and asking the right questions. The LLM does all the grunt work — the summarizing, cross-referencing, filing, and bookkeeping that makes a knowledge base actually useful over time. In practice, I have the LLM agent open on one side and Obsidian open on the other. The LLM makes edits based on our conversation, and I browse the results in real time — following links, checking the graph view, reading the updated pages. Obsidian is the IDE; the LLM is the programmer; the wiki is the codebase.
16
17This can apply to a lot of different contexts. A few examples:
18
19- **Personal**: tracking your own goals, health, psychology, self-improvement — filing journal entries, articles, podcast notes, and building up a structured picture of yourself over time.
20- **Research**: going deep on a topic over weeks or months — reading papers, articles, reports, and incrementally building a comprehensive wiki with an evolving thesis.
21- **Reading a book**: filing each chapter as you go, building out pages for characters, themes, plot threads, and how they connect. By the end you have a rich companion wiki. Think of fan wikis like [Tolkien Gateway](https://tolkiengateway.net/wiki/Main_Page) — thousands of interlinked pages covering characters, places, events, languages, built by a community of volunteers over years. You could build something like that personally as you read, with the LLM doing all the cross-referencing and maintenance.
22- **Business/team**: an internal wiki maintained by LLMs, fed by Slack threads, meeting transcripts, project documents, customer calls. Possibly with humans in the loop reviewing updates. The wiki stays current because the LLM does the maintenance that no one on the team wants to do.
23- **Competitive analysis, due diligence, trip planning, course notes, hobby deep-dives** — anything where you're accumulating knowledge over time and want it organized rather than scattered.
24
25## Architecture
26
27There are three layers:
28
29**Raw sources** — your curated collection of source documents. Articles, papers, images, data files. These are immutable — the LLM reads from them but never modifies them. This is your source of truth.
30
31**The wiki** — a directory of LLM-generated markdown files. Summaries, entity pages, concept pages, comparisons, an overview, a synthesis. The LLM owns this layer entirely. It creates pages, updates them when new sources arrive, maintains cross-references, and keeps everything consistent. You read it; the LLM writes it.
32
33**The schema** — a document (e.g. CLAUDE.md for Claude Code or AGENTS.md for Codex) that tells the LLM how the wiki is structured, what the conventions are, and what workflows to follow when ingesting sources, answering questions, or maintaining the wiki. This is the key configuration file — it's what makes the LLM a disciplined wiki maintainer rather than a generic chatbot. You and the LLM co-evolve this over time as you figure out what works for your domain.
34
35## Operations
36
37**Ingest.** You drop a new source into the raw collection and tell the LLM to process it. An example flow: the LLM reads the source, discusses key takeaways with you, writes a summary page in the wiki, updates the index, updates relevant entity and concept pages across the wiki, and appends an entry to the log. A single source might touch 10-15 wiki pages. Personally I prefer to ingest sources one at a time and stay involved — I read the summaries, check the updates, and guide the LLM on what to emphasize. But you could also batch-ingest many sources at once with less supervision. It's up to you to develop the workflow that fits your style and document it in the schema for future sessions.
38
39**Query.** You ask questions against the wiki. The LLM searches for relevant pages, reads them, and synthesizes an answer with citations. Answers can take different forms depending on the question — a markdown page, a comparison table, a slide deck (Marp), a chart (matplotlib), a canvas. The important insight: **good answers can be filed back into the wiki as new pages.** A comparison you asked for, an analysis, a connection you discovered — these are valuable and shouldn't disappear into chat history. This way your explorations compound in the knowledge base just like ingested sources do.
40
41**Lint.** Periodically, ask the LLM to health-check the wiki. Look for: contradictions between pages, stale claims that newer sources have superseded, orphan pages with no inbound links, important concepts mentioned but lacking their own page, missing cross-references, data gaps that could be filled with a web search. The LLM is good at suggesting new questions to investigate and new sources to look for. This keeps the wiki healthy as it grows.
42
43## Indexing and logging
44
45Two special files help the LLM (and you) navigate the wiki as it grows. They serve different purposes:
46
47**index.md** is content-oriented. It's a catalog of everything in the wiki — each page listed with a link, a one-line summary, and optionally metadata like date or source count. Organized by category (entities, concepts, sources, etc.). The LLM updates it on every ingest. When answering a query, the LLM reads the index first to find relevant pages, then drills into them. This works surprisingly well at moderate scale (~100 sources, ~hundreds of pages) and avoids the need for embedding-based RAG infrastructure.
48
49**log.md** is chronological. It's an append-only record of what happened and when — ingests, queries, lint passes. A useful tip: if each entry starts with a consistent prefix (e.g. `## [2026-04-02] ingest | Article Title`), the log becomes parseable with simple unix tools — `grep "^## \[" log.md | tail -5` gives you the last 5 entries. The log gives you a timeline of the wiki's evolution and helps the LLM understand what's been done recently.
50
51## Optional: CLI tools
52
53At some point you may want to build small tools that help the LLM operate on the wiki more efficiently. A search engine over the wiki pages is the most obvious one — at small scale the index file is enough, but as the wiki grows you want proper search. [qmd](https://github.com/tobi/qmd) is a good option: it's a local search engine for markdown files with hybrid BM25/vector search and LLM re-ranking, all on-device. It has both a CLI (so the LLM can shell out to it) and an MCP server (so the LLM can use it as a native tool). You could also build something simpler yourself — the LLM can help you vibe-code a naive search script as the need arises.
54
55## Tips and tricks
56
57- **Obsidian Web Clipper** is a browser extension that converts web articles to markdown. Very useful for quickly getting sources into your raw collection.
58- **Download images locally.** In Obsidian Settings → Files and links, set "Attachment folder path" to a fixed directory (e.g. `raw/assets/`). Then in Settings → Hotkeys, search for "Download" to find "Download attachments for current file" and bind it to a hotkey (e.g. Ctrl+Shift+D). After clipping an article, hit the hotkey and all images get downloaded to local disk. This is optional but useful — it lets the LLM view and reference images directly instead of relying on URLs that may break. Note that LLMs can't natively read markdown with inline images in one pass — the workaround is to have the LLM read the text first, then view some or all of the referenced images separately to gain additional context. It's a bit clunky but works well enough.
59- **Obsidian's graph view** is the best way to see the shape of your wiki — what's connected to what, which pages are hubs, which are orphans.
60- **Marp** is a markdown-based slide deck format. Obsidian has a plugin for it. Useful for generating presentations directly from wiki content.
61- **Dataview** is an Obsidian plugin that runs queries over page frontmatter. If your LLM adds YAML frontmatter to wiki pages (tags, dates, source counts), Dataview can generate dynamic tables and lists.
62- The wiki is just a git repo of markdown files. You get version history, branching, and collaboration for free.
63
64## Why this works
65
66The tedious part of maintaining a knowledge base is not the reading or the thinking — it's the bookkeeping. Updating cross-references, keeping summaries current, noting when new data contradicts old claims, maintaining consistency across dozens of pages. Humans abandon wikis because the maintenance burden grows faster than the value. LLMs don't get bored, don't forget to update a cross-reference, and can touch 15 files in one pass. The wiki stays maintained because the cost of maintenance is near zero.
67
68The human's job is to curate sources, direct the analysis, ask good questions, and think about what it all means. The LLM's job is everything else.
69
70The idea is related in spirit to Vannevar Bush's Memex (1945) — a personal, curated knowledge store with associative trails between documents. Bush's vision was closer to this than to what the web became: private, actively curated, with the connections between documents as valuable as the documents themselves. The part he couldn't solve was who does the maintenance. The LLM handles that.
71
72
73## Note
74
75This document is intentionally abstract. It describes the idea, not a specific implementation. The exact directory structure, the schema conventions, the page formats, the tooling — all of that will depend on your domain, your preferences, and your LLM of choice. Everything mentioned above is optional and modular — pick what's useful, ignore what isn't. For example: your sources might be text-only, so you don't need image handling at all. Your wiki might be small enough that the index file is all you need, no search engine required. You might not care about slide decks and just want markdown pages. You might want a completely different set of output formats. The right way to use this is to share it with your LLM agent and work together to instantiate a version that fits your needs. The document's only job is to communicate the pattern. Your LLM can figure out the rest.
20 марта 2026 г.
Избранное

Есть вещи, которые мы можем поместить в проекты, дать им дедлайны, описания, чёткое «от» и «до». Я сам пользуюсь папками и списками. Иногда просто отключаюсь от всего этого и работаю в состоянии полной свободы, несмотря ни на что. Иногда, наоборот, разворачиваю перед собой приборную панель и вижу, что и где лежит, куда это нужно положить, как это нужно развернуть.

Ключ парит в ночном небе рядом с яркой звездой, над мягким изогнутым светящимся горизонтом, уходящим вдаль.

Но есть и другое. Есть вещи, которые мы не можем описать и иногда не должны делать этого до какого-то момента. Есть то, что мы замечаем случайно, боковым зрением. Есть то, что возникает, но не может или не должно сразу оформляться. Есть вещи, которые больше любого ограничения количества символов в описании, больше любых списков, больше папок в облачном хранилище, больше календарей, больше нас самих.

Понимаю, что для работы с такими вещами нужны инструменты, которых сейчас не существует. И сегодня мне важно придумать хотя бы для себя такой инструмент, который позволяет касаться необъяснимого, тени.

Сейчас это звучит как что-то абстрактное. Но представьте, что вещь, которую вы сегодня не можете назвать, которая живёт и больше, чем любой ваш инструмент, завтра может изменить чью-то жизнь. У кого-то она может превратиться в книгу с миллионным тиражом, кому-то принести миллиарды долларов. Мы не знаем, как это будет. Для кого-то это обернётся славой, а для кого-то просто удовольствием.

В своей рассылке я делюсь тем, что хочется передать лично, без ленты и алгоритмов — медленный слой. Иногда это эссе, иногда заметка, иногда анонс выпуска подкаста, но всегда письмо из рук в руки.

Это не волшебный инструмент, который поможет печатать деньги или превращать ничто в нечто существенное. Я говорю лишь о том, что есть вещи, которые мы точно разрушаем, когда пытаемся встроить их в форму. И тут важно другое: мы разрушаем себя, когда пытаемся заключить это в рамки. Особенно на некоторых этапах жизни, при работе над важными вещами, когда проходим мимо едва заметных входов в лабиринт.

В моих силах создавать маленькие инструменты, которые помогают правильно работать с такими вещами. Они не выглядят мощными. Они не выглядят многофункциональными. Их простота может удивить. Но именно эта простота помогает прикоснуться, увидеть, удивиться и не зафиксировать слишком рано.

И это сейчас для меня главное. Возможно, речь как раз о прикосновении к чему-то самому настоящему в этом мире, и это нельзя спугнуть.

3 марта 2026 г.
Избранное

Готовые решения не всегда подходят для наших задач. Иногда они навязывают чужой способ работы, ограничивают или плохо сочетаются с требованиями к конфиденциальности и контролю.

Создавая инструменты для себя, ты решаешь задачу наиболее подходящим тебе способом (см. Чеши там, где зудит).

Но свой инструмент не всегда оправдан. Если есть зрелое решение с хорошей поддержкой команды или сообщества, разумнее использовать его, чем изобретать и поддерживать свой велосипед.

« Ранее
Позднее »