17,000개의 시그널
제 Obsidian 볼트에는 17,913개의 시그널 노트가 있습니다. 각 노트는 연구 논문, 블로그 글, 보안 권고, 또는 커뮤니티 토론으로, 제 스캐너가 제가 추적하는 아홉 가지 주제 중 하나와 잠재적으로 관련이 있다고 판단한 것들입니다. AI 안전성, LLM 에이전트, Claude/Anthropic, SwiftUI/iOS, 디자인 시스템, 크리에이티브 코딩, ML 연구, 과학, 보안이 그 주제입니다. 이것은 제가 취향 인프라라고 부르는 것의 운영 계층입니다 — 미적 판단과 편집 판단을 즉흥적으로 적용하는 것이 아니라 시스템에 내장해야 한다는 개념이죠.
17,913개의 시그널 중 꼼꼼히 읽은 것은 약 200개입니다. 또 다른 500개는 의사결정, 블로그 글, 디자인 선택에 영향을 미쳤습니다. 나머지 17,213개는 스캔하고, 점수를 매기고, 분류만 하고 행동으로 옮기지 않은 노이즈입니다.
노이즈는 낭비가 아닙니다. 노이즈가 바로 측정 도구입니다.
점수 매기기의 문제
모든 시그널은 네 가지 차원에 가중치를 적용한 0에서 1 사이의 종합 점수를 받습니다: 관련성(제 주제와 일치하는가), 실행 가능성(이것으로 무언가 할 수 있는가), 깊이(실질적인 내용이 있는가), 권위(출처가 신뢰할 만한가). 0.55 이상의 시그널은 도메인 폴더에 기록됩니다. 0.40에서 0.55 사이는 인박스로 갑니다. 0.40 미만은 건너뜁니다.
이 임계값은 임의로 선택한 것이 아니라 보정된 것입니다. 몇 달간 스캔하고, 각 버킷에 무엇이 들어갔는지 검토하고, 시그널 대 노이즈 비율이 적절하다고 느껴질 때까지 조정한 결과입니다. 처음에 0.55는 너무 높았습니다(중요한 논문을 놓쳤습니다). 0.30은 너무 낮았습니다(인박스가 쓸모없는 것들로 가득 찼습니다). 현재 임계값은 전체 주제에 걸쳐 스캔당 약 15-30개의 도메인 기록과 10-20개의 인박스 항목을 생성합니다.
이 점수 시스템에는 제가 이해하고 있는 편향이 있습니다:
연구 논문은 권위 점수 0.75에서 시작합니다. 일치하는 카테고리와 키워드를 가진 arXiv 논문은 내용 평가 전에 이미 0.75를 받습니다. 이것은 의도적입니다. 관련 분야의 동료 심사를 거친 연구는 블로그 글이나 HN 토론에는 없는 기본적인 신뢰성을 갖고 있기 때문입니다.
보안 권고는 권위 점수 0.95에서 시작합니다. NVD의 CVE나 GitHub의 GHSA는 내용과 관계없이 높은 점수를 받습니다. 취약점 권고의 존재 자체가 시그널이기 때문입니다. 내용은 사실 그 자체에 비하면 부차적입니다.
HN 토론은 권위 점수 0.55에서 시작합니다. 커뮤니티 토론은 분위기 파악과 발견에는 유용하지만 사실 확인에는 신뢰하기 어렵습니다. 새로운 논문에 대한 높은 점수의 HN 스토리는 발견 메커니즘이지 출처가 아닙니다. 논문 자체가 출처입니다.
이 기본값들은 출처 신뢰성에 대한 제 판단을 체계화한 것입니다. 다른 우선순위를 가진 다른 사람이라면 다른 기본값을 설정할 것입니다. 이 기본값은 객관적 진실이 아닙니다. 신뢰가 어디서 오는지에 대한 체계화된 의견입니다. 전체 점수 매기기 방법론은 시그널 점수 파이프라인에 문서화되어 있습니다.
노이즈가 가르쳐주는 것
대부분의 스캔은 80-100개의 도메인 기록과 20-40개의 인박스 항목을 생성합니다. 대다수는 노이즈입니다: 절대 읽지 않을 논문, 사용하지 않는 소프트웨어의 권고, 추적하지만 행동으로 옮기지 않는 주제에 대한 토론들.
노이즈는 세 가지를 가르쳐줍니다:
분야의 윤곽. ai-safety 스캔이 일관되게 기계적 해석 가능성과 RLHF 관련 논문을 반환하면, 연구 커뮤니티가 어디에 집중하고 있는지 알 수 있습니다. llm-agents 스캔이 갑자기 한 주에 에이전트 코드 리뷰 관련 논문 다섯 편을 생성하면, 트렌드가 형성되고 있다는 뜻입니다. 개별 논문은 노이즈일 수 있습니다. 빈도 분포가 시그널입니다.
놀라움의 기준선. ai-safety 주제에서 0.65점인 논문은 특별할 것 없습니다. 0.91점인 논문은 놀랍습니다. 이 놀라움은 0.65가 어떤 것인지에 대한 기준선이 있기 때문에만 의미가 있습니다. 노이즈가 기준선을 확립합니다. 시그널은 기준선으로부터의 이탈입니다.
커버리지의 빈틈. LiteLLM 공급망 공격이 발생했을 때, 제 scan-intel 파이프라인은 HN 키워드 매칭을 통해 이를 포착했습니다. 당시 파이프라인에는 보안 권고 소스(NVD, OSV, GHSA)가 없었습니다. 이 빈틈은 사고가 그 사이로 빠져나갈 때까지 보이지 않았습니다. 그다음 주에 세 개의 보안 권고 소스를 추가하여 파이프라인을 확장했습니다. 이 새로운 소스에서 오는 노이즈는 정상적인 권고 트래픽이 어떤 모습인지 가르쳐주고 있습니다. 다음 빈틈은 더 일찍 보일 것입니다.
확장
파이프라인은 6개 소스로 시작했습니다. 현재 12개입니다:
| 소스 | 유형 | 포착하는 것 |
|---|---|---|
| arXiv | API | 카테고리와 키워드별 연구 논문 |
| Semantic Scholar | API | 인용 데이터가 포함된 학술 논문 |
| Hacker News | API | 포인트 가중 관련성이 적용된 커뮤니티 토론 |
| HuggingFace Daily Papers | API | HF 커뮤니티가 선별한 ML 논문 |
| Lobsters | RSS | 기술 커뮤니티 토론 |
| Simon Willison | Atom | 실무자의 AI 도구 코멘터리 |
| Anthropic blog | Scrape | Anthropic 공식 발표 |
| Papers With Code | Scrape | 구현이 포함된 논문 |
| Apple ML Research | Scrape | Apple의 ML 연구 출판물 |
| NVD | API | CVSS 점수가 포함된 CVE (2026년 3월 추가) |
| OSV | API | 모니터링 중인 15개 패키지의 패키지별 권고 |
| GitHub Advisories | CLI | 별칭 교차 참조가 포함된 GHSA 항목 |
각 소스는 노이즈를 추가했습니다. 하지만 각 소스는 다른 소스가 놓친 것을 포착하기도 했습니다. LangChain 경로 탐색 취약점은 GHSA에는 나타났지만 HN에는 나타나지 않았습니다. Claudini autoresearch 논문은 HN에 나타나기 12시간 전에 arXiv에 나타났습니다. LiteLLM 자격 증명 탈취 도구는 NVD에 아직 등록되지 않은 MAL-2026-2144 식별자와 함께 OSV에 나타났습니다.
별칭 기반 중복 제거 시스템은 소스 간 중복을 통합합니다. NVD, OSV, GHSA에 동일한 CVE가 나타나면 세 개가 아닌 하나의 시그널 노트를 생성합니다. 첫 번째 실행에서 85개 보안 시그널 중 6개가 별칭으로 중복 제거되었습니다. 소스가 성숙해짐에 따라 중복 제거율은 증가할 것입니다.
트리아지 규율
17,000개의 시그널은 트리아지 규율을 요구합니다. 제 방식은 단순합니다: 출력을 훑어보고, 높은 점수를 읽고, 나머지는 분류합니다.
일반적인 스캔은 실행에 3분, 검토에 2분 걸립니다. 0.80 이상의 모든 시그널을 읽습니다(보통 스캔당 2-5개). 0.60-0.80 범위에서 놀라운 것이 있는지 훑어봅니다. 키워드가 눈에 띄지 않는 한 0.60 미만은 무시합니다.
스캔은 습관입니다. 아침 스캔, 저녁 스캔. 어떤 날은 100개 이상의 도메인 기록이 생성되고(새 arXiv 배치가 나올 때), 어떤 날은 하나도 생성되지 않습니다(7일 룩백 윈도우가 완전히 중복 제거된 경우). 변동은 정상입니다. 습관은 일정합니다.
가장 중요한 시그널은 제가 만들거나 쓰는 것에 변화를 주는 시그널입니다. Claudini 논문(0.83)은 블로그 글이 되었습니다. LiteLLM 공급망 공격(HN에서 0.67, 이후 OSV에서 0.62로 확인)은 블로그 글 하나와 기존 글 두 개의 인용 업데이트가 되었습니다. LICA 데이터셋(scan-intel이 아니라 수동으로 발견)은 디자인 취향 엔진 계획이 되었습니다. SlopCodeBench 논문(0.77)은 복합 컨텍스트 글의 인용 후보가 되었습니다.
대부분의 시그널은 아무것도 되지 않습니다. 볼트에 조용히 분류되어 기준선을 확립하고, 새로운 시그널이 오래된 시그널과 연결되어 어느 쪽도 단독으로는 담고 있지 않았던 통찰을 만들어내는 날을 기다립니다.
기억으로서의 볼트
볼트는 읽기 목록이 아닙니다. 읽지 않은 17,213개의 시그널을 읽을 생각은 없습니다. 볼트는 제가 관찰하는 동안 이 분야가 생산한 것에 대한 쿼리 가능한 기억입니다 — 개별 노드보다 연결의 구조가 더 중요한 지식 토폴로지의 한 형태입니다.
공급망 보안에 대한 블로그 글을 쓸 때, 지난 90일간 “security”와 “supply-chain”으로 태그된 모든 시그널을 볼트에서 검색할 수 있습니다. 검색 결과에는 LiteLLM 공격, Trivy 침해, MCPTox 벤치마크, Clinejection 공격, AI 인프라 패키지에 영향을 미치는 수십 개의 CVE가 포함됩니다. 각각은 잠재적 인용, 데이터 포인트, 또는 반론입니다.
새로운 기능을 계획할 때, 해당 도메인과 관련된 시그널을 검색할 수 있습니다. LICA 데이터셋은 scan-intel 실행에서 0.72의 design-systems 시그널로 나타났습니다. 그래픽 디자인 데이터셋을 찾고 있지 않았기 때문에 목적 지향적 검색으로는 발견하지 못했을 것입니다. 키워드(“design systems,” “typography”)가 일치했기 때문에 스캔이 이를 표면화시켰습니다. 볼트가 연결을 만들어준 것입니다.
읽지 않은 17,213개의 시그널은 낭비된 노력이 아닙니다. 필요할 때 쿼리할 수 있는 인덱싱된 컨텍스트입니다. 스캔 비용은 저렴합니다. 인덱싱은 자동입니다. 가치는 몇 달 전에 분류된 답이 질문과 연결되는 순간까지 잠재되어 있습니다. 이것이 복합 컨텍스트의 실제 적용입니다: 오늘 축적한 각 시그널이 미래 종합의 빠진 조각이 될 수 있습니다.
FAQ
어떤 도구를 사용하나요?
스캐너는 커스텀 Python 스크립트(scan_intel.py, 약 1,200줄)로, 12개 소스에서 데이터를 가져오고, 트리아지 엔진으로 점수를 매기고, 세 가지 레이어(URL, 논문 ID, 권고 별칭)에서 중복을 제거하고, Obsidian 볼트에 마크다운 노트를 기록합니다. 볼트는 쿼리에 Dataview를 사용합니다. 설정은 JSON에 있습니다. 상태(확인된 ID)는 JSON에 90일 정리와 함께 저장됩니다.
비용이 얼마나 드나요?
무료입니다. 모든 소스는 무료 티어 API 또는 공개 RSS 피드입니다. arXiv, Semantic Scholar, OSV, HN Algolia API는 인증이 필요 없습니다. NVD는 속도 제한이 있는 무료 티어를 제공합니다(30초당 5개 요청). GitHub advisories는 기존 GitHub 세션으로 인증하는 gh CLI를 사용합니다.
정보 과부하를 어떻게 피하나요?
점수 임계값과 트리아지 규율로 피합니다. 스캔당 출력 검토에 2분을 씁니다. 0.60 미만의 시그널은 읽지 않고 분류합니다. 볼트는 계속 커지지만 제 주의력은 그에 비례해 늘어나지 않습니다. 볼트는 기억이지 읽기 과제가 아닙니다.
이 시스템을 사용할 수 있나요?
아키텍처는 이식 가능합니다: API에서 데이터를 가져오고, 가중 기준으로 점수를 매기고, 중복을 제거하고, 지식 베이스에 기록합니다. 구체적인 소스, 키워드, 임계값은 제 관심사에 맞게 보정되어 있습니다. 직접 사용하려면 자신만의 주제, 키워드, 권위 기준선을 정의해야 합니다. 점수 매기기 엔진과 중복 제거 로직은 도메인에 구애받지 않습니다. 제 Obsidian 가이드에서 볼트 아키텍처와 쿼리 패턴을 자세히 다루고 있으며, 하이브리드 리트리버 글에서 이 코퍼스에 대한 키워드 검색과 시맨틱 검색을 결합하는 방법을 설명합니다.