跳转至

OPC 一人公司案例库

这是 ContentOps 的第二个核心子系统(与栏目工作流并列): 周度扫描散落在中文圈各角落(生财有术 / 即刻 / 小红书 / 小报童 / AI 破局俱乐部等)的早期 OPC 真实经营案例,按方向沉淀,作为长期资产。

与栏目工作流的关系

栏目工作流(state/) 案例库(case-library/)
节奏 日度 周度
入口 /opc-explore <选题> /opc-cases-scan
信源 主流商业媒体(虎嗅 / 36Kr / 晚点) 早期 OPC 圈子(生财 / 即刻 / 小红书 / AI 破局等)
目的 当日栏目内容生产 长期案例资产沉淀
状态语义 临时通信通道(按天生灭) 长期资产(年度尺度保留)

集成方向: - 栏目 direction-explorer 在选题时只读案例库相应方向 ≤ 3 个高可信度案例的 frontmatter + 核心特征段,作为参考素材 - 案例库 不读 栏目状态文件 - 两个子系统不互相调用 subagent,只通过文件解耦

案例库的 4 个用途

  1. 栏目选题供给:方向探索 subagent 的参考素材
  2. 主理人 OPC 决策参考:看真实的人怎么从 0 走到 100 万
  3. 栏目对外资产(P2):作为读者订阅的理由之一
  4. AI-CRM 伙伴产品的训练 / 用户画像素材

目录结构

case-library/
├── README.md                        # 本文件
├── directions/
│   └── directions.yaml              # 9 类方向的权威定义(修改需要主理人拍板)
├── sources/
│   ├── sources.yaml                 # 已批准信源清单
│   └── proposed/                    # case-curator 提议的新信源(待主理人审核)
├── cases/
│   ├── candidate/                   # 周扫候选,等主理人拍板深入
│   ├── curated/{direction}/         # 已收录的正式案例(按方向分子目录)
│   └── archived/                    # 证伪 / 弃案
└── scans/
    └── YYYY-WW.json                 # 周度扫描快照

文件 schema

案例文件 cases/curated/{direction}/{slug}.md

---
id: <唯一标识,如 shichao-knowledge-planet-2024>
slug: <短标识,文件名同 slug>
name: <案例名 / 品牌名 / 创始人代号>
direction: <directions.yaml 中的某个 id>
status: candidate | curated | archived
maturity: nascent | growing | steady   # nascent <30 万;growing 30-100 万;steady >100 万
revenue_estimate:
  amount_cny: <数字,年收入估算,单位元>
  year: <数据所对应的年份>
  confidence: high | medium | low
  basis: <估算依据,文字说明>
data_credibility:
  overall: high | medium | low
  signals_have_proof: [<列出哪些字段有公开证据>]
  signals_only_self_claim: [<列出哪些只有自述>]
  red_flags: [<如有:数据矛盾 / 反复改口 / 无第三方背书等>]
sources:
  - url: <信源链接>
    type: podcast | xhs | jike | x | newsletter | shengcaiyoushu | ai-pojuju | other
    accessed_at: YYYY-MM-DD
    is_primary: true | false
discovered_at: YYYY-WW
discovered_by: case-curator | user-import
curated_at: YYYY-MM-DD
last_verified: YYYY-MM-DD
tags: [...]
---

# {案例名}

## 1. 核心特征
(2-3 个独特点。direction-explorer 集成时只读到这一节,必须放在最前面,不可后置。)

## 2. 收入路径
(钱从哪来;多业务线分述;标注每条收入线的可信度。)

## 3. 执行方案
(一周 / 一月的实际动作分布。具体到工作节奏。)

## 4. 成功要点
(按本案例真实证据归纳,不要套通用鸡汤。如证据不足说明"待证"。)

## 5. 产品架构
(产品 SKU / 服务交付物 / 定价层 / 渠道。)

## 6. 营销打法
(获客来源、转化路径、留存机制。)

## 附:未解之处
(data_credibility medium / low 时必填:理由 + 还需补什么信源能验证。)

周扫快照 scans/YYYY-WW.json

{
  "week": "2026-W19",
  "scanned_at": "2026-05-08T10:00:00+08:00",
  "scanned_sources": ["shengcaiyoushu-cases", "jike-opc-topic", ...],
  "new_candidates": [
    {
      "tentative_slug": "...",
      "direction_guess": "...",
      "revenue_self_claim": "...",
      "data_credibility_initial": "low | medium | high",
      "source_url": "...",
      "one_liner": "..."
    }
  ],
  "rescan_existing": [
    {"id": "...", "delta": "<新增了什么数据>"}
  ],
  "proposed_new_sources": [
    {"name": "...", "rationale": "..."}
  ],
  "summary_for_user": "<面向主理人的 3-5 行摘要>"
}

工作流(用户控制点 4 个)

  1. 触发周扫:主理人敲 /opc-cases-scan,确认本次扫描信源范围
  2. 候选审核:case-curator 输出候选清单后,主理人对每条选「深入 / 留 candidate / archived」
  3. 深案例评审:case-deepener 跑完后,主理人审 6 维内容,「通过收录 / 退回补证据 / archived」
  4. 信源 / 方向治理:主理人审核 proposed/ 中的新信源;如 _unclassified/ 累积超阈值,讨论新增方向

UX 纪律:控制点 2 是表格勾选式决策(每条 ≤ 30 秒),不在主对话里陪聊单条候选——避免重蹈 Manus 案例 30+ 轮膨胀反模式。

付费社群内容输入(生财 / AI 破局)

知识星球付费圈子的内容,case-curator 单回合 subagent 无法直接访问。两种喂给它的方式:

方式 A:自动化抓取(推荐周度常态)

scripts/zsxq-scraper 是 headed-Chrome + 持久化登录态抓取脚本:

# 一次性
cd scripts/zsxq-scraper && npm install
npm run login   # 启动浏览器,你登录知识星球,按 Enter 退出 → profile 保存到 ~/.chrome-opc-scraper

# 每周
mkdir -p case-library/sources/raw-input/2026-W20
# 编辑 case-library/sources/raw-input/2026-W20/urls.yaml 加入本周要抓的 URL
cd scripts/zsxq-scraper && npm run scrape -- 2026-W20
# → 输出 case-library/sources/raw-input/2026-W20/{shengcaiyoushu-cases,ai-pojuju}.md

/opc-cases-scan 2026-W20 时,龙虾自动检测 raw-input/2026-W20/*.md 注入 paid_summaries,无需在对话里粘贴。

详见 scripts/zsxq-scraper/README.md

方式 B:手工写 raw-input

零散内容或某周不想用 scraper 时,可以手工建 case-library/sources/raw-input/{week}/{source-id}.md,按 ## 帖子标题 分块写正文。/opc-cases-scan 同样会检测到。

风险提醒

知识星球 ToS 通常禁止自动化采集。你是付费会员且仅供个人案例库使用、不分发——实操灰色地带,封号风险存在但不大。降低风险纪律:单次抓 < 20 条;不开 cron;保持每周一次;不并发;不 headless。详见 scraper README。

研究缺口 / 下轮扫描优先目标

每次跑 deep research 后更新——记录已识别但案例库尚未覆盖的人群线 / 方向,给下轮扫描定优先级。

🔴 高优先级(缺口最大,对栏目读者价值最高)

  1. 跨境电商一人公司(ecommerce 方向中文圈,当前 0 条
  2. 公开 web 几乎只有反样本(amz520 单干 6 个月失败)
  3. 真东西在生财社群 raw-input 里
  4. 下轮扫描重点:直接在生财"出海"板块找 URL → raw-input 路径,不再走 deep research 公开 web 路径

  5. 小红书代运营 agency 中文圈(agency-automation 方向,当前 0 条——AI Chris Lee 是英文已 pivot 不算)

  6. 公开 web 100% 是工具方代笔的软文
  7. 真东西在生财"小红书代运营"标签
  8. 下轮扫描重点:raw-input 路径

🟡 中优先级

  1. 95-00 后纯零起步样本(跨方向缺口,当前 0 条)
  2. 地方政府公关稿点的几个 95 后名字(胡政涛 / 王涛 / 李云帆 / 李光辉)独立信源全部空白——按栏目纪律不收
  3. 需主理人在即刻 / X 主动 follow 一批 build-in-public 年轻 OPC,等他们出长复盘

  4. iOS / 移动端独立开发的非负样本(ai-dev / digital-product 中文圈)

  5. 已收录的富贵是反样本 + 不严格 OPC(3 人小队)
  6. 中文圈仍缺一条"成功 iOS 独立开发"中文具名样本

  7. A10(受众复用复利)的同类印证(IDO 老徐 N=1)

  8. 公开 web 极少
  9. 下轮扫描重点:从知识星球矩阵 / 多专栏小报童作者 raw-input 找

⚪ 低优先级(结构性问题,短期难填)

  1. deep research 路径在中文圈整体 ROI 已低——4 个角度 21 query 才捞 2 条 candidate
  2. 后续主投资源到 raw-input 路径(生财 / AI 破局 / 即刻具名个人)
  3. deep research 退化为"补漏 + 反样本搜寻 + 海外标杆补给"专用工具,不再做全方向广扫

当前实现状态

组件 状态
directions.yaml 9 类初版
sources.yaml 5 个起点信源
case-curator subagent ✅ MVP
case-deepener subagent ✅ MVP
/opc-cases-scan slash command ✅ MVP
zsxq-scraper(生财 / AI 破局付费内容) ✅ MVP(待主理人首次登录)
raw-input/{week}/*.md 自动检测注入 ✅ MVP
多信源并行扫描 ⏳ P1
增量去重 ⏳ P1
direction-explorer 接入查询 ⏳ P1
英文圈信源 ⏳ P1
对外发布形态 / AI-CRM 导出 ⏳ P2