新闻聚合 skill 装好以后,我最大的感受是:抓到更多信息并不难,难的是让它不要继续制造噪音。
技术新闻、AI 动态、开源项目、产品发布、社区热帖,每天都能抓一堆。如果没有筛选逻辑,它只是把原本分散在多个网站上的焦虑,集中倒进一个窗口里。
为什么折腾
我想要的不是新闻客户端,而是一个能进入 AI 工作流的信息入口。
比如早上看一眼今天 AI 和开源圈有什么值得注意的变化;写文章前查一下某个工具最近有没有更新;做项目时快速扫一遍相关领域的趋势。
这些动作如果每次都手动打开十几个网站,很快就会放弃。把它做成 skill 的价值,是让 AI 可以按任务去取信息,而不是让我主动去追信息流。
我的公开版环境
公开版结构可以这样理解:
- 本机 agent 负责调用 skill。
- skill 从多个公开来源抓取信息。
- 结果先做摘要、去重和排序。
- 人根据主题继续追问或打开原始链接。
我不会把内部路径、安装位置和本机配置贴出来。对别人更有参考价值的是使用方式,而不是那台机器上具体装在哪里。
实际怎么用
我比较认可的用法不是“给我所有新闻”,而是带着问题去问:
- 今天 AI 开发工具有哪些值得关注的更新?
- 最近开源社区有哪些项目突然变热?
- 只看和本地模型、agent、自动化相关的内容。
- 给我 5 条最值得继续读的,并说明为什么。
这样 skill 就不是信息漏斗,而是第一轮筛选器。
哪里卡住
第一个坑是来源越多,价值不一定越高。
Hacker News、GitHub、Product Hunt、技术媒体、社交平台都能接,但来源一多,摘要也会变得平均。真正有用的不是覆盖所有来源,而是知道什么时候看哪个来源。
第二个坑是实时性容易被误解。
它适合做“快速扫描”和“趋势提醒”,不适合当金融终端、舆情监控系统或实时告警系统。对我来说,它是研究助手,不是警报器。
第三个坑是 AI 总结会抹平差异。
很多新闻被 AI 摘要以后,会变成同一种语气。真正重要的信号有时在标题的语气、评论区的争议、项目 star 的增长方式里。摘要只是入口,不是结论。
值不值得
值得,但前提是你把它当“筛选器”,不是当“信息越多越好”的机器。
我现在更愿意让它服务具体项目:比如网站内容选题、AI 工具更新、开源项目观察,而不是每天生成一份很长的新闻日报。
信息工具真正节省的不是阅读时间,而是决定“今天到底值不值得读什么”的时间。
如果它能帮我少打开几个无关页面,多留住一两个真正有用的线索,那就够了。