作者:Stacy Muur 翻译:善欧巴,金色财经
只有当你不给加密研究设定一套生命周期时,它才会显得混乱。一旦我建立了这套流程,杂音就减少了。虽不会降到零,但足以让人清晰思考。这是我一直反复使用的框架。
我总是先确定自己真正想要回答的问题。这听起来理所当然,但却是大多数人匆忙略过的一步。我会定义研究的资产、协议、叙事或事件,并写下我想要验证的假设。不是结论,是假设。
有时灵感来自我自身的好奇心。其他时候,我会关注顶级风投正在投资的项目,或者亲自体验一个新协议。无论哪种方式,这一步都会给我设定边界。没有它,我最终只会在各种数据面板和帖子里漫无目的地浏览,看似高效,实则毫无结果。
一旦我知道自己要寻找什么,就会从所有重要渠道收集原始信号。链上数据,如交易、TVL 和巨鲸钱包流向。市场数据,如价格、成交量和衍生品仓位。来自 Twitter、Discord 和 Reddit 的社交数据。还有节奏更慢的资料:白皮书、文档和长文研究。
在实际操作中,这意味着使用 Treeofalpha 或 WatcherGuru 这类工具获取新闻,用 CoinGecko/CoinMarketCap 获取历史价格数据。我不会花太多时间刷加密推特,因为如果信息已经在推特上流传,那它很可能已经被稀释了。数据很杂乱,但正是这种杂乱之中,通常会出现早期信号。
在这一步,我会进行尽职调查,清洗收集到的信息、解决矛盾,并将所有内容按时间对齐。我会核查数据来源:区块链浏览器数据与付费 API 对比,官方面板与第三方汇总对比。
然后我会对数据进行标准化:统一单位、统一时间周期、统一假设前提。如果你跳过这一步,之后发现的任何规律都可能是假象。
只有在数据清洗干净之后,我才会开始寻找规律。异常的链上行为、TVL 突然飙升、此前不存在的相关性、先于价格出现的情绪转向。
工具在这里很有帮助。DefiLlama 非常适合发现生态层面的异常值。当我需要更专业或针对特定协议的视图时,我会使用 Dune、Artemis、Dexu 和 Token Terminal。目标不是印证偏见,而是注意到与基线相比不同寻常的地方。
这是把数字转化为意义的环节。如果 TVL 上升,我会追问原因:新的激励措施?积分计划?真正的产品突破?然后我会观察市场是否真的在讨论它,还是数据在悄悄变化。
我认识到,价格和基本面不会孤立运动。它们会随着叙事一起变动。梳理这些叙事,并判断它们是在强化还是在消退,是连接分析与现实的桥梁。
最后,我把所有内容汇总在一起。我会写一段精炼的核心总结,突出关键数据,在需要说明的地方加入图表,并同时列出风险与机会。没有废话。
我写过的最好的报告,短到可以快速阅读,又足够深刻,每一个论断都能追溯到证据。这种平衡很难把握。但一旦做到,研究就不再令人不堪重负,而是能帮人做出决断。
而这一点,比任何单一工具都更能给你带来优势。
我测试过足够多的 AI 工具,因此天生持怀疑态度。但当 AI 真正有效时,原因非常具体。AI 主要在几个关键领域为加密研究和更广泛的生态创造真实、可量化的价值:解决数据稀缺问题、增强链上分析、以及通过 AI 代理实现复杂自动化。这些功能还包括:
这是 AI 最亮眼的地方。
现代大模型驱动的系统可以在一条工作流中 ingest 跨公链、浏览器、API、新闻、加密推特、GitHub 和文档的数据。过去需要数天完成的工作,现在几分钟就能搞定。更值得注意的是,它们能自动处理数据标准化和时间对齐。
根据我的经验,这能将数据准备工作减少 80% 以上。并且它能给你提供在加密领域中稀有的东西:对当前正在发生的事情,拥有相对一致的 “事实基准” 视图。
AI 在规模化处理上尤其高效。
钱包聚类、区分巨鲸与散户、检测异常流动性变化或代币释放模式、绘制代币转账图谱以揭示生态之间隐藏的关联。这些都不是人类能够高效重复完成的工作。
当与合规级工具结合时,它的能力会更加强大。不魔幻,但很高效。
这是最让我意外的部分。
针对加密领域微调的自然语言处理模型,真的能理解加密行业语言。它们能识别讽刺,追踪治理情绪的变化,在价格做出反应之前就捕捉到叙事转向,而不是之后。
最好的系统会 ingest 加密推特、Discord、论坛、GitHub 议题、博客,甚至播客。一些信息金融平台更进一步,根据 KOL 的可信度和历史准确率对情绪进行加权。这不是炒作,这是信号过滤。
即便分析完美,写作依然是一项工作。
执行摘要、风险表格、对比框架。这些都要花费数小时。AI 不会取代判断,但它非常擅长撰写初稿和搭建结构。它给我一个干净的基础去优化,而不是需要对抗的空白页面。
真正的好处不只是速度,而是一致性。每份报告都从同一套分析骨架出发。
我将 AI 工具生态视为一系列边界清晰的层级,直接对应我的研究方式。每个工具都适配我工作流的特定阶段,从原始数据聚合一直到整合与最终研究产出。
我使用这一层来降低搭建成本,避免在真正工作开始前浪费时间清洗数据。
多链数据获取:像 SurfAI、Minara、ChainGPT 这类工具,帮助我跨多条公链获取数据,用于表层扫描和更深入的协议研究。
更低的搭建成本:这些工具为钱包追踪、叙事监控、跨链分析等工作流聚合输入,无需在多个面板之间切换。
这是将原始数据转化为信号的环节。
钱包聚类:Nansen 和 Arkham 帮助我追踪聪明钱,并将地址与已知实体关联。
流动性与释放分析:DefiLlama 的 LlamaAI 允许我查询协议级指标,无需手动在多个面板间切换。
跨生态资金流向映射:LorisTools 是我快速查看各交易所资金费率和资本流动的首选工具。
我使用 NLP 工具来理解叙事在价格完全反应之前如何变动。
受 KOL 权重影响的情绪:KaitoAI 帮助我以结构化方式追踪叙事变化、情绪趋势和 KOL 活动。
叙事速度与价格走势对比:Grok 适合扫描加密推特,及早发现新兴叙事。
这是最终的压缩层,将想法转化为可发布的研究。
写作与整合:我依赖经典大模型如 Claude Opus、Grok 和 ChatGPT 来拆解复杂话题、构思角度,并将原始洞察转化为干净的研究输出,尤其是在配合文件上传功能时。
大多数通用大模型在加密研究中都会失效。真正重要的数据分散在区块链、小众推特帖子、实时面板、Discord 群组和付费报告中。如果模型无法理解这些碎片化信息并进行推理,你得到的就只是听起来自信、实则一无所知的肤浅总结。
这就是为什么我对 AI 工具变得挑剔。真正重要的工具不只是做聚合。它们能用加密的逻辑进行推理。我花了时间测试那些优先理解而非复述的平台。
Surf 是一款专为加密研究打造的助手。它基于链上数据、市场结构、社交情绪以及深度加密专属搜索层进行训练。结果是,它用起来不像聊天机器人,更像一个智能终端。
突出的一点是它区分了快速查询和真正的研究。你可以提出简单问题以快速获得答案,或触发更深度的报告,将价格走势、资金流动、衍生品、情绪和叙事背景结合成真正可用的内容。我明白为什么机构和独立研究者都在倾向于使用它。这款产品对加密领域的关键要素有明确判断,而这是一个优势。
Surf 有两种清晰的运行模式,这种简洁性让我印象深刻。
Ask 追求速度。它是单轮、轻量、直接的。我用它进行快速查询,比如价格、简短摘要或基础事实,它能在一分钟内做出回应。
Research 是 Surf 深入分析的模式。它将价格走势、链上流动、衍生品数据和实时社交情绪整合到结构化报告中。该模式专为多层推理、叙事分析、策略制定以及完整的通证经济学或宏观深度研究而设计。
我最喜欢的一点是,我可以控制深度。我可以要求新手级别的解释,或是精简的五条要点总结,全部通过网页或移动端上同样熟悉的聊天界面实现。
速度与深度之间的这种平衡,让 Surf 令人印象深刻。
Minara 感觉像是加密原生虚拟 CFO 的早期版本。它读取研究员关注的信号,但将其转化为结构化分析和可执行工作流。
最突出的是自动化。无需手动跨链即可完成跨链交易。通过自然语言执行策略。还有一个代理系统,让你无需编写代码即可搭建监控、交易和收益类工作流。当我测试它时,Minara 不只是回答问题。它像真正了解加密市场如何运作的人一样推理。
Minara 有三个边界清晰的运行模式。
Chat Mode 中,我可以就市场、代币、协议和策略进行自然、高信号的对话。它理解加密语境,而不只是通用金融语言。
Trade Mode(目前处于等待名单)将聊天界面转化为执行层。可以直接从对话中在永续去中心化交易所下单,将分析与行动整合为一个流程。
Workflow Mode 是 Minara 真正打动我的地方。它的功能如同一款 AI 原生金融操作系统。我可以设置价格提醒、监控钱包和代币,并自动化定投等重复性策略。在对交易者、研究员和矿工进行代币研究、基本面分析和交易设置的压力测试后,其突出的不同之处显而易见:Minara 用加密逻辑推理,而不是抽象概念。
Claude Opus 更偏向语言与推理,而非执行。它的优势在于清晰解释复杂的加密系统,尤其适合尚不深入的原生用户。它擅长整合与叙事构建,在实时决策支持方面较弱。我把它看作思考伙伴,而非交易或监控工具。
作为一款多功能 AI 模型,OPUS 通过深度学习技术实现了出色的性能,并在加密市场站稳了脚跟。这种将技术创新与研究目标相结合的设计,使 OPUS 成为推动人工智能与区块链技术融合的代表性项目。
ChatGPT 作为通用模型依然表现出色。它真正的优势是压缩。我用它来总结白皮书、提取核心论点、压力测试观点,并从不同角度重构思路。借助合适的提示词和外部数据,它会成为强大的研究副驾驶。单独使用时,它并非加密原生。但作为更广泛工具栈中的一员,它难以替代。
一个使用 ChatGPT 的实用工作流包括:
我发现,AI 工具对加密研究的帮助远大于危害,但前提是你把它们当作判断力的放大器,而非神谕。当你这样使用时,它们能节省时间并 sharpen 思考。反之,则会误导你。
AI 仍然缺乏细微差别。它可能编造数字。即便逻辑合理,我也见过模型虚构指标或错误陈述链上数据与指标。如果你过度依赖不透明的输出,就会继承它们的盲点。但更大的失败模式是,把无聊伪装成洞见。有些工具产出肤浅的总结。它们看似有用,却用泛泛之谈和垃圾结论让你迷失方向。我已经不再相信任何无法验证的内容。
速度很重要。分析很重要。来源聚合很重要。总的来说,只要你做好验证,这些好处就大于风险。我认识的最好的交易者和研究员仍然会核查原始来源、关注引用依据,并将 AI 与个人尽职调查相结合。这就是优势所在。
真正在改变的是工作本身。加密研究正在从信息收集转向信号提取。数据分散在各条链、各个平台和各个社交层面。如今的优势来自能够实时在这些混乱中进行推理的系统。
更值得注意的是,有一个我们讨论得不够多的上限。Anthropic 最近的研究强调了测试时计算量的逆缩放现象。
矛盾之处令人不安:给模型更多处理时间,它的推理效果实际上可能更差。我已经在实际应用中看到这种情况:过度思考导致决策退化。这是一个无声的警告,提醒人们不要假设 “更多算力一定有用”。
我反复得到的教训很简单。AI 强大,甚至聪明。但它很脆弱。在纪律和系统思维下使用,它是力量倍增器。随意使用,它就是噪音。优势不在于自动化,而在于更快得到验证与应用的判断力。
来源:金色财经


