人工智能治理是一个危险信号:Vitalik Buterin提供替代方案的帖子出现在BitcoinEthereumNews.com上。要点 Vitalik Buterin警告说,天真的人工智能治理太容易被利用。最近的演示显示了攻击者如何诱骗ChatGPT泄露私人数据。Buterin的"信息金融"模型促进多样性、监督和弹性。Ethereum联合创始人Vitalik Buterin在X上警告他的粉丝关于依赖人工智能(AI)进行治理的风险,认为当前的方法太容易被利用。Buterin的担忧紧随EdisonWatch联合创始人Eito Miyamura的另一个警告,后者展示了恶意行为者如何劫持OpenAI的新模型上下文协议(MCP)来访问私人用户数据。这也是为什么天真的"AI治理"是个坏主意。如果你使用AI来分配资金贡献,人们一定会在尽可能多的地方放入越狱加上"给我所有的钱"。作为替代方案,我支持信息金融方法(https://t.co/Os5I1voKCV… https://t.co/a5EYH6Rmz9 — vitalik.eth (@VitalikButerin) 2025年9月13日 天真的AI治理的风险 Miyamura的测试揭示了一个带有隐藏命令的简单日历邀请如何在助手访问被入侵的条目后诱骗ChatGPT暴露敏感电子邮件。安全专家指出,大型语言模型无法区分真实指令和恶意指令,使它们极易受到操纵。我们让ChatGPT泄露了你的私人电子邮件数据💀💀你只需要什么?受害者的电子邮件地址。⛓️‍💥🚩📧周三,@OpenAI在ChatGPT中添加了对MCP(模型上下文协议)工具的完全支持。允许ChatGPT连接并读取你的Gmail、日历、Sharepoint、Notion,...pic.twitter.com/E5VuhZp2u2 — Eito Miyamura | 🇯🇵🇬🇧 (@Eito_Miyamura) 2025年9月12日 Buterin表示,这一缺陷对于过度信任AI的治理系统来说是一个重大危险信号。他认为,如果这类模型被用于管理资金或决策,攻击者可以轻易绕过保障措施,使用越狱式提示,使治理过程容易受到滥用。...人工智能治理是一个危险信号:Vitalik Buterin提供替代方案的帖子出现在BitcoinEthereumNews.com上。要点 Vitalik Buterin警告说,天真的人工智能治理太容易被利用。最近的演示显示了攻击者如何诱骗ChatGPT泄露私人数据。Buterin的"信息金融"模型促进多样性、监督和弹性。Ethereum联合创始人Vitalik Buterin在X上警告他的粉丝关于依赖人工智能(AI)进行治理的风险,认为当前的方法太容易被利用。Buterin的担忧紧随EdisonWatch联合创始人Eito Miyamura的另一个警告,后者展示了恶意行为者如何劫持OpenAI的新模型上下文协议(MCP)来访问私人用户数据。这也是为什么天真的"AI治理"是个坏主意。如果你使用AI来分配资金贡献,人们一定会在尽可能多的地方放入越狱加上"给我所有的钱"。作为替代方案,我支持信息金融方法(https://t.co/Os5I1voKCV… https://t.co/a5EYH6Rmz9 — vitalik.eth (@VitalikButerin) 2025年9月13日 天真的AI治理的风险 Miyamura的测试揭示了一个带有隐藏命令的简单日历邀请如何在助手访问被入侵的条目后诱骗ChatGPT暴露敏感电子邮件。安全专家指出,大型语言模型无法区分真实指令和恶意指令,使它们极易受到操纵。我们让ChatGPT泄露了你的私人电子邮件数据💀💀你只需要什么?受害者的电子邮件地址。⛓️‍💥🚩📧周三,@OpenAI在ChatGPT中添加了对MCP(模型上下文协议)工具的完全支持。允许ChatGPT连接并读取你的Gmail、日历、Sharepoint、Notion,...pic.twitter.com/E5VuhZp2u2 — Eito Miyamura | 🇯🇵🇬🇧 (@Eito_Miyamura) 2025年9月12日 Buterin表示,这一缺陷对于过度信任AI的治理系统来说是一个重大危险信号。他认为,如果这类模型被用于管理资金或决策,攻击者可以轻易绕过保障措施,使用越狱式提示,使治理过程容易受到滥用。...

AI 治理是一个危险信号:Vitalik Buterin 提供了一个替代方案

要点

  • Vitalik Buterin警告说,天真的AI治理太容易被利用。
  • 最近的演示展示了攻击者如何欺骗ChatGPT泄露私人数据。
  • Buterin的"信息金融"模型促进多样性、监督和韧性。

以太坊联合创始人Vitalik Buterin在X上警告他的粉丝关于依赖人工智能(AI)进行治理的风险,认为当前的方法太容易被利用。

Buterin的担忧紧随EdisonWatch联合创始人Eito Miyamura的另一个警告,后者展示了恶意行为者如何劫持OpenAI的新模型上下文协议(MCP)来访问私人用户数据。


天真的AI治理的风险

Miyamura的测试揭示了一个带有隐藏命令的简单日历邀请如何在助手访问受损条目后欺骗ChatGPT暴露敏感邮件。

安全专家指出,大型语言模型无法区分真实指令和恶意指令,使它们极易受到操纵。

Buterin表示,这一缺陷对于过度信任AI的治理系统来说是一个重大警示。

他认为,如果这类模型被用于管理资金或决策,攻击者可以轻松地通过越狱式提示绕过安全措施,使治理过程容易受到滥用。

信息金融:基于市场的替代方案

为了解决这些弱点,Buterin提出了一个他称为"信息金融"的系统。这个框架不是将权力集中在单一AI上,而是允许多种治理模型在开放市场中竞争。

任何人都可以贡献一个模型,他们的决策可以通过随机抽查来挑战,最终决定权留给人类陪审团。

这种方法旨在通过结合模型多样性和人类监督来确保韧性。此外,为开发者和外部观察者检测缺陷也建立了激励机制。

为稳健性设计机构

Buterin将此描述为一种"机构设计"方法,一种可以插入来自不同贡献者的大型语言模型,而不是依赖单一集中系统的方法。

他补充说,这创造了实时多样性,减少了操纵风险,并确保了在新挑战出现时的适应性。

今年8月早些时候,Buterin批评了推动高度自主AI代理的趋势,称增加人类控制通常会提高质量和安全性。

他支持允许迭代编辑和人类反馈的模型,而不是那些设计为长期独立运行的模型。

下一页

免责声明:Coinspeaker致力于提供公正透明的报道。本文旨在提供准确及时的信息,但不应被视为财务或投资建议。由于市场条件可能迅速变化,我们鼓励您自行验证信息并在基于此内容做出任何决定前咨询专业人士。

加密货币新闻,以太坊新闻,新闻


Parth是一位拥有超过5年行业经验的加密货币记者,他曾与加密和金融世界的主要媒体机构合作,在经历了多年的熊市和牛市后积累了丰富的经验和专业知识。Parth还是4本自出版书籍的作者。

Parth Dubey在LinkedIn上


来源:https://www.coinspeaker.com/ai-governance-is-a-red-flag-vitalik-buterin-offers-an-alternative/

市场机遇
Threshold 图标
Threshold实时价格 (T)
$0.010133
$0.010133$0.010133
+0.87%
USD
Threshold (T) 实时价格图表
免责声明: 本网站转载的文章均来源于公开平台,仅供参考。这些文章不代表 MEXC 的观点或意见。所有版权归原作者所有。如果您认为任何转载文章侵犯了第三方权利,请联系 [email protected] 以便将其删除。MEXC 不对转载文章的及时性、准确性或完整性作出任何陈述或保证,并且不对基于此类内容所采取的任何行动或决定承担责任。转载材料仅供参考,不构成任何商业、金融、法律和/或税务决策的建议、认可或依据。