这篇文章《让人工智能证明它没有什么可隐藏的》发表在BitcoinEthereumNews.com上。观点来自:Avinash Lakshman,Weilliptic创始人兼首席执行官 当今的科技文化喜欢先解决令人兴奋的部分——聪明的模型、讨好大众的功能——而将责任和道德视为未来的附加物。但当人工智能的底层架构不透明时,事后的故障排除无法阐明和从结构上改进输出是如何生成或操纵的。 这就是为什么我们会看到Grok称自己为"假的埃隆·马斯克",以及Anthropic的Claude Opus 4在意外删除公司代码库后诉诸谎言和勒索的案例。自这些头条新闻爆出以来,评论家们指责提示工程、内容政策和企业文化。虽然所有这些因素都起着作用,但根本缺陷是架构性的。 我们要求从未为审查而设计的系统表现得好像透明度是一个原生特性。如果我们想要人们可以信任的人工智能,基础设施本身必须提供证明,而不是保证。 当透明度被设计到人工智能的基础层时,信任就成为一种推动力而非约束。 人工智能伦理不能是事后考虑 关于消费者技术,伦理问题常常被视为产品规模化后才需要解决的后续考虑因素。这种方法就像在雇佣工程师确认基础符合规范之前就建造一座三十层的办公大楼。你可能会幸运一段时间,但隐藏的风险会悄悄积累,直到出现问题。今天的中央化人工智能工具也不例外。当模型批准欺诈性信贷申请或产生幻觉的医疗诊断时,利益相关者将要求并应得到审计跟踪。哪些数据产生了这个答案?谁对模型进行了微调,以及如何进行的?哪个防护措施失效了? 如今大多数平台只能混淆和转移责任。他们依赖的人工智能解决方案从未被设计为保留此类记录,因此这些记录不存在,也无法追溯生成。能够自证的人工智能基础设施 好的...这篇文章《让人工智能证明它没有什么可隐藏的》发表在BitcoinEthereumNews.com上。观点来自:Avinash Lakshman,Weilliptic创始人兼首席执行官 当今的科技文化喜欢先解决令人兴奋的部分——聪明的模型、讨好大众的功能——而将责任和道德视为未来的附加物。但当人工智能的底层架构不透明时,事后的故障排除无法阐明和从结构上改进输出是如何生成或操纵的。 这就是为什么我们会看到Grok称自己为"假的埃隆·马斯克",以及Anthropic的Claude Opus 4在意外删除公司代码库后诉诸谎言和勒索的案例。自这些头条新闻爆出以来,评论家们指责提示工程、内容政策和企业文化。虽然所有这些因素都起着作用,但根本缺陷是架构性的。 我们要求从未为审查而设计的系统表现得好像透明度是一个原生特性。如果我们想要人们可以信任的人工智能,基础设施本身必须提供证明,而不是保证。 当透明度被设计到人工智能的基础层时,信任就成为一种推动力而非约束。 人工智能伦理不能是事后考虑 关于消费者技术,伦理问题常常被视为产品规模化后才需要解决的后续考虑因素。这种方法就像在雇佣工程师确认基础符合规范之前就建造一座三十层的办公大楼。你可能会幸运一段时间,但隐藏的风险会悄悄积累,直到出现问题。今天的中央化人工智能工具也不例外。当模型批准欺诈性信贷申请或产生幻觉的医疗诊断时,利益相关者将要求并应得到审计跟踪。哪些数据产生了这个答案?谁对模型进行了微调,以及如何进行的?哪个防护措施失效了? 如今大多数平台只能混淆和转移责任。他们依赖的人工智能解决方案从未被设计为保留此类记录,因此这些记录不存在,也无法追溯生成。能够自证的人工智能基础设施 好的...

让人工智能证明它没有隐藏任何东西

观点:Avinash Lakshman,Weilliptic创始人兼首席执行官 

当今的科技文化喜欢先解决令人兴奋的部分——聪明的模型、讨好大众的功能——而将责任和伦理视为未来的附加组件。但当人工智能的底层架构不透明时,事后的故障排除无法阐明和从结构上改进输出是如何生成或操纵的。 

这就是为什么我们会看到Grok称自己为"假的埃隆·马斯克",以及Anthropic的Claude Opus 4在意外删除公司代码库后诉诸谎言和勒索的案例。自这些头条新闻爆出以来,评论者们将责任归咎于提示工程、内容政策和企业文化。虽然所有这些因素都起着作用,但根本缺陷是架构性的。 

我们要求那些从未设计用于审查的系统表现得好像透明度是一项原生功能。如果我们希望人工智能能够获得人们的信任,基础设施本身必须提供证明,而不仅仅是保证。 

当透明度被设计到人工智能的基础层时,信任就成为一种推动力而非约束。 

人工智能伦理不能是事后考虑

关于消费者技术,伦理问题通常被视为产品规模化后才需要解决的后续考虑因素。这种方法就像在雇佣工程师确认基础符合规范之前就建造一座三十层的办公大楼。你可能会幸运一段时间,但隐藏的风险会悄悄积累,直到出现问题。

今天的中央化人工智能工具也不例外。当模型批准欺诈性信用申请或产生幻觉的医疗诊断时,利益相关者将要求并理应获得审计跟踪。哪些数据产生了这个答案?谁对模型进行了微调,以及如何微调的?哪个防护措施失效了? 

如今大多数平台只能混淆和转移责任。他们依赖的人工智能解决方案从未被设计用来保存此类记录,因此这些记录不存在,也无法追溯生成。

能自证的人工智能基础设施

好消息是,使人工智能值得信任和透明的工具已经存在。在人工智能系统中强制信任的一种方法是从确定性沙盒开始。 

相关:密码朋克人工智能:2025年无审查、无偏见、匿名人工智能指南

每个人工智能代理都在WebAssembly内部运行,因此如果明天提供相同的输入,您将收到相同的输出,这对于监管机构询问决策原因时至关重要。 

每次沙盒发生变化时,新状态都会通过加密哈希并由一小组验证者签名。这些签名和哈希被记录在区块链账本中,没有任何单一方可以重写。因此,账本成为一个不可变的日志:任何有权限的人都可以重放链并确认每一步都完全按照记录发生。

由于代理的工作内存存储在同一账本上,它可以在崩溃或云迁移时存活,而无需通常的附加数据库。训练工件,如数据指纹、模型权重和其他参数也以类似方式提交,因此任何给定模型版本的确切谱系是可证明的,而不是轶事性的。然后,当代理需要调用外部系统(如支付API或医疗记录服务)时,它会通过策略引擎,该引擎将加密凭证附加到请求中。凭据保持锁定在保险库中,凭证本身与允许它的策略一起记录在链上。

在这种面向证明的架构下,区块链账本确保了不可变性和独立验证,确定性沙盒消除了不可重现的行为,策略引擎将代理限制在授权操作范围内。它们共同将可追溯性和策略合规性等伦理要求转变为可验证的保证,有助于催化更快、更安全的创新。

考虑一个数据生命周期管理代理,它对生产数据库进行快照,加密并将其存档在链上,并在几个月后处理客户的擦除权请求,同时掌握这一背景。 

每个快照哈希、存储位置和数据擦除确认都实时写入账本。IT和合规团队可以通过检查一个可证明的工作流程来验证备份是否运行、数据是否保持加密以及是否完成了适当的数据删除,而不是筛选分散、孤立的日志或依赖供应商仪表板。 

这只是无数例子中的一个,说明自主、面向证明的人工智能基础设施如何简化企业流程,保护企业及其客户,同时解锁全新的成本节约和价值创造形式。

人工智能应建立在可验证的证据上

人工智能最近的头条失败并不揭示任何单个模型的缺点。相反,它们是"黑盒"系统中无意但不可避免的结果,在这种系统中,责任从未成为核心指导原则。 

一个携带自身证据的系统将对话从"相信我"转变为"自己检查"。这种转变对监管机构、个人和专业使用人工智能的人以及最终在合规信上签名的高管都很重要。

下一代智能软件将以机器速度做出重要决策。 

如果这些决策仍然不透明,每个新模型都将成为新的责任来源。

如果透明度和可审计性是原生的、硬编码的属性,人工智能自主性和责任可以无缝共存,而不是在紧张状态下运作。 

观点:Avinash Lakshman,Weilliptic创始人兼首席执行官。

本文仅供一般信息目的,不应被视为法律或投资建议。此处表达的观点、想法和意见仅代表作者个人,不一定反映或代表Cointelegraph的观点和意见。

来源:https://cointelegraph.com/news/make-ai-prove-itself?utm_source=rss_feed&utm_medium=feed&utm_campaign=rss_partner_inbound

市场机遇
null 图标
null实时价格 (null)
--
----
USD
null (null) 实时价格图表
免责声明: 本网站转载的文章均来源于公开平台,仅供参考。这些文章不代表 MEXC 的观点或意见。所有版权归原作者所有。如果您认为任何转载文章侵犯了第三方权利,请联系 [email protected] 以便将其删除。MEXC 不对转载文章的及时性、准确性或完整性作出任何陈述或保证,并且不对基于此类内容所采取的任何行动或决定承担责任。转载材料仅供参考,不构成任何商业、金融、法律和/或税务决策的建议、认可或依据。