新产品使首席信息安全官、安全团队和MSSP能够部署AI进行威胁分析、事件响应和合规——无需将敏感数据暴露给公共模型
— LLM.co,一家为受监管和数据敏感行业提供私有大型语言模型(LLM)基础设施的供应商,今天宣布推出其专为网络安全团队设计的私有LLM解决方案。这项新产品允许组织在安全运营中应用AI,同时将敏感数据完全保留在自己的环境中。
随着网络安全团队越来越多地尝试使用AI来提高检测、响应和运营效率,许多团队面临一个根本性障碍:公共AI模型与安全、合规和数据治理要求不兼容。日志、警报、事件数据和调查材料无法安全地与第三方AI平台共享,否则会带来不可接受的风险。
LLM.co的私有LLM基础设施通过实现完全隔离的AI部署来解决这一挑战——无论是本地部署、私有云环境还是混合配置——数据始终不会离开组织的控制范围。
"安全团队希望获得AI带来的生产力提升,但他们不能在数据保护上妥协,"LLM.co首席营销官Samuel Edwards说。"私有LLM消除了这种权衡。这是为了让网络安全团队获得现代AI能力,而不会创造新的攻击面或合规责任。"
为高风险网络安全工作流而构建
LLM.co的私有LLM旨在支持实际的安全运营,包括:
与公共AI工具不同,LLM.co的模型不会使用客户数据进行训练,不会在外部记录提示,并完全在受控环境中运行。
"从收入和市场推广的角度来看,我们看到那些已经了解公共AI风险的组织有强烈的需求,"LLM.co首席收入官Timothy Carter说。"首席信息安全官不是在问AI是否会用于安全——他们在问如何安全地部署它。私有LLM正迅速成为默认答案。"
为企业控制和合规而设计
LLM.co专注于网络安全的LLM部署支持严格的治理要求,包括内部安全政策和行业合规框架,如SOC 2、ISO 27001、HIPAA、CJIS和其他监管标准。组织保留对数据访问、保留、模型行为和用户权限的完全控制。
"网络安全领域的销售对话从根本上说是关于信任和控制的,"LLM.co销售副总裁Eric Lamanna说。"私有LLM允许安全领导者推进AI计划,而不会将风险推给法律、合规或董事会。这种一致性对于采用至关重要。"
服务企业、MSSP和受监管行业
私有LLM产品专为以下对象设计:
LLM.co与现有的安全堆栈和工作流集成,允许团队部署AI而不会破坏既定的控制或流程。
向私有、特定领域AI的更广泛转变
此次推出反映了行业从通用公共AI向针对高风险用例量身定制的私有、特定领域LLM的更广泛转变。随着AI采用的加速,组织越来越优先考虑平衡能力与控制的架构。
"网络安全是私有AI不是可选而是必需的最明确例子之一,"Edwards补充道。"这次推出正式确认了许多安全领导者已经知道的事情:如果AI接触敏感的安全数据,它必须从设计上就是私有的。"
关于LLM.co
由DEV.co创建,LLM.co为在受监管和数据敏感环境中运营的组织提供私有、安全的大型语言模型基础设施。该公司专注于部署优先考虑合规、控制和企业级安全的AI系统——使团队能够从AI中受益,而不会暴露专有或敏感信息。
联系信息:
姓名: Samuel Edwards
电子邮件: Send Email
组织: Digital.Marketing
网站: https://digital.marketing
发布ID: 89182243
如果您在此新闻稿内容中发现任何问题、疑问或错误,请联系[email protected]通知我们(需要注意的是,此电子邮件是此类事务的授权渠道,向多个地址发送多封电子邮件不一定有助于加快您的请求)。我们将在接下来的8小时内回应并纠正情况。


