Scale AI,作为人工智能领域的重要参与者,最近获得了 Meta 140 亿美元的巨额投资,但公司因将包含机密项目文件和敏感合同数据暴露在公共 Google 文档中而面临批评。 这起事件引发了行业范围内的审查,并对这家人工智能领域最知名的初创公司的数据安全实践提出了严重的问题。
140 亿美元的人工智能巨头:一个“极其不可靠”的安全实践
Scale AI 在获得 Meta 140.8 亿美元投资(Meta 获得了 49% 的股份)并聘请 CEO Alexandr Wang 领导新的“超人工智能”实验室后,其安全实践问题被揭露。 Business Insider 的调查发现,不仅 Meta、Google 和 xAI 的项目指南和训练数据被放在公共访问范围内,而且某些文件甚至可以被拥有链接的任何人编辑。 合同商表示,该系统“极其简陋”,突显了一种将速度和规模置于稳健安全之上的文化。
暴露了什么?
以下是具体暴露的内容,每个客户的数据都面临着不同的安全风险:
至少七份机密指令手册被公开,详细介绍了 Google Bard 聊天机器人方面的问题,并为合同商提供了故障排除指南。 一些文件保留了 Google 的品牌标识,并显示了内部流程。
Meta
用于聊天机器人语音训练的音频剪辑标签和概述表达标准的文档被公开。 这些文件对于训练模型至关重要,泄露可能导致模型行为的操纵。
xAI
至少 10 个生成式人工智能项目(包括“Xylophone 项目”,该项目包含 700 个用于改进对话质量的提示)的详细信息被发现存在于公共文件中。 这些信息揭示了 xAI 的研发方向,并可能被竞争对手利用。
合同商
电子表格中列出了数千个私人电子邮件地址、绩效评级、工资纠纷,甚至还有“作弊”的指控,所有这些都清晰可见,并且在某些情况下,还可以进行编辑。 这对受影响的个人来说是一个严重的隐私问题。
没有 breach,但存在重大风险
虽然没有迹象表明这些公开的文件导致了已知的安全 breach,但网络安全专家警告说,此类做法使 Scale AI 及其客户容易受到身份冒充、数据盗窃和恶意软件攻击。 任何拥有链接的人都可以查看或编辑这些文档,这对处理敏感人工智能训练数据和知识产权的公司来说是一个明显的风险。 数据泄露可能导致法律责任、声誉损害和知识产权的丧失。
行业反响和 Scale AI 的回应
在 Meta 投入巨额投资和 CEO Wang 担任新领导职务的当下,Scale AI 面临的形势十分不利。 主要合作伙伴如 Google 和 OpenAI 正在重新考虑合作关系,而微软则传出正在退出的消息。 Scale AI 已经采取措施,从其管理的系统中禁用公共共享,并启动了全面的调查。 他们表示:“我们致力于实施强大的技术和政策保障措施来保护机密信息,并且始终致力于加强我们的实践。”
关键要点
这起事件凸显了人工智能行业快速增长所带来的高风险和潜在陷阱。 即使是最有价值和最有前景的初创公司也可能在数据安全的基本方面失误,从而危及客户的信任和行业关系。 随着人工智能领导地位的竞争日益激烈,Scale AI 事件是一个严峻的提醒,保护敏感信息与构建前沿技术同样重要。 以下是需要重点关注的几个方面:
- 数据访问控制: 实施严格的数据访问控制,仅允许授权人员访问敏感信息。
- 安全意识培训: 为所有员工和合同商提供安全意识培训,强调数据安全的重要性。
- 定期安全审计: 定期进行安全审计,以识别和解决潜在的安全漏洞。
- 数据加密: 对敏感数据进行加密,以防止未经授权的访问。
- 供应商风险管理: 实施供应商风险管理计划,以评估和减轻与第三方供应商相关的安全风险。




发表回复