消息称谷歌使用竞品模型Claude改进Gemini
“我只能祈祷。我们需要其他球员做出贡献,比如威少和穆雷。我们需要找到一些方法来度过这段时间。我得注意不要让他(约基奇)打太多时间。回到这个问题,我们有两三名球星,如果需要赢下比赛,就会让约基奇多打。
12月25日消息,谷歌公司内部沟通信息显示,负责改进其人工智能模型Gemini AI的外包员工正在将其输出 与Anthropic开发的竞品模型Claude的结果进行比对。
未透露是否获得了使用Claude模型进行 的许可。
随着科技公司竞相研发更强大的模型,通常通过行业基准 来评估模型性能,而非由外包员工逐一比对模型的回答。对于Gemini项目,外包员工需根据 的真实性、冗长度等多个标准对模型输出进行 。据内部资料显示,他们有30分钟的时间判断是Gemini还是Claude的回答更为优越。
最近,外包员工注意到在谷歌内部用于对比Gemini和其他人工智能模型的 中,出现了与Claude相关的引用内容。媒体所获取的部分 中甚至明确表示:“我是Claude,由Anthropic开发。”
一份内部聊天记录显示,外包员工发现Claude的回答似乎比Gemini更注重安全性。一名员工指出,“在所有人工智能模型中,Claude的安全设置是最严格的。”某些情况下,Claude拒绝回答其认为不安全的请求,比如扮演其他人工智能助手的角色。而在另一些案例中,Claude选择避开回答,而Gemini的回答则因涉及“裸体和束缚”等内容被标记为“严重违反安全规定”。
Anthropic的商业服务条款明确禁止客户未经授权使用Claude来“构建竞争性产品或服务”或“训练竞争性人工智能模型”。值得注意的是,谷歌是Anthropic的重要投资者。
负责运营Gemini的谷歌DeepMind发言人希拉·麦克纳马拉(Shira McNamara)未说明谷歌是否获得了Anthropic使用Claude的许可。马拉强调,DeepMind确实会通过比对模型输出来进行评估,但不会使用Anthropic的模型训练Gemini。
麦克纳马拉表示:“根据行业标准做法,我们在某些情况下将模型输出比对作为评估过程的一部分。但任何关于我们使用Anthropic模型训练Gemini的说法都是不准确的。”
上周有报道称,为谷歌人工智能产品工作的外包员工如今被要求在自己的专业领域之外对Gemini的回答进行 。内部沟通记录显示,员工担忧Gemini可能在医疗保健等高度敏感的话题上生成不准确的信息。(辰辰)