急于应战 ChatGPT 不管伦理道德?谷歌内测员工称 Bard 是 “病态的骗子”、答复可能让人丧命
媒体称,去年 12 月内部拉响 “红色警报” 后,谷歌高层认定,虽然还需要让道德团队参与,但只要将新产品称为 “实验”,公众就可能原谅产品的缺点;现在谷歌的道德团队被剥夺权力,士气低落。
上月谷歌正式公测人工智能(AI)聊天机器人 Bard,这一正面对抗 ChatGPT 的重大行动背后可能有隐患。媒体发现,为了在 AI 竞赛中不落于人后,谷歌在推出 Bard 时并没有遵循以往的道德伦理承诺。
在 Bard 公测前,谷歌要求员工做内部测试。媒体称,相关截图显示,内部讨论时,有一名谷歌员工得出了 Bard 是个 “病态的骗子” 这种结论,另一人形容 Bard 令人感到尴尬。
具体到 Bard 的回答方面,一名参与内测的谷歌员工称,Bard 给出的飞机如何着陆建议往往会导致坠机。另一人称,Bard 给出的水肺潜水答复可能导致潜水者受重伤、甚至丧命。
去年 12 月,在 ChatGPT 横空出世后不久,谷歌管理层就发出了 “红色代码”(red code)级别的警告。此前媒体称,谷歌 CEO Sundar Pichai 要求谷歌旗下产品尽快接入生成式 AI,该警报催生了谷歌内部数十个生成式 AI 集成计划,谷歌联合创始人 Sergey Brin 甚至亲自下场给 Bard 写代码。还有媒体提到,在员工中测试 Bard 也是红色代码计划的一部分。
本周三媒体指出,2021 年,谷歌曾承诺,要将研究 AI 伦理道德的团队成员扩大一倍,而且要投入更多资源评估 AI 技术的潜在危害。但去年 11 月 ChatGPT 问世后大受欢迎,谷歌在此后几个月内竭力将 ChatGPT 同类的生成式 AI 融入旗下所有重要产品。谷歌这种明显加快步伐的变化可能产生深远的社会影响。
媒体提到,一些曾在谷歌工作和目前还为谷歌效力的员工透露,去年 12 月拉响 “红色警报” 后,谷歌高层领导改变了风险偏好,他们认定,尽管还需要让道德团队参与其中,但只要将新产品称为 “实验”,公众就可能原谅产品的缺点。
上述员工称,此前谷歌承诺强化的道德规范工作团队现在被剥夺了权力,士气低落。负责新产品安全和道德影响的员工被告知,不要妨碍、或试图扼杀一切正在开发的生成式 AI 工具。
谷歌本周三回应媒体称,负责任的 AI(responsible AI)仍然是公司的首要任务。“我们将继续投资一些团队,他们致力于将我们的 AI 原则应用于我们的技术。”
至少目前看来,谷歌在 AI 道德方面还有所警惕。
华尔街见闻上月提到,从谷歌员工处获悉,谷歌给 Bard 加入了很多 responsible AI 方面的工作,在正式发布公测前,谷歌耗费大量时间做出了完备的合规测试。从这个角度看,相比 ChatGPT 的惊艳表现,多数用户评价 Bard 平淡无奇可能是谷歌有意为之。换句话说,谷歌认为 Bard 可以 “无聊”,可以出错,但不能 “越界”。
上周日,谷歌的 CEO Sundar Pichai 警告,如果对 AI 部署不当,可能造成非常严重的危害。尽管存在紧迫感,Pichai 仍警告企业不要被卷入到竞争态势中。他认为,社会还没有为 AI 的快速发展做好准备,因此需要更强有力的监管。