AI 大赛中谷歌追赶微软背后:内部员工因伦理担忧曾试图阻止
有媒体分析称,这些通常在规避风险方面十分谨慎的大公司之所以在 AI 领域不管伦理问题而着急发布新产品,是为了在下一场可能的科技竞赛中占得先机。令人震惊的是,现在可以说是比以往任何时候都需要更多伦理团队的时候,但这些团队的成员被解雇了。
当今最热的科技话题非 AI 莫属。但是,并非所有人都对此满怀期待。
据媒体的最新曝光,两名前谷歌员工表达了他们对公司发布新的 AI 聊天机器人的担忧。
今年 3 月,两名负责审查 AI 产品的谷歌员工试图阻止该公司推出自己的 AI 聊天机器人,他们认为该技术会产生 “不准确和危险的陈述”。
几个月前,微软的伦理学家也提出了类似的担忧。他们认为,这种 AI 聊天机器人将令用户批判性思维的退化,同时可能会充斥虚假信息和侵蚀 “现代社会的事实基础”。
尽管如此,微软依然在 2 月发布了其集成在 Bing 搜索引擎的聊天机器人;一个月后,谷歌在 3 月底发布了其 Bard 聊天机器人。
有媒体分析称,这些通常在规避风险方面十分谨慎的大公司之所以在 AI 领域不管不顾地采取激进的举措,是为了在下一场可能的科技竞赛中占得先机。
根据多名员工及内部文件的阐述,ChatGPT 的惊人成功导致微软和谷歌愿意承担更大的风险。微软技术主管 Sam Schillace 上个月发送的一封内部电子邮件称,第一个推出相关产品的公司将是长期赢家,有时候两家公司的差距仅仅以周为单位。
自发布以来,围绕这些 AI 机器人的伦理争议就持续不断。包括马斯克在内的 1000 多名技术领域的研究人员和意见领袖不久前发布一封公开信表达了对 AI 带给社会影响的担忧,他们呼吁放慢相关技术的发展步伐。
监管机构已经准备对 AI 技术进行干预。欧盟提议立法监管人工智能,意大利上周暂时禁止 ChatGPT。在美国,白宫和国会也在寻求对 AI 更强有力的监管。
更令外界担忧的是,上个月底,微软、Meta、谷歌、亚马逊和推特等公司都裁减了 “负责任的人工智能团队” 成员,这些团队主要为使用人工智能的消费产品的安全性提供建议。
业内专家对此表示,各大科技公司裁减相关人员的决定令人担忧,因为随着越来越多的人开始试用新的人工智能工具,人们发现了这项技术可能被滥用。在 OpenAI 推出 ChatGPT 并取得成功后,人们的这种担忧进一步加剧。
谷歌旗下人工智能研究公司 DeepMind 的前伦理和政策研究员、研究机构 Ada Lovelace Institute 副主任 Andrew Strait 称:
令人震惊的是,现在可以说是比以往任何时候都需要更多这类团队的时候,但这些团队的成员被解雇了。
今年 1 月,微软解散了其 “道德和社会” 团队,该团队领导了微软在相关领域的早期工作。微软表示,裁员人数不到 10 人,公司负责人工智能的办公室仍有数百人在工作。
微软人工智能业务主管 Natasha Crampton 称:
我们已经显著增加了 ‘负责任的人工智能’ 努力,并努力在整个公司范围内将其制度化。