Huang Renxun: AI hallucinations can be solved, AGI is expected to be achieved in five years

华尔街见闻
2024.03.20 01:10
portai
I'm PortAI, I can summarize articles.

黄仁勋认为,预测何时会出现合格的 AGI 取决于你如何定义 AGI,而 AI 幻觉可以通过确保答案经过充分的研究来轻松解决。

人工智能 (AI) 的未来发展将迎来重大飞跃,那就是实现通用人工智能 (AGI)。

在本周英伟达年度 GTC 开发者大会上,CEO 黄仁勋在面对媒体时似乎对讨论这个话题感到厌烦,部分原因在于他经常被误解。然而,当媒体要求给出具体时间表时,黄仁勋还是花了一些时间阐述了他的观点。

黄仁勋认为,预测何时会出现合格的 AGI 取决于你如何定义 AGI。他做了两个类比:即使存在时区问题,你也知道新年什么时候到来,2025 年什么时候会到来。如果你开车前往圣何塞会议中心 (今年的 GTC 大会举办地),当你看到巨大的 GTC 横幅时,你就知道自己已经到了。关键在于,我们可以就到达的方式达成一致,无论是在时间上还是在地理空间上,这取决于你原本想去的地方。

“如果我们将 AGI 定义为非常具体的东西,比如,一套软件程序可以非常好地完成测试,或者比大多数人好 8% 的话,那么我相信我们会在 5 年内实现,” 黄仁勋解释道。他建议这些测试可以是法律资格考试、逻辑测试、经济测试,或者可能是通过医学院入学考试的能力。除非提问者能够非常具体地说明问题中 AGI 的含义,否则他不愿意做出预测。

此外,在周二的问答环节中,还有人问黄仁勋如何处理 AI 幻觉问题,即一些 AI 会编造听起来合理的答案,但并非基于事实。他回复称:“添加一个规则,对于每个答案,都必须查阅答案来源。” 他将这种做法称为 “检索增强生成”,并描述了一种非常类似于基本媒体素养的方法:检查来源和上下文。这意味着将来源中包含的事实与已知真相进行比较,如果答案在事实上有任何不准确之处,即使只是部分不准确,也要丢弃整个来源,继续寻找下一个。

黄仁勋表示,“AI 不应该只是给出答案,它应该首先进行研究,以确定哪个答案最好。”