黄仁勋谈AI现状:仍需数年才能达到“高度可信”
尽管人工智能正在迅速发展,但离一个可以高度信任的AI系统仍有距离。黄仁勋强调,在未来数年内,持续提升计算能力和探索新的方法将是关键任务。同时,行业正重新思考如何在有限数据和资源下更有效地训练模型,以实现更可靠、更强大的人工智能应用。
英伟达(NVDA.O)首席执行官黄仁勋近日表示,目前的人工智能并不能提供最优解答,我们距离一个可以“高度信任”的AI系统仍有“数年之遥”。
“目前我们得到的答案还远非最佳答案,”黄仁勋在香港科技大学的采访中说道。他指出,人们应该不需要对AI的回答心存疑虑,比如它是否“幻觉化”或是否“合理”。
“我们必须达到这样一个阶段——你大体上可以信任AI的回答……而要实现这一点,我认为我们还有数年的路要走。在此期间,我们需要不断提升计算能力。”
大语言模型的局限性:幻觉和数据瓶颈
像ChatGPT这样的语言模型在过去几年中取得了指数级的进步,能够回答复杂问题,但依然存在诸多限制。其中,“幻觉”,即生成虚假或不存在的答案,是AI聊天机器人的持续问题。
例如,去年一位广播主持人就因ChatGPT编造了一份虚假的法律指控文件而起诉OpenAI,而后者未对此作出回应。
此外,一些AI公司正面临如何在有限数据资源下推进大语言模型(LLM)发展的困境。黄仁勋表示,仅依靠预训练,即在大规模、多样化的数据集上对模型进行训练,并不足以开发出功能强大的AI。
“预训练——自动从世界上的所有数据中发现知识——是不够的……就像大学毕业是一个重要的里程碑,但它并不是终点。”
过去几年,科技公司如OpenAI、Meta和谷歌专注于收集海量数据,假设更多的训练数据会造就更智能、更强大的模型。然而,这种传统方法如今正受到质疑。
转变思路:超越“盲目扩展”
研究表明,基于Transformer的神经网络(LLM的核心技术)在数据量和计算能力增加时性能呈线性增长。然而,业界领导者开始担忧这一策略的局限性,并尝试探索替代方法。
Scale AI首席执行官Alexandr Wang表示,AI投资主要基于这种“扩展定律”的假设,但现在它已成为“整个行业的最大问题”。
Cohere公司首席执行官Aidan Gomez认为,虽然增加计算能力和模型规模确实能提升性能,但这种方法有些“机械化”。“这种方法虽可靠,却显得有些愚蠢,”他在播客中说道。Gomez提倡开发更小、更高效的模型,这种方法因其成本效益受到支持。
版权声明:内容及插图归源作者所有。文章为源作者独立观点,不代表 雷电财经 立场。
温馨提示:如您对本文存在异议,或不巧侵犯了您的合法权益,请通过 [ 投稿须知 ] 联系我们删除!
下一篇:没有了