OpenAI CEO希望AI“热爱人类”,如何做到?
OpenAI首席执行官山姆·阿尔特曼(Sam Altman)说,他对人工智能的最大期望是:它能够“热爱人类”。他对将这一特质嵌入AI系统充满信心——但并不完全确定。
“我认为可以,”阿尔特曼在接受哈佛商学院副院长黛博拉·斯帕(Debora Spar)采访时谈到这一问题时表示。
人工智能崛起引发的担忧,早已不再局限于艾萨克·阿西莫夫(Isaac Asimov)的科幻小说,或詹姆斯·卡梅隆(James Cameron)的动作电影。如今,这不仅成为热门话题,甚至演变为需要认真讨论的监管问题。那些曾被认为是怪人的思考,如今却成为了切实的政策议题。
阿尔特曼提到,OpenAI与政府之间的关系一直“相对建设性”。他补充说,开发人工智能这样一个范围广泛且影响深远的项目,原本应由政府来主导。
“在一个运转良好的社会中,这应该是一个政府主导的项目,”阿尔特曼说,“鉴于这一点并未发生,我认为以(OpenAI)这种方式作为一个美国项目推进,可能是更好的选择。”
AI立法的进展缓慢美国联邦政府在AI安全立法方面尚未取得显著进展。加州曾试图通过一项法律,要求AI开发者对可能导致的灾难性事件负责,例如开发大规模杀伤性武器,或攻击关键基础设施。然而,这一法案虽在立法机关通过,却被加州州长加文·纽瑟姆(Gavin Newsom)否决了。
一些AI领域的顶尖人物警告称,确保AI完全符合人类利益是一个至关重要的问题。被誉为“AI教父”的诺贝尔奖得主杰弗里·辛顿(Geoffrey Hinton)表示,他“看不到一条能够保证安全的路径”。特斯拉CEO埃隆·马斯克(Elon Musk)则多次警告称,AI可能导致人类灭绝。值得注意的是,马斯克曾在OpenAI创立初期提供了大量资金支持,对此阿尔特曼依然“心怀感激”,尽管目前马斯克正对他提起诉讼。
近年来,许多专注于此类问题的机构涌现,例如非营利组织“对齐研究中心”(Alignment Research Center)和由前OpenAI首席科学官创立的初创公司“安全超级智能”(Safe Superintelligence)。
阿尔特曼对AI“对齐”的信心阿尔特曼认为,目前设计的AI非常适合进行对齐。这里的“对齐”(alignment)通常指的是,人工智能的目标或行为与人类的目标和价值观保持一致。因此,他认为,确保AI不对人类造成伤害比看起来要容易得多。
“目前最令人惊讶的成就是,我们已经能够让AI系统以特定方式行动,”他说。“因此,如果我们能在不同情况下明确这一点,我相信我们能够让系统按照预期行动。”
AI如何帮助定义价值观阿尔特曼提出了一个独特的想法,建议利用AI与公众互动,以明确这些价值观和原则,从而确保AI始终维护人类利益。他建议通过AI聊天机器人与用户进行长时间对话,了解其价值体系,并以此作为调整AI对齐方式的依据。他说,
版权声明:内容及插图归源作者所有。文章为源作者独立观点,不代表 雷电财经 立场。
温馨提示:如您对本文存在异议,或不巧侵犯了您的合法权益,请通过 [ 投稿须知 ] 联系我们删除!
下一篇:没有了