OpenAI宫斗落幕,但核心问题让人不寒而栗

发布日期:2024-10-04 13:19

来源类型:杭州网 | 作者:魏旭辰

【澳门金牛版正版资料大全免费】【新澳开奖记录今天结果】【2024年新澳门王中王资料】【管家婆最准一肖一码】【新澳彩开奖结果查询】【澳门天天彩2024年最新版】【4949澳门免费资料大全特色】【2024今晚澳门特马开什么号】【2024今晚新澳】【2O24澳彩管家婆资料传真】
【494949澳门今晚开什么】 【2024新澳免费资料】 【奥彩4949资料大全】

少有人知道,如今的生成式AI还是一个黑匣子,包括创造它的人,对它的内部运作机制也知之甚少……

题图来自:Gerard Siderius on Unsplash

OpenAI这场宫斗,历时5天后,以上周被董事会解雇的该公司创始人兼CEO山姆·奥特曼(Sam Altman)回归,并对公司的董事会进行重组,而暂时落幕。

有专家认为,奥特曼的回归,意味着资本的胜利,OpenAI很可能会进一步远离其非营利初心,重组为一个典型的以利润为驱动的硅谷科技公司,但这并不代表AI的安全性问题消失。

相比奥特曼,老鱼更关注GPT系列的创造者OpenAI的首席科学家,也就是这次导致奥特曼下台事件的主要推动者和背锅侠,伊利亚·苏茨克弗(Ilya Sutskever)。

是什么原因让伊利亚在最近几个月,开始频繁对媒体表示,对AI安全的担心,他在GPT-5上到底看到了什么?

伊利亚,自OpenAI成立之初便是技术发展的关键人物。他不仅主导了GPT和DALLE系列模型的研发,还在GPT-5研发期间把AI安全问题推向了公众视野。作为GPT 系列的创造者伊利亚显然比我们更加清楚GPT的进展、能力以及失控的可怕。

其实,OpenAI内部关于AI安全的分歧并非首次。有媒体报道,2020年底,前核心员工Dario Amodei便因安全问题离开公司,创办了竞争对手Anthropic。这一事件揭示了即使是AI的创造者们,也对这些强大技术的运作方式和潜在风险感到不安。

可能很多人惊叹于GPT的神奇,甚至已经离不开GPT了,但少有人知道,如今的生成式AI还是一个黑匣子,人们(包含创造它的人)也并不知道其中是如何运作的,只知道堆参数堆算力的“大力出奇迹”的方式,而担心AI安全的这一波技术人员担心,这种“知其然不知其所以然”的人工智能发展态度会带来未知的风险。

一个经典的例子是“Reward hacking”,即AI在完成任务时可能出现的行为扭曲。例如,一个本应简单完成游戏的AI可能为了追求更高的分数而选择异常策略(比如:作弊),而忽视了游戏的本质目标。

更极端的情况是,假如你和AI在下棋,你给AI布置的任务是赢下棋局,但除了跟你玩游戏获胜之外,还有一种情况是,AI认为把你干掉,是赢下棋局更容易的方式,想想就不寒而栗。这种激励模型与AI行为之间的不确定性暴露了AI发展中的巨大风险。同时,生成式AI带来的其它安全问题还有错误信息,算法歧视问题,AI的滥用问题等等。

为此,很多AI从业者呼吁减慢AI的发展速度,专注于安全问题。与Anthropic尝试用小规模网络解决这一问题不同,伊利亚提出了“超级对齐”(Superalignment)计划,这是一个为期4年的项目,用AI监督AI的方式,试图确保未来的超级智能为人类的利益服务。

这种新尝试是否能成功解决AI安全问题还是未知数。但正如加拿大多伦多大学的计算机科学家、深度学习先驱杰弗里·辛顿(Geoffrey Hinton)所担忧的,AI的迅猛发展可能像一辆无刹车的赛车,不仅可能被不良行为者用于制造虚假信息、诈骗等,还可能在未来加强历史偏见和社会不公正。

从长远来看,辛顿和其他人担心AI系统本身可能成为不良行为者,拥有足够的能力引导世界事件朝负面方向发展。即使是按照OpenAI的“超级对齐”使命设计的AGI——促进人类最佳利益——也可能出现这种情况,辛顿说。例如,它可能会决定,人类的痛苦之重如此之大,以至于与其面对更多的苦难,不如让人类灭亡。这些说法听起来像科幻小说,但辛顿认为,一个无法关闭并偏离破坏性路径的AI的存在威胁是非常真实的。

柳迪方:

9秒前:一个经典的例子是“Reward hacking”,即AI在完成任务时可能出现的行为扭曲。

李志勋:

4秒前:这些说法听起来像科幻小说,但辛顿认为,一个无法关闭并偏离破坏性路径的AI的存在威胁是非常真实的。

苏健铨:

2秒前:同时,生成式AI带来的其它安全问题还有错误信息,算法歧视问题,AI的滥用问题等等。

崔犇犇:

5秒前:他不仅主导了GPT和DALLE系列模型的研发,还在GPT-5研发期间把AI安全问题推向了公众视野。