首页  >  资讯  >  文章
2024-05-20 11:25

OpenAI人事地震多名高管离职:CEO奥特曼被指PUA下属,对离职员工要求签订「负面封口」条款

原本以为平静的周末,没想到OpenAI的「宫斗大戏」即将开启第二季。

本周二,原OpenAI首席科学家Ilya Sutskever官宣离职,一同出走的还有Ilay的铁哥们、去年在公司内部成立的「超级对齐团队」负责人Jan Leike。

Jan Leike曾任OpenAI的安全主管。也是「超级对齐团队」的项目目前主要的负责人,在Ilya Sutskever远程办公的最近半年时间内,他一直充当中间人的角色

「超级对齐团队」的诞生,被认为是CEO奥特曼推进商业化与Ilya推进AI安全建设之间的对立矛盾的标志性事件。

所谓“超级对齐”,就是让AI与人类的思维能力无限接近,以确保AI不会越界做出对人不利的事情。

图片

刚离职,Jan Leike很快发文向奥特曼发难:

①OpenAI必须转型为一家将「安全」放在首位的AGI研究公司

②放弃这份工作是人生中最艰难的决定之一

③在公司核心发展重点的问题上与OpenAI领导层长期存在分歧

除此之外,外媒Vox同时曝出了OpenAI极其严苛的离职保密协议。

——OpenAI员工离职前必须签署保密和不诋毁条款。该协议禁止他们终身批评OpenAI,如果离职员工拒绝签署文件或违反协议规定,他们可能会失去在公司工作期间获得的所有报酬,这可能价值数百万美元。

目前不知道Jan Leike和Ilya是否也签署了类似的协议。

事实上,在去年11月的「宫斗大戏」上演之前,Ilya Sutskever曾接受专访表示,目前他的首要任务并不是构建下一代的GPT大模型或者其他AI大模型,而是搞清楚如何阻止“无赖的超级人工智能”。

Ilay Sutskever深信,ChatGPT“可能存在意识”,全世界需要知道他的公司和其他公司创造出技术力量的真相。

在Ilya Sutskever看来,AI与人类的关系应该是子女与家长的关系,人类有责任“教导”人工智能符合社会价值观。

相反的,受迫于商业化压力的奥特曼则多次否认ChatGPT存在安全风险,并且强调OpenAI致力于AI安全的全球监管。

对于Jan Leike的发难,奥特曼简单回应:我要去写小作文。

第二季的剧情即将上演,瓜子板凳安排上嘞~~

5
查看相关话题: #OpenAI #奥特曼 #AI安全

相关文章