曾经在OpenAI“高层斗争”中落败的前首席科学家Ilya Sutskever,近日在个人社交媒体上宣布创立了一家名为SSI(Safe Super Intelligence Inc.,安全超级智能公司),专注于研发“直接且安全”的超级人工智能。他在四月份刚从OpenAI离职,当时他表示对OpenAI的未来发展充满信心,尽管他将投身于一个新的个人项目,但强调了其对AGI(通用人工智能)安全性的重视。
SSI的联合创始人包括前苹果AI部门主管Daniel Gross和前OpenAI技术团队成员Daniel Levy。他们曾分别在搜索引擎公司Greplin和OpenAI有过深厚背景,被业界广泛认可。新公司明确表示,其唯一关注点是安全超级智能,承诺通过创新工程和科学突破解决这一问题,同时保证技术领先。
值得注意的是,SSI强调其专注度将避免商业压力对安全的影响,这似乎暗指OpenAI在追求盈利和商业化过程中对安全性的妥协。Ilya Sutskever在OpenAI任职期间,因提倡“对齐”理念——确保AI遵循人类价值观以防止潜在风险,与奥特曼的商业化策略产生分歧。
去年11月,OpenAI经历了一场高层人事变动,奥特曼被解除CEO职位并逐出董事会,原因在于他对安全问题的忽视和激进的商业化策略。此后,Sutskever逐渐淡出公众视线,而AI安全问题成为行业关注焦点。OpenAI的安全团队遭受冲击,前首席安全研究员Jan Leike离职,指出公司在AI安全方面存在问题。
随着AI技术的飞速发展,安全监管成为亟待解决的问题。特斯拉CEO马斯克曾批评OpenAI过于侧重产品而非安全。Sutskever的新公司将聚焦于安全,这可能预示着行业将面临技术进步与安全选择的十字路口。
总的来说,Sutskever的创业之举反映了AI领域的安全与发展的复杂平衡,人们对他的新公司寄予了对AI安全未来的重要期待。
前OpenAI联合创始人独立创业。
2024-06-20 13:47:00