探索财经奥秘,指引财富未来

OpenAI在高调退出后成立安全小组

Matthew Connatser 2024-05-29 00:35:44

OpenAI成立了一个新的安全小组,致力于研究GPT-4的继任者,同时努力应对最近一些批评GPT-4商业意图的知名成员的离职.

该小组被称为安全和安保委员会(SSC),该小组的领导层包括OpenAI首席执行官萨姆·奥特曼、布雷特·泰勒(他将担任主席)、亚当·D‘Angelo和妮可·塞利格曼,他们都是董事会成员.

其他安全委员会成员包括OpenAI的各个团队负责人,包括雅各布·帕乔基,他在接替联合创始人伊利亚·苏茨凯弗后担任首席科学家仅13天.

OpenAI表示,从现在开始,安全团队将为董事会提供关于“关键安全和安保决策”的建议.

这些决定可能会影响GPT-4的继任者的开发,OpenAI在声明中简要提到GPT-4是其“下一个前沿机型”.

该公司表示:“虽然我们很自豪地构建和发布在功能和安全方面都处于行业领先地位的机型,但我们欢迎在这个重要时刻进行激烈的辩论.

”但没有具体说明他们预计会讨论什么.

首先要讨论的是90天的安全建议,供董事会考虑,尽管这意味着奥特曼和其他董事在审查建议时拥有最终决定权.

当然,这位OpenAI首席执行官和其他四位首席执行官也将有机会在建议提交董事会之前对其施加影响.

新安全委员会的组建可能会在本月早些时候发生的两起高调离职事件之后结束:苏茨凯弗和简·莱克.

他们退出OpenAI后,该公司的SuperAlign小组立即解散,该小组的存在是为了评估长期的人工智能安全担忧.

在他离开之前,莱克一直是SuperAlign团队的领导者.

本月早些时候,OpenAI还失去了OpenAI治理团队的丹尼尔·科科塔伊洛,2月份,联合创始人安德烈·卡帕西也辞职了.

苏茨凯弗和卡帕西拒绝深入探讨他们离职的原因,但莱克和科科塔伊洛明确表示,他们是因为在人工智能安全问题上存在分歧而辞职的.

莱克在SuperAlign团队被取消的前一天表示:“在过去的几年里,安全文化和流程已经让位于闪亮的产品.

”Kokotajlo说:“我们早就应该认真对待…开放人工智能的影响,它必须成为一家安全第一的开放人工智能公司.

”同样,科科塔伊洛说,他“退出开放人工智能是因为对它在开放人工智能时代会负责任地行事失去信心.

”人工智能安全无疑是开放人工智能的一个有争议的问题,这可能是成立新的安全和安全委员会的一个关键原因.

尽管这个新组织是否真的会让安全倡导者满意还是一个悬而未决的问题.®.