谷歌DeepMind和OpenAI的现任和前任员工签署了一封公开信,呼吁支持和保护告密者,并呼吁处于人工智能开发前沿的公司追究责任.
在公开信上签名的前OpenAI员工中有研究员丹尼尔·科科塔伊洛.
尽管信中没有提到他的名字,但OpenAI最近几周受到了批评,原因包括对说公司坏话的前员工进行惩罚的指控,以及首席执行官对自己的董事会没有完全公开的指控.
5月底,OpenAI前董事会成员海伦·托纳指责首席执行官萨姆·奥特曼撒谎.
不久前,有消息称,OpenAI在其退出协议中加入了一项非贬损条款.
这意味着,批评该公司的前员工可能会失去在任职期间赚取的既得权益.
这封信警告称:“人工智能公司拥有大量非公开信息,涉及其系统的能力和局限性、保护措施的充分性以及各种危害的风险水平.
”然而,它们目前只有微弱的义务与政府分享其中的一些信息,而没有与公民社会分享这些信息.
我们不认为他们都能自愿分享信息.
“由于没有对人工智能公司内部发生的事情进行有效的政府监督,并考虑到发展速度,员工是少数几个可以揭示OpenAI等公司内部运作的群体之一.
然而,严厉的保密协议确保了人们无法表达担忧.
信中写道:”普通的举报人保护是不够的,因为他们专注于非法活动,而我们担心的许多风险尚未得到监管.
“考虑到整个行业的此类案件的历史,我们中的一些人有理由担心遭到各种形式的报复.
我们并不是第一个遇到或谈论这些问题的人.
“因此,这封公开信呼吁的四项原则都与允许现任和前任员工畅所欲言而不担心报复有关,这也就不足为奇了.
保密协议在行业内并不新鲜,尽管OpenAI似乎特别严格.
然而,人工智能发展的速度意味着,在监管机构跟上形势之前提出担忧可能已经为时已晚.
正如信中所说:“一旦有足够的流程匿名向公司董事会、监管机构和具有相关专业知识的适当独立组织提出担忧,我们同意最初应该通过这样的流程提出担忧.
”然而,只要这样的流程不存在,现任和前任员工就应该保留向公众报告他们担忧的自由.
OpenAI的一位发言人告诉The Register:“我们为我们提供最有能力、最安全的人工智能系统的记录感到自豪,并相信我们应对风险的科学方法.
我们同意,鉴于这项技术的重要性,严格的辩论是至关重要的,我们将继续与世界各地的政府、公民社会和其他社区接触.
“这也是为什么我们有途径让员工表达他们的担忧,包括一条匿名的诚信热线和一个由我们的董事会成员和公司安全负责人领导的安全和安全委员会.
”该公司最近解除了所有员工的非贬损协议,并从离职文件中删除了这一条款.
然而,它也指出,需要在前雇员自由表达意见和正在建设的技术的安全性和保密性之间取得平衡.®.