探索财经奥秘,指引财富未来

OpenAI在挫败五项无效的人工智能秘密影响行动后非常沾沾自喜

Thomas Claburn 2024-05-31 07:36:14

OpenAI周四表示,它已经瓦解了五项秘密影响行动,这些行动试图利用其人工智能服务来操纵舆论和选举.

超级实验室表示,这些影响行动(IO)对观众参与度或放大操纵信息的影响范围没有显著影响.

“在过去的三个月里,我们针对IO参与者的工作已经瓦解了试图使用人工智能模型来执行一系列任务的秘密影响行动,比如用一系列语言生成短小的评论和较长的文章,为社交媒体账户编造名字和简历,进行开源研究,调试简单的代码,以及翻译和校对文本.

《商业周刊》说,这些活动与俄罗斯的两个行动有关,一个在中国,一个在伊朗,在以色列的一家商业公司.

俄罗斯的一个行动被称为《坏语法》,专注于Telegram,目标是乌克兰、摩尔多瓦、波罗的海国家和美国的人.

另一个人被称为“双面人”,他在不同的网站上发布关于乌克兰的内容.

这位中国威胁演员,被称为“垃圾广告”,赞扬中国,猛烈抨击批评这个国家的人.

来自伊朗的影响行动,被称为国际虚拟媒体联盟,赞扬伊朗,谴责以色列和美国.

以色列的斯多葛公司创造了关于加沙冲突和以色列工会历史的内容.

根据OpenAI的数据,这些操纵计划在布鲁金斯学会的越狱量表中只有两个评级.

一种量化内部监督办公室影响的方案,范围从1个(在单一平台上的一个社区内传播)到6个(引发政策反应或暴力).

这种规模的2意味着虚假内容出现在多个平台上,没有突破真实的受众.

OpenAI对整个事件的报告[PDF]发现,这些影响操作往往是由于人类操作员未能解决的错误而泄露的.

“例如,Bad Grammar发布的内容包括来自我们模型的拒绝消息,将他们的内容暴露为人工智能生成的内容,”报告称.

“我们都预计不良行为者会利用LLMS来加强他们的秘密影响力活动--我们谁也没有想到第一次曝光的人工智能支持的虚假信息尝试会如此软弱和无效,”约翰·霍普金斯大学高级国际研究学院阿尔佩罗维奇网络安全研究所创始主任、战略学教授托马斯·里德在社交媒体上发帖说.

2024年5月,艾伦·图灵研究所新兴技术与安全中心(CETAS)发布了一份关于英国选举干预的报告,呼应了OpenAI关于这些人工智能支持的隐蔽影响活动无效的断定.

报告发现:“目前人工智能对具体选举结果的影响有限,但这些威胁显示出破坏更广泛民主制度的迹象.

”报告指出,在自2023年1月以来或将于2024年举行的112次全国选举中,仅有19次发现了基于人工智能的干预,目前还没有数据表明选举结果受到了人工智能的实质性影响.

Cetas的报告认为,人工智能内容产生了难以衡量且后果不确定的二阶风险,例如播撒不信任和煽动仇恨.

RID表示,随着更多竞争对手开发合成内容创作工具,以及OpenAI的市场份额下降,微软倡导的实验室将更难检测到此类滥用行为.

他还指出,OpenAI在讨论iOS时,没有解决其他形式的合成内容滥用问题,包括虚假产品评论、广告机器人、欺诈性营销文案和网络钓鱼消息.®.