探索财经奥秘,指引财富未来

斯坦福团队AI风波后,如何进行有效"打假"?e公司视角关注国产大模型的鉴别方法。

诗敏 2024-06-05 22:13:00
在全球人工智能竞争日益激烈的环境中,抄袭事件时有发生,国产大模型常常成为被质疑的对象。然而,最近一个转折点是斯坦福大学的AI团队被曝抄袭了中国的面壁智能公司的开源模型——MiniCPM-Llama3-V,这一事件迅速反转,引起中美两国的广泛关注。5月29日,由三名学生和工程师组成的团队推出了Llama3-V,声称低成本实现了与顶级开源模型相当的性能,一度登上HuggingFace首页。然而,HuggingFace用户发现Llama3-V疑似套用了MiniCPM-Llama3-V 2.5的部分设计,证据包括相似的模型结构、代码和功能。
面对质疑,斯坦福团队辩称他们仅使用了MiniCPM的tokenizer,并声称早于后者开始研发。然而,原创团队证实,MiniCPM-Llama3-V拥有识别特定战国古文字的能力,这是基于清华大学和面壁智能团队未公开的数据。压力之下,Llama3-V团队成员道歉,并将责任推给了离队成员。对此,面壁CEO李大海表达了遗憾,并强调构建开放、合作、信任的社区重要性,同时也指出中美AI领域的差距。此次事件促使科技界反思,有人认为它增强了国产大模型的信心,也有人反思国际对非传统AI中心的忽视。
人工智能时代,谎言无法掩盖真相,但AI的认知门槛和公众参与的困难问题凸显。开源社区在验证信息真实性方面起着关键作用,但其自发性和偶然性可能无法满足行业长期发展需求。因此,商业主体在推动技术进步的同时,透明度的重要性愈发突出。近日,一批OpenAI前员工和现任员工,以及谷歌DeepMind的前、现员工联名发表公开信,警告AI行业的风险,呼吁加强监管,保护举报者,并提倡更高的透明度。他们指出,人工智能公司掌握着大量敏感信息,而现有的信息分享义务极低,这引发了关于提升行业透明度和公众知情权的讨论,以保障行业的安全发展。人工智能的透明度不应被视为稀缺资源,而是行业发展不可或缺的基石。