探索财经奥秘,指引财富未来

谷歌终于解决了这些奇怪的人工智能搜索结果

Matthew Connatser 2024-06-01 03:35:50

谷歌终于解决了那些看似由其人工智能生成的精神错乱的网络搜索结果,过去一周,这些结果的截图在社交媒体上广为流传.

简而言之,这位互联网巨头表示,这并不像看起来那么糟糕,尽管他誓言要消除系统令人费解的反应.

对于那些错过它的人,谷歌本月推出了这些所谓的人工智能概述,将该系统从一个可选的实验功能升级到从美国用户开始在全球范围内投入生产.

基本上,当你使用谷歌在网络上搜索某个东西,或者问它一个问题时,这家科技巨头可能会使用其双子座人工智能巨型模型,自动在搜索结果页面的顶部为你的查询生成答案.

这个答案应该是基于网络上关于你试图查找的话题的评论.

不是通过点击搜索结果链接到页面来查找信息,而是在结果页面上为网民提供人工智能制作的信息摘要.

该摘要应该是准确和相关的.

然而,正如一些人发现的那样,谷歌有时会返回荒谬和荒谬的答案.

毫无疑问,至少有一些截图和分享到社交网络上的回复是人类编辑的,以使它看起来像是大G完全失去了情节.

尽管如此,在两个特别引人注目的例子中,如果是真的,人工智能评论说人们“应该每天吃一小块石头”,奶酪不粘披萨可以通过在酱汁中添加“无毒胶水”来修复.

我们认为,这些愚蠢的回复似乎源于Reddit上的笑话和挖苦,这是包括谷歌在内的各种LLM训练数据的来源--Chrome巨头每年向Reddit支付约6000万美元来吸收用户的帖子和评论.

“一些奇怪、不准确或无用的人工智能评论肯定出现了.

”谷歌的搜索老板Liz Reid在周四的更新中证实了这一点.

“虽然这些通常是针对人们不常做的查询,但它突出了一些我们需要改进的具体领域.

”谷歌的立场是,截图中的不可靠建议例子只占人工智能系统总输出的一小部分.

谷歌为其双子座发布的搜索结果进行了辩护,并表示,该系统只需进行一些调整,而不是全面重新工作,就能让它走上正轨.

里德声称“非常大量的”奇怪的搜索结果都是伪造的,并否认人工智能评论真的建议怀孕时吸烟、把狗留在车里,或者像社交媒体上的一些人所说的那样跳桥治疗抑郁症.

谷歌表示,人工智能评论的一个关键问题是,它把“荒谬的问题”看得太重了,特别指出,字面意思是吃石头的建议只是搜索引擎吐出来的,因为问题是“我应该吃多少石头?”人工智能评论现在显然能够更清楚地识别和恰当地处理讽刺内容.

这将有助于防止吃石头的建议发生,因为它是基于《洋葱报》的一篇文章.

此外,谷歌还限制了对日常用户撰写的信息的依赖,这就是披萨建议的粘合剂:来自一个名叫Fucksmith的人在Reddit上开玩笑.

此外,人工智能概述不会弹出式查询,因为人工智能概述被证明没有那么有帮助.

目前还不清楚这将在什么时候适用,但我们猜这可能是为了回答一些简单的问题,比如“美国有多大?”谷歌只需从维基百科或其他资源中获取一小段内容,这是谷歌在人工智能概述首次亮相之前所做的.

科技巨头公司认为,尽管人工智能概述给人的第一印象很糟糕,但总体来说效果良好,理由是用户反馈和自我报告的内容政策违规率为700万次搜索中就有一次.®.