探索财经奥秘,指引财富未来

没有信任,人工智能搜索引擎就无法成功,我也没有

Sydney Butler 2024-05-30 00:09:15

生成式人工智能搜索引擎可能会提供有用的答案,但由于不可预测性,信任是一个重要的问题.

在搜索结果中,人类监督仍然至关重要,以确保信任和准确性.

即使有了先进的人工智能,对技术的信任也比性能数字更重要.

似乎每个人都在搜索产品中加入人工智能.

有些公司,如困惑人工智能,已经围绕生成性人工智能和大型语言模型(LLM)构建了整个系统.

老牌搜索公司,尤其是必应和谷歌,已经将这些技术添加到他们现有的搜索引擎中.

这导致了谷歌搜索人工智能的出现,比如在披萨上添加胶水和吃石头,以及月球上有猫.

就谷歌而言,它正在迅速采取行动纠正这些错误,但这并没有解决根本问题--信任.

信不信由你,我是一个真正的人,坐在这个键盘前,输入你将要阅读的单词.

这意味着,如果你在这里读到了一些没有意义的东西,或者是虚假的,或者可能造成伤害的东西,你会有一个人来承担责任.

同样,如果我使用美联社的信息,而这些材料中存在严重的事实错误,我不得不求助于某个人犯了错误或其他错误来解释这个问题.

我们知道信息是如何产生的,我们知道谁应该对此负责.

疏忽是有后果的,而且有适当的系统(如人类编辑和编辑政策),意在在问题发表之前发现问题.

当然,这些系统都不是万无一失的,但总会有人负责.

到目前为止,产生式人工智能系统的行为方式甚至连它们的创造者都无法预测.

这些数十亿甚至万亿参数的模型就像黑匣子,没有人确切地知道里面发生了什么.

这也是为什么他们拥有如此多的希望和力量,但这意味着制定一个安全可靠的解决方案是困难的.

如果人们不信任AI搜索结果,技术无关紧要,即使像谷歌的双子座这样的东西99%准确和值得信任,我们仍然有一个问题.

当然,人类自己很少那么可靠,但我们也很少有速度和规模来应对我们的错误,从而造成潜在的巨大破坏.

想想看,谷歌每天处理大约85亿次搜索.

如果这些搜索中只有1%包含潜在的有害信息或建议,那么你仍然需要给8500万人提供一些有问题的食物.

每天!换句话说,像这样的系统在没有任何人参与的情况下提供建议和信息所需的标准是如此之高,以至于实际上可能是不可能的.

然而,我们可以整天谈论这些人工智能系统的性能数字,即使它们被认为不值得信任,也不会有任何影响.

由于缺乏公众的信任,许多有前途的技术都被封存了.

核事故使人们对核能保持警惕.

兴登堡的悲剧为飞艇敲响了最后一颗钉子,尽管从氢气改为氦气将使这种情况不可能重演.

一旦你的技术被认为不值得信任,就几乎不可能纠正这种看法,即使你真的解决了问题.

无论人工智能技术有多好,它们永远不足以证明完全消除人类监督是合理的.

不是因为人类一定会做得更好,而是因为我相信人类永远不会完全信任他们.

我们倾向于关注例外而不是规则,这就是为什么人们玩彩票!归根结底,当这些系统造成伤害时,像这样的系统的创造者无法逃避责任.

责任必须停在某个地方,人类必须在某种程度上对此负责.

个别网站可以对其内容负责,直到搜索引擎很好地将最值得信赖的网站放在榜单的首位.

这是一个良性循环,我们试图提供我们所能提供的最高质量、值得信赖的内容,而搜索引擎回报我们流量,这为更多的内容提供了资金,等等.

现在,人工智能对这些内容的摘要面临着打破产生高质量、值得信赖的内容的循环的风险,同时也可能引入或重复危险或误导性的信息.

一旦你有效地将在网络上寻找信息变成了一场俄罗斯轮盘赌游戏,就不要指望敲你门的人会愿意玩.

产生式人工智能,至少在尖端,对于那些寻找答案的人来说,在寻找、消化和呈现信息方面是有效的.

然而,就目前的情况而言,我们真的能相信这项技术吗?原则上,我们可以相信它吗?生成性人工智能,至少在前沿,对于那些寻找答案的人来说,在寻找、消化和呈现信息方面是有效的.

然而,就目前的情况而言,我们真的能相信这项技术吗?原则上,我们可以信任它吗?例如,谷歌现在提供人工智能摘要,LLM将阅读网页,这样你就不必阅读,并直接回答你的问题.

撇开这是如何将产生内容的实际网站排除在循环之外,当它起作用时,它是令人惊讶的有用的.

然而,就像人工智能聊天机器人一样,他们容易出现幻觉,或者犯下逻辑和推理错误.