杏彩网站登录平台

用胶水粘披萨、吃石头获取营养……谷歌的AI产品又“翻车”了这次还很离谱!背后暴露的是AI行业的“致命”问题

时间: 2024-06-12 10:27:34 |   作者: 产品中心

  ◎ 谷歌“AI概述”功能甫一上线,便闹出了不少让人啼笑皆非的“笑话”,甚至还给出了一些危险答案。谷歌曾希望到年底时“AI概述”的受众规模能超过10亿,但或许,能否保证“最后的20%内容正确率”才是关键所在。

  本月中旬,谷歌在其年度开发者大会I/O上宣布了多年来全球搜索领域的最大变革:将其最新的AI模型植入了搜索引擎,试图一次追赶竞争对手微软和OpenAI。

  然而,谷歌这项名为“AI Overview(以下简称AI概述)”的AI搜索功能一上线却遭遇了“花式翻车”,“建议用户用胶水将芝士固定在披萨上”“推荐摄入石头获取营养”等一连串荒谬的回答不仅让谷歌十分尴尬,也在网上掀起了轩然。

  对此,谷歌发言人表示,谷歌正在利用这些“孤立的”例子对其系统来进行更广泛的改进。

  实际上,《每日经济新闻》记者看出,这并不是谷歌AI产品首次“翻车”。去年首推对标ChatGPT的聊天机器人Bard在demo视频中犯下事实性错误,让市值一夜暴跌。前段时间,Gemini大多数情况下无法生成白人图像,且对历史人物的描绘也不准确,也在全网掀起轩然。

  有观点指出,目前谷歌“AI概述”面临的尴尬之处在于,以前只要AI生成的信息是错误的,那责任便可以“甩锅”给检索出来的网站,现在谷歌要自己承担虚假信息和错误信息的责任,哪怕是AI生成的。除了错误和截流其他网站外,谷歌“AI概述”也被指存在“规模化的剽窃”等风险。

  谷歌表示,利用“AI概述”,用户将能够从Gemini的强大能力中获益,由此减少搜索信息的部分工作。

  然而,“AI概述”还没有来得及颠覆搜索领域,便已经制造了不少令人啼笑皆非的“笑料”。

  科技媒体The Verge的记者Kylie Robison就在其署名文章中举了一个例子对这项新功能进行了讽刺。文章称,当用户准备享用自制披萨时,却遇到芝士会滑落的问题,沮丧的用户开始查询谷歌搜索解决方案,然而,AI Overviews的回答是,“加点胶水”,并“贴心”地给出了“操作方法”:“将大约1/8杯Elmers胶水与酱汁混合。无毒胶水就可以。”尽管胶水确实能解决粘连问题,但这非常有可能是Gemini出现了“幻觉”(Hallucination)所导致的结果。

  而这只是“AI搜索”功能近期出现的众多错误之一。例如,“AI概述”建议用户每天至少吃一块石头来补充维生素和矿物质。

  此外,“AI概述”还告诉用户使用“含氟漂白剂和白醋”来清洁洗衣机的内容,但这两种成分混合后会产生有害的氯气。更离谱的是,当用户表达“感到沮丧”时,“AI概述”竟然称,“一位Reddit用户建议从金门大桥上跳下去”。

  危害健康的建议并不仅限于人类。有用户提问:“将狗留在闷热的车内是否安全?”“AI概述”的回答是:“把狗留在闷热的车内是安全的。尤其是在闷热的天气里。”

  《》报道称,“AI概述”功能是将谷歌Gemini大语言模型生成的内容与网络上实时的链接片段相结合,其给到用户的结果能引用来源,但却无法辨别来源内容的正确与否。

  The Verge报道就表示,给披萨加胶水的答案似乎是基于一位名为“smith”的用户十多年前在Reddit帖子中的评论,他们显然是在开玩笑。

  外媒称,如此荒谬的结构,应该足以让谷歌考虑删除“AI概述”功能,直到其得到更严格的测试。“AI概述”不仅提供了糟糕的和危险的建议,而且还可能对谷歌的声誉造成损害。换句话说,一个优秀的AI要既能识别出恰当的内容,又能分析这个内容并决定是不是采纳。

  谷歌发言人在一份声明中称,“AI概述”绝大多数的搜索出来的结果都是“高质量信息,还有能在网上溯源的链接。我们得知,许多例子都是不常见的问题,而且,有些例子被篡改,有些也是没办法重现的。”

  该发言人还称,谷歌正在“迅速采取行动,并根据其政策,在适当的情况下删除某些AI概述给出的答案,并利用这些孤立的例子对其系统来进行更广泛的改进,其中一些改进的内容慢慢的开始推出。”

  科技媒体The Verge上周早些报道称,谷歌CEO桑达尔・皮查伊在接受媒体采访时承认,这些“AI概述”功能产生的“幻觉”是大型语言模型的“固有缺陷”,而大型语言模型正是“AI概述”功能的核心技术。皮查伊表示,这样的一个问题目前尚无解决方案(is still an unsolved problem)。

  所谓AI的“幻觉”,是指AI在处理和生成信息时,会错误地创建不存在的事实或数据,从而误导用户。这样的一个问题不仅在谷歌的AI系统中存在,在其他公司的AI产品中也同样普遍。

  皮查伊的坦诚表态在社会各界引发了广泛讨论。然而,皮查伊似乎淡化了这些错误的严重性。他表示:“AI概述功能有时会出错,但这并不代表它没有用处。我认为这并不是看待该功能的正确方式。我们取得了进展吗?是的,肯定有。与去年相比,我们在事实准确性方面的指标上取得了很大进步。整个行业都在改进,但问题还没有完全解决。”

  《每日经济新闻》记者发现,其实“AI概述”并不是谷歌首个“翻车”的AI产品。

  2023年2月,为对抗新生的ChatGPT,谷歌宣布推出聊天机器人Bard,但在官方发布的demo视频中Bard在回答一个有关詹姆斯韦伯太空望远镜的问题时给出了错误的答案。今年2月,谷歌发布更新后的AI聊天机器人Gemini,但用户很快发现,该系统在大多数情况下无法生成白人图像,而且对历史人物的描绘也不准确。

  有观点指出,谷歌的“AI概述”功能的尴尬在于,以前只要AI生成的信息是错误的,那责任便可以“甩锅”给检索出来的网站,现在谷歌要自己承担虚假信息和错误信息的责任,哪怕是AI生成的;另外,以前谷歌和其他内容提供网站是共生共赢的关系,如今谷歌截流了这些网站的流量,用户直接从“AI概述”给的内容拿结果,这些网站变成了纯供给方,很难被谷歌“AI概述”引流。

  除了一系列错误和截流外,谷歌“AI概述”也被指存在别的问题和风险。例如,其“AI概述”总是摘抄来自不同网站的内容,并稍作修改,这种行为也被抨击为“规模化的剽窃”。

  人工智能专家、纽约大学神经科学名誉教授加里马库斯(Gary Marcus)表示,不少AI厂商都是在“兜售梦想”,希望更多人相信这项技术的正确率终将从80%提升至100%。马库斯强调,初步实现80%的正确率相对简单,因为其中涉及大量人类数据,其正确率天然就在这个区间。但弥合这最后20%的差距却极具挑战。实际上,马库斯认为这最后20%很可能是条死胡同。

  在发布“AI概述”时,谷歌曾表示,随着这项功能推广到其他几个国家,今年年底前“AI概述”的服务受众规模将超过10亿。然而,正如马库斯教授所言,谷歌能否保证“最后的20%内容正确率”,才是其“AI概述”受众规模能否超过10亿的关键所在。

  其实,自OpenAI于2022年年底发布ChatGPT并一夜成名以来,谷歌一直面临着将AI整合到其搜索技术中的压力。然而,谷歌在驯服大型语言模型方面存在挑战,这些大模型是从开放的网络中获取的大量数据中学习,而不是像传统软件那样编程。

  如需转载请与《每日经济新闻》报社联系。未经《每日经济新闻》报社授权,严禁转载或镜像,违者必究。

  特别提醒:如果个人会使用了您的图片,请作者与本站联系索取稿酬。如您不希望作品出现在本站,可联系我们要求撤下您的作品。

返回列表
关注微信公众号
了解我们最新产品