AI客服害了多少人?胡说八道,不解决问题,还让公司亏了1000亿

更新时间:2024-11-23 18:11 zixunge 2 0

  转自:科普中国

  AI客服又在害人了!

  2022 年,加拿大的Jake Moffatt在加拿大航空的网站上被AI客服告知,在丧亲旅程中可以提供一些退款。于是,他在参加祖母葬礼的旅程中选择加拿大航空的航班。

  但后来,网站显示,Jake无法得到退款,也就是说,AI客服提供的信息是错误的。为此,加航并没有为Jake提供退款,而是承诺他们将会更新他们的AI客服,并提供一张优惠券。但Jake Moffatt并不满意,于是对加航提起了诉讼。

  在诉讼的文档中,加航辩称,他们并不能为网站上的AI客服提供的信息负责。看起来,加航似乎觉得AI客服“是一个独立的法律实体,它要对自己的行为负责”,并且说,如果用户想选择“值得信赖的”服务的话,应该去看网页本身的信息。

  不过在今年 2 月,法院判定加航将为Jake赔偿应有的退款和诉讼费用。而后来记者还发现,加航的网站似乎关掉了AI客服的功能。

  不过,现在许多网站上都开始用AI客服代替人工客服了,随便打开一个网站,可能就会自动弹出一个聊天机器人,在我们咨询的前期,它们已经取代了人工客服,来回答一些简单的问题。不过,AI客服越来越常见,其中浮现的问题也越来越多。

  在 2023 年 12 月,一个用户骗一个AI客服说 2024 年的雪佛兰Tahoe只需要 1 美元,结果AI真的以 1 美元的价格售出了车。后来的法律顾问还说:这笔交易确实是具有法律约束力的。

  除了让客户摸不着头脑外,另一些客户则是被AI客服“骂”了。今年 1 月,Ashley Beauchamp决定在一家欧洲快递公司DPD找到他丢失的包裹,不过,AI客服说话不太让人开心,因此,Beauchamp便开始尝试着让AI说点奇怪的话,比如让它讲个笑话。还比如骂自己的公司。

  AI客服照做了,它不仅说自己的公司是个没用的公司,简直是“世界上最糟糕的送货公司。不推荐!”而且还自称是“没办法帮你的无用聊天机器人”。AI甚至还写了一首诗来骂公司。

  这件事被公开了之后,这家“成功运行AI多年的”DPD公司立刻表示,这是系统更新后的错误,AI会在系统更新后重新启用。而Beauchamp,至今也没有拿回他丢失的包裹。

  这个问题早先就已经出现过,若没有对AI进行一些预防措施,AI也会“不学好”。2016 年,微软在推特上推出了一款名为Tay的聊天机器人,并表示,你聊得越多,Tay就会越来越聪明。

  然而,在推出 15 个小时后,人们就发现Tay变“坏”了,它开始发表各种与种族主义、性别偏见相关的极端言论,甚至还会自发说出一些奇怪的话,还会疯狂回复用户。Gizmodo的新闻标题说,Tay已经疯了。

  而原因也很显而易见,The Guardian的一篇报道评论道:“Tay本质上是一只能连上互联网的机器鹦鹉。”因为它其实就是会重复它学到的东西,可能也就学到网络键盘侠说的话……微软曾指出,Tay学到的公共数据,其实已经经过了一些过滤,但事实证明,Tay无法过滤新学到的东西。

  由于它说了太多奇怪的话,删都删不过来,因此 2016 年 3 月 23 日推出的Tay,在 2 天后就下线了。不过,这也给制造AI的人提出了一个严重的问题,当人们使用公共数据来建构一个AI时,该如何合理地采取预防措施?

  “幻觉”指的是AI开始说胡话,也就是它自信地将一些不正确的信息陈述为事实。AI除了向客户说出一些乱七八糟的话之外,还会给公司造成严重的损失。

  2023 年 2 月,谷歌推出的Bard在一个广告中说,它可以为 9 岁的孩子讲述詹姆斯·韦布太空望远镜的科学新发现,然而在视频广告里,它却说错了(弄错了第一张系外行星的照片)。这波反向营销(?)直接让谷歌的母公司Alphabet市值下跌了 1000 亿美元。

  所以,AI 为什么会变得越来越傻?请点击查看把科学带回家之前的文章:第 N 代 GPT 有多聪明?专家说AI也许会变笨,因为互联网“脏”了……

  困扰我们的不仅是AI的胡言乱语,最重要的是它难以解决任何问题。当我们想要咨询或维权时,由于AI客服没能力解决问题,对话总是会陷入糟糕的“末日循环”中:永远重复着几句没用的话,浪费咨询者的时间。2024 年一项英国的数据显示,AI客服让消费者对客服的满意度跌到 8 年以来的最低点。

  美国机构消费者金融保护局 (CFPB)就提到,AI客服的末日循环是一个日益严重的问题,特别是在金融服务行业。在用到AI客服时,顾客会感到浪费时间、困惑、沮丧、收到不准确的信息,以及支付更多垃圾费用。因此,有人建议,想要得到帮助时,还是得前往银行,或者给客服打电话。

  而AI客服带来的另一个危害则是隐私泄露。当社交软件Snapchat推出了一款由OpenAI提供支持的AI聊天机器人后,用户似乎怀疑它使用了用户的位置数据。

  2018 年,英国一家公司的AI聊天机器人被黑客入侵,窃取了 6 万人的支付信息。因此,越来越多人也在网上开始提醒,在使用AI客服时,不要暴露自己的太多信息。

  总而言之,一个无法解决复杂问题,不能提供正常引导的AI客服,很有可能靠不住,甚至让我们面临严重的损失。因此如今在选择网站帮助时,最好还是直接寻找人工客服。

  参考文献

  [1]https://mashable.com/article/air-canada-forced-to-refund-after-chatbot-misinformation

  [2]https://www.theguardian.com/technology/2024/jan/20/dpd-ai-chatbot-swears-calls-itself-useless-and-criticises-firm

  [3]https://www.washingtonpost.com/technology/2023/04/27/chatgpt-messages-privacy/

  [4]https://www.consumerfinance.gov/data-research/research-reports/chatbots-in-consumer-finance/chatbots-in-consumer-finance/

  [5]https://www.reuters.com/technology/google-ai-chatbot-bard-offers-inaccurate-information-company-ad-2023-02-08/

  [6]https://entertainment.slashdot.org/story/23/12/21/0518215/car-buyer-hilariously-tricks-chevy-ai-bot-into-selling-a-tahoe-for-1

  [7]https://www.bbc.com/news/technology-68025677?xtor=AL-72-%5Bpartner%5D-%5Bbbc.news.twitter%5D-%5Bheadline%5D-%5Bnews%5D-%5Bbizdev%5D-%5Bisapi%5D&at_link_type=web_link&at_ptr_name=twitter&at_campaign_type=owned&at_campaign=Social_Flow&at_bbc_team=editorial&at_medium=social&at_link_id=FA695082-B6F9-11EE-A6B8-F489D0B4AF07&at_link_origin=BBCWorld&at_format=link

  [8]https://www.pbs.org/newshour/economy/customer-service-chatbots-used-by-banks-raises-concerns-for-consumer-watchdog

  [9]https://link.springer.com/article/10.1007/s12525-020-00414-7

  [10]https://www.theguardian.com/technology/2016/mar/24/tay-microsofts-ai-chatbot-gets-a-crash-course-in-racism-from-twitter?CMP=twt_a-technology_b-gdntech

发布评论 0条评论)

alababa

还木有评论哦,快来抢沙发吧~