,谷歌昨天刚刚向英国和美国用户开放了旗下聊天机器人 Bard,基于谷歌 LaMDA 通用语言预训练大模型的轻量级优化版本,但是这款机器人在公开测试的第一天就出现了一个尴尬的错误,有用户问它多久会被谷歌关闭,它错误地回答称自己已经被谷歌关闭了。
聊天机器人的回答出现事实错误并不新鲜,这也是目前此类大语言模型的主要问题之一,而且谷歌昨天也直截了当地说 Bard 的回答将包含事实错误,那为什么还报道这个消息呢?并不是要故意挑 Bard 的毛病,而是这个错误比较有意思。
谷歌也承认 Bard 会包含一些事实错误,因为它是从网上获取信息的,微软的新必应也有类似的问题。这个问题是基于大语言模型的人工智能所面临的最大挑战之一,随着时间的推移,谷歌和微软都会改进获取信息的过程,但偶尔还是会出现一些问题。此外,Bard 还处于预览阶段,所以还需要经过更多的公众测试。
不过IT之家认为,如何让这些聊天机器人更好地辨别虚假消息,是这些科技巨头需要严肃考虑的问题。
郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。
特别推荐