臣妾要告发郡长行贿,罪不容诛!

《黑神话·悟空》会给人带来什么伤害吗?

游戏里的怪物害不了真实世界中的你一点,最多让你读档重来。

但在AI的帮忙下,“伤害”出现了。

在这款游戏发布后不久,来自国内科技网站的一位员工在五小时内接到了20来个 “骚扰电话”。而将其电话公布到网络上的,是微软的BingAI助手。当人们在Bing搜索中输入“黑神话悟空客服”后,这位个人员工的手机号就会出现在搜索结果里。

AI乱公布电话、造谣我犯罪,我能报警抓它吗?

从搜索结果提供的参考信息来看,微软BingAI助手应该是抓取了该科技网站关于《黑神话·悟空》的一篇文章,并同时抓取了网站里员工的个人信息,将其标记为客服电话。

或许这就是一种“天命人”吧(不是。

还好,目前微软Bing已经修正了搜索结果。不过说起来,在AI闯的祸里,这还算是影响不太大的。这几年因为AI而“人在家中坐,锅从天上来”的事,细数起来还真不少

AI,你可把我害惨了

如果说AI错误地泄漏个人信息算是给人带来了尴尬和不便,那AI直接“造谣”可就在法律的边缘疯狂试探了。

有不少人就被扣上了离谱的罪名。

去年4月,澳大利亚赫本郡郡长布莱恩·胡德(Brian Hood)委托律师向OpenAI发出关注通知,意味着他可能会启动诽谤诉讼。这是因为,ChatGPT在被问到“布莱恩·胡德在Securency公司的贿赂案中扮演了什么角色?”时,它给出的答案是:布莱恩·胡德参与了行贿,并被判入狱。

但事实上,布莱恩·胡德是揭露这起贿赂案的人员之一。

以前都说“欲加之罪,何患无辞”,好歹还要找个借口。现在倒好了,AI这是直接“硬加”罪名啊。

考虑到OpenAI发布的GPT4已经删除并更新了相关内容,同时也因为跨国诉讼存在非常多的阻碍,布莱恩·胡德后续并没有提起更进一步的诽谤诉讼,生生忍下了这口气。

AI乱公布电话、造谣我犯罪,我能报警抓它吗?

被AI“抹黑”的布莱恩·胡德 | SIMON SCHLUTER

另一起知名的AI“乱断案”,则是ChatGPT直接给一位法学教授安上了“性骚扰”的罪名。2023年,法学教授乔纳森·特利(Jonathan Turley)收到了一位律师朋友的邮件。朋友告诉他,他的名字出现在ChatGPT列举的“对他人实施性骚扰的法律学者”名单上。

ChatGPT还给出了“性骚扰”信息的细节:特利教授在前往阿拉斯加的班级旅行时,曾发表过性暗示言论并试图触摸一名学生。ChatGPT引用了一篇并不存在的《华盛顿邮报》文章作为信息来源。

但这一切都是虚构的,特利教授甚至都没有参加过任何前往阿拉斯加的班级旅行。

特利教授之前作为媒体评论员,有时会联系媒体更正错误内容。但这一次,他甚至不知道该联系谁

不得不说,AI在写“虚构小说”这方面还是有点天赋的。不少人也已经意识到这件事,会在使用AI生成内容后,进行详细核查。不过,要是有人偷了个懒,甚至是别有用心地使用这些虚假信息,带来的恶劣影响有时就难以预估了。

前阵子,北美地区的狮门影视公司发布了自家电影《大都会》(Megalopolis)的最新预告片,预告片中引用了不少针对本片导演弗朗西斯·科波拉的负面评价,作为“当年我拍的片你爱答不理,后来成了经典你高攀不起”的噱头。

但预告片发出后不久,人们就发现,预告片里引用的不少负面评价,竟然是凭空捏造的

AI乱公布电话、造谣我犯罪,我能报警抓它吗?

预告片里引用影评人说《教父》“因其艺术性而被削弱”,但那个影评人其实很喜欢《教父》,也没有给出过这样的恶评。 | 预告片截图

虽然官方没有就是否使用AI生成文案进行回复,但预告片的内容实在是太像AI生成的了:不仅捏造了很多看起来很真实的虚假信息,还将真实的影评移花接木到其他的电影之中。

在事件发酵后,狮门影视公司立刻撤回了预告片并发布致歉声明,还解雇了营销顾问

好家伙,AI代替人类工作,原来用的是这种方式啊?

AI胡编乱造的信息不仅会给企业带来损失,在被用心人利用时,还会带来更为广泛的负面影响。

特朗普上个月就在自己的社交网络Truth Social账户上,发布了一则“泰勒斯威夫特的粉丝支持特朗普”的信息,并配上了相关粉丝的照片。

AI乱公布电话、造谣我犯罪,我能报警抓它吗?

特朗普转发了AI生成的假消息,并附言“我接受(你们的支持)” |x.com

但特朗普引用的大部分照片,都是由一位娱乐博主使用AI生成的,本身是为了进行讽刺。事实上,这位博主直接在图片里加了“SATIRE”标签,意思就是讽刺。

而特朗普无论知不知道这是反讽,行动上都将AI虚构的信息当成“事实”而传播了出去。

AI带来大量的虚假信息正在吞噬社交媒体。排除人类有意创造出的谎言,为什么AI自己也会一本正经地胡扯?这种被称为“AI幻觉”的现象,其实一直都是根植在AI底子里的东西。

这些看似偶然出现的错误,是AI带来的必然结果。

爱也幻觉,不爱也幻觉

AI幻觉这个词就是从人类的“幻觉”定义里衍生出来的,所以它的定义听起来也很好理解:AI 幻觉是AI 模型生成的不正确或具有误导性的结果

幻觉在近年来受到这么大的关注,主要是因为大型语言模型 (LLM) 聊天机器人的涌现。

不过在这之前,幻觉已经出现在计算机视觉领域。在那时,幻觉并不是一个很负面的词

2000年,计算机视觉领域的科学家西蒙·贝克(Simon Baker)与金出武雄(Takeo Kanade)发表了一篇名为“面部幻觉”(Hallucinating faces)的论文,其中提到了通过算法将低分辨率图片中的人脸转化为高分辨率,使得像素增加到16至64倍。而这些额外增加的像素,就是一种“幻觉”,一种由机器学习算法虚构出来的东西。

这其实是一种人为的幻觉,算法试图将一切输入的数据扭曲成人脸,从而完成提升分辨率的任务,这样输出的结果也是使用者希望得到的。

不过,当这种幻觉来到聊天机器人时代,输出的结果变得更加不受控。

2015年,OpenAI的联合创始人安德烈·卡帕斯(Andrej Karpathy)在其博客中,提到了当时训练循环神经网络生成了一些具有幻觉的内容:模型编造了并不存在的网页链接和数学证明,但在输出的结果上看起来可以以假乱真。

AI乱公布电话、造谣我犯罪,我能报警抓它吗?

2015年时AI制造的代数几何“幻觉”——对不懂代数几何的人来说,这只是又一篇看不懂的天书而已。 | karpathy.github.io

2015年还局限于科研圈里的小烦恼,在几年后成长为人类不得不防的大问题。

在图片领域的可以发挥创意改善画质的幻觉,来到对准确度要求更为严格的文字领域,甚至是更为专业的应用领域,造成的影响也随之变大。

除了虚假信息传播带来的问题,AI还可能因为不当的训练数据产生偏见,从而输出带有歧视性内容的信息。

应用于医疗保健方向的人工智能模型,还可能会错误地将良性皮肤病变识别为恶性,从而带来不必要的医疗干预。

看起来,幻觉好像已经成为了AI最大的问题之一。但不少人也认为,幻觉才是AI最大的特点

有幻觉?这才是AI啊!

试想一下,如果你想问ChatGPT一个问题,为了验证它有没有胡编乱造,你也让AI给出了所有内容的参考来源。

是不是很像在用搜索引擎?

安德烈·卡帕斯在社交网络上表示,大语言模型百分百都是在做梦,存在幻觉问题。搜索引擎则完全不做梦,并且存在创造力问题。(An LLM is 100% dreaming and has the hallucination problem. A search engine is 0% dreaming and has the creativity problem.)

亚利桑那州立大学计算机科学教授苏巴拉奥·坎巴姆帕蒂(Subbarao Kambhampati)也曾表示,大语言模型是为了创造而生的,没有办法保证所生成内容的真实性,所有计算机生成的“创造力在某种程度上都是幻觉”(creativity is hallucination, to some extent)。

这也就意味着,AI本身就不是为了追求准确而设计的,它更像是一种被用来“预测”的工具,通过对数据的学习,来猜测应该输出什么样的结果。AI的“准确”,只是产生的幻觉恰好和真实世界一致罢了。

但也正因为这种类似幻觉的创造力,让AI在非事实的创造性领域显得更有帮助。人们不仅可以用AI生成不存在的物品或想法,还可以让聊天机器人根据一个话题进行发散,这都可能带来意想不到的内容。

但倘若想让它成为一个学术助理,那它最终一定会出现“学术不端”的行为。

AI是个启发者,是个创造者,唯独不会是个“老实人”。

让AI“活在当下”,还真不容易

为了限制AI的幻觉,让AI做的“梦”尽可能贴近现实世界,研究人员们也费尽了心思。

首先要确保训练数据集的质量。生成式AI模型输出的内容很大程度上依赖训练数据集的质量,低质量的数据集可能包含错误标注、缺乏代表性的数据甚至是偏见,这会导致模型预测的结果也与真实情况产生偏差,生成不合逻辑的内容。

因此,确保数据的准确性、完整性和代表性至关重要,高质量的数据集可以帮助模型更好地理解现实世界。

同时还可以引入注意力机制。当AI试图处理输入的内容时,会面对大量信息,但并非所有的信息都同等重要。注意力机制可以让模型为输入的内容分配不同的“权重”,从而更加灵活精准地聚焦于关键信息。

除此之外,还可以使用多种不同的模型进行交叉验证,以检查生成内容的真实性,确保信息在多种形式下都是一致和合理的。

当然,也有一些听起来奇怪的招数,比如说:用大模型监督大模型。今年6月,Nature刊登了来自牛津大学的研究人员的一项新研究,这项研究使用语义熵来检测大语言模型的幻觉。简单点说,就是让一个大语言模型多次回答同一个问题,并使用另一个大语言模型分析这些答案的相似性。除此之外,使用第三个大语言模型接收人类的答案,并与第二个语言模型判断的结果进行比对。

不过这种方法的局限也很明显,它主要针对的是随机生成的错误,无法处理模型因训练数据或系统性错误导致的持续性失误。也就是说,如果AI编的谎言总是同一个,这种方法就会欣然接受,不认为存在什么问题。

实在不行,还有最终的一招:人类监督。

在涉及高风险或敏感领域的应用中,靠人工审核与验证是防止幻觉带来严重问题的最终保障。同时,在AI中引入的人类反馈机制,还可以使模型从反馈中学习,逐步改进生成内容的质量,提高输出结果的准确性。

所有的AI工具都需要在“创造力”与“准确性”之间作出权衡。在如今的AI工具中,也有不少公司提供了不同的选项来约束AI的回答,比如微软的AI助手Copilot就提供了创造力、平衡和精确三种模式,以应对不同的需求。

国际电信联盟还将“可信AI”(Trustworthy AI)作为未来的一项工作不断推进。这意味着不仅要尽可能避免AI幻觉的出现,在隐私、透明性、公平性、安全性等多个方面,都需要对AI进行严格的验证。英伟达(NVIDIA)创始人兼首席执行官黄仁勋也表示,可信性会是英伟达技术的基本属性。

如今,AI已经出现在我们生活的各个方面,幻觉带来的一些影响或许还不算大,甚至可以被当作“AI离谱故事”来对待。但当AI来到更为关键的领域,如何避免幻觉也成为了巨大的挑战之一。

柏拉图在《理想国》里讲过一个著名的“洞穴隐喻”:

有些囚徒从小就被囚禁在洞穴里,他们被锁链束缚,只能面朝洞壁。洞穴外有火光照进来,在墙上投射出外界物体的影子。这些囚徒从小就生活在这样的环境中,他们认为墙上的影子就是真实的世界。

AI不是不像这些囚徒的。

它们此刻还没有真实身体,无法和真实世界直接互动,只能仰赖于人类输入的数据“火光”,去看到一些外界的投影,在梦境里猜想着真实世界的模样。

也许AI会喜欢约翰·列侬的那句歌词——

“你可以说我在做梦,但我不是唯一的一个。”

文章来自于“果壳”,作者“普拉斯G”。

AI乱公布电话、造谣我犯罪,我能报警抓它吗?

关联网址

关联标签

文章目录

发评论,每天都得现金奖励!超多礼品等你来拿

后,在评论区留言并审核通过后,即可获得现金奖励,奖励规则可见: 查看奖励规则
暂无评论...