AI专题:如何借助DeepSeek提防AI诈骗

1

近期,AI圈的大佬们不断地提醒人们要提防AI的滥用。

获得2024年诺贝尔物理学奖的“AI教父”杰弗里·辛顿,在接受专访时指出,AI引发“人类失控”的概率已经高达10%-20%,深度伪造技术是近期最现实的恶意场景。

OpenAI的CEO山姆·奥尔特曼在出席美国参议院听证会的时候,强调生成式模型可被用于“大规模定向虚假信息、网络攻击与生物威胁设计”,主张建立“全球AI安全机构以及许可证制度”。

发明阿尔法狗的Google DeepMind CEO,获得2024年诺贝尔化学奖的戴密斯·哈萨比斯在2025年5月剑桥大学演讲中发出提醒:AGI可能会在10年内出现,“其积极潜力与恶意滥用都被低估”。

那么,我们普通人从现在开始最应该警惕哪些迫在眉睫的AI滥用场景呢?

2

在日常网络生活中,我们要警惕别有用心的人使用AI来影响我们的想法。

为了验证AI的说服力有多强,康奈尔大学和哈佛大学的研究者找了一群最难被说服的人来做实验。这些人就是阴谋论信徒。他们相信诸如“疫苗里有纳米追踪芯片”之类的阴谋论,身边的人怎么劝都不听。

实验内容是让受试者与AI进行对话,对话一共有两轮。第一轮对话先是受试者自述自己相信的阴谋论,GPT-4罗列官方证据并指出其逻辑错误。第二轮对话是受试者再辩,AI最终回应。

实验结果显示,他们只需要跟GPT-4进行两轮对话,平均用时6分钟,对阴谋论的相信程度就会下降20%。

如果再提供一些对话者的背景信息,GPT-4的说服力会变得更加强大。在另一个辩论实验中,GPT-4让对方改变观点的概率比人类辩手高出82%。AI之所以能达到这么好的效果,是因为它会根据每个人量身定制辩论策略和针对性地找论据。

在美国版百度贴吧Reddit网站上,有人做了一项备受争议的实验。苏黎世大学的研究者注册了多个AI账户,这些账户都预设了虚假人格背景。也就是说,他们用AI来假装人类用户。在说服力排行榜上,这些AI账户进入全站前1%-2%。

在了解到这些研究之后,我们很自然会想到用AI来做“健康习惯教练”,帮助我们养成健康的生活习惯,变得更加自律;我们还可以让孩子们使用AI做“人工智能学习伙伴”,提高他们的学习兴趣,掌握更科学的学习方法。

然而,面对同一个工具,好人会用它做好事,而坏人则会用它做坏事,例如“杀猪盘”诈骗。

3

所谓“杀猪盘”诈骗,就是在网络上以恋爱的名义博得受害者的信任,然后用假投资平台来骗取金钱的诈骗套路。

传统杀猪盘套路分为三步。第一步,引流或放饲料。通过各种社交平台等网络手段跟潜在受害者加上好友。

第二步,养猪。犯罪分子会通过建立虚假的高大上人设和营造暧昧的恋爱氛围,让受害者误以为自己找到了真爱,进而信任对方。

第三步,杀猪。在确保取得了受害者的信任之后,对方会假装不经意地透露自己有一个好的投资渠道,诱使受害者加入,最终骗取金钱。

在AI工具出现之后,坏人对这个套路做了新一轮升级。

首先是剧本自动生成。犯罪分子会使用从暗网购买的AI工具,批量生成情感剧本。以前这样的工作是由专门的“编剧”来做,成本高,效率低。

然后是私人定制剧本。针对特定受害者,犯罪分子会结合他们的画像信息编写提示词,生成专属的情感剧本。以前一个剧本或几个剧本,会用在很多的受害者身上,针对性远远没有私人定制那么强。

最后是半/全自动聊天。在“养猪”过程中,犯罪分子要花大量时间跟受害者聊天,还要记住不同受害者的各种信息,很容易把不同聊天对象的事情弄混。有了AI工具之后,他们会使用半自动聊天,通过复制粘贴把AI生成的回复发给受害者;或者是全自动聊天,让受害者跟AI“直接聊”。

有人可能以为这只是设想,但现实中已经有犯罪分子在实施这样的AI杀猪盘。早在2023年8月份,一份网络威胁分析报告就从受害者提供的截图取得证据,骗子不小心贴出一句典型的系统回复——“As a language model …I don’t have feelings”,直接暴露他们正把AI工具当作聊天脚本生成器。

2024年5月,澳大利亚 ABC 深度报道援引联合国毒罪署和多位业内人士,指出东南亚大型诈骗园区已经开始使用 LLM + 实时翻译。这意味着,诈骗分子现在哪怕完全不懂另一门语言,也可以进行跨语言诈骗。

面对这样严峻的现实,我们除了提高防诈意识之外,还可以使用DeepSeek来保护自己。

如果我们在网络上遇到一个人,产生了“世界上没人比对方更懂我”的想法,这就要引起我们的警觉了。我们可以把自己跟这个人的聊天记录发给DeepSeek,让它来帮我们分析。尤其是涉及金钱转账和现实见面等决定时,一定要听一听DeepSeek的看法和建议。

有人可能会说,我不会在网上找对象,或者我已经结婚了,这类杀猪盘根本骗不到我头上。接下来要揭示的一类骗局,则是每一个人都有可能会上当的。

4

有一种俗称“爷爷奶奶,我出车祸了”的骗局。骗子会打电话给老年人,谎称是其孙子孙女,出了车祸在医院需要立刻转账接受治疗。因为情况紧急,老年人可能会辨识不出对方声音其实一点都不像。哪怕受害者指出这一点,骗子也会假装自己受伤了身体虚弱导致声音变了。

还有一种骗局我自己都遇到过,就是仿冒公司领导,然后让受害者(大多是公司财务人员)转账。几年前,我接到一个电话,对方开口第一句话就是:“李文业,明天来一趟我的办公室。”我愣了一下,然后问:“请问你是谁?”

对方笑了笑说:“你听不出来我是谁吗?”我说:“听不出来。”对方就把电话挂了。

有了AI工具模拟声音之后,骗子已经可以补上声音不像的漏洞。骗子会事先从社交媒体上获取一小段受害者亲属的声音样本,喂给AI后立刻就能模拟出以假乱真的说话声音。

这样的技术并不高深。你现在就可以点击页面最上方的“听全文”。我用公众号后台的工具录了我一段10秒左右的语音,就已经可以模拟得非常像了。

除了声音之外,AI还可以伪造视频。2023年5月,内蒙古包头市警方通报了一起利用AI换脸的惊人诈骗案。一名商人接到自称是朋友的视频通话,请求帮忙垫付投标保证金。他没想到通话中的“朋友”竟然是骗子用AI人脸替换技术假扮的。受害人信以为真,当场转账430万元人民币。事后他联系到朋友本人才发现被骗。

面对这样的骗局,我们可以怎么办呢?一方面,我们可以跟亲友约定safe word“安全词”。在涉及大额转账时,我们要验证对方是否能说出之前约定的某个词或者某句话。哪怕不约定安全词,起码也要问一两个只有你们两个人才知道的小问题。

另一方面,我们要保持冷静,让DeepSeek给我们注入理性。面对紧急情况,我们不免关心则乱。即使自己已经难以分析当前的局面,我们还是可以把现在遇到的问题发给DeepSeek,让它帮助我们分析情况,并且给出建议和处理方案。

5

AI的发展越迅速,AI的滥用就越值得我们警惕。

我们要警惕在网络上看到的信息。以前网络水军可能只是通过调动我们的情绪,来起到带节奏的作用。现在,他们已经在利用AI工具根据我们每一个人的特点,量身定作各种各样的说服言论。

我们要警惕在网络上让我们怦然心动的人。以前杀猪盘只是用一个固定的剧本来骗那些特定的受众,并且因为聊天“养猪”需要花时间和精力,他们更愿意骗那些容易轻信的人。现在,他们已经在利用AI工具私人定制剧本,并且使用半/全自动聊天的方法,让每个人都有可能遭遇“杀猪盘”诈骗。

我们要警惕突然接到的求救、求助语音电话和视频通话。以前的骗局可能只能骗那些老人或者对声音不敏感的人。现在有了AI技术,他们可以轻松模拟任何人的声音和形象。

除了加强防诈骗意识之外,我们还需要更多的工具帮助我们不上当受骗。遇到任何惊喜或者惊吓的异常情形,我们都可以把情况告诉DeepSeek,让它来帮我们分析,给我们出主意。

面对汹涌而来的AI时代,有人会说,“我年纪大了”,或者“我只想躺平”,没必要了解AI,更不需要接触和使用AI。

然而,“害人之心不可有,防人之心不可无”这句话在AI时代同样适用。他们没有想到的是,坏人会用AI做坏事。如果我们不了解AI,对AI没有基本的常识和使用能力,那么就很有可能被坏人钻空子。