最近,大家都在说AI,它确实方便。但是,AI也让骗子的手段更聪明了,更难被发现了。比如,骗子会用AI合成你朋友的声音。他会给你打电话,声音和你朋友一模一样。他会说自己遇到急事,需要你帮忙打钱。你一听是朋友声音,心里一急,可能就转账了。这是一种骗术。
而且,过年过节的时候,骗子也喜欢用AI。他们会假装是公司发福利,或者积分能换礼品。他们会做得很像真的网页,让你点进去。你一点,你的个人信息就被他们拿走了。这种骗术,专门盯着大家放松警惕的时候下手。
现在AI到处都在用,我们的网络安全问题也跟着变了。以前我们防小偷,现在要防更厉害的东西。公司和我们个人,都遇到了新的安全难题。这感觉就像以前只用防院子里的贼,现在还得防有人从天上飞进来。

Teams上的新骗局:同事发来的“账单”
Check Point的研究人员发现了一个大骗局。骗子用了微软的Teams软件。他们假装是Teams的访客邀请,说这是账单提醒。然后他们会让你打电话给一个假的客服。这是一个很大的骗局。
你想想,Teams是我们每天工作都要用的。大家都在Teams上聊天、开会。骗子现在盯着这些常用的工具。这就多了一个可以攻击我们的地方。
这个骗局很吓人。它利用了我们对工作软件的信任。谁会怀疑Teams上的邀请呢?谁会觉得账单提醒是假的呢?而且,骗子让你打电话。你一打电话,他就直接跟你交流了。整个骗局看起来更真。你可能就上当了。这个骗局让大家明白,我们身边常用的软件,也可能变成骗子骗人的工具。
AI用得越多,信息就越危险
现在,AI工具很多人都在用。大家用它写东西、做图,或者当客服。AI进入了公司工作,也进入了我们的生活。它不只是一个工具,它在帮我们做决定,帮我们找信息。
但是,AI用得多了,也带来了新的危险。安全研究发现,公司内部用AI时,很容易发生数据泄露。很多人在用AI工具时,不小心就会输入公司的秘密信息,或者自己的个人信息。比如,你让AI总结一份报告,报告里可能有公司的客户名单。AI系统就可能把这些信息暴露出去。它就成了一个信息泄露的通道。
更让人担心的是,有91%用AI工具的公司,都收到过“高风险提示词”的警告。这意思是说,AI可能会遇到一些特殊的指令。这些指令会让AI泄露秘密,或者做一些不该做的事。
所以,AI现在会帮公司处理很多业务,做很多决定。它的安全问题,就直接影响到公司的正常运行和数据合规。Check Point的人说,今年的挑战不是“用不用AI”,而是“怎么安全地用AI”。这话很对。我们不能不用AI,但是要用得小心。
信息安全,从我们自己做起
AI工具现在非常普遍。安全问题不只是技术漏洞,也和我们每个人的行为有关。我们平时工作、生活,会用很多AI工具。数据在不同工具之间传过来传过去。这样数据泄露的风险就变高了。
比如,你早上用一个AI写邮件,下午又用另一个AI做图。你的数据就在不同的AI之间流转。数据流转多了,风险自然就大。
而且,AI现在能做假的图片、声音、视频。你看到、听到的东西,可能都不是真的。比如,一个假的视频,能让你相信一个人做了某个动作,说了某句话。但其实,这都是AI合成的。所以,判断信息的真假,成了我们现在必须学会的新能力。
Check Point的安全专家说,AI时代,我们看待安全要有一个新想法。我们要更注意验证AI给出的内容。我们要少输入敏感信息。我们还要学会识别那些假的AI生成内容。
怎么安全地用AI:三条建议
我知道很多人会想,AI这么危险,是不是干脆别用了?但是,现在AI已经和我们的生活分不开了。它就像水和电一样,我们离不开它。所以,我们不能选择不用AI,只能选择怎么安全地用它。
这里有几个简单的办法,可以帮你安全用AI。
第一,别全信AI给出的东西。
这是它的工作原理:AI会根据你给的指令,生成内容。但是,AI生成的内容,可能是错的,也可能是被别人用坏心眼引导出来的。
你先记住这个:AI给出的任何内容,都可能不是真的。
然后做这个:当你看到AI给你的报告、建议、图片或者视频时,多问自己一句:“这是真的吗?”不要直接相信它。
举个例子:AI帮你写了一篇关于公司市场分析的报告。里面可能有一些数据是AI“编”出来的。你不能直接把这份报告发给领导。你要自己去查一下报告里的数据,看看对不对。如果不对,就要修改。这样可以帮你避免因为AI的错误,做出错误的决定。
而且,网上有很多AI生成的假新闻、假图片。你看到这些东西时,要多想想。比如,一张很完美的风景照,没有任何瑕疵。这可能就是AI生成的。因为它太完美了。
第二,少往AI里输入你的秘密。
这是它的工作原理:你输入到AI工具里的任何信息,都可能被保存下来,或者被别人看到。
你先记住这个:AI不是一个能帮你保守秘密的“树洞”。
然后做这个:如果你要用AI处理信息,先检查一下这些信息是不是秘密。如果是公司的秘密,或者你自己的隐私,就不要输进去。
举个例子:你想让AI帮你写一个项目计划。这个项目计划里,有公司的核心技术细节,或者客户的电话号码。你就不应该把这些细节和号码直接告诉AI。
你可以这样改:你把项目计划里的关键秘密信息,改成一些假的、不重要的内容。比如,把客户的真实电话改成“1234567890”。把核心技术细节,用一些通用的词代替。这样,AI生成的计划虽然不那么精确,但是你的秘密就安全了。
如果非要用AI处理敏感信息,你得先处理一下这些信息。把那些重要的部分去掉,或者用一些代号代替。这样可以帮你保护好你的秘密。
第三,学会认出AI做的假东西。
这是它的工作原理:AI能做出非常逼真的假图片、假声音和假视频。它们看起来和真的没什么区别。
你先记住这个:你看到和听到的东西,可能不是真的。
然后做这个:你要学会注意一些细节。比如,视频里的人,他的表情是不是有点僵硬?他的眼睛是不是看着不太自然?他说的话,嘴型是不是对不上?这些都是AI造假时可能留下的痕迹。
举个例子:你接到一个电话,声音是你家人的。他让你立刻打钱过去。你不要马上打钱。先做这个:你立刻挂掉电话。然后用你知道的那个家人的真实电话,再给他打过去。或者给他发个信息问问。
如果你的家人真的急需帮忙,他会通过你熟悉的真实渠道联系你。而不是只通过一个奇怪的电话让你打钱。
这样可以帮你:分辨出哪些是AI造出来的假内容,哪些是真正的信息。
这几年,AI发展得很快。我们享受它带来的方便,也要注意它带来的风险。保护好自己的信息,这不再只是技术人员的事。我们每个人,都要学会怎么保护自己。这不是一次就能做好的事,我们需要一直学习。