找回密码
 立即注册
搜索
查看: 105|回复: 0

腾讯杰出科学家于旸:AI 技术需接地气才能在行业中真正应用

[复制链接]

2万

主题

0

回帖

6万

积分

管理员

积分
66147
发表于 2024-11-21 23:21:08 | 显示全部楼层 |阅读模式
澎湃新闻记者 周迪

“人工智能技术听起来是比较高端的技术,但高端技术必须落到实处,落到实处,真正发挥作用,就必须接地气。星星本质上是土壤,而人造智能技术需要落地才能真正应用于行业。”

于洋 腾讯杰出科学家、腾讯安全玄武实验室负责人

7月22日,在澎湃新闻主办的“坚守媒体初心,拥抱AI时代”2023外滩新媒体年会上,腾讯杰出科学家、腾讯安全玄武实验室负责人于洋表示,这么说。他指出,人类每一次科技进步形成的红利被人们消化的时间越来越短,科技进步的速度越来越快。我们目前正在经历第五次技术浪潮。与此同时,我们很可能正处于第六次技术浪潮的边缘。第六次技术浪潮的主导技术很可能是人工智能。

技术无所谓善恶、对错,但使用技术的人往往有着不同的初衷。目前,大型AI模型已经应用于互联网的攻防两端,没有安全限制的“邪恶的GPT”也出现在公众视野中。

您如何看待大型人工智能模型的流行?将对安防行业产生哪些影响?未来大型模型将如何应用于安防领域?

针对这些问题,近日,澎湃新闻(微博)记者对杨某进行了专访。在谈到对通用人工智能的期望时,于洋表示,通用人工智能一定会实现,只是时间问题。他给出了非常乐观的预测:通用人工智能可能在2026年到2030年间实现。

作为一名网络安全技术人员,于洋也注意到恶意用户利用大型模型输出恶意代码,进行网络攻击。对此,他表示,AI大模型作为一种通用技术,既可用于“进攻”,也可用于“防御”。在进攻和防守之间,“进攻”往往走得更快,因为价值转化链短。 。

于洋表示,网络攻防的本质仍然是人与人之间的对抗,是知识的对抗,而比较是基于双方所拥有的知识。谁先掌握新的攻防知识,谁掌握得更深入,谁就会占据优势。

人工智能是一项颠覆性的新技术,每个行业领域都需要积极拥抱和适应,安防领域也不例外。于洋介绍,腾讯安全将AI大模型技术应用到日常工作和研究中,特别是把研究人员从某些繁琐、重复的工作中解放出来。集中注意力需要更高的能力和人脑的创造力。在上班。不过,在评估了大型模型的能力后,于洋也表示,它们并不能完全取代专业研究人员。至于劳动力替代,则无需过于担心。每一次新的技术革命都会取代一些劳动岗位并创造更多新的岗位。立场,我们必须相信人类社会的适应性。

除了关注网络上大模特的攻防对抗之外,于洋还指出,大模特本身的安全和隐私问题也引发担忧。为此,腾讯安全开发了基于同态加密技术的隐私数据过滤墙,可以在不改变大模型输出结果的情况下对原始数据进行加解密,防止用户隐私数据泄露。目前,该技术可应用于文本摘要、机器翻译、文本分类等场景。

谈及未来愿景,于洋表示,腾讯安全愿意拥抱各种新技术,并利用这些新技术“更快速、更经济”地服务客户。一方面,新技术将帮助我们提高安全性;另一方面,新技术也可以减少客户使用安全产品的成本投入。

以下为采访实录(略有编辑,不改变原意):

澎湃新闻:自从流行以来,大模型的流行一直持续到今天。统计显示,截至今年5月,我国已发布79个参数规模超过10亿的大型模型。近期,一系列大尺度模特发布,形成一场模特大战。为什么大模特突然这么受欢迎?技术是否突然出现颠覆性突破?

于洋:一项新技术对行业、社会乃至整个世界的影响是主客观因素共同作用形成的。一方面是由技术本身固有的客观因素决定的,另一方面也是由人们对它的主观认识决定的。历史上有很多主观认识偏离客观现实的案例,错误的认识也导致人们追求某些技术。

对于大模型,技术人员会有一些意见,公众也会有一些意见。最终大家的意见可能会统一,但这需要时间。大型模型本身并不是今年才出现的。它之所以如此受欢迎,是因为随着它的出现,大型模型走出了专业领域。很多人开始对此感兴趣,开始思考,并形成自己的判断。

科技圈从去年底开始逐渐开始形成共识:这是一项革命性的技术。与大多数技术只带来某一领域的改变不同,它会影响人们生活的方方面面,对整个经济社会产生深远的影响。它对社会产生全面的影响。公众认知度的突破,主要是因为它的界面使用没有障碍,所有功能都通过对话实现,呈现的效果也足够震撼。

GPT-3 以前也有类似的能力,但它可能还没有达到那个临界点。到那个时候,可能刚刚过了人们对AI心理认识的临界点,已经从量变走向了质变。

澎湃新闻:可以预见,行业博弈将会更加激烈。您如何看待下一阶段大型模型行业的竞争?

于洋:广义上的大型模型行业现在正在兴起,竞争肯定会很激烈。这是毫无疑问的。

大模型本质上是软件,其核心经济特征是复制成本很低。虽然初期的研发成本可能会很高,但研发完成后,无论服务多少客户,只需要增加算力就可以了,所以很容易出现问题。胜者通吃一切现象。目前行业恐慌的原因是大家都担心自己不是赢家,会被“通吃”。

如果换个角度看,这种发展趋势可以让几个大车型作为基础基础存在,可以集中精力发展基础能力。其他公司可以在此基础上开发各种应用程序。这就像操作系统和应用软件之间的关系。

当然,也不排除另一种可能,那就是每个人都制作自己的大模型,百花齐放。但我认为最终的数量不会特别多,全球数百个大型模型的情况不会持续太久。最终用户会用脚投票。

论文:大型人工智能模型需要大量数据进行训练,数据质量决定大型模型的水平。互联网上无处不在的公共数据的质量值得信赖吗?互联网具有暴民效应。用这样的数据训练出来的大模型是否也有这样的特征呢?

于洋:今天的人工智能技术是为了尽可能模仿人脑的工作方式。其训练和学习过程与人类的学习过程类似。你让孩子接触什么东西、接触什么人,其实会影响他成长的方向。对于大型模型也是如此,其学习的结果也取决于数据。



为此,我们要做几项工作:第一是数据清洗,去除有问题的数据;二是训练完成后进行测试,看看是否有学习不好的地方;三是纠正问题。

虽然业界一直在探索可解释技术,但从目前的进展来看,我认为目前还没有预期或假设未来会做出大型可解释模型。

即使无法解释,人工智能仍然可以在重要岗位上使用。这就像我们没有读心术一样,却把人安排在关键岗位上。但事前检查、事中监管、持续机制措施确保安全。人工智能也是如此。

澎湃新闻:我们知道AI目前缺乏对世界的基本认知,但随着AI知识库的扩大和学习能力的提高,量变会带来质变吗?您认为通用人工智能是可以实现的吗?

于洋:从今天来看,可以说几乎是肯定可以实现的,只是时间问题。

我们现在看到的大型模型主要是基于语言和文本学习,有的还添加图像来实现多模态。在目前的很多应用场景中,语言、文字、图片基本上就足够了。人类对世界的认知是通过五种感官来实现的,大型模型也会往这个方向发展。模态更多的大型模型配备相应的传感器并收集相关数据,让大型模型也能拥有“五感”。对整个世界的认识将会和人类一样,甚至超越人类。

目前大型模型的发展仍受到诸多制约。例如,大型模型对计算能力和能源有巨大的需求。在硬件方面,当今的机器人技术远远落后于大型模型的发展。

当然,大模型也可能帮助人类解决开发过程中的这些问题,从而突破开发过程中可能遇到的上限和障碍。例如,大型模型可能有助于探索可以用较少计算能力进行训练的技术路径;大模型可能帮助人们实现计算能力和能源的突破,比如可控核聚变,或者帮助找到突破摩尔定律对芯片限制的方法。路。

随着大模型技术的不断发展,通用人工智能在今天是一个非常有前途的东西。即使在目前的技术水平下,无论有没有新的突破,我仍然对通用人工智能的实现持乐观态度。如果要给出实施时间的话,可能早一点是2026年,晚一点是2030年。

澎湃新闻:您此前曾指出,GPT的出现就像“瓦特改进了蒸汽机”。为什么得出这样的结论?在可预见的未来,您认为人工智能应用会给人类社会带来最大的改变是什么?

于洋:蒸汽机不是瓦特发明的,但是瓦特让这项技术发挥出了最大的潜力。人类历史上有很多技术最终会产生革命性的影响,因为它们可以实现工业化,变得更加包容和经济,释放技术的最大潜力。

在大模型出现之前,人类已经探索人工智能数十年。到了大模型的地步,就有了突破性的变化。十年前,人工智能已经在视觉等领域展示了其能力,在一些非常基本的脑力任务中取代了人类。如今,大型模型可以取代人类也需要训练和学习的一些能力。

短期来看,科技可能会对就业产生一定影响,但不会导致大规模失业。比如,近100年来,科技革命极大地提高了农业生产效率。不再需要那么多农民,而是需要更多的工人,所以一些农民变成了工人或服务提供者。虽然大型模型会取代一些劳动岗位,但它们也会创造一些新的岗位。

而且,目前大型模型的进化速度明显快于机器人技术的发展,这意味着软件已经领先了一步。因此,大型车型对行业的改变基本停留在数字化空间。短期内指望大模特给你理发是不现实的。 ,所以现阶段体力劳动岗位不会受到太大影响。

恐慌是人类的一种自然情绪,但面对技术进步,我们不应该只是恐慌,而应该更积极地拥抱变化。

目前安全技术领域有一些大型模型。对于我们实验室来说,我们也面临着两个选择:要么忽略,要么接受。忽略它,未来竞争对手很可能会使用大型模型来提高效率并实现替代。要接受它,我们需要革命自己,积极应用大模型来提高工作效率。

澎湃新闻:在安全领域,大型AI模型对网络安全有何影响?您是否观察过某些人工智能被不良行为者利用?最担心的是什么?

于洋:人工智能大模型作为一种通用技术,既可以“攻”,也可以“守”。

与任何新技术一样,“攻击”往往会进行得更快,因为价值转换链很短。大型模型也是如此。我们观察到一些恶意攻击者使用了大模型技术。比如有的利用大模型辅助开发恶意程序,有的利用大模型辅助钓鱼攻击。无论一个人进行钓鱼攻击的速度有多快,一个人最多可以同时与十几个人聊天,而使用大规模技术,可以同时与一万人甚至更多人聊天。

虽然很多大型模型厂商都在想尽办法阻止自己的大型模型编写恶意程序,在设计时为防止大型模型“作恶”付出了很大的努力,但这并不能完全阻止坏人利用技术来做坏事。我们了解到,一个专门研究“邪恶”的大型模型已经出现——“Evil GPT”,它在训练过程中不会施加任何安全限制。

如果技术进步有一定程度,就会使人类个体所拥有的力量变得更大,无论是作恶的力量还是行善的力量。

同时,大模型本身也可以用于安全,即用于“预防”。此外,大型车型本身的安全问题也值得关注。例如,大型模型是否可以通过传统的攻击方法进行入侵?一个有很多安全限制的“好大模型”是否有可能受到攻击并突破安全限制而成为“邪恶大模型”?

从安全角度来看,是否值得担心一定和应用场景有关,而应用场景取决于用户对大模型的信任程度。如果使用场景只是一个聊天机器人,那么它顶多会说一些让你不高兴的话。如果用一个大的模型来扮演医生的角色来诊断病人,这种情况下可能出现的安全问题就大得多。

因此,我们如何应用大模型也取决于它本身的安全性以及我们应该信任它的程度,这决定了大模型将应用在哪些场景中。因为安全方面的最坏情况实际上也是应用场景中的最坏情况,所以在做出决定之前应该充分了解这一点。

澎湃新闻:AI将如何提升现有网络安全产品的性能?生成式AI安全产品会成为未来的大趋势吗?它最大的优势是什么?未来的安全主要靠技术还是人?



于洋:从安全性角度来说,大型模型的应用领域非常广泛。大型模型几乎可以用于任何涉及信息处理的情况。

例如,企业每天可能会产生数百万、数千万的安全日志。人力不可能全部处理完。而且,大多数安全日志没有多大价值,只有极少数涉及重要信息。这曾经是安全领域最麻烦的事情,但今天我们可以使用大模型来辅助处理。

我们可以设定一个标准。标准以上的是特别重要的安全日志供技术人员查看,而标准以下的安全日志可能有一些有价值的信息供大模型做一些处理。由于性能问题,目前还无法直接让大模型处理所有安全日志,但通过一些间接的方法辅助过滤有价值的信息还是没有问题的。这是安全领域使用大模型的典型场景。

安防行业的其他各个领域都会逐渐采用大型机型,这是一个大趋势。当这种颠覆性技术到来时,如果您不接受它,您的竞争对手就会接受。

事实上,网络攻防的本质仍然是人与人之间的对抗,是知识的对抗,而比较是基于双方所拥有的知识。例如,如果出现一个新的漏洞,谁对它了解得更透彻,谁就会占据优势。大模型技术的应用也是如此。

澎湃新闻:腾讯安全在大模型应用过程中带来的最大变化是什么?

于洋:安全领域也有一些繁琐、重复的工作,比如运营相关的工作。将大型模型应用于此类任务可以显着提高工作效率并降低成本提高效率。

比如我们实验室有一个专栏《每日安全推送》。我们将从全互联网获取当日最新的安全技术信息,进行识别、处理后推送给公众,方便广大网络安全技术从业者获取。这种技术信息相当于技术情报或知识情报。

这个采集过程是传统的自动化技术,需要采集、分析,然后判断它是否有价值、价值有多大。每期我们只推送十几个项目。我们需要选择最具技术价值的内容进行翻译和总结。以前这项工作都是人工完成的,现在基本不需要人来做。

在企业中,安全技术人员曾经每天都要处理安全日志和警告信息。未来可以采用大型机型来减轻人力这部分繁重的工作。

此外,在很多安全研发工作场景中,也存在着很多繁琐的工作。例如,处理代码有很多繁琐的工作。要想找到真正有价值的点,需要人的大脑和高水平的能力。审判的工作。然而,这部分工作往往只需要几分钟,但找到这一点却总是需要几个小时甚至几天的时间。大模型技术的应用可以提高筛选关键点的效率。

澎湃新闻:您认为AI大模型会很快取代安全技术人员吗?

于洋:我认为至少目前还不可能,因为目前大模型的推理能力与我们现在的安全技术人员相比还是很弱的,至少达不到专业安全研究人员的水平。

此外,安全研究本身就是一个发现新知识的过程,目前大型模型更擅长处理现有知识可以解决的问题。尽管大型模型也具有一定的在测试中发现新知识的能力,但它们无法取代高水平的研究人员,至少目前如此。

如果有一天,一个大型人工智能模型能够取代高级安全研究人员,那么它很可能能够取代所有脑力劳动者。至少大型模型可以做低于诺贝尔奖水平的工作。

澎湃新闻:腾讯安全尝试实现GPT应用的目的是什么?您能否举一些腾讯安全应用AI的典型场景和案例?

于阳:我们实验室目前正在致力于开发保护用户数据安全和隐私的技术。

大家网上用的大模型,本地都没有部署。用户在使用时需要将相对私密且重要的数据发送到大模型中。如果只是简单的聊天娱乐,影响不会很大。不过,很多人已经开始使用大型模型来处理生活和工作事务。这时,将私有数据和重要数据交给大模型就会引起人们的担忧。这种担忧不是可以通过各种保证和协议来取消的。

现在我们正在开发一个系统来帮助缓解隐私问题。该系统应用了广义上的同态加密技术,相当于在用户和大模型之间局部设置了一堵隔离墙。用户输入的信息经过隔离墙过滤,信息被加密,直到到达大模型。模型数据不再包含私有数据。大模型处理完毕后,返回的结果再次穿过隔离墙,转换为真实结果呈现给用户。云端大模型无法获取用户隐私数据,不影响大模型的使用效果。

目前我们还没有开发出全场景的隔离墙,但是一些常见的应用场景已经可以实现隐私保护,比如让大模型帮你做翻译、摘要概括、文本分类等。这个系统有很多场景可以用。也可以应用。

澎湃新闻:大型模型应用前景广阔,安全性日益重要。腾讯安全对于大模型应用的未来有何愿景和期望?

于阳:从安全角度来说,我们愿意拥抱各种新技术,并利用这些新技术更好地服务客户。一方面,大型模型可以帮助我们提高安全性。另一方面,大型号也可以减少客户使用安全产品的成本投入。

过去我们经常提到“更快,更省”这句话,但同时做到这四个字其实很难。现在随着技术的发展,更快、更经济逐渐成为可能,我们愿意为客户提供更快、更经济的安全服务。
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|【远见汇智】 ( 京ICP备20013102号-17 )

GMT+8, 2025-5-9 01:48 , Processed in 0.208263 second(s), 20 queries .

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表