更多
APP下载
合作
商城
签到
奇安信集团董事长齐向东接受《环球时报》采访:应对AI安全风险,有三方面可以入手
2025-2-27 07:18
环球报
540

【环球时报报道 记者 白云怡 赵觉珵】编者的话:中国人工智能企业深度求索(DeepSeek)取得的突破为中国AI发展注入一剂强心针,也推动一些国内外同行的开源举措和应用拓展,同时,被检测到的“职业打手”对其展开的网络恶意攻击也让人们关注技术狂飙背后亟待应对的安全问题。《环球时报》财经观察“关于AI的跨界对话”系列第二篇邀请到刚参加完民营企业座谈会的奇安信集团董事长齐向东,该集团主要向政府、企业用户提供网络安全产品和服务。在访谈中,齐向东以一线从业者的视角,剖析行业发展和挑战,也就筑牢AI安全根基提出自己的理解。

平衡技术创新与安全风险成为AI行业重要课题

环球时报:今年春节期间,国产大模型DeepSeek-R1成为各界关注的焦点。作为业内人士,您认为DeepSeek对人工智能整个行业意味着什么?

齐向东:我认为DeepSeek的成果对行业至少有三点深远意义。第一,DeepSeek打破了美国等国在人工智能行业长期以来近乎垄断的市场格局,能凭借相对较低的成本促进大模型应用大爆发。以前提到人工智能大模型,我们会下意识想到美国OpenAI的GPT系列、Google的BERT、Meta的大模型等。这些大模型在性能、应用场景拓展、商业落地等方面树立了行业标准,左右着舆论走向与资本流向。而DeepSeek颠覆了主流的“大数据、大参数、大算力”创新路径,相比于ChatGPT,它的训练成本和推理成本都大大降低,对使用AI模型的应用开发者、广大消费端用户来说,是极大利好。

第二,DeepSeek公布开源策略,推动人工智能行业走向更加开放、合作的崭新时代。过去,受技术封锁与商业壁垒的双重禁锢,人工智能领域难以实现资源的高效共享与全方位协同发展。巨头企业在技术研发上各自为战,中小企业和初创团队缺乏核心技术支持,很难崭露头角。这次DeepSeek开放了众多核心资产,提供授权。相比于Meta开源模型,DeepSeek的开源更彻底、更透明,技术细节更多,让开源生态欣欣向荣。比如美国人工智能公司Hugging Face只用了短短几周时间,Open-R1复现项目就取得重大进展。AI巨头也相继加速技术开放和更新,OpenAI免费公开推理功能,百度免费向公众开放文心一言。同时,全球科创企业纷纷接入。DeepSeek的开源策略就像“发令枪”,让人工智能行业开始摆脱封闭与孤立,迈向资源共享、携手共进的光明未来。

第三,DeepSeek一问世,针对性的高强度网络攻击就爆发了,给人工智能行业敲响了坚守安全底线的警钟。攻击从最初的代理攻击,SSDP(简单服务发现协议)、NTP(网络时间协议)反射放大攻击,到针对应用层的DDOS(分布式阻断服务)攻击,破坏性越来越强。后续,又监测到2000多个针对DeepSeek的仿冒网站、钓鱼网站。未来随着人工智能大模型的基础设施地位越来越突出,针对性的恶意手段和风险场景也将激增,伴生的数据隐私、认知安全、基础设施等安全风险超乎想象。对于整个人工智能行业来说,平衡技术创新与安全风险必会成为重要课题。

“自下而上”的创新张力对产业发展意义重大

环球时报:正如您所说,DeepSeek的开源策略打破“巨头垄断”模式。另一方面,我们注意到,包括DeepSeek在内的杭州“六小龙”也都是“野生”的民营企业。在您看来,中国AI创新是否有“草根化”的趋势?

齐向东:中国AI创新的“草根化”趋势确实很明显,这跟国家的前瞻性布局、政策扶持以及全方位的资源投入密不可分。AI属于通用型创新,它的独特之处在于并非由权威主导,而是由广大创业者主导的。这次DeepSeek的爆火,以及杭州“六小龙”等科创企业的成功,都很好地印证了这一点。但我们也必须清楚,没有国家作为坚实后盾,这些“草根”力量也是难以茁壮成长的。年初,国家AI产业投资基金成立,为技术创新和应用拓展释放了更多增长空间。

继续守护并延续AI创新的“草根化”趋势,保持“自下而上”的创新张力,对中国AI产业发展乃至整个科技创新生态意义重大。我建议国家从政策引导、优化营商环境、生态协同等维度入手,进一步激发民间创新创业热情。

自身问题、“饱和式”攻击和“网络攻击大爆炸”

环球时报:不久前DeepSeek线上服务受到大规模恶意攻击,这也让大模型的安全问题受到关注。从奇安信XLab实验室监测到的最新情况看,近期对DeepSeek的网络攻击是否仍在继续?

齐向东:近期针对DeepSeek的网络攻击烈度有所下降,但攻击行为仍未完全停止。除夕当天,奇安信发布报告,针对DeepSeek攻击事件发出预警。大年初一,攻击烈度果然激增,作为“职业打手”的僵尸网络开始下场,DeepSeek服务器遭到重击。春节期间这波攻击峰值过后,针对DeepSeek的攻击有所下降,但依旧时有发生。2月10日,我们检测到一个新的僵尸网络moobot曾短暂参与过攻击,但并未造成实质影响。

2月初,我们通过跟踪监测发现,针对DeepSeek的仿冒网站、钓鱼网站数量已超过2000个,并且还在快速增加,于是再次发布预警,提醒用户保持警惕。

上周,我们发现目前活跃的运行DeepSeek等大模型的服务器有九成没有采取安全措施。这种“裸奔”状态会导致任何人不需要任何认证即可随意调用、在未经授权的情况下访问这些服务,极有可能造成数据泄露和服务中断,甚至可以发送指令删除所部署的DeepSeek、Qwen等大模型文件,存在严重的安全隐患。

环球时报:总的来看,您认为中国的人工智能发展主要面临哪些安全风险?该如何应对?

齐向东:现阶段大多数政企机构对人工智能大模型的部署比较随意,所伴生的网络和数据安全风险超乎想象。我认为人工智能发展面临的安全问题大致可以分三类。

第一类是人工智能大模型自身的安全问题,包括开发风险、数据风险、应用风险和基础环境风险。开发方面,开源大模型可能会存在代码缺陷和预留后门等问题;应用方面,可能会有“内鬼”对训练数据进行投毒,篡改模型和配置;数据方面,内部配置错误和弱口令等会造成数据库暴露;基础环境方面,要重点关注云、API(应用程序编程接口)、传统设备漏洞等。

第二类是利用人工智能开展网络攻击的问题。人工智能促进了网络攻击手段的更新迭代,“饱和式”攻击成为可能,攻击者可以瞬时发动海量攻击打垮已有的网络安全体系。人工智能还提升了“以假乱真”的能力,导致深度伪造、认知战、钓鱼等威胁加剧,人工智能可能被不法分子利用,通过“换脸变声”输出虚假信息,开展网络诈骗,或输出背离主流价值观的内容,引发社会认知混乱。

第三类是通过攻击人工智能引发的“网络攻击大爆炸”。未来人工智能会成为社会的基础设施,当大模型嵌入智慧城市、工控系统、智慧政务等关键领域时,会放大漏洞等传统安全威胁,一旦人工智能大模型遭到攻击可能会牵一发而动全身,引发社会服务中断、生产停滞、隐私数据泄露等安全事件。

要应对这些风险,我建议从三方面入手:一是建立适配大模型的纵深防御体系,筑牢人工智能的安全根基;二是加快跟进针对人工智能大模型的强制性安全合规要求,确保监管的有效性和适应性,明确大模型安全的组织架构,对基础安全、数据安全、应用系统开发安全、运行安全等方面提出清晰的技术保障要求,同时做好大模型运行安全监测和内容风控,定期开展安全评估测试,一旦发现异常行为或潜在的安全事件,第一时间进行处置,将安全威胁消除在萌芽状态;三是推广“AI+安全”创新成果落地,走好提升安全能力的必经之路。

社区好帖更多帖子
返回顶部