中新經緯3月3日電 (李自曼)“今年兩會,人工智能安全是我關注的主要問題之一。”近日,全國政協委員、奇安信集團董事長齊向東在接受中新經緯等媒體采訪時說。
在齊向東看來,當前,以大模型為代表的人工智能技術正在深刻重塑生產生活方式和科技創新模式。今年春節,國產大模型DeepSeek橫空出世,引發了廣泛討論,它顛覆了傳統的人工智能創新模式,將推動人工智能技術加速向千行百業滲透。但它一問世,針對性的高強度網絡攻擊就爆發了,給人工智能行業敲響了堅守安全底線的警鐘。
齊向東表示:“我們發現,現在越來越多的企業、個人開始搭建DeepSeek大模型私有化部署,而將近90%的服務器都沒有采取安全措施,服務運行和數據安全岌岌可危。未來隨著人工智能大模型的基礎設施地位越來越突出,針對性的惡意手段和風險場景也將激增,伴生的數據隱私、認知安全、基礎設施等安全風險超乎想象。對于整個人工智能行業來說,平衡技術創新與安全風險必會成為重要課題。”
齊向東認為,人工智能發展面臨的安全問題大致可以分三類:
第一類是人工智能大模型自身的安全問題。開發風險、數據風險、應用風險和基礎環境風險這四大安全風險比較突出。開發方面,開源大模型要重點防范代碼缺陷和預留后門等問題;應用方面,要防止“內鬼”對訓練數據投毒,進行模型篡改、配置篡改;數據方面,要小心內部配置錯誤和弱口令等造成的數據庫暴露;基礎環境方面,要重點關注云、API、傳統設備漏洞等等。
第二類是利用人工智能開展網絡攻擊的問題。人工智能促使網絡攻擊手段更新迭代,“飽和式”攻擊成為可能,攻擊者可以瞬時發動海量攻擊打垮已有的網絡安全體系。人工智能還提升了“以假亂真”的能力,深度偽造、認知戰、釣魚等威脅加劇。攻擊者可利用人工智能“換臉變聲”輸出虛假信息,開展網絡詐騙。
第三類是通過攻擊人工智能引發的“網絡攻擊大爆炸”。未來人工智能會成為社會的基礎設施,當大模型嵌入智慧城市、工控系統、智慧政務等關鍵領域時,會放大漏洞等傳統安全威脅,一旦人工智能大模型遭到攻擊可能會牽一發而動全身,引發社會服務中斷、生產停滯、隱私數據泄露等安全事件。
“目前,已有團隊發現DeepSeek存在嚴重漏洞,并可借此獲取后端隱私數據、API密鑰、操作元數據,盡管漏洞很快被修補,但是根據我們的經驗,新漏洞會不斷被挖掘出來。”齊向東說。
針對人工智能發展面臨的安全問題,齊向東認為要從技術保障、制度保障、成果應用三方面入手,系統提升安全能力。第一,建立適配大模型的縱深防御體系,筑牢人工智能的安全根基。第二,制定大模型安全強制合規要求,夯實人工智能安全發展的制度保障。第三,推廣“AI+安全”創新成果落地,走好提升安全能力的必經之路。
據齊向東透露,近期,奇安信發布了業界首個大模型安全整體解決方案大模型安全盾,率先提出“大模型安全紅域”概念,打造適用于人工智能的立體縱深防御體系,并給予威脅情報、大數據監測等情報賦能,實現“對外防攻擊、對內防內鬼”。
“作為網絡和數據安全領域的領軍企業,奇安信深感責任重大,期待通過切實可行的舉措,為人工智能的安全發展保駕護航。”齊向東說。
(更多報道線索,請聯系本文作者李自曼:liziman@chinanews.com.cn)(中新經緯APP)
(文中觀點僅供參考,不構成投資建議,投資有風險,入市需謹慎。)
中新經緯版權所有,未經書面授權,任何單位及個人不得轉載、摘編或以其他方式使用。
責任編輯:魏薇 李中元