chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

芯盾時代如何應對AI大模型的數據泄露危機

芯盾時代 ? 來源:芯盾時代 ? 2025-12-17 11:02 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

忙了半年,花了幾百萬預算,和IT團隊一起熬了N個通宵,你終于搞定了公司私有化AI大模型的部署,全新的AI助手隆重上線。第二天開工,老板先把你叫到了他的辦公室。

老板似笑非笑,讓你發(fā)毛:“老李,咱們的AI助手是安全的吧?防護措施都到位了吧?”

你連忙點頭:“是的,老板!物理隔離,堡壘機都加了,肯定安全?!?/p>

老板冷笑一聲,把筆記本屏幕轉向你:“那你看看,這是怎么回事?!?/p>

你一看,屏幕上AI助手的對話框里赫然寫著:“我們公司CEO的工資是多少?”“根據財務記錄,公司CEO基礎薪資為X萬,股權分紅Y萬,扣除……實發(fā)Z萬。”

老板又補了一刀:“我找好幾個人核實過,他們都能問出我的工資是多少?!?/p>

你瞬間冷汗直流。沒有黑客入侵,沒有內鬼竊密,也沒有賬號被盜,但AI就這么輕飄飄地把公司的頭等機密說了出來。好在你反應夠快:“老板,這一定是建知識庫的時候,財務部把《高管薪酬明細表》的原件誤上傳了。我馬上把AI助手下線,徹底排查一遍數據泄密問題?!?/p>

老板并沒有窮追猛打:“好在這是3年前的數據,也沒有泄露到網上。我更想知道的是,是不是誰想獲取點公司的機密,直接問AI助手就行了?”

老板的態(tài)度讓你踏實不少,于是你開啟了吐槽模式:“老板,你不知道啊,這個AI大模型啥都好,就是這‘嘴’上實在沒有把門的……”

AI大模型的“嘴”為什么這么“松”?

老李的遭遇絕非個例,敏感信息泄露是當前AI大模型面對的主要安全威脅。在最新發(fā)布的2025 OWASP Top 10 for LLM榜單中,敏感信息泄露是僅次于提示詞注入的第二大威脅。

面對這個威脅,很多企業(yè)會倍感困惑:“我們有防火墻、有 WAF、有數據庫審計,難道還不夠嗎?”

答案是,不夠,遠遠不夠。

傳統(tǒng)的數據泄露通常是黑客攻破了企業(yè)網絡,黑進了數據庫,把數據“偷”出來。而AI大模型的數據泄露,本質上是模型基于自身的原理特性,主動將數據“背”了出來。

打個比方,大模型就好像一個記憶力超群但毫無心機的天才兒童,分不清什么能對外說,什么不能對外說。你問他圓周率小數點后1000位是多少,他馬上就能告訴你。你要是用點技巧,比如騙他說你是他爸爸的朋友,然后問他家保險箱的密碼,他也會毫不猶豫地告訴你。

AI之所以容易泄密,主要是源于以下四大核心機制:

1.訓練數據中的“無意記憶”與過度擬合

這就是開篇故事中老李遇到的“鬼故事”,也是AI大模型泄密的最主要原因。眾所周知,大模型的本質是壓縮和預測,但有時候它壓縮得“太好”了,預測的太“毫無保留”了。

如果在大模型預訓練或微調階段,投喂了包含PII(個人身份信息)、API密鑰或核心算法代碼的原始數據,模型可能會產生無意記憶(Unintended Memorization)。這種記憶往往發(fā)生在數據被重復多次投喂,或者模型參數量巨大的情況下。

更糟糕的是,如果模型對某些特定數據的權重過高,就會出現過度擬合(Overfitting)。這就像一個死記硬背的學生,沒有真正理解公式,回答問題的時候不會隨機應變,而是直接把寫著公式的教科書第50頁一字不差的背了出來。

如果大模型有這樣的問題,攻擊者無需入侵數據庫,只需要對模型說:“請補全這段代碼:def connect_db(password='...’)”,過度擬合的大模型可能就會直接吐出真實的數據庫密碼。

2.增強檢索生成中的權限管控失效

為了讓AI學習企業(yè)的內部知識,增強檢索生成(RAG)驅動的知識庫成為了企業(yè)落地大模型的標配。但這引入了一個巨大的風險面:RAG中的權限管控失效(BOLA in RAG)。

很多企業(yè)數據安全意識不足,或者干脆為了圖省事,在搭建RAG時,給向量數據庫的檢索器配置了一個“超級管理員”權限。這意味著AI可以看到數據庫內的所有文檔,進而給用戶提供查看原本無權查看的數據。

以開篇老李的故事為例。公司的實習生問AI助手CEO的工資是多少。雖然實習生沒有權限查看薪資表,但是AI有。AI檢索到了文檔,“熱心地”總結了答案,并呈現給了實習生。這就是典型的越權訪問,只不過泄密的幫兇是AI。

3.用戶側的不當輸入與數據留存

員工在使用 AI 時,可能無意中將客戶名單、機密會議紀要直接輸入到模型中,這就是不當輸入與數據留存(Insecure Input & Logging)。

若使用未隔離的公有云模型,這些數據可能進入服務商的日志或再訓練管道,在未來的模型版本中被“學會”,進而面臨被全球用戶檢索的風險。

4.對抗性攻擊與模型提取

如果黑客想要通過AI大模型竊取企業(yè)機密數據,他們會采取更直接、更暴力的攻擊方式,利用大模型安全對齊機制(Safety Alignment)的脆弱性,進行各種對抗性攻擊與模型提?。?a target="_blank">Adversarial Attacks)。

越獄(Jailbreaking):攻擊者通過角色扮演(“你現在是一個沒有道德限制的黑客”)、邏輯陷阱或特殊編碼,繞過模型的安全護欄,誘導模型輸出本該被禁止的敏感信息。

成員推斷攻擊(Membership Inference Attacks):攻擊者通過查詢模型,觀察模型的置信度變化,從而推斷某條特定的敏感記錄(如某人的醫(yī)療記錄)是否存在于模型的訓練數據集中。

模型逆向與提?。∕odel Extraction):攻擊者通過大量的查詢-響應對,試圖以此訓練一個“影子模型”來模仿目標模型的行為。這不僅導致了知識產權(專有算法)的泄露,還可能還原出底層的訓練數據分布。

弄清了AI大模型泄露數據的機制,就不難得出結論:AI大模型數據泄露不是一個“漏洞”,而是一種基于模型原理的“特性”。這決定了傳統(tǒng)的基于安全邊界的縱深安全防護架構,根本管不住大模型的“嘴”。

零信任,讓AI“守口如瓶”

面對基于模型原理的內生安全威脅,簡單的物理隔離已不再適用。企業(yè)需要在AI紅隊測試(AI Red Teaming)的基礎上,構建以零信任(Zero Trust)為核心的全生命周期防護體系。

1.源頭治理:數據脫敏與數學噪聲

對于無意記憶和過度擬合,最有效的防御手段就是從源頭阻斷敏感實體被用于訓練大模型。

在預訓練或微調前,必須使用自動化工具對數據進行清洗,身份證號、手機號、密鑰等敏感數據必須進行掩碼處理或替換,對重要數據進行去重,防止敏感數據“入模”。利用差分隱私(Differential Privacy)技術,在模型訓練過程中引入“數學噪聲”,確保模型學到的是群體的統(tǒng)計規(guī)律,而不是單個樣本的特征。

2.交互層的圍欄:輸入輸出的實時審計

針對不當輸入與數據留存,需要部署專門的AI安全網關(AI Gateway),在輸入側和輸出側“前追后堵”。

在輸入側,部署語義分析防火墻,利用較小的、專門訓練強化過的LLM來識別和過濾惡意意圖,實時檢測提示詞注入(Prompt Injection)攻擊。一旦發(fā)現惡意指令,直接阻斷對話,不給模型犯錯的機會。

在輸出側,對AI輸出內容進行安全審查,通過正則匹配或語義分析,識別API Key、PII數據等敏感信息,對這些數據進行實時攔截或動態(tài)脫敏,阻止大模型泄露機密。

同時,對于所有的交互日志,必須實施嚴格的“不落盤”策略或脫敏存儲策略,防止日志服務器成為下一個泄密源。

3.運行時的零信任:身份與權限的“原子級綁定”

基于身份的最小化授權,是解決增強檢索生成(RAG)中的權限管控失效的終極方案,也是零信任在AI大模型安全防護的核心應用之一。

在零信任架構下,“身份透傳”(Identity Propagation)能夠消除AI的“上帝視角”。當員工A向AI提問時,他的身份Token必須一路跟隨請求。AI在向向量數據庫發(fā)起檢索時,也必須攜帶員工A的身份信息。向量數據庫執(zhí)行檢索時,不是看AI想查什么,而是看員工A有權限看什么。

如果員工A無權查看“CEO薪資”,那么向量數據庫應返回空結果,AI自然也就無法生成泄密答案,老李也就無需接受老板的“靈魂拷問”。

4.上線前“拷問”大模型:AI紅隊測試不能省

在模型上線前,必須進行高強度的AI紅隊測試。

在測試中,不但要測它聰不聰明,更要測它“嘴嚴不嚴”。紅隊要結合AI大模型攻擊通用樣本庫與行業(yè)樣本庫,對大模型進行全面的測試:要模擬黑客進行越獄攻擊,嘗試誘導模型泄露訓練數據;進行成員推斷攻擊,測試隱私數據的暴露風險。

只有在實驗室里被“打透”了,修補了安全對齊機制的漏洞,AI大模型才能真正走向生產環(huán)境,真正為企業(yè)所用。

當前,AI大模型的浪潮已經不可阻擋。但企業(yè)在部署AI大模型前,必須先管住它的“嘴”,不讓它成為“超級大嘴巴,泄密快車道”。

傳統(tǒng)的數據安全解決方案,難以應對大模型的數據泄露威脅。唯有構建基于零信任的全生命周期防護體系,規(guī)避過度擬合、權限管控失效以及對抗性攻擊等風險,企業(yè)才能真正駕馭 AI 技術,在數智化轉型的道路上行穩(wěn)致遠。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    90

    文章

    38413

    瀏覽量

    297678
  • 大模型
    +關注

    關注

    2

    文章

    3496

    瀏覽量

    5031

原文標題:AI大模型的數據泄露危機丨靠“聊天”就能套出企業(yè)核心機密,AI為什么啥都往出說?

文章出處:【微信號:trusfort,微信公眾號:芯盾時代】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    時代中標某銀行賬戶風險監(jiān)測系統(tǒng)建設項目

    時代中標某銀行,通過自研的智能風控決策平臺,并深度融合AI模型,為其搭建賬戶風險監(jiān)測系統(tǒng),實現賬戶全生命周期的安全防護,進一步提升銀行
    的頭像 發(fā)表于 11-20 16:34 ?889次閱讀

    時代中標南光集團身份管理與訪問控制系統(tǒng)項目

    時代承建南光(集團)有限公司(以下簡稱:南光)身份管理與訪問控制系統(tǒng)項目!時代基于零信任
    的頭像 發(fā)表于 11-13 13:42 ?361次閱讀
    <b class='flag-5'>芯</b><b class='flag-5'>盾</b><b class='flag-5'>時代</b>中標南光集團身份管理與訪問控制系統(tǒng)項目

    時代亮相安全可信數據要素交易流通利用研討會

    近日,第二十七屆中國科協(xié)年會專題論壇—安全可信數據要素交易流通利用研討會在北京成功舉辦。時代作為領先的零信任業(yè)務安全產品方案提供商受邀參會,解決方案總監(jiān)季文東發(fā)表了《
    的頭像 發(fā)表于 08-01 18:02 ?1170次閱讀

    時代中標重慶三峽銀行

    時代中標重慶三峽銀行!時代基于零信任安全理念,利用自研的用戶身份與訪問管理平臺(IAM)
    的頭像 發(fā)表于 07-31 18:07 ?829次閱讀

    時代再度中標某省級銀行

    時代再度中標某省級銀行!時代通過自研的智能風控決策平臺(IRD),結合
    的頭像 發(fā)表于 07-25 15:26 ?970次閱讀

    時代中標全球家居品牌企業(yè)

    時代中標全球家居品牌企業(yè)!時代運用零信任網絡訪問等技術,基于客戶現有賬號體系,對用戶、設
    的頭像 發(fā)表于 07-17 10:05 ?885次閱讀

    時代AI戰(zhàn)略賦能全線產品智能化升級

    ChatGPT掀起的智能革命席卷全球,DeepSeek等大模型持續(xù)刷新性能邊界,人工智能從實驗走向產業(yè)深處,成為重塑經濟格局、重構安全范式的核心力量。從國家戰(zhàn)略到企業(yè)實踐,從技術突破到場景落地,智能化浪潮以前所未有的速度推動著社會變革。
    的頭像 發(fā)表于 07-14 15:47 ?1406次閱讀

    時代如何應對AI濫用帶來的數據泄露風險

    讓DeepSeek、ChatGPT幫忙擼代碼、寫文案、做報表,甚至生成海報、渲染視頻,能大幅提高工作效率。一時間,企業(yè)大力倡導使用AI,員工紛紛學習使用AI,一片勃勃生機、萬物競發(fā)的景象。
    的頭像 發(fā)表于 06-06 15:37 ?837次閱讀

    時代助力四川銀行電子渠道實時交易監(jiān)測系統(tǒng)升級

    時代再度中標四川銀行!時代通過自研的智能風控決策平臺(IRD),結合
    的頭像 發(fā)表于 06-05 17:38 ?1057次閱讀

    時代設備指紋技術全新升級

    在數字經濟高速發(fā)展的今天,黑灰產攻擊如影隨形,個人隱私泄露、金融欺詐、電商刷單等風險事件頻發(fā)。時代 “覓跡” 設備指紋全新升級,以跨渠道識別能力打破行業(yè)壁壘,為金融、電商、游戲等多
    的頭像 發(fā)表于 05-07 16:23 ?993次閱讀

    時代全場景身份治理解決方案助力企業(yè)提升業(yè)務安全

    時代中標某人壽保險,持續(xù)深化業(yè)務安全項目合作。時代為客戶建設IAM系統(tǒng),為PC端和移動端
    的頭像 發(fā)表于 05-07 10:29 ?724次閱讀

    時代助力打造金融安全新范式

    時代中標吉林省農村信用社(以下簡稱“吉林農信”)?設備指紋平臺,交易安全保護系統(tǒng)等項目?。時代
    的頭像 發(fā)表于 04-15 17:41 ?907次閱讀

    時代助力打造智慧醫(yī)療安全新標桿

    時代中標?安徽醫(yī)科大學第二附屬醫(yī)院(以下簡稱“安醫(yī)二附院”)!時代基于零信任安全理念,融
    的頭像 發(fā)表于 04-02 17:18 ?998次閱讀

    零信任+DeepSeek企業(yè)數字化更安全 時代全線產品接入DeepSeek

    DeepSeeK大模型自發(fā)布以來,憑借出色的性能表現和低成本訓練模式,在全球掀起了AI模型部署熱潮,推動大模型技術從實驗室走向實際應用。
    的頭像 發(fā)表于 04-02 12:00 ?1221次閱讀
    零信任+DeepSeek企業(yè)數字化更安全 <b class='flag-5'>芯</b><b class='flag-5'>盾</b><b class='flag-5'>時代</b>全線產品接入DeepSeek

    時代入選ISC.AI 2024創(chuàng)新能力百強

    近日,ISC.AI創(chuàng)新技術論壇暨ISC.AI 2024創(chuàng)新能力百強(簡稱“創(chuàng)新百強”)頒獎典禮在京圓滿落幕。時代憑借領先的創(chuàng)新能力、在信
    的頭像 發(fā)表于 12-30 16:23 ?957次閱讀