Firewall for AI,因應GenAI時代來臨,企業資安需求所誕生的解決方案,傳統防火牆運行於L3/4依據IP、Port進行進出的管制,WAF運行於L7檢查更加複雜的Http的加密流量,依據Header、URL、Query等條件進行防護,而Firewall For AI則是特化用於LLM應用程式的服務,管理面向主要以LLM的Context與使用者的Prompt所帶來的威脅。
由於LLM的運作特性,導致其產出內容具有一定程度的不可預知性,因此對於企業應用與管理上造成不小的困擾,傳統應用程式運作時的邏輯基本上都經過開發設定後都會有邏輯脈絡可以依循,在資訊安全的防護上較有規律可以參考。
LLM本質上是藉由模型理解上下文後,以統計的方式產出最有可能的下文,如同我們手機輸入法打出第一個字“你”,後面會出現”好”、“是”、“覺得“,在依據你選擇內容再接著預測接下來的內容,LLM就是將此特性發揮到極值得的應用方式,當中當然有許多的資料訓練、演算法、推論等來減少錯誤發生的過程,但各位只要知道LLM是以統計的方式進行預測,那既然是統計就表示會有誤差的存在。
LLM應用對於資訊安全可能會造成哪些危害呢?OWSAP於2025公布了LLM TOP 10的資安風險,包含濫用、不安全設定、資料外洩、錯誤資訊、有害言論等等。
想像今天你是大型電商平台,想要運用AI聊天機器人幫助用戶購買適合產品以及直接提供商品的評價或是協助查詢訂單進度等功能,以加速用戶的購買決策,上線的第一天用戶對此聊天機器人感到驚艷與方便,大幅度增加了用戶的黏著度,但服務爆紅的當下也就意味著可能成為攻擊的目標,某天發現有人透過設計過的Prompt誘騙聊天機器人提供了內部測試用折扣碼,導致許多訂單都取得了不合常理的折扣,進一步導致平台重大的損失,損失的不僅僅只有營業額,更包含了使用者對平台的信任以及公關危機。
而這樣的故事已經不是如果,是真實發生在加拿大航空上,因為官網中的聊天機器人承諾的不存在的優惠而遭到旅客提告,導致法院判賠的真實案例。
該如何避免AI應用發生相關事件已經是企業在數位轉型時需要審慎評估風險之一,一般來說在AI的防禦機制會將指引寫在應用中,在每次使用者輸入prompt時都有預設指引修正AI的回應,但這樣的方式很容易隨著LLM模型的更新與迭代而失效,在每三到六個月就有新模型出現的時代,這樣的防禦機制將會相當容易失效,並造成開發者較大的維運負擔。
Firewall for AI正是為了解決此痛點的方案,透過將prompt與LLM的回應送到Firewall for AI的檢查機制中,可以有效地檢查每個需求與回應是否帶有不該出現或是錯誤的資訊,大幅減少LLM造成錯誤的機會,並寫因為解耦了模型與安全機制的綁定,可以更加彈性的應用於不同模型之間,讓不同的AI應用都擁有相同的安全標準,降低維運人員對於規則維護的負擔。
雖然現階段LLM落地實際提升企業生產力的情境還沒有遍地開花,但隨著AI的演進以及市場的競爭,企業為了降本增效終究會開始擁抱AI所帶來的生產力,屆時AI的資安將會是不可或缺的一塊拼圖。