ChatGPT對數據中心網絡安全有哪些影響?

近期,OpenAI發(fā)布了聊天機器人ChatGPT,因其強大的能力因其了人們的廣泛關注,甚至許多人認為世界開始發(fā)生了變化。

如果學生可以讓ChatGPT為他們寫論文,那么大學生們肯定會爭先恐后地想出如何利用這款AI工具來完成學業(yè)。因為,我們已經看到ChatGPT通過了法學院考試、商學院考試,甚至是行醫(yī)執(zhí)照考試。全球各地的員工開始使用它來撰寫電子郵件、報告,甚至編寫計算機代碼。

不過,目前ChatGPT并不完美,其數據庫也不是最新的,但它比普通人以前接觸過的任何人工智能系統(tǒng)都要強大,用戶體驗也比企業(yè)級系統(tǒng)的人工智能更加友好。

似乎一旦像ChatGPT這樣的大型語言模型變得足夠大,并且在其神經網絡中擁有足夠的訓練數據、足夠的參數和足夠的層,奇怪的事情就會開始發(fā)生。它發(fā)展了在較小模型中不明顯或不可能的“特性”。換句話說,它開始表現得好像它擁有常識和對世界的理解——或者至少是某種近似于這些東西的東西。

通過近期的新聞,我們可以看到各大科技公司爭先恐后地做出反應。微軟向OpenAI投資了100億美元,并為 Bing添加了ChatGPT功能,從而使得沉寂了很久了的搜索引擎再次成為話題。

谷歌也宣布了自己的AI聊天機器人計劃,并投資了OpenAI的競爭對手Anthropic,后者由前OpenAI員工創(chuàng)立,并擁有自己的聊天機器人Claude。

亞馬遜宣布計劃建立自己的ChatGPT競爭對手,并宣布與另一家人工智能初創(chuàng)公司Hugging Face建立合作伙伴關系。Facebook的Meta也將快速跟進自己的AI工作計劃。

與此同時,幸運的是,安全專家也可以使用這項新技術。他們可以將其用于研究、幫助編寫電子郵件和報告、幫助編寫代碼,以及我們將深入研究的更多方式。

但令人不安的是,壞人也將它用于所有這些事情,以及網絡釣魚和社會工程。他們還使用ChatGPT來幫助他們以幾個月前無法想象的規(guī)模和保真度來制造深度造假。ChatGPT 本身也可能是一種安全威脅。

接下來,讓我們討論這些AI工具可能對數據中心帶來的安全主題,從惡意行為者可能使用的方式開始,在某些情況下,他們已經在使用ChatGPT。然后,我們將探討網絡安全專業(yè)人員使用ChatGPT 等人工智能工具的好處和危險。

壞人如何使用 ChatGPT

毫無疑問,惡意行為者已經在使用ChatGPT。那么,ChatGPT將如何用于幫助刺激網絡攻擊呢。在2 月份發(fā)布的黑莓 IT 領導者調查中,53% 的受訪者表示它將幫助黑客創(chuàng)建更可信的網絡釣魚電子郵件,49%的受訪者指出它有能力幫助黑客提高他們的編碼能力。

調查的另一項發(fā)現:49%的IT和網絡安全決策者表示,ChatGPT將用于傳播錯誤信息和虛假信息,48%的人認為它可用于制作全新的惡意軟件。另有46%的受訪者表示ChatGPT可以幫助改善現有攻擊。

Constellation Research副總裁兼首席分析師Dion Hinchcliffe表示:“我們看到編碼人員,甚至是非編碼人員使用ChatGPT生成可以有效利用的漏洞?!?/p>

畢竟,人工智能模型已經閱讀了所有公開發(fā)表的內容。包括“每一份研究漏洞報告,”Hinchcliffe說,“所有安全專家的每一次論壇討論。它就像一個超級大腦,可以用各種方式破壞系統(tǒng)?!?/p>

這是一個可怕的前景。

而且,當然,攻擊者也可以用它來寫作,他補充說?!拔覀儗⒈粊碜愿鞯氐腻e誤信息和網絡釣魚內容所淹沒?!?/p>

ChatGPT如何幫助數據中心安全專家

對于使用ChatGPT的數據中心網絡安全專業(yè)人員而言,云安全聯盟首席執(zhí)行官Jim Reavis表示,他在過去幾周內看到了一些令人難以置信的AI工具病毒式實驗。

“你可以看到它為安全編排、自動化和響應工具、DevSecOps和一般云容器衛(wèi)生編寫了大量代碼,”他說?!?a href="http://www.picoinsstore.com/ChatGPT_1.html" target="_blank" class="keylink">ChatGPT生成了大量的安全和隱私政策。也許,最值得注意的是,為了創(chuàng)建高質量的釣魚電子郵件,我們進行了很多測試,希望使我們的防御在這方面更具彈性?!?/p>

此外,Reavis 說,幾家主流網絡安全供應商在他們的引擎中已經或將很快擁有類似的技術,并根據特定規(guī)則進行訓練。

“我們之前也看到過具有自然語言界面功能的工具,但還沒有一個廣泛開放的、面向客戶的ChatGPT界面,”他補充道?!拔蚁M芸炷芸吹脚cChatGPT接口的商業(yè)解決方案,但我認為現在的最佳點是多種網絡安全工具與ChatGPT的系統(tǒng)集成以及公共云中的DIY安全自動化?!?/p>

他表示,總的來說,ChatGP 及其同行很有希望幫助數據中心網絡安全團隊更高效地運作,擴大受限資源并識別新的威脅和攻擊。

“隨著時間的推移,幾乎所有網絡安全功能都將通過機器學習得到增強,”Reavis說?!按送猓覀冎缾阂庑袨檎哒谑褂弥T如ChatGPT之類的工具,并且假設您將需要利用A 來對抗惡意AI?!?/p>

電子郵件安全供應商如何使用 ChatGPT

例如,電子郵件安全供應商Mimecast已經在使用大型語言模型生成合成電子郵件來訓練自己的網絡釣魚檢測AI工具。

“我們通常使用真實的電子郵件來訓練我們的模型,”Mimecast首席數據科學家兼機器學習工程師洛佩茲(Jose Lopez)說。

為訓練集創(chuàng)建合成數據是ChatGPT等大型語言模型的主要優(yōu)勢之一?!艾F在我們可以使用這種大型語言模型來生成更多電子郵件,”洛佩茲說。

不過,他拒絕透露Mimecast使用的是哪種特定的大型語言模型。他說這些信息是公司的“秘密武器”。

不過,Mimecast目前并不打算檢測傳入的電子郵件是否由ChatGPT生成。那是因為使用ChatGPT的不僅僅是壞人。AI是一種非常有用的生產力工具,許多員工正在使用它來改進他們自己的、完全合法的通信。

例如,洛佩茲本人是西班牙人,現在正在使用ChatGPT而不是語法檢查器來改進自己的寫作。

Lopez還使用ChatGPT來幫助編寫代碼——許多安全專業(yè)人員可能正在做的事情。

“在我的日常工作中,我每天都使用 ChatGPT,因為它對編程真的很有用,”洛佩茲說?!坝袝r它是錯誤的,但它經常是正確的,足以讓你對其他方法敞開心扉。我不認為ChatGPT會將沒有能力的人轉變?yōu)槌壓诳?。?/p>

人工智能驅動的安全工具的興起

OpenAI已經開始致力于提高系統(tǒng)的準確性。微軟通過Bing Chat使其能夠訪問網絡上的最新信息。

Lopez補充說,下一個版本將在質量上有一個巨大的飛躍。此外,ChatGP 的開源版本即將推出。

“在不久的將來,我們將能夠針對特定的事物微調模型,”他說?!艾F在你不只是有一把錘子——你有一整套工具?!?/p>

例如,企業(yè)可以微調模型以監(jiān)控社交網絡上的相關活動并尋找潛在威脅。只有時間才能證明結果是否比目前的方法更好。

將ChatGPT添加到現有軟件也變得更容易、更便宜;3 月 1 日,OpenAI發(fā)布了一個API,供開發(fā)人員訪問 ChatGPT 和語音轉文本模型Whisper。

一般來說,企業(yè)正在迅速采用人工智能驅動的安全工具來應對比以往任何時候都更大規(guī)模的快速演變的威脅。

根據最新的Mimecast 調查,92%的企業(yè)已經在使用或計劃使用人工智能和機器學習來加強其網絡安全。

特別是,50%的人認為使用它可以更準確地檢測威脅,49%的人認為可以提高阻止威脅的能力,48%的人認為可以在發(fā)生攻擊時更快地進行補救。

81%的受訪者表示,向電子郵件和協作工具用戶提供實時、上下文警告的人工智能系統(tǒng)將是一個巨大的福音。

報告稱:“12%的人甚至表示,這種系統(tǒng)的好處將徹底改變網絡安全的實施方式。”

Omdia網絡安全實踐高級分析師Ketaki Borade表示,像ChatGPT這樣的人工智能工具也可以幫助縮小網絡安全技能短缺的差距?!叭绻_提供提示,使用此類工具可以加快更簡單的任務,并且有限的資源可以專注于更具有時間敏感性和高優(yōu)先級的問題。”

“這些大型語言模型是一種根本性的范式轉變,”IEEE成員、Applied Science Group創(chuàng)始人兼首席執(zhí)行官 Yale Fox說?!胺磽魫阂釧I驅動攻擊的唯一方法是在防御中使用AI。數據中心的安全經理需要提高現有網絡安全資源的技能,并尋找專門從事人工智能的新人員?!?/p>

在數據中心使用ChatGPT的危險

如前所述,ChatGPT和Copilot等人工智能工具可以幫助安全專業(yè)人員編寫代碼,從而提高他們的效率。但是,根據康奈爾大學最近的研究,使用 AI 助手的程序員更有可能創(chuàng)建不安全的代碼,同時認為它比那些沒有使用的人更安全。

在不考慮風險的情況下使用ChatGPT的潛在缺點時,這只是冰山一角。

有幾個廣為人知的ChatGPT或Bing Chat實例,它們非常自信地提供不正確的信息,編造統(tǒng)計數據和引述,或者對特定概念提供完全錯誤的解釋。

盲目信任它的人最終可能會陷入非常糟糕的境地。

“如果你使用ChatGPT開發(fā)的腳本對10000臺虛擬機進行維護并且腳本存在錯誤,你將遇到重大問題,”云安全聯盟的Reavis說。

數據泄露風險

數據中心安全專業(yè)人員使用ChatGPT的另一個潛在風險是數據泄露。

OpenAI讓ChatGPT免費的原因是它可以從與用戶的交互中學習。因此,例如,如果您要求ChatGPT分析您的數據中心的安全狀況并找出薄弱環(huán)節(jié),那么您現在已經向ChatGPT傳授了您的所有安全漏洞。

現在,考慮一下面向工作的社交網絡Fishbowl 在 2 月份進行的一項調查,該調查發(fā)現 43% 的專業(yè)人士在工作中使用 ChatGPT 或類似工具,高于一個月前的 27%。如果他們這樣做,70%的人不會告訴他們的老板。因此,潛在的安全風險很高。

據報道,這就是摩根大通、亞馬遜、Verizon、埃森哲和許多其他公司禁止其員工使用該工具的原因。

OpenAI本月發(fā)布的新ChatGPT API將允許企業(yè)將其數據保密并選擇不將其用于訓練,但不能保證不會發(fā)生任何意外泄漏。

將來,一旦ChatGPT的開源版本可用,數據中心將能夠在其防火墻后、在本地運行它,避免可能暴露給外部人員。

倫理問題

最后,Insight的杰出工程師Carm Taglienti表示,使用ChatGPT式技術來保護內部數據中心安全存在潛在的道德風險。

“這些模型非常擅長理解我們作為人類的交流方式,”他說。因此,可以訪問員工通信的 ChatGPT 式工具可能能夠發(fā)現表明潛在威脅的意圖和潛臺詞。

“我們正在努力防止網絡黑客攻擊和內部環(huán)境黑客攻擊。許多違規(guī)行為的發(fā)生是因為人們帶著東西走出門外,”他說。

他補充說,像 ChatGPT 這樣的東西“對一個組織來說可能非常有價值”?!暗F在我們正在進入這個道德領域,人們將在這個領域對我進行介紹并監(jiān)控我所做的一切?!?/p>

這是數據中心可能還沒有準備好迎接少數派報告式的未來。

免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。

2023-03-21
ChatGPT對數據中心網絡安全有哪些影響?
本文探討了網絡安全專業(yè)人員在數據中心空間使用 ChatGPT 等人工智能工具的好處和危險,以及他們如何被不良行為者利用……

長按掃碼 閱讀全文