卡內基美隆大學研究顯示AI模型具備網路攻擊能力

编辑者: Veronika Radoslavskaya

AI模型策劃網路攻擊能力研究

卡內基美隆大學與Anthropic的研究人員合作,證明大型語言模型(LLM)能夠自主策劃並執行針對企業網路的複雜網路攻擊. 這項研究顯示在AI驅動的網路攻擊日益猖獗的背景下,重新評估未來網路安全策略的必要性.

研究發現

研究發現,LLM可以滲透企業網路、識別漏洞,並在沒有人工干預的情況下進行多階段攻擊. 這項研究強調了網路安全領域的風險與機遇. 惡意行為者可以自動化攻擊,而公司和安全研究人員則可以使用LLM來開發和測試更強大的防禦機制.

網路安全成本與AI防禦

全球網路犯罪的總成本估計在2023年達到8兆美元,預計到2025年將達到10.5兆美元. 顯示了在AI技術不斷發展的背景下,網路攻擊的潛在破壞力. AI有潛力加強防禦機制,幫助更快地識別漏洞,並在攻擊發生之前就阻止它們.

面對這些挑戰,除了保護數據隱私、使用強密碼和保持安全軟體的更新外,還需要為AI驅動的攻擊做好準備.

來源

  • Notebookcheck

  • Carnegie Mellon College of Engineering

  • Anthropic

  • arXiv: Efficient Control Flow Attestation by Speculating on Control Flow Path Representations

发现错误或不准确的地方吗?

我们会尽快处理您的评论。