大模型安全入门:从零构建你的 AI 安全攻防知识体系本文系统梳理大语言模型安全的学习路径,涵盖心智模型构建、平台交互、权威框架(OWASP + MITRE)、实战工具(如 Garak)、前沿趋势与法律边界,助你从零构建完整的 AI 安全能力体系。 2025-09-11 LLM Security #LLM Security #Threat Modeling #OWASP #MITRE ATLAS
AI Agent 的信任链是如何断裂的AI Agent 正在重塑人机交互范式,但也引入了前所未有的安全风险。本文系统梳理 AI Agent 的核心攻击面,涵盖间接提示注入、工具链滥用、协议层漏洞及多Agent协作风险等,并提供全生命周期防御策略与速查表。 2025-09-10 LLM Security #LLM Security #Threat Modeling #Agent Security #IPI #Zero Trust
DeepSeek技术原理解读及模型安全风险分析深度解析DeepSeek V3和R1的核心技术原理,包括MLA架构优化、MoE专家混合、FP8混合精度训练等创新技术。全面分析DeepSeek R1的安全风险,探讨慢思考机制带来的新攻击面和防护策略,为AI安全研究提供参考。 2025-02-14 LLM Security #LLM Security #Threat Modeling #DeepSeek #Model Safety
AI安全风险洞察:2024系统分析2024年AI安全的核心风险,涵盖OWASP LLM Top 10威胁,如提示注入、数据投毒和模型窃取,并探讨大模型供应链安全,为构建安全的AI系统提供深度洞察。 2024-12-18 LLM Security #LLM Security #Threat Modeling #OWASP
CVE-2022-3901:利用DirtyCred进行容器逃逸详细探讨Linux内核中CVE-2022-3910漏洞及DirtyCred技术,分析其在提权和容器逃逸场景中的具体应用与攻击原理。 2023-08-03 Security Research #System Security #DirtyCred #linux #Kernel #CVE #Container Escape
MindSpore风险剖析与测试指南MindSpore是面向“端-边-云”全场景设计的AI框架,旨在弥合AI算法研究与生产部署之间的鸿沟。本文介绍了如何利用模糊测试技术对AI框架进行安全测试。 2023-07-26 LLM Security #LLM Security #Fuzzing #MindSpore #Threat Analysis
DirtyCred与CVE-2021-4154漏洞分析DirtyCred通过利用堆破坏内核漏洞交换进程或文件的凭据,绕过多种内核保护机制,实现越权执行和写入操作,并通过精确控制时间窗口和结合内核特性,确保漏洞利用的稳定性和高效性。 2022-10-08 Security Research #System Security #DirtyCred #linux #Kernel #CVE
Architectural Support for System Security深入解析现代处理器为系统安全提供的硬件特性,如SMEP/SMAP、Intel CET、SGX等,探讨它们在增强内存安全和控制流完整性方面的核心原理与应用。 2021-11-30 Security Research #System Security #Hardware Security #Memory Safety