Hanyin's Space
  • Home
  • Archives
  • Categories
  • Tags
  • About
  • Links

Hello World

Welcome to My Blog !
2018-10-25
Life & Study
#LLM Security #System Security #about me

大模型安全入门:从零构建你的 AI 安全攻防知识体系

本文系统梳理大语言模型安全的学习路径,涵盖心智模型构建、平台交互、权威框架(OWASP + MITRE)、实战工具(如 Garak)、前沿趋势与法律边界,助你从零构建完整的 AI 安全能力体系。
2025-09-11
LLM Security
#LLM Security #Threat Modeling #OWASP #MITRE ATLAS

AI Agent 的信任链是如何断裂的

AI Agent 正在重塑人机交互范式,但也引入了前所未有的安全风险。本文系统梳理 AI Agent 的核心攻击面,涵盖间接提示注入、工具链滥用、协议层漏洞及多Agent协作风险等,并提供全生命周期防御策略与速查表。
2025-09-10
LLM Security
#LLM Security #Threat Modeling #Agent Security #IPI #Zero Trust

DeepSeek技术原理解读及模型安全风险分析

深度解析DeepSeek V3和R1的核心技术原理,包括MLA架构优化、MoE专家混合、FP8混合精度训练等创新技术。全面分析DeepSeek R1的安全风险,探讨慢思考机制带来的新攻击面和防护策略,为AI安全研究提供参考。
2025-02-14
LLM Security
#LLM Security #Threat Modeling #DeepSeek #Model Safety

AI安全风险洞察:2024

系统分析2024年AI安全的核心风险,涵盖OWASP LLM Top 10威胁,如提示注入、数据投毒和模型窃取,并探讨大模型供应链安全,为构建安全的AI系统提供深度洞察。
2024-12-18
LLM Security
#LLM Security #Threat Modeling #OWASP

雅思学习笔记

Salvation Lies within IELTS.
2024-03-25
Life & Study
#IELTS #English Learning

CVE-2022-3901:利用DirtyCred进行容器逃逸

详细探讨Linux内核中CVE-2022-3910漏洞及DirtyCred技术,分析其在提权和容器逃逸场景中的具体应用与攻击原理。
2023-08-03
Security Research
#System Security #DirtyCred #linux #Kernel #CVE #Container Escape

MindSpore风险剖析与测试指南

MindSpore是面向“端-边-云”全场景设计的AI框架,旨在弥合AI算法研究与生产部署之间的鸿沟。本文介绍了如何利用模糊测试技术对AI框架进行安全测试。
2023-07-26
LLM Security
#LLM Security #Fuzzing #MindSpore #Threat Analysis

DirtyCred与CVE-2021-4154漏洞分析

DirtyCred通过利用堆破坏内核漏洞交换进程或文件的凭据,绕过多种内核保护机制,实现越权执行和写入操作,并通过精确控制时间窗口和结合内核特性,确保漏洞利用的稳定性和高效性。
2022-10-08
Security Research
#System Security #DirtyCred #linux #Kernel #CVE

Architectural Support for System Security

深入解析现代处理器为系统安全提供的硬件特性,如SMEP/SMAP、Intel CET、SGX等,探讨它们在增强内存安全和控制流完整性方面的核心原理与应用。
2021-11-30
Security Research
#System Security #Hardware Security #Memory Safety
1234

Search

Contact me mundi.xu@gmail.com
Views: Visitors: