AI安全风险洞察:2024 随着人工智能在各行业中的广泛应用,AI安全面临的风险和挑战愈加复杂,从数据隐私泄露到模型滥用、对抗性攻击等问题不断涌现。确保AI系统的安全性不仅关乎技术的持续创新,还直接影响到用户的信任和社会的稳定。针对这些问题,需在模型行为、数据保护、供应链安全等多个方面实施综合控制策略,以保障AI系统在实际应用中的可靠性和安全性。 2024-12-18 #Security #AI #LLM
CVE-2022-3901:利用DirtyCred进行容器逃逸 本文详细探讨了Linux内核中的CVE-2022-3910漏洞以及DirtyCred技术在提权和容器逃逸场景中的应用。 2023-08-03 #DirtyCred #Linux #Kernel #CVE
MindSpore风险剖析与测试指南 MindSpore是面向“端-边-云”全场景设计的AI框架,旨在弥合AI算法研究与生产部署之间的鸿沟。本文介绍了如何利用模糊测试技术对AI框架进行安全测试。 2023-07-26 #Security #AI #Fuzzing #模糊测试 #MindSpore
DirtyCred与CVE-2021-4154漏洞分析 DirtyCred通过利用堆破坏内核漏洞交换进程或文件的凭据,绕过多种内核保护机制,实现越权执行和写入操作,并通过精确控制时间窗口和结合内核特性,确保漏洞利用的稳定性和高效性。 2022-10-08 #DirtyCred #Linux #Kernel #CVE
Architectural Support for System Security Hardware Features, Usage and Scenarios. 2021-11-30 #Hardware #Security
【转载】为什么机器学习解决网络安全问题总是失败 近年来网络安全从业者纷纷神往机器学习的魔力,大家都想在此寻求一发银弹。不过作者在安全业界没有看到太多如虎添翼的机器学习案例,为什么机器学习解决网络安全问题总是失败呢? 2021-11-29 #Security #机器学习 #网络安全
APICraft:Fuzz Driver Generation for Closed-source SDK Libraries 本文提出了一种自动化方法来生成高质量的fuzz driver,以提升闭源SDK在fuzzing过程中的覆盖率和漏洞触发率。 2021-11-28 #Security #Fuzzing #模糊测试