TalEliyahu/AI-Security-Newsletter
GitHub: TalEliyahu/AI-Security-Newsletter
AI安全领域的月度资讯聚合通讯,整理发布AI安全研究、漏洞报告、开源工具、防御方案及行业会议信息。
Stars: 33 | Forks: 4
# AI 安全通讯 - 2026年1月
AI 安全研究、洞察、报告、活动预告以及工具与资源摘要。关注 [AISecHub 社区](https://x.com/AISecHub) 和我们的 [LinkedIn 群组](https://www.linkedin.com/groups/14545517/) 获取更多更新。也请查看我们的项目 [Awesome AI Security](https://github.com/TalEliyahu/Awesome-AI-Security)。
# 🔍 洞察
📌 [ZombieAgent:新的 ChatGPT 漏洞让数据窃取持续发生并扩散](https://www.radware.com/blog/threat-intelligence/zombieagent/)
Radware 的 Zvika Babo 详细分析了"ZombieAgent"滥用路径,其中提示注入 + 智能体记忆/工具访问/连接器可导致持续的数据泄露、跨会话的横向传播,以及通过连接的应用和智能体工作流进行后续滥用。
📌 [OWASP AI 安全指南](https://owaspai.org)
免费访问 300 多页关于保护 AI 和数据 centric 系统的实用指南——通过独特的联络伙伴关系为 AI Act 和 ISO 27090 做出贡献。
📌 [像 Moltbot 这样的个人 AI 智能体是安全噩梦](https://blogs.cisco.com/ai/personal-ai-agents-like-moltbot-are-a-security-nightmare)
Amy Chang 和 Vineeth Sai Narajala 解释了为什么 Moltbot 的"技能"模型很危险:它可以执行本地命令、访问文件和泄露凭证,恶意的技能可以隐藏提示注入和数据泄露步骤——因此 Cisco 发布了开源的 Skill Scanner 来在安装前标记有风险的技能内容。
📌 [OWASP 智能体 AI Top 10:现实中的威胁](https://labs.lares.com/owasp-agentic-top-10)
Raúl Redondo 将现实世界的智能体故障映射到 OWASP 智能体 AI Top 10,展示了提示注入、工具滥用、不安全的数据流和弱隔离如何在实际部署中出现,而不仅仅是理论。
📌 [编码智能体:你自行安装的内部威胁](https://blog.securitybreak.io/coding-agents-the-insider-threat-you-installed-yourself-35644a1d5409)
Thomas Roccia 将编码智能体视为"预装的内部人员",过度的仓库访问、密钥暴露和自动执行可能将正常的开发工作流程变成高影响的攻击路径,而无需经典的恶意软件投递。
📌 [2026 年 AI 安全挑战](https://hi120ki.github.io/blog/posts/20260103/)
2025 年见证了新兴和不断发展的 AI/LLM 技术的持续循环。整个行业,各种 AI 安全措施都在不断进步。2026 年,AI 的采用预计将进一步扩展,带来新技术并要求相应的安全措施。本文回顾了 2025 年的主要主题,将 2026 年预期的行业范围内 AI 安全挑战分解为具体的行动项目,并总结了安全使用和提供 AI 的安全措施。——Hiroki Akamatsu
📌 [BodySnatcher:ServiceNow 中的身份验证缺陷和智能体劫持](https://appomni.com/ao-labs/bodysnatcher-agentic-ai-security-vulnerability-in-servicenow)
AppOmni 的 Aaron C. 详细介绍了 ServiceNow Virtual Agent API + Now Assist AI 智能体中的一个缺陷如何仅使用电子邮件地址就能进行未认证的冒充,绕过 MFA/SSO 假设,并允许被劫持的智能体工作流作为受害者访问数据和执行操作。
📌 [IBM AI("Bob")下载并执行恶意软件](https://www.promptarmor.com/resources/ibm-ai-%28-bob-%29-downloads-and-executes-malware)
PromptArmor 详细介绍了一个具体的故障模式,当用户为工具操作启用自动批准/"始终允许"时(即使是看似安全的操作如 echo),提示注入可以推动智能体进入下载 + 执行模式,这突出了为什么执行链需要严格的允许列表、沙箱化和策略执行。
📌 [网络工具包更新:模型在现实网络靶场上发现和利用漏洞的能力越来越好](https://red.anthropic.com/2026/cyber-toolkits-update/)
Brian S. 总结了红队观察结果,表明能力正从玩具式的 CTF 转向更现实的网络靶场,这意味着随着模型获得更深的规划能力和工具熟练度,漏洞发现的基线风险会更高。
📌 [ChainLeak:关键 AI 框架漏洞暴露数据并允许云接管](https://www.zafran.io/resources/chainleak-critical-ai-framework-vulnerabilities-expose-data-enable-cloud-takeover)
Gal Zaban 和 Ido Shani 描述了 Chainlit 漏洞,其中不安全的默认配置/错误配置和暴露的接口可能导致云 API 密钥泄露和敏感文件被盗(CVE-2026-22218)以及 SSRF(CVE-2026-22219)——这可以根据可访问的内容扩展为更广泛的云入侵。
📌 [利用 LLM 写原语:当聊天输出被锁定时提取系统提示](https://www.praetorian.com/blog/exploiting-llm-write-primitives-system-prompt-extraction-when-chat-output-is-locked-down/)
Winston H. 展示了"写原语"和受限输出环境如何仍然可以通过间接通道、格式约束和输出锁定绕过模式被迫泄露系统提示。
📌 [ServiceNow AI 漏洞:哪里出了问题以及如何保护你的 AI 智能体](https://opena2a.org/blogs/servicenow-ai-vulnerability)
Abdel Fane 将 ServiceNow 事件重新定位为智能体安全设计问题:操作的最小特权、严格的工具授权、健壮的身份边界,以及对异常智能体行为的持续监控。
📌 [Reprompt:单击 Microsoft Copilot 攻击静默窃取你的个人数据](https://www.varonis.com/blog/reprompt)
Dolev Taler 解释了一个"单击"Copilot 攻击流程,其中精心设计的内容会触发不安全的检索/披露行为,强调用户体验级别的交互就足以触发高影响的泄露。
📌 [我们如何在 Anthropic 官方 Git MCP 服务器中发现代码执行](https://cyata.ai/blog/cyata-research-breaking-anthropics-official-mcp-server)
Cyata 的 Yarden Porat 详细介绍了 MCP 服务器上下文中的一个 RCE 类问题,展示了"官方"集成如何通过输入处理、插件逻辑和对工具服务器的信任假设仍然可以扩大攻击面。
📌 [通过沙箱逃逸在 n8n 上实现远程代码执行 - CVE-2026-1470 和 CVE-2026-0863](https://research.jfrog.com/post/achieving-remote-code-execution-on-n8n-via-sandbox-escape/)
Natan Nehorai 描述了一条导致 n8n 中 RCE 的沙箱逃逸链,说明了当与反序列化、原语逃逸或弱边界控制结合时,隔离层如何在实践中失效。
📌 [NI8MARE:n8n 中未经认证的远程代码执行(CVE-2026-21858,CVSS 10.0)](https://www.cyera.com/research-labs/ni8mare-unauthenticated-remote-code-execution-in-n8n-cve-2026-21858)
Dor Attias 报告了一条未经认证的 RCE 路径,可以完全接管暴露的 n8n 实例,这提醒我们低摩擦的自动化平台在面向互联网且配置错误时会成为高价值目标。
📌 [Claude Code 中隐藏的后门:为什么它的力量也是它最大的漏洞](https://www.lasso.security/blog/the-hidden-backdoor-in-claude-coding-assistant)
Or Oxenberg 和 Eliran Suisa 认为编码助手放大了内部人员风格的风险:它们位于特权开发上下文中,接触密钥和仓库,并且可能受到投毒上下文、依赖项或指令的影响。
📌 [保护生产环境中的智能体(智能体运行时,#1)](https://blog.palantir.com/securing-agents-in-production-agentic-runtime-1-5191a0715240)
Palantir 概述了一种生产环境的"智能体运行时"思维:将智能体操作视为代码执行,在操作层执行策略,记录完整轨迹,并为模型异常行为设计隔离方案。
📌 [KONNI 采用 AI 生成 PowerShell 后门](https://research.checkpoint.com/2026/konni-targets-developers-with-ai-malware/)
来自 Check Point Research 的这篇文章展示了威胁行为者如何使用 GenAI 加速脚本和有效载荷开发,降低了制作多样化 PowerShell 后门和社会工程内容的门槛。
📌 [智能体 AI 的供应链风险:通过技能蠕虫感染基础设施](https://blog.lukaszolejnik.com/supply-chain-risk-of-agentic-ai-infecting-infrastructures-via-skill-worms/)
Lukasz Olejnik 博士、LL.M 讨论了"技能蠕虫"作为智能体生态系统中的传播机制,其中受损的技能、插件或工具包可以通过重用、市场和继承的信任在组织间传播。
# 🧰 工具与资源
🧰 **[skills](https://github.com/trailofbits/skills)** - Trail of Bits 的 Claude Code 技能市场,用于安全研究、漏洞检测和审计工作流(包括用于不安全默认配置和硬编码凭证的 insecure-defaults 插件)。⭐️2.2k Dan Guido
🧰 **[anamnesis-release](https://github.com/SeanHeelan/anamnesis-release)** - 评估框架,用于在利用缓解措施下测试 LLM 智能体如何从漏洞报告生成漏洞利用。⭐️479 Sean Heelan
🧰 **[awesome-dfir-skills](https://github.com/tsale/awesome-dfir-skills)** - 社区 DFIR 技能、提示、工作流和辅助工具库,用于更快、更一致的事件响应。⭐️240 Thomas Roccia
🧰 **[Burp AI Agent](https://github.com/six2dez/burp-ai-agent)** - Burp Suite 扩展,添加 MCP 工具以及 AI 辅助分析、隐私控制和被动/主动扫描。⭐️221 Alexis Fernández
🧰 **[vulnerable-mcp-servers-lab](https://github.com/appsecco/vulnerable-mcp-servers-lab)** - 故意存在漏洞的 MCP 服务器实现,用于学习、演示和练习利用 MCP 缺陷。⭐️216 Riyaz Walikar
🧰 **[OpenRT](https://github.com/AI45Lab/OpenRT)** - 用于多模态 LLM 的开源红队框架。⭐️216
🧰 **[Security-Detections-MCP](https://github.com/MHaggis/Security-Detections-MCP)** - 用于从单一数据库查询 Sigma、Splunk ESCU、Elastic 和 KQL 检测 MCP 服务器。⭐️173 Michael H.
🧰 **[Vulnhalla](https://github.com/cyberark/Vulnhalla)** - 对 GitHub 数据库运行 CodeQL,添加代码上下文,并使用 LLM 引导的审查来减少误报。⭐️163
🧰 **[medusa](https://github.com/Pantheon-Security/medusa)** - AI 优先的安全扫描器,带有分析器和智能体规则,专注于减少误报和 CVE 检测。⭐️122
🧰 **[a2a-scanner](https://github.com/cisco-ai-defense/a2a-scanner)** - 使用静态分析、运行时监控和语义检测对 Agent-to-Agent 协议实现进行安全扫描。⭐️105 Vineeth Sai Narajala
🧰 **[ai_for_the_win](https://github.com/depalmar/ai_for_the_win)** - 跨 ML、LLM、RAG、DFIR 和红队的 AI 安全工具构建实践实验室。⭐️72
🧰 **[GitHub Security Lab Taskflow Agent](https://github.com/GitHubSecurityLab/seclab-taskflow-agent)** - 来自 GitHub Security Lab 的开放协作框架,用于 AI 辅助安全研究工作流。⭐️59
🧰 **[Skill Scanner](https://github.com/cisco-ai-defense/skill-scanner)** - 用于智能体技能的安全扫描器(提示注入、数据泄露、恶意代码),通过规则 + LLM 即判断 + 行为数据流;SARIF + 插件。⭐️59 Cisco
🧰 **[MCP-Dandan](https://github.com/82ch/MCP-Dandan)** - 桌面监控工具,观察 MCP 流量并实时标记威胁。⭐️57
🧰 **[syd](https://github.com/Sydsec/syd)** - 气隙渗透测试助手,使用本地 LLM 和 RAG 分析扫描输出,无需互联网。⭐️52
🧰 **[ToolSafe](https://github.com/MurrayTom/ToolSafe)** - 通过步骤级护栏、监控和反馈驱动推理实现更安全的智能体工具使用。⭐️32
🧰 **[ai-soc-agent](https://github.com/M507/ai-soc-agent)** - 使用 MCP 进行案例管理、SIEM 分析和 CTI 增强的 AI SOC 调查平台。⭐️10
🧰 **[promptshield](https://github.com/Neural-alchemy/promptshield)** - 保护 LLM 应用免受常见提供商和技术栈中提示注入和越狱的框架。⭐️4
🧰 **[mcp-fortress](https://github.com/mcp-fortress/mcp-fortress)** - MCP 扫描器加运行时保护层,检测和阻止不安全的 MCP 行为。⭐️2
🧰 **[promptxploit](https://github.com/Neural-alchemy/promptxploit)** - 在部署前发现 LLM 应用漏洞的安全测试框架。⭐️2
🧰 **[lockllm-npm](https://github.com/lockllm/lockllm-npm)** - LockLLM 运行时保护的官方 JS/TS SDK(提示注入/隐藏指令/数据泄露检测)。⭐️1
🧰 **[BlackIce](https://hub.docker.com/r/databricksruntime/blackice)** - 用于 AI 安全红队的即用型 Docker 镜像(Kali 风格),避免工具设置麻烦和依赖冲突。⭐️ [Databricks 博客](https://databricks.com/blog/announcing-blackice-containerized-red-teaming-toolkit-ai-security-testing) | [论文](https://arxiv.org/abs/2510.11823)
# 📄 报告
📘 **[非人类身份和 AI 安全现状](https://www.linkedin.com/feed/update/urn:li:activity:7422210133281304576)
CSA Oasis 2025 年 8-9 月调查样本 383 发现,组织将 AI 身份视为非人类身份(如服务账户、API 密钥、聊天机器人),继承了凭证混乱和所有权不清的问题。最大差距包括 51% 没有明确所有者,51% 访问权限过度,49% 可见性低,46% 存在陈旧或孤立的身份。令牌控制滞后,16% 不追踪创建,24% 在泄露后需要超过 24 小时才能轮换或撤销。
📘 **[保护人工智能:AI 模型和系统的基线网络安全要求](https://www.linkedin.com/feed/update/urn:li:activity:7418008087607001089)
欧洲标准定义了 AI 系统(包括深度神经网络和生成式 AI)的基线网络安全要求。组织了在安全设计、开发、部署、维护、生命周期结束这 13 项原则。涵盖威胁意识、风险评估和威胁建模、最小特权权限、资产清单、安全基础设施和供应链、数据模型和提示文档、测试、事件准备、监控、更新、安全处置。
📘 **[深度伪造:学校和家长工具包](https://www.linkedin.com/feed/update/urn:li:activity:7416774408511463424)
香港个人资料私隐专员公署(PCPD)发布了针对学校和家长的 AI 深度伪造保护工具包指南。该指南解释了常见的深度伪造类型和涉及学校环境中滥用深度伪造的典型场景,重点关注学生面临的风险。该工具包提供了预防和事件响应的实际措施,概述了学校、家长和学生的角色。建议的学校级保障措施包括数据最小化、限制访问个人数据,以及实施一般数据安全措施以减少深度伪造滥用的风险。
📘 **[保护智能体 AI](https://www.linkedin.com/feed/update/urn:li:activity:7412047391094181888)
CSA 新加坡公开咨询草案,作为《保护 AI 系统》指南的附录,针对跨步骤规划和行动的智能体 AI 系统。实际控制涵盖风险评估加固和供应链、资产和密钥卫生、认证授权、限制智能体能力、分割、安全 MCP 和智能体间通信、监控日志、人工介入,以及漏洞披露。
📘 **[2026 年全球网络安全展望](https://www.linkedin.com/feed/update/urn:li:activity:7416787754149171200)
世界经济论坛的《2026 年全球网络安全展望》报告探讨了加速采用 AI、地缘政治碎片化和网络不平等扩大如何重塑全球风险格局。随着攻击变得更快、更复杂且分布更不均匀,组织和政府面临越来越大的压力来适应持续的主权挑战和不断扩大的能力差距。该报告结合领导者的观点,提供可操作的洞察以告知战略、投资和政策。
# 📅 即将举行的会议
## 2026年2月
📅 [DiCyFor & AI 安全峰会(新加坡)](https://www.dicyfor.com/singapore2026) - 2026年2月10日 · 新加坡 · 主办方:DiCyFor
📅 [IEEE ICAIC 2026 - AI 网络安全国际会议](https://icaic.gyancity.com/) - 2026年2月18-20日 · 休斯顿大学,休斯顿,德克萨斯州,美国 · 主办方:IEEE / ICAIC
## 2026年3月
📅 [[un]prompted - AI 安全实践者会议](https://unpromptedcon.org/) - 2026年3月3-4日 · Salesforce 大楼,旧金山,加利福尼亚州,美国 · 主办方:[un]prompted
📅 [AI 安全峰会 2026](https://events.lynx.co/ai-security-summit/) - 2026年3月10日 · Check Point 总部,特拉维夫,以色列 · 主办方:Lynx Events
📅 [DiCyFor & AI 安全峰会(曼谷)](https://www.dicyfor.com/bangkok2026) - 2026年3月11-12日 · 曼谷,泰国 · 主办方:DiCyFor
📌 [IEEE SaTML 2026 - 安全和可信机器学习](https://satml.org/) - 2026年3月23-25日 · 慕尼黑,德国 · 主办方:IEEE SaTML
## 2026年4月
📅 [DiCyFor & AI 安全峰会(吉隆坡)](https://www.dicyfor.com/kualalumpur2026) - 2026年4月15日 · 吉隆坡,马来西亚 · 主办方:DiCyFor
📅 [SANS AI 网络安全峰会 2026](https://www.sans.org/cyber-security-training-events/ai-summit-2026) - 2026年4月20-21日 · 弗吉尼亚州阿灵顿,美国 & 在线 · 主办方:SANS 学院
📅 [Black Hat Asia AI 安全峰会](https://www.blackhat.com/asia-26/ai-security-summit.html) - 2026年4月22日 · 滨海湾金沙,新加坡 · 主办方:BlackHat
# 📚 研究
📖 **提示软件攻击链:提示注入如何逐步演变为多步骤恶意软件**
Ben Nassi 博士,Bruce Schneier,Oleg Brodt。[arXiv](https://arxiv.org/abs/2601.09625)
📖 **当机器人上钩时:揭示和缓解网络自动化智能体中新兴的社会工程攻击**
Xinyi W.,Hongshan Geng,Yueyue C.,Mingxuan L.,静菲儿,PAN Xudong,Jiarun Dai,Baojun Liu [PDF](https://arxiv.org/pdf/2601.07263)
📖 **SecMLOps:将安全集成到机器学习运营生命周期的综合框架**
Xinrui (Michaela) Z.,Pincan Zhao,Jason Jaskolka,Heng Li,Rongxing Lu [PDF](https://arxiv.org/pdf/2601.10848)
📖 **计算机使用智能体的系统级安全**
Hanna Foerster,Robert Mullins,Tom Blanchard,Nicolas Papernot,Kristina Nikolić,Florian Tramèr,Ilia Shumailov,张程,Yiren Z. [PDF](https://arxiv.org/pdf/2601.09923)
📖 **智能体技能在现实环境中:大规模安全漏洞的实证**
Yi Liu,Weizhe Wang,Ruitao Feng,Yao Zhang,Guangquan Xu,Gelei Deng,Yuekang Li,Leo Zhang [PDF](https://arxiv.org/pdf/2601.10338)
📖 **FinVault:在执行接地环境中评估金融智能体安全性**
Zhi Yang,runguo li,强琪琪,Jiashun Wang,娄方淇,MENGPING LI,程东坡,Rui Xu,Heng Lian,shuo zhang,XiaoLong Liang,Xiaoming Huang,John Wei Zheng,Zhaowei Liu,Xin Guo,Huacan Wang,RongHao Chen,Liwen ZHANG [PDF](https://arxiv.org/pdf/2601.07853)
📖 **网络安全 AI:指导攻击和防御的博弈论 AI**
Víctor Mayoral-Vilches 博士,María Sanz Gómez,Francesco Balassone,Stefan Rass,Lidia Salas-Espejo,Benjamin Jablonski,Luis Javier Navarete,Maite del Mundo,Cristóbal R. J. Veas Chavez [PDF](https://arxiv.org/pdf/2601.05887)
📖 **HoneyTrap:用弹性多智能体防御欺骗大型语言模型攻击者进入蜜罐陷阱**
Siyuan Li,Xi Lin,Jun W.,Zehao Liu,Haoyu Li,鞠天杰,Xiang Chen,jianhua liu [arXiv](https://arxiv.org/abs/2601.04034)
📖 **基于 AI 系统中威胁缓解和弹性的多智能体框架**
Armstrong Foundjem,Lionel T. 博士,Léuson Da Silva,Foutse Khomh [PDF](https://arxiv.org/pdf/2512.23132)
📖 **这是个陷阱!网络智能体的任务重定向智能体说服基准**
Karolina Korgul,Yushi Yang,Arkadiusz Drohomirecki,Piotr Błaszczyk,Will Howards,Lukas Aichberger,Chris Russell,Ethan (Philip) H. SEOW,萧鸿业,Adel Bibi [PDF](https://arxiv.org/pdf/2512.23128)
# 🎥 视频
1️⃣ [当氛围诈骗者遇到氛围黑客:用他们自己的武器攻击 PhaaS](https://www.youtube.com/watch?v=Ye9LjLkGLsU&list=PLFO56KBxdGBdjCu1TaDKsILBACaTlVY9u) - Chiao-Lin Yu(Steven Meow)在 Trend Micro
2️⃣ [如何从零开始构建 AI 安全项目](https://www.youtube.com/watch?v=iN5Pv8qZg44) - Shannon Murphy 在 TrendAI
3️⃣ [安全 AI 智能体!自动化渗透测试](https://www.youtube.com/watch?v=moNFV5WbXpc) - Loi Liang Yang
4️⃣ [AI 生成的恶意软件:爱尔兰合法化间谍软件](https://www.youtube.com/watch?v=pMqNZmD1AFQ) - Steve Gibson 和 Leo Laporte 在 TWiT
5️⃣ [AI 及其对 2026 年进攻安全角色的影响](https://www.youtube.com/watch?v=SHJeeP1gaBo&list=PLFO56KBxdGBdjCu1TaDKsILBACaTlVY9u&index=6) - Stephen Sims 在 Off By One Security
6️⃣ [MCP 与 .NET:安全地向 LLM 暴露你的数据](https://www.youtube.com/watch?v=UGD2mNzgPDk&list=PLFO56KBxdGBdjCu1TaDKsILBACaTlVY9u) - Callum Whyte 在 Bump
7️⃣ [AI 红队:什么会崩溃、如何崩溃,以及人类角色](https://www.youtube.com/watch?v=ld-I17vRC78&list=PLFO56KBxdGBdjCu1TaDKsILBACaTlVY9u&index=8) - rez0
8️⃣ [利用 AI:语音生物识别渗透测试案例研究](https://www.youtube.com/watch?v=7OzUAY5xfus&list=PLFO56KBxdGBdjCu1TaDKsILBACaTlVY9u&index=9) - Skyler Tuter 在 TrustedSec
9️⃣ [随机绞索:LLM 生成恶意软件的数据驱动方法](https://www.youtube.com/watch?v=Qo5D8XhmG0w&list=PLFO56KBxdGBdjCu1TaDKsILBACaTlVY9u&index=10) - Ryan Ashley 在 IQT Labs
🔟 [后门 LLM 并绕过 HuggingFace 恶意软件扫描器](https://www.youtube.com/watch?v=PWs43paN3vs&list=PLFO56KBxdGBdjCu1TaDKsILBACaTlVY9u) - Davide Cioccia 在 DCODX
1️⃣1️⃣ [为安全运营构建实用的 AI 助手](https://www.youtube.com/watch?v=F35g0iQYoOU&list=PLFO56KBxdGBdjCu1TaDKsILBACaTlVY9u) - Vincent Ruijter 在 Sourcegraph
1️⃣2️⃣ [实践中的 GenAI 智能体安全](https://www.youtube.com/watch?v=ue9oFtpESQY&list=PLFO56KBxdGBdjCu1TaDKsILBACaTlVY9u) - Black Hat Europe AI 峰会
1️⃣3️⃣ [AI 三重安全差距:为什么你的网关策略已经过时](https://www.youtube.com/watch?v=kFcCZF7yx90&list=PLFO56KBxdGBdjCu1TaDKsILBACaTlVY9u) - Carlos Villanúa Fernández 在 Traefik Labs
1️⃣4️⃣ [AppSec AI 启示录的三个骑士](https://www.youtube.com/watch?v=RpDbAzmWWTw&list=PLFO56KBxdGBdjCu1TaDKsILBACaTlVY9u&index=15) - Adam Krieger 在 Online Business Systems
1️⃣5️⃣ [使用智能体 AI 自动化渗透测试的实际操作](https://www.youtube.com/watch?v=ue9oFtpESQY&list=PLFO56KBxdGBdjCu1TaDKsILBACaTlVY9u&index=16) - Hiroaki Toyota 在 LAC
1️⃣6️⃣ [使用 OWASP Top 10 构建安全的 AI 应用](https://www.youtube.com/watch?v=1eVEjoG4bEE&list=PLFO56KBxdGBdjCu1TaDKsILBACaTlVY9u) - Gavin Klondike 在 GlitchSecure
1️⃣7️⃣ [使用 Gemini 2.0 的 AI 智能体:超越聊天机器人](https://www.youtube.com/watch?v=G_MvKlOox0c&list=PLFO56KBxdGBdjCu1TaDKsILBACaTlVY9u&index=18) - Márton Kodok 在 Google
1️⃣8️⃣ [为什么我们应该谨慎对待 AI?](https://www.youtube.com/watch?v=Ieu76l-vA7g&list=PLFO56KBxdGBdjCu1TaDKsILBACaTlVY9u&index=19) - Maciej Krzysica 在 j-labs
1️⃣9️⃣ [小组讨论:AI 和安全的现在与未来](https://www.youtube.com/watch?v=CL1YIdDR_3E&list=PLFO56KBxdGBdjCu1TaDKsILBACaTlVY9u&index=20) - David Brumley 和小组
2️⃣0️⃣ [API 和 MCP 的治理与安全](https://www.youtube.com/watch?v=5KyBP7h3gJc&list=PLFO56KBxdGBdjCu1TaDKsILBACaTlVY9u) - Isabelle Mauny 在 WSO2
2️⃣1️⃣ [我如何利用和滥用 LLM 在 HTB 上获得前 250 名](https://www.youtube.com/watch?v=p5yaHA4k_Jg&list=PLFO56KBxdGBdjCu1TaDKsILBACaTlVY9u&index=22) - Rambo Anderson-You
2️⃣2️⃣ [保护 AI 革命](https://www.youtube.com/watch?v=5KyBP7h3gJc&list=PLFO56KBxdGBdjCu1TaDKsILBACaTlVY9u&index=23) - François
2️⃣3️⃣ [MCP:让妥协成为可能 - AI 工作流和安全影响](https://www.youtube.com/watch?v=BE-KTe1mgUw&list=PLFO56KBxdGBdjCu1TaDKsILBACaTlVY9u&index=24) - Nathan Getty 在 Menlo Security
2️⃣4️⃣ [AI 正在侵蚀我们的隐私:我们能做什么?](https://www.youtube.com/watch?v=oe9Wyp6-suw&list=PLFO56KBxdGBdjCu1TaDKsILBACaTlVY9u) - Robert Stribley 在 Technique
# 🤝 让我们建立联系
如果你是一位正在构建新事物的创始人或正在评估早期机会的投资者——[让我们建立联系](https://calendly.com/innovguard/meeting)。
💬 读到有趣的内容?在评论中分享你的想法。
标签:AI代理, AI安全, Chat Copilot, CISA项目, DLL 劫持, Prompt注入, 人工智能, 代理安全, 内核模块, 内部威胁, 凭证泄露, 大语言模型, 威胁情报, 安全事件, 安全报告, 安全资源, 安全通讯, 密钥泄露防护, 开发者工具, 数据外泄, 机器学习安全, 横向移动, 漏洞分析, 用户模式Hook绕过, 编程规范, 网络安全, 网络安全审计, 路径探测, 防御加固, 隐私保护