LLM安全
学习目标
学习完本部分,使学习者能够:
- 列举 llm常见的安全威胁;
- 应用 llm red teaming方法,识别llm的漏洞并评估。
学习活动
吴恩达《红队测试LLM应用|Red Teaming LLM Applications》中英字幕
- 视频时长:1小时;
- 视频内容简介:学习如何测试和发现LLM应用程序中的漏洞,以使它们更安全。在本课程中,您将攻击各种聊天机器人应用程序,使用提示注入来查看系统的反应并理解安全失败。LLM失败可能会导致法律责任、声誉损害和昂贵的服务中断。本课程将帮助您积极减轻这些风险。学习业界已验证的红队技术,积极测试、攻击和改进您的LLM应用程序的稳健性。 在本课程中:
- 探索LLM性能评估的细微差别,了解基准模型和测试LLM应用程序之间的区别。
- 概述基本的LLM应用程序漏洞及其如何影响实际部署。
- 获得手动和自动LLM红队方法的实践经验。
- 见证红队评估的完整演示,并应用课程中涵盖的概念和技术。
learn to identify and evaluate vulnerabilities in LLM apps
Planning red teaming for large language models (LLMs) and their applications
A detailed list of resources on LLM security highlighting all potential risks and vulnerabilities in AI applications.