LLMセキュリティ ハンズオン
日本トップレベルのAIセキュリティ研究チームによる
LLMの安全性に特化したセキュリティ技術を習得する2日間のハンズオン研修
トレーニング概要
近年、生成AI・LLM技術が急速に普及しており、日々の業務の効率化やクリエイティブな活動の支援など様々な場面で活用されています。
その一方で、LLMを対象にしたサイバー攻撃手法も数多く生まれており、「AI/LLMを安全に使う技術」の確立が急務です。しかし、AI/LLMに対する攻撃手法は既存システムに対する攻撃手法とは根本的に原理が異なるものが多く、従来のセキュリティ技術で対策することは非常に困難です。そこで我々は、AIへの攻撃手法と防御手法を実践形式で学ぶことができる「《実践》LLMセキュリティハンズオン」を提供いたします。
本トレーニングでは、実際に攻撃手法をpythonを用いてコーディングすることで体験していただき、様々な防御手法について学ぶことができます。 本トレーニングを通じて、安全にLLMを開発・利用する技術を習得することができます。
トレーニング詳細
対象者
- 生成AI / LLMの開発や導入を検討されている方
- 生成AI / LLMの開発に携わるエンジニアの方
- 生成AI / LLMの運用・保守に携わるエンジニアの方
- 研究開発やPoC作成を行っているデータサイエンティストの方
- AIシステムの脆弱性診断に携わるセキュリティエンジニアの方
トレーニング内容
お客様に合わせてハンズオンの内容をカスタマイズして提供しています。
▼Part1. LLMセキュリティ 入門
本パートでは、座学ベースで講義を行います。
まず、生成AI / LLMはどのような原理で動作しているか、どのような活用事例があるかなどを紹介します。その後、具体的にどのようなリスクがあるのかを、複数の観点から整理し、実例を用いながら解説します。
▼Part2. LLMセキュリティ 実践ハンズオン
本パートでは、Pythonを用いて、ハンズオン形式で講義を行います。
Par1で学習したリスクのうち、いくつかに焦点を当てて実際に手を動かしながら体験することを目的としていますが、焦点を当てる攻撃手法などはお客様と事前にすり合わせさせていただきます。
ハンズオンでは、実際に攻撃を体験するほか、防御機構の開発などもカスタマイズとして学ぶことができます。