セキュアAI開発トレーニング

日本トップレベルのAIセキュリティ研究チームによる
安全なAIを開発する技術を習得する2日間のハンズオン研修

トレーニング概要

近年、顔認証システムや防犯システム、自動運転技術など様々な分野でAIの社会実装が進んでいます。

その一方で、AIに対する攻撃手法も数多く生まれており、「AIを防御する技術」の確立が急務です。しかし、AIに対する攻撃手法は既存システムに対する攻撃手法とは根本的に原理が異なるものが多く、従来のセキュリティ技術で対策することは非常に困難です。そこで我々は、AIへの攻撃手法と防御手法を実践形式で学ぶことができる「セキュアAI開発トレーニング」を提供いたします。

本トレーニングでは、全てのハンズオン講義にて実際に攻撃手法をpythonを用いてコーディングすることで体験していただき、様々な防御手法について学ぶことができます。 本トレーニングを通じて、安全なAIを開発する技術を習得することができます。

トレーニング詳細

対象者

  • AIの開発や導入を検討されている方
  • AIシステム/製品開発に携わるソフトウェアエンジニアの方
  • AIシステム/製品の運用・保守に携わるインフラエンジニアの方
  • 研究開発やPoC作成を行っているデータサイエンティストの方
  • AIシステムの脆弱性診断に携わるセキュリティエンジニアの方

トレーニング内容

Part1. AIの脆弱性について詳解

AIを開発・利用するにあたり、各工程でどのような危険性があり、攻撃者がどのように攻撃し、どのようなことが起こってしまうのかを具体例を交えて解説いたします。

Part2. 学習データ汚染によるバックドア設置

AIシステムを学習するためのデータを汚染することによって、AIにバックドアを仕込む攻撃手法と様々な防御手法についてハンズオン形式で学びます。

Part3. Adversarial Examplesを使用したAIの誤判断誘発

すでにAIシステムが動作している際に、AIの誤識別を誘発させる入力データを作成し、意図的にAIの挙動を操作する攻撃手法と様々な防御手法についてハンズオン形式で学びます。

Part4. メンバーシップ推論によるAIの学習データ推定

稼働中のAIシステムを作成する際に、個人情報などを含む学習に用いたデータを復元する攻撃手法と様々な防御手法についてハンズオン形式で学びます。

Part5. 細工した事前学習モデルによるシステムの乗っ取り

自ら作成していないAIをシステムで読み込むタイミングで、モデルに攻撃者が予め埋め込んだ攻撃コードを機械学習フレームワークが実行しシステムが乗っ取られる攻撃手法についてハンズオン形式で学びます。

開催要項

  • 形式
  • ハンズオン
  • 期間
  • 2日間 / 10:00~18:00
  • 定員
  • 12名(最低開講人数: 5名)
  • 価格
  • 360,000円(税別)/名
  • お問い合わせ