AIディフェンス研究所

安全なAIの作り方や使い方についての情報を体系的にまとめて発信し、
eラーニングやハンズオントレーニングなどを提供しています。

新着記事


Argot: Generating Adversarial Readable Chinese Tex...

概要 自然言語処理における中国語と英語のAdversarial Exampleの違いについて分析し、中国語に対するblack-boxの攻撃手法の「Argot」を提案。Argotは中国語の特徴に基づき、効率的かつ人間にも読...


第6話 〜AIシステムへの侵入 – 機械学習フレームワークの悪用 -〜

本連載は「AI*セキュリティ超入門」と題し、AIセキュリティに関する話題を幅広く・分かり易く取り上げていきます。本連載を読むことで、AIセキュリティの全体像が俯瞰できるようになるでしょう。 *本コラムにおける【AI】の定...


第7回:信頼スコアのフィルタリング -メンバーシップ推論の対策-

Adversarial Robustness Toolbox(ART)は、AI*1セキュリティのためのPythonライブラリです。ARTを使用することで、AIに対する攻撃手法(敵対的サンプル攻撃、データ汚染攻撃、モデル抽...


第6回:メンバーシップ推論 -抽出攻撃-

Adversarial Robustness Toolbox(ART)は、AI*1セキュリティのためのPythonライブラリです。ARTを使用することで、AIに対する攻撃手法(敵対的サンプル攻撃、データ汚染攻撃、モデル抽...

「AI」ではなく「安全なAI」

近年、AI技術の発展に伴い、日本国内においても顔認証システムや防犯システム、自動運転技術等、様々な分野でAIの社会実装が進んでいます。 その一方で、AIに対する攻撃手法も数多く生まれ、防御技術の確立が急務となっています。

しかし、AIに対する攻撃手法は既存システムに対する攻撃手法とは根本的に原理が異なるものが多く、従来のセキュリティ技術で対策することは非常に困難です。

そこで、セキュアAI研究所では、AIの安全を確保する技術の普及を目的とし、AIセキュリティに関する最新論文の紹介や国内外のガイドラインの解説、技術検証ブログ、そして、コラムなどを発信しています。 また、AI開発に携わる方々を対象としたトレーニングの提供も行っています。

AIに対するサイバー攻撃例

運営会社