AIディフェンス研究所

安全なAIの作り方や使い方についての情報を体系的にまとめて発信し、
eラーニングやハンズオントレーニングなどを提供しています。

新着記事


バックドアを深層学習モデルへ仕掛けるOSS『TrojAI』解説

本記事では米国ジョンズ・ホプキンズ大学のApplied Physics Laboratory (APL) が公開した深層学習モデルへバックドアを仕掛けるOSS TrojAIについて紹介します。本OSSの開発を目的としたプ...


第8話 〜 セキュアなAIを開発するには? – 国内外のガイドライン – 〜

本コラムは第8回「セキュアなAIを開発するには? – 国内外のガイドライン –」です。 第1回から第7回までは、AIを取り巻くセキュリティの環境や、AIに対する具体的な攻撃手法を紹介してきました。AIを攻撃から守るため...


顔認識システムに対する敵対的攻撃の脅威調査

本記事の要点 顔認識システムに対する敵対的攻撃手法及び防御手法の網羅的なサーベイを行った。 手法の特性に基づき深層学習モデルを誤識別させる攻擊手法は4種類に大別し、対応する防御手法は3種類に分類した。 標的モデルの精度へ...


第7話 〜 AIの身辺調査 – AIに対するOSINT – 〜

本コラムは第7回「AIの身辺調査 - AIに対するOSINT -」です。 本コラムでは、攻撃者が攻撃対象のAI(以下、標的AI)を効率的に攻撃するために、合法的に入手可能な情報を基に、標的AIに関する内部情報(データセ...

「AI」ではなく「安全なAI」

近年、AI技術の発展に伴い、日本国内においても顔認証システムや防犯システム、自動運転技術等、様々な分野でAIの社会実装が進んでいます。 その一方で、AIに対する攻撃手法も数多く生まれ、防御技術の確立が急務となっています。

しかし、AIに対する攻撃手法は既存システムに対する攻撃手法とは根本的に原理が異なるものが多く、従来のセキュリティ技術で対策することは非常に困難です。

そこで、セキュアAI研究所では、AIの安全を確保する技術の普及を目的とし、AIセキュリティに関する最新論文の紹介や国内外のガイドラインの解説、技術検証ブログ、そして、コラムなどを発信しています。 また、AI開発に携わる方々を対象としたトレーニングの提供も行っています。

AIに対するサイバー攻撃例

運営会社