AIディフェンス研究所

安全なAIの作り方や使い方についての情報を体系的にまとめて発信し、
eラーニングやハンズオントレーニングなどを提供しています。

新着記事


第8話 〜 セキュアなAIを開発するには? – 国内外のガイドライン – 〜

本コラムは第8回「セキュアなAIを開発するには? – 国内外のガイドライン –」です。 第1回から第7回までは、AIを取り巻くセキュリティの環境や、AIに対する具体的な攻撃手法を紹介してきました。AIを攻撃から守るため...


顔認識システムに対する敵対的攻撃の脅威調査

本記事の要点 顔認識システムに対する敵対的攻撃手法及び防御手法の網羅的なサーベイを行った。 手法の特性に基づき深層学習モデルを誤識別させる攻擊手法は4種類に大別し、対応する防御手法は3種類に分類した。 標的モデルの精度へ...


第7話 〜 AIの身辺調査 – AIに対するOSINT – 〜

本コラムは第7回「AIの身辺調査 - AIに対するOSINT -」です。 本コラムでは、攻撃者が攻撃対象のAI(以下、標的AI)を効率的に攻撃するために、合法的に入手可能な情報を基に、標的AIに関する内部情報(データセ...


Argot: Generating Adversarial Readable Chinese Tex...

概要 自然言語処理における中国語と英語のAdversarial Exampleの違いについて分析し、中国語に対するblack-boxの攻撃手法の「Argot」を提案。Argotは中国語の特徴に基づき、効率的かつ人間にも読...

「AI」ではなく「安全なAI」

近年、AI技術の発展に伴い、日本国内においても顔認証システムや防犯システム、自動運転技術等、様々な分野でAIの社会実装が進んでいます。 その一方で、AIに対する攻撃手法も数多く生まれ、防御技術の確立が急務となっています。

しかし、AIに対する攻撃手法は既存システムに対する攻撃手法とは根本的に原理が異なるものが多く、従来のセキュリティ技術で対策することは非常に困難です。

そこで、セキュアAI研究所では、AIの安全を確保する技術の普及を目的とし、AIセキュリティに関する最新論文の紹介や国内外のガイドラインの解説、技術検証ブログ、そして、コラムなどを発信しています。 また、AI開発に携わる方々を対象としたトレーニングの提供も行っています。

AIに対するサイバー攻撃例

運営会社