TOP

セキュアAI研究所

コラム

お問い合わせ

研究メンバー

運営会社

RSS feed Atom feed

セキュアAI研究所

- AIセキュリティに関する最新論文・技術紹介ブログ -

PuVAE: A Variational Autoencoder to Purify Adversarial Examples

カテゴリ: Adversarial Autoencoder

概要

ニューラルネットワークの推論時に誤識別を招くAdversarial Attackに対する防御手法は多く提案されている。中でもAdversarial Noiseを汚染画像から取り除き正常画像を生成する方法は多くの攻撃を網羅的に対処できることから研究が盛んに行われている。現行の手法は生成モデルを用いて正常データを学習したデータ分布に汚染データを写像してノイズを取り除くという手法が採られている。 本研究では、Conditional Variational Autoencoderを生成モデルとして採用し、汚染された画像データからAdversarial Noiseを高速に高精度で取り除く方法を提案した。

Adversarial Attacks and Defense on Texts: A Survey multi-level&defence編

カテゴリ: NLP adversarial

概要

NLPのadversarial attack, defenseのサーベイ論文。 画像や音声など入力に微弱なノイズを加えるわけではなく、文字や単語、文単位での入れ替えなど、実際の文章に対して変換を加えるものに限定している。

Adversarial Attacks and Defense on Texts: A Survey sentence-level編

カテゴリ: NLP adversarial

概要

NLPのadversarial attack, defenseのサーベイ論文。 画像や音声など入力に微弱なノイズを加えるわけではなく、文字や単語、文単位での入れ替えなど、実際の文章に対して変換を加えるものに限定している。