第1回:敵対的サンプル -非標的型の回避攻撃-

Adversarial Robustness Toolbox(ART)は、AI*1セキュリティのためのPythonライブラリです。ARTを使用することで、AIに対する攻撃手法(敵対的サンプル攻撃、データ汚染攻撃、モデル抽...


Adversarial Attacks and Defense on Texts: A Survey...

概要 NLPのadversarial attack, defenseのサーベイ論文。 画像や音声など入力に微弱なノイズを加えるわけではなく、文字や単語、文単位での入れ替えなど、実際の文章に対して変換を加えるものに限定して...


第2回 ~ AIを騙す攻撃 – 敵対的サンプル - ~

本連載は「AIセキュリティ超入門」と題し、AIセキュリティに関する話題を幅広く・分かり易く取り上げ、連載形式でお伝えしていきます。なお、本コラムでは、単にAIに対する攻撃手法や想定されるリスクのみを取り上げるのではなく、...


第1話 ~AIをとりまく環境とセキュリティ~

近年、ディープラーニングをはじめとする様々な機械学習を活用したAI*1の発展に伴い、日本国内においても顔認証システムや防犯システム、自動運転技術など、様々な分野でAIの社会実装が進んでいます。 その一方で、AIに対する攻...


Adversarial Attacks and Defense on Texts: A Survey...

概要 NLPのadversarial attack, defenseのサーベイ論文。 画像や音声など入力に微弱なノイズを加えるわけではなく、文字や単語、文単位での入れ替えなど、実際の文章に対して変換を加えるものに限定して...


機械学習セキュリティのベストプラクティス – Draft NISTIR 8269: A ...

概要 「Draft NISTIR 8269: A Taxonomy and Terminology of Adversarial Machine Learning」は、米国のNIST(National Institute...


Adversarial Attacks and Defense on Texts: A Survey...

概要 NLPのadversarial attack, defenseのサーベイ論文。 画像や音声など入力に微弱なノイズを加えるわけではなく、文字や単語、文単位での入れ替えなど、実際の文章に対して変換を加えるものに限定して...


Membership Inference Attacks On Neural Networks

概要 ブラックボックス設定で(DNNベースの)分類器の学習データを推論する攻撃手法。その名も「Membership Inference Attacks(メンバーシップ推論攻撃)」。 攻撃対象の分類器(以下、標的分類器)に...


Adversarial Attacks and Defense on Texts: A Survey...

概要 NLPのadversarial attack, defenseのサーベイ論文。 単語表現などに微弱なノイズを加えるものではなく、文字や単語、文単位での入れ替えなど、実際の文章に対して変換を加えるものに限定して紹介し...


MNISTの手書き数字を分類したらシステムが乗っ取られる話

概要 「TensorFlow models are programs」これは、著名な機械学習プラットフォームであるGoogle TensorFlowの「Using TensorFlow Securely」の冒頭に記載され...


Transferable Clean-Label Poisoning Attacks on Deep...

概要 ブラックボックス設定でDNNベースの画像分類器にバックドアを設置する攻撃手法。その名も「Convex Polytope Attack」。 摂動を加えた画像データ(以下、汚染データ)を学習データに注入し、攻撃対象とな...


サムネイル画像

Android Malware Detection based on Factorization M...

概要 androidマルウェアの検知をFactorization machineを使って行うと、高い精度を達成できた。特徴として、API呼び出しや許可などをマニフェストファイルやソースコードから抽出した。 論文情報 公開...