大阪大学 大学院 工学研究科 電気電子情報通信工学専攻 教授
サイバーセキュリティにおいて重要なことは、データの保護に加えて、それをもとに作られた機械学習モデルも保護することです。なぜなら、学習データとして使われた機密情報が盗まれるリスクがあるからです。また、組織によっては、機械学習モデル自体が重要な知的財産の場合があります。
そこで、重要なデータにはノイズを付けて保管し、このノイズデータを用いて機械学習モデルを構築する、という手法を考案しました。万が一漏洩したとしても、主観的攻撃利得を最小限に防ぐことができます。
主観的攻撃利得削減のためのデータ保管技術と機械学習モデル。A社のように、重要情報をそのまま保有していると、サイバー攻撃のリスクが高い。そこで、B社のように、ノイズデータを学習データとして保管・使用することで、主観的攻撃利得を削減し、攻撃リスクを抑えることが可能実のところ、ノイズデータによって個人情報の漏洩を防ぐ方法は、すでに存在します。その中でも安全性が高いのが「局所差分プライバシー(LDP:Local Differential Privacy)」です。データを提供する際に、ユーザー自身が自分の端末、すなわちローカルレベルでノイズを加えてから送るという手法で、スマートフォンからのデータ収集などに用いられています。
ただし、多くの変数を持つ高次元データにこの手法を用いると、そのデータを使った機械学習は「ノイズが入ったデータを学習する」ことになり、精度が低下するというデメリットがあります。
そこで、ノイズを加えた高次元データを機械学習に使用しても、LDP並みの強力なプライバシー保護と、高い学習精度を両立できる、新しい手法の実現を目指しました。現在は画像データで構築した機械学習モデルの、プライバシー強度と学習精度を検証しているところです。
特定領域研究助成のことは、セコム科学技術振興財団のホームページで知りました。また、林優一先生をはじめ、同じセキュリティ分野の先生方からもご推奨いただき、応募を決意した次第です。
当初は、2つめの主観的攻撃利得削減の研究について「ノイズデータを用いることで、未知の攻撃者の攻撃意欲を削ぎ、データ漏洩を回避できる」と、アピールしました。医療機関が「当機関が保有している重要データは、すべてノイズ加工されている」と公言することで、攻撃意欲を削減できると考えていたからです。
しかし、面接で「対策を公開してしまうと、攻撃意欲をあおることにならないか」といった主旨の質問を受けました。
そこで、主観的攻撃利得の目的を「データ漏洩を前提とした、医療機関の被害の削減」に切り替えました。すなわち「攻撃を受けても情報漏洩のリスクが極めて低いので、医療機関の被害を最小限に抑えることができる」ことをアピールポイントにしたのです。
継続審査でも、自分にはない視点からの鋭いコメントや、取り組むべき課題のご指摘やアドバイスをいただき、新たな方向性や方法を模索することができました。私はこれまで技術的なアプローチに専念してきましたが、諸分野の先生からいただいた多くのご意見とご指摘のおかげで、現場のセキュリティに関する疑問や不安解消につながる研究ができたと思っています。心から感謝しています。
医療機関に限らず、膨大な個人データを保有する組織は、サイバー攻撃の標的にされる可能性が高い。今後は教育機関などで、主観的脆弱性に関するアンケート調査を行いたいと考えている