
一橋大学大学院 ソーシャル・データサイエンス研究科 教授
助成期間:令和4年度~ キーワード:生成AI サイバーセキュリティ AI法 立法課題 研究室ホームページ
2006年慶應義塾大学法科大学院法務研究科にて法務博士を取得。翌年、一橋大学院法学研究科博士後期課程公法学を専攻し、2009年に渡独。カッセル大学IT法センターにて行政組織、EU・ドイツ情報通信法を研究し、帰国後2012年に一橋大学大学院法学研究科博士後期課程修了。2012年国際基督教大学教養学部に准教授として迎えられ、行政法、環境法、Public Lawなどを担当。2017年より理化学研究所革新知能統合研究センターに客員研究員として従事し、2022年に一橋大学ソーシャル・データサイエンス教育研究推進センター教授に就任。同時にザールラント大学IT法・情報学センター(ドイツ)のVisiting Fellowとして研究を重ねる。2023年4月より一橋大学大学院ソーシャル・データサイエンス研究科の教授となり現在に至る。
はい、本当に感謝しております。前回は挑戦的研究助成の「ドローンの利活用によるリスクと、安全で安心な社会の構築のための法整備に関する研究」で、お世話になりました。
私の専門分野が法学なので、主に立法や法整備の観点から研究することに変わりはありませんが、今回は特に生成AIの「悪」に焦点をあてて、サイバーフィジカル空間(現実世界の情報を仮想空間で収集分析し、現実社会の効率化と発展を目指す仕組み)における「悪」を包括的に分析し、対応策を探求することを目指しています。
生成AIを活用した文書作成、調査などの業務効率化や、コネクティッドカーやドローンなどを活用したスーパーシティによって構成される超スマート社会の構築は、人口減少社会を救う可能性があります。一方で、国内では選挙期間における偽情報の拡散や、デジタルコンテンツの信憑性の問題など、“生成AIを悪用した「悪」”の横行は記憶に新しいところではないでしょうか。また、暗号技術の悪用やサイバー攻撃などによる犯罪の危険度が増し、例えば政府、金融、病院などのシステムが停止するリスクなど、今まで想定されていなかった“超スマート社会の基盤を脅かす「悪」”の脅威が高まっているのも事実です。
しかしながら現時点では、その「悪」の洗い出しと規制に関する検討がまったく追いついていません。生成AIの利活用によって生じる「悪」とは何か。超スマート社会において警戒すべき「悪」とは何か。技術革新がもたらす新たなリスクを社会はどのように受容していくべきなのか。まずはそれを、法と技術、政治・社会心理の観点から整理し、日本の法制度や政治制度が抱える問題点を明確にしなければなりません。
そのうえで、刻々と変化する「悪」のリスクとどう向き合うべきかを考察し、提案していく必要があると感じ、今回の研究に着手しました。
たしかにEUなど、AIにまつわる立法的方策をいち早く打ち出している国々はありますが、だからといって日本が後れているわけではありません。ただ、国際社会において、日本は自国の立場と方向性をしっかりと表明する必要があります。
つい先日も、日本の専門家という立場で、EUの専門家チームと互いの課題についてヒアリングし合う貴重な機会をいただきました。欧州はキリスト教の影響が色濃い地域が多いことにも影響されているのか、善悪の定義が明確で、規制ありきでAI法が制定されているように思われます。一方日本は、生成AIが学習すること自体は自由であり(著作権法30条の4)、出力にあたって、明らかに著作権の侵害にあたるものは規制の対象になりますが、過剰規制を回避しており、法に柔軟さがあります。しかし、境界が明瞭なEUは、この日本の規制の自由度や柔軟さを理解し難いようなのです。その結果、日本はAIの「悪」のリスクについてまだ検討できていないのではないか、と誤解される傾向があるように感じます。
「リスクの把握ができない」ことに最も危機感を抱くEUでは、生成AIの規制がますます強化されています。しかも、EUの価値観に基づく規制が絶対的に正しい価値観である、と確信している部分もあるため「日本もぜひ、EUが策定した対応方針をスタンダードとして受け入れるべきである」との提言をしてくるのです。
しかし、日本は決して生成AIのリスクを把握していないわけではありません。AIそして生成AIが利用され始めた頃から研究を重ねてきましたし、本研究も3年目に入りました。分野を超えて国を代表する専門家が意見を交わし、日本社会により適合したAI利活用と「悪」のリスクへの対策について検討して、新しい法律の枠組みもある程度できています。その実績をアピールできることも、本研究チームの大きな成果だと思っています。
日本は自主規制が強く、新たな規制がひとつできると、運用する側が過剰規制をしてしまう傾向にある。