
静岡大学 学術院情報学領域・情報学部 行動情報学科 教授
助成期間:令和4年度~ キーワード:自然言語処理 人工知能 AIシステム 欺瞞影響防止 研究室ホームページ
2001年東京大学理学部物理学科卒業後、専門を工学系の自然言語処理へ移し、2003年東京大学大学院情報理工学系研究科コンピュータ科学修士課程修了。2007年東京大学大学院情報理工学系研究科コンピュータ科学専攻特任研究員、同大学院情報学環特任研究員を経て、東京大学にて2011年博士(情報理工学)を取得。同年より科学技術振興機構さきがけ研究者(専任)となる。2014年静岡大学情報学部に准教授として就任後、2025年教授となり現在に至る。
母方の家族が皆、電気電子工学系の教授の一族でした。祖父は当大学工学部の名誉教授です。いっぽう父は物理学の教授で、「物理は学問の王様。この世の中は全て物理のルールで成り立っている」と考えていました。そんな環境で育ったからか、自然と大学は理学部物理学科に進学していました。しかし、さまざまな授業を受けるなかで、どうも自分は「モノ」ではなく「人間」の機能のほうに興味があるのではないかということに気づかされました。
脳科学の研究にも興味を持ちましたが、実験分野である以上、手先の器用さや繊細さ、体力が求められます。例えばザリガニの解剖実験では、他の学生は検体がきれいな剝き身になっているのに、不器用な私は、どうしてもミンチになってしまいます。私は生きものを相手にしてはいけないのだと自覚しました。
そこで、コンピュータで人間を探ることのできる「言葉」に着目し、「自然言語処理」を究めようと考えたのです。コンピュータが相手なら私でも壊すことはまずありませんし、万が一故障しても買い替えればいいのですから。
アメリカ大統領選やウクライナ情勢で顕著なように、昨今、フェイクニュースなど、SNSを介した虚偽の情報による「悪」や「欺瞞」の影響が日々大きくなっています。日本国内でも、2025年参議院選挙のSNS戦略が記憶に新しいと思います。SNSで注目を集める投稿が、マスメディアを圧倒するようになり、選挙結果を左右するほどの影響力を持つようになりました。戦略としての有効性を発揮する反面、その中にはびこる扇動的な「欺瞞」が社会に及ぼす影響は、看過できない状況です。
そこで本研究では、「欺瞞」(ここでは「欺瞞」=「他者を意図的に誤った方向へ導くこと」と定義)の投稿の影響を排除する仕組みの開発を目指しました。
まず「欺瞞」の発信と不特定多数の人々への広がりを自動検出したり、予測したりするシステムを構築します。それから政治学的、社会学的分析を行い、「欺瞞」の伝播を防ぐための介入実験を試みます。
「悪」「欺瞞」とひと言にいっても、投稿の中身は千差万別です。その分析には、幅広く深い知識、見識が求められるため、他大学の政治学、社会学、精神医学などの先生方と共同研究を進めています。
目的が類似する過去の研究では、言語処理の視点がなく、単語のカウントといった統計で終わるものが主でした。例えば、「コロナ」という単語と「つらい」という単語が同時に使われている頻度の統計を取るだけ、といったものです。しかしこれでは、事後に分析することはできても、予想には使えません。
それぞれの投稿を「個別」に見ていく必要があるのです。
伝播を予想して先回りし予防するとなると、最初に直面する課題は、「欺瞞」つまり「虚偽」の発言をいち早く見破ることです。しかし、物理的な世界で起きていることについて、オンラインの情報だけで、何が事実で何が嘘かを突き止めることは、本質的には不可能です。ただし、同一の発信者の発言の中で矛盾した2つの投稿があれば、どちらかが嘘であるか、発言後すぐに気が変わったか、何かしら良くないことが起きていると考えられます。また、国会議事録やニュース記事、ファクトチェックサイトの分析などと照らし合わせて整合性のあることを事実とするなら、それと矛盾した投稿を自動検知できるようなシステムを構築する必要があります。
まずは、「欺瞞」のタネ(虚偽)の判定をして、その広がり方を予測するという二段構えの研究を進め、その予測をもとに、伝播を予防するためのSNS投稿による介入実験を行う。そこまでを当研究では目指しています。
情報化社会において、テキストメッセージは作成・伝達のコストと認知的な負荷が低く、時間効率的に人間への影響力が極めて大きい。そのため情報の中核となる言語情報は、半永久的に残っていくと推測される