mixiユーザー(id:5456296)

2017年10月17日12:38

404 view

「究極の偽ニュース」、恐怖のシナリオ トランプ大統領が宣戦布告? 人の表情を自由に変える恐るべき技術

 下記は、2017.10.17 付の JBpress に掲載された、 Financial Times の記事です。

                      記

 (英フィナンシャル・タイムズ紙 2017年10月13日付)


 ちょっと想像してみてほしい。鏡をのぞき込むと、そこには自分ではなくドナルド・トランプ氏の顔が映っている。

 あなたが顔を歪めれば、鏡の中のトランプ氏も同時に顔を歪める。あなたがにっこりすればトランプ氏もにっこりし、あなたがしかめ面をすればトランプ氏もしかめ面をする。米国大統領の表情をリアルタイムでコントロールしているのだ。

 「フェース2フェース」という技術を使えば、こんな不気味なことができるようになる。米カリフォルニア州のスタンフォード大学で研究者らが開発した、自分の顔の動きを動画に映っている他人の顔に移し替える技術だ。

 次は、この「顔面再演」の技術と、トランプ大統領が過去に公の場で語ったことを巧みに編集した音声ファイルとを合体させると、どんなことになるか想像してみてほしい。

 ずばり、トランプ氏が北朝鮮に核戦争を布告する、説得力のある動画を合成することが可能になる。

 熱に侵されたような今の環境で、そんな動画が表に出れば、ホワイトハウスが慌てて否定しても間に合わないほどのスピードで、あっという間に拡散するかもしれない。

 まさに究極の偽ニュースが流布してしまうシナリオだが、あり得ない話ではない。

 科学者たちはすでに、ユーチューブに上がっているジョージ・H・W・ブッシュ元大統領、バラク・オバマ前大統領、そしてロシアのウラジーミル・プーチン大統領の動画を作り変えることにより、この偽ニュースとはどんなものかを教えてくれている。

 米国防高等研究計画庁局(DARPA)は、「MediFor(メディフォー、「メディア犯罪学(Media Forensics)」の略称)」と呼ばれる研究プロフラムを発足させた。

 同局によれば、このプログラムでは「情報を操作する側が優位に立っている現状」を正すことを目指している。動画を偽造する目的がプロパガンダや誤った情報の流布にある場合、この邪悪な優位性は国家安全保障上の懸念になるからだ。

 プログラムの期間は5年。1日当たり数十万本という大量の画像ファイルを分析して加工の有無を瞬時に見分ける能力を持つ、新しいシステムの構築が目標だ。

 学界からも、米ニューハンプシャー州のダートマス大学に籍を置くコンピューター科学者のハニー・ファリド教授などが参加している。ファリド教授は画像の操作を見破ることを専門としており、法執行機関やメディアから鑑定を依頼されることもある。

 「今では技術が十分に発達したのを目の当たりにしたから、とても心配している」

 ファリド教授は先日、科学雑誌の「ネイチャー」にそう語った。

 「私たちはいずれ、世界の指導者の本物に見える動画を、音声付きで作り出せる段階に到達する。これは大変な混乱のもとになる」

 教授は画像を操作する相手に追いつこうとするレースを、テクノロジーの軍拡競争と描写している。

 今のところ、フェイクの画像を見つけ出すには時間がかかるうえ、専門的な知識も欠かせない。そのため、大量のインチキ画像がチェックされずに存在しているのが実情だ。

 疑わしい画像に遭遇したときに最初に行うのは逆画像検索(リバース・イメージ・サーチ)だ。グーグルの画像検索サービスなどのように、その画像がどこかほかのところで使われていれば探してみせてくれる機能のことだ(このテクニックは科学関連の不正、例えば論文でのグラフの盗用などを調べるときに驚くほど役に立つ)。

 写真なら、不自然な輪郭や色の乱れを精査すればいい。カラーの画像は、1色の小さな点(ピクセル、または画素)が数多く集まって構成されている。

 このピクセルが特有の方法で組み合わされることにより、1枚の写真の中でさまざまな色合いや濃淡が生み出される。そのため、ほかの画像を挿入したり何かを取り除いたりすると、その写真ならではのピクセルの並びに乱れが生じるのだ。

 影から不正が分かることもある。ファリド教授は、2012年に急激に広まったある動画をその一例に挙げている。

 1羽の鷹が人間の子供をつかんで連れ去るという動画だったが、教授が迅速に分析したところ、影の動きに矛盾が見つかり、コンピューターで作ったインチキだったことが明らかになった。

 マサチューセッツ工科大学(MIT)の研究者たちも、動画に登場する人物が本物か作り物かを見分ける独創的な方法を開発した。画面を拡大して顔の色の違いをチェックすることで、その顔の持ち主に脈拍があるか否かを推定できるという。

 興味深いことに、法律の専門家の中には、コンピューターで合成した児童ポルノは言論の自由を定めた合衆国憲法修正第1条で保護されるべきだと論じる向きもある。そのため、不快な写真や動画の中に生身の犠牲者がいるかどうかを区別できる専門家が、裁判に呼ばれることもある。

 一方、だます側の味方をしているのが機械学習だ。

 ニセ画像の真剣な作り手なら、「敵対的生成ネットワーク(GAN)」なるものを構築する可能性がある。GANは「ジキル博士とハイド氏」のようなネットワークで、何かの画像を作成する一方でそれを登録済みの画像データと照らし合わせ、基準に達しないものは排除していく。

 その結果、自分のあら探しをする機能を内蔵した、簡単には見分けられないニセ画像を作る方法を独習できる機械が出来上がるという。

 しかし、すべての技術が悪意ある目的に使われているわけではない。2人の学生が作ったプログラムには、本物の芸術作品にそっくりなものを生み出す能力が備わっている。

 10万点の絵画を網羅したデータベース「WikiArt(ウィキアート)」を「GANGogh(ギャン・ゴッホ)」というGANに学習させたところ、大金持ちのお屋敷の廊下に飾っても違和感のなさそうな絵が作られるようになったという。

 デジタルのペテンもここまできたか、と唸ってしまう話だ。この種の技術は、政治を混乱させて世界の秩序を揺るがしかねないだけでなく、芸術に関する人々の認識の再構成をも迫っているのだ。

By Anjana Ahuja

コピーライト The Financial Times Limited 2017. All Rights Reserved. Please do not cut and

paste FT articles and redistribute by email or post to the web.

 http://jbpress.ismedia.jp/articles/-/51348
0 0

コメント

mixiユーザー

ログインしてコメントを確認・投稿する