メールマガジン「小寺・西田の『マンデーランチビュッフェ』(夜間飛行)」からの転載です。購読はこちら
「Black Lives Matter(BLM)」がらみで、AIを使った顔認証システムについての動きが活発だ。以前より、Amazonやマイクロソフト、IBMなどは、顔認証を使った技術の外販を進めていた。日本ではNECや富士通の例が有名だろう。そうした企業が、BLMに絡んで警察などが使う顔認証について、批判的な声を考慮して提供を考え直す動きが出ている。
これはどういう意味を持っているのだろうか? AIとその活用の倫理性について、筆者はこれまでに幾つかの取材を経験している。そこで聞いた課題や事実について、少しまとめてみたいと思っている。
人もAIも同じように「間違える」
「AIにおける顔認証」とはなにか? いうまでもなく、多数のデータから一定のルールに基づいて顔を分類・抽出する技術のことだが、そこに存在するのは現状、知性ではない。人間が詳細なルールを設定しなくても、ソフトウエアが学習によってルールを生み出していくことで、曖昧で多様性のある中から分類を実現する、というアプローチのことである。
現実問題として、低コストな機器でも高速に顔認証や音声認証ができるようになったのは、現在の機械学習で使われるアプローチが生まれたからであり、まさに革命的な影響を持つ技術の登場だった、と言っても過言ではない。こうした技術が「AI」と呼ばれるのは、人間の持っていた認識・分析という知性の一部を、同等もしくはそれ以上の形で機械に搭載できるようになったからである。
一方で、こうした技術には根源的な課題も存在する。
2015年、あるGoogleのエンジニアは、Googleフォトの中にあった自分の友人の写真に「ゴリラ」というタグがついているのを発見した。動物を認識する機能が誤作動して、人間の顔にタグが付いたのである。一見冗談のように見えるが、根は深い。
人間は色々なものを見誤る。人間に似たアプローチで識別を行なう以上、機械も同じように間違う。画像認識についての古典的な命題として、「チワワとマフィン」問題というものがある。両者の写真を並べると、一見して混同してしまうことがある。壁のシミが人間の姿に見えたりすることもある。
浅黒いアフリカ系の人々の顔が、時に同じ類人猿であるゴリラと誤認されることがある。肌の色が濃い場合、映像全体のコントラストは低くなる。写真の質が低い場合、コントラストの低さが故に、認識精度は落ちやすい。その結果が、2015年にGoogleフォトで起きたことだ。画像認識技術の未熟さによる単なる誤認、という見方もできるが、その題材から、人々にセンシティブな反応を引き起こしてしまった。人間が間違わないものを機械が間違わないように技術開発を進める必要もあるが、同時に、人間の感情も無視できない。
また、機械が学習に使うデータに起因する課題もある。
学習に使うデータに偏りがあると、そこから生まれる認識結果・判断にも偏りは生まれてしまう。画像認識ではないが、自動翻訳ではその影響が顕著に現れやすい。例えば「医者」という単語があり、その人の名前、例えば「西田」が出てきたとしよう。日本語の場合、そこには性別の要素はない。しかし英語に翻訳する場合、時に「Nishida」の前には「Mr.」がつく。医師という職業から男性を想起してしまうからだ。これは、学習に使われた文章にそういう偏りがあるからだ。
AIでも存在する「偽陽性」という課題
認識技術・翻訳技術などには必ず間違いが含まれる。人間であっても間違いは避けられないし、ソフトウエアを使っても別の形で間違いが入ってくる。だが問題は、「そのソフトウエアを使う側」は、間違いの存在を前提に使わない場合が少なくない、ということだ。
新型コロナウィルスの検査の話題で、「検査すればいいものではない」という説明がなされた。PCR検査にしろ抗体検査にしろ、陽性でないのに陽性反応が出た「偽陽性」や、陰性と出たのに実は陽性である「偽陰性」が含まれる。その比率と確度に応じた対応が必須である……という話は、皆さんもニュースなどで耳にしたはずだ。
AIによる認識も同じように「偽陽性」が含まれる。その比率をどう評価するのか、その場合にはどう扱うのか、そうした指針が存在しないと、AIを正しく使うことはできない。だが、そこまでの議論が進んでいるのか、といえば、実際にはそうではない。
企業や国は、AIの活用について、様々な倫理指針を策定し、発表している。以下に、マイクロソフトとソニー、ボッシュの例を挙げておく。どれも一読に値する内容だ。
・Microsoft の AI の基本原則
https://www.microsoft.com/ja-jp/ai/responsible-ai?activetab=pivot1%3aprimaryr6
・ソニーグループAI倫理ガイドライン
https://www.sony.co.jp/SonyInfo/sony_ai/guidelines.html
・ボッシュの「AI倫理指針ガイドライン」に関する詳細
https://www.bosch.co.jp/press/group-2002-01/media/PI11094-download-01-ja.pdf
だが、それを導入する側が、こうした指針の詳細を認識した上で使うのか、ということはまた別の話だ。立派なルールがあっても、それがふんわりしていて、導入する企業や政府、団体でも理解して使われるのか、というと、そうはいかないだろう。
BLMでは、アメリカ各州の警察に導入された顔認識技術が問題視された。データと学習の際に人間が指示した情報の偏りから、無実の人を「過去に犯罪歴がある人物」と誤認識する可能性があること、予断を持って警察が捜査や警備に当たることの危険性が指摘されたからだ。「偽陽性の危険性」を十分に認識し、あくまで参考として使う、ということが徹底できるかどうかは難しい。人間としては、機械に判断を任せた方が楽だからだ。もちろんプライバシーの問題もある。
AIをどう使うかは、その言葉から受ける「人と知性の関係」ではない。「間違いも含まれる道具をどう使うか」というルール作りに他ならない。顔認識技術の販売を中止したり導入を見直したりする動きは、BLMに対する権利保護的な反応でもあるが、それだけに留まらず、ここまで企業が自主的に定めてきたAIについての導入指針の実効性と価値を見直すもの、とみなすこともできる。これは意義のあることだ。
その目的に、本当に「顔認識」は必要なのだろうか
では、顔認識技術は使うべきではないのだろうか?
もちろん違う。ほとんどのシーンで有効なものではあるのは疑いない。間違いがあった時にどうするのか、それを加味した上でどう使うのか、というルールの問題だ。
国などが利用する場合には、国民の安全など、より優先度の高い条件が存在する可能性も考えられる。無制限な利用は慎むべきだが、一方で、「どうしても使わねばならない場合」を法的に定めておく必要もあるだろう。
重要なのは、「野放図に使う」ことを避ける、という発想だ。
若干方向性は異なるが、顔認識の話を考えた時に、思い出す事例が1つあった。それは、映像配信のレコメンドにおいて、Netflixが行き着いた方法論だ。
個人にあった映像作品を提案する、というと、まずは「個人の情報」を集めるアプローチが思い浮かぶ。その人の性別や年齢、他の趣味といった情報を集め、そこからプロファイリングする手法だ。だが、現在のNetflixでは、そうした手法は使っていない。研究の結果、「そうした情報には意味がない」と判断したからだ。
我々は、男性ならアクションものを好み、女性なら恋愛ものを好む、と思いがちだ。確かにそうした部分はあるが、常にそうではない。アクションものを好むかどうかは「性別が男性だから」ではない。「その人がアクションものが好きだから」だ。住んでいる国も、年齢も、実はあまり関係ない。「好きな作品の傾向」のみが意味を持つ。
だから、現在のNetflixでは、性別や年齢、住所などの直接的な個人情報は聞かない。「その人の視聴履歴」という個人情報だけを使っている。これは「人種差別や性差別に対する対応」ではない点に留意していただきたい。彼らはあくまで、それが効率的だと分かったからやっているのだ。無駄な個人情報を集め、管理するリスクは捨て、「行動履歴」という別の個人情報に特化した方がいい、ということを、経済合理性の面から判断したに過ぎない。
人種や性別によるバイアスを避けるには、そもそも「本当にその情報が必要なのか」という点から判断する必要がある。もしかすると、別の要素が重要なのかもしれない。そういう冷徹な目線が必要とされている。もちろん、そこで偽の相関を見つけ出してしまうとこれはこれで問題なので、慎重な分析と研究が必須であるのはいうまでもない。だがプライバシーや誤認識を考えた場合に「本当に常に顔認識が必要なのか」という観点に戻ることも重要だろう。顔を見分けてその人の行動を追いかけることは、本当に「あなたのビジネス」に必須のものなのだろうか。
BLMが生み出すAIへの逆風は、そうした「AIを使う上での本質論」を考える良いタイミングだと考えている。
小寺・西田の「マンデーランチビュッフェ」
コラムニスト小寺信良と、ジャーナリスト西田宗千佳がお送りする、業界俯瞰型メールマガジン。
家電、ガジェット、通信、放送、映像、オーディオ、IT教育など、2人が興味関心のおもむくまま縦横無尽に駆け巡り、「普通そんなこと知らないよね」という情報をお届けします。1週ごとにメインパーソナリティを交代。
Vol.055 <いつの間にやらアロハの季節号>
01 論壇【西田】
「Black Lives Matter」が顔認証に問いかける課題の本質
02 論壇【小寺】
1年2か月で感じた、「仕事」の差
03 対談【西田】
現在次のお相手を選定・準備中。次シリーズは7月スタート予定
04 ニュースクリップ
05 今週のおたより
06 今週のおしごと
"情報" - Google ニュース
June 18, 2020 at 06:50AM
https://ift.tt/2YKrpdB
その情報は本当に必要か? “Black Lives Matter”が顔認証に問いかける課題 - Impress Watch
"情報" - Google ニュース
https://ift.tt/37rUfCT
Shoes Man Tutorial
Pos News Update
Meme Update
Korean Entertainment News
Japan News Update
No comments:
Post a Comment