人工知能の現状と今後の見通し
ープライバシー保護における問題点ー
中川裕志 (理化学研究所 革新知能統合研究センター) なお、スライド中の図はPowerPointによってWebからダウンロードした creative commons license による 資料1 平成30年5月29日・第7回 第4期消費者 基本計画のあり方に関する検討会既存の技術やシステムを自動化
すると何がおきるか?
• 人工知能が人間に置き換わり、人間が仕事処
理のループの外側に行ってしまうと
• いざというとき、自動化されたシステムの代わり
を人間が務めようとしても、普段からやってい
なことはできません
いざというときは人間が介入するといううたい文句
はよく耳にするが実際はできないということです。
例:車の自動運転
– 完全な自動運転はレベル4(制限地域),レベル5(全域) – いざというときだけ人間が介入するのがレベル3• ところが、ふだん運転していない人がいざというときだ
けハンドルを渡されても、人工知能以上の運転ができ
るのでしょうか?
• レベル3はレベル4、5(完全自動運転)に比べて人間
との切り替え時がかえって危険ではないでしょうか?
• 保険業界も疑問視
人間が実際の仕事を人工知能に任せきりにしてしまうと 人間はどんどんスキルを忘れるし、後輩に引き継ぐこともできない 一度、あるタスクを自動化したら、もう後戻りはできない
AI
Good ‐byこの仕事のやり
方を思い出せな
い。
専門スキルが 人間から消滅既存の技術やシステムを自動化すると
• 安い労働力目当てで海外に生産拠点を移して
いた産業が自動化によって海外メリットが薄れ、
国内回帰する例もあるが
–
IT産業のオフショアリングは高スキルな職業を奪う
自動化で大きな労働人口は必要なくなっている
ので、仕事が増えるわけではない
AI
AI
AI
とはいえ、当面の
労働力不足をAIと
ロボットで補う必要
は大きい
AI
• こういった状況で、
– どこまで人工知能が自分自身(=人工知能)を高
度化する自律性(ブラックボックス化)を許すか、
• 「23 Asilomar AI Principles」(アシロマAI 23原則)でも抽象 的にしか明確に定義できていない• 研究者コミュニティで判断基準がない状況です
そんなことを考えるのは技術進歩の邪魔だと
考える研究者が日本には多い
ブラックボックス化したAIに対しては
• 対象となる
AIを人間が開発したツールである
とか 制御可能、説明可能なソフトウェアであ
るという期待を捨てて
• 自然現象の一種だとみなして分析するべき
• 自然現象の説明は人類が自然科学として長
年やってきたこと。
AIに対してもその方法論を使える 使うべき
AIの起こした問題はAIで解決
AI
AI
このAIが正しく機能してい るかどうかを人間がtrust (信用)できる必要がある説明困難なAIの動作を説明
• 深層学習はすでに説明不可能な状態
• そこで以下のような方法で信用
(trust)を得る
① 入力と出力が人間の常識にマッチして信用
(trust)できる複雑さのモジュールに分解
② モジュール間の関係が人間に納得あるいは信
用できるネットワーク構造
Trustできる Trustできる Trustできる これらのモジュールの関係も 納得できる個人データの問題
• 個人データはビジネスの最重要資源
• プライバシー保護の問題
– 購買履歴、閲覧履歴、移動履歴、医療データ
– さらにIoTで家庭内データまで収集されるとプライバ
シー丸見え
– 監視カメラだらけなので顔画像取られ放題
–
https://www.facebook.com/OMGFacts/videos/17758
75582506972/UzpfSTEwMDAwMjQwMzg4ODYyODox
NzM1NDc0NDY5ODc1OTk5/
個人データ保護の流れ
• インターネットの普及によりデータ主体である個人の個
人情報、個人データはネットに氾濫している。
• この情況に対してプライバシー保護の動きが強まってい
る。
•
EUの動き
– OECD8原則 種々のプライバシー保護法制の基礎 – 以前のEUデータ保護指令 法律は国毎に違う•
EU全域で統一したプライバシ-保護の法律として
•
GDPR(General Data Protection Regulation)
が
2016/4/14(欧州議会採択)、2016/5/24施行、2018/5/25
個人データ保護の流れ
•
EU:GDPR(General Data Protection Rule)
– 匿名化処理によって個人情報ではなくなり自由流通できると 思う人もいるかもしれないが、 EUではこのような匿名化手法は基本的に存在しないとしてい る。 – つまり、個人データ流通は以下が想定 1. 事業者の説明責任と 2. データ主体の同意による – 個人データを一業者が囲い込むことを許さず、データ主体個 人の意志で個人に還元できるデータポータビリティを保障個人データ保護の流れ
• 米国:プライバシー保護のための連邦法はない
– 州法が主体。カリフォルニアでは先進的なプライバシー
保護の州法がある
• オバマ政権のときに消費者プライバシー権利章典
法 2015/5/27 が公開された。ただし、連邦法とは
なっていない。
•
FTC(Federal Trade Commission)や商務省が個別に
管轄。
個人データ保護の流れ
• 日本:個人情報保護法改正
2015/9
– 匿名加工情報の導入
PWSCUP(明大:菊池教授)
• 世界の潮流
忘れられる権利
Do Not Track (追跡拒否権)
• 等、個人のデータの収集、利用を制限する
個人データは個人が管理し、同意に基づいて使わせる
仕組み
プロファイリングの問題
•
IT事業者が収集したデータ主体の個人データを用いた
データ主体のプロファイリング
– 例:FaceBookは友だちの情報からその利用者の所属コミュニテイや思想 傾向を推論しているようです。 – この推論では人工知能をフル活用 ある意味危険な利用ですね – プロファイルを用いたターゲット広告:強力なビジネスモデル• えてして不正確な個人のプロファイル
– 自分のことを自分よりよく知っている!? – とんでもない被害プロファイリングの問題
(GDPR 第22条)
プロファイルされた情報に基づくデータ主体への計算機
処理による判断に服さなくてよい権利
AIによるプロファイリングに対する拒否権 – プロファイル情報の開示要求 – 間違ったプロファイル情報の問題 – プロファイル拒否追跡拒否権 (Do Not Track :DNT) • 法律を決めても業者への効力がほとんどない – 個人が同意して提出した個人データのほうが推定処理をし たプロファイル情報より正確でup to date忘れられる権利
• EU司法裁判所の判決でGoogleに対して「忘れら
れる権利」に基づいて削除命令が出されました
• EU市民からは
100万件単位の削除要求が寄せ
られました。
– 忘れられる権利
vs 知る権利 の比較衡量が必要な
問題
• 全部人間の専門家が対応するのは不可能
忘れられる権利
• 全部人間の専門家が対応するのは不可能 – 人工知能技術に基づきあらかたの判断をし、真に難しいケースだけ 人間の専門家が処理 – 機械学習は、消去/非消去の例を使って、分類システムを構築。 – 難しいのは、人間の専門家に処理依頼するかどうかの境界の決め方 – この境界を決める部分まで人工知能でできると、人工知能のブラック ボックス化が相当に進行したと言えます。 – 消去/非消去の判断根拠を人間に分かる言葉で説明する技術が当 面は重要です。 人工知能が人間の代りをする場合は、人間に理解できる説明ができ る能力を与えておくことが必須でありましょう。個人データ管理は
データ主体の個人へ
Google, Facebook, Apple, Amazon 雇用 開発者 向け API 交通 購買 Web 電力 会社 医療 政府 研究 銀行 雇用 開発者 向けAPI 交通 購買 Web 電力 会社 医療 政府 研究 銀行 データ主体 個人データを自社に囲 自分の個人データを契背景:IT企業と個人データ
• 米国のIT企業GAFA: Google Amazon Facebook Apple がパー ソナルデータをどんどん収集して囲い込み、利益を上げてい る現状 • 収奪されるEU、収奪されるデータ主体の個人 • GDPRで反撃しているが、それだけではEUの産業は育たない • EUの個人データのプライバシー(=人権)の危機。だが、産 業は興さないと低落するのみ 個人データはデータ発生源であるデータ主体の個人が管理 その枠組みの標榜と、ビジネス育成がテーマ 2016年8月30日から9月1日 Helsinkiにて MyData2016の会パーソナル・デー タ・ストレージ