AIと憲法  山本龍彦他  2018.12.23.


2018.12.23.  AIと憲法

編著者 山本龍彦 1976年東京生まれ。99年慶應大法律学科卒。01年同大学院法学研究科修士課程修了。05年同大学院法学研究科博士課程単位取得退学。07年博士(法学)。桐蔭横浜大法専任講師、同准教授を経て現職。慶應大大学院法務研究科(法科大学院)教授。慶應大グローバルリサーチインスティテュート(KGRI)副所長。17年ワシントン大ロースクール客員教授。総務省「AIネットワーク社会推進会議」構成員(17)、内閣府消費者委員会専門委員(オンラインプラットフォームにおける取引の在り方に関する専門調査会、18)、経済産業省・公正取引委員会・総務省「デジタルプラットフォーマーを巡る取引環境整備に関する検討会」委員を務めるほか、主な著書に、『憲法学のゆくえ』『プライバシーの権利を考える』『おそろしいビッグデータ』『AIと憲法』など。

発行日           2018.8.24. 11
発行所           日本経済新聞出版社


はじめに
SF映画によく出てくる主題、つまり、全く善良な市民がAIに「あなたは潜在的犯罪者だ」などと予測・分類され、社会的に排除されるような世界は、今やフィクションからノンフィクションへと変わりつつある。()企業の採用活動や金融機関の与信の場面でのAIのスコアリングが多く使われ始めているが、そのような人生の重要局面で、もしAIに「あなたはダメなやつだ」とレッテルを貼られたら、あなたの人生は一体どうなっていくのだろうか
AIの事前予測に基づく個人の効率的な「分類」とそれによる差別や社会的排除は、「個人の尊重」(憲法13)や「平等原則」(14)を規定する憲法上の論点そのもの
近年Facebookのユーザー情報の「不正流出事件」が報道されたが、問題にすべきはユーザーが何に「いいね」を押したかといった大量の情報から、AIが各ユーザーの政治的信条や知性、心理状態――いわば個人の内面――までを予測し、この予測結果が各ユーザーの投票行動の操作に使われた可能性である。権力者がデータやAIを用いて有権者の心理状態をつぶさに把握し、有権者1人ひとりの行動を秘密裏に支配できる可能性、それによって民主主義が危険に晒される可能性だった
中国の動向にも注意を払う必要 ⇒ AIはデータが多いほど予測精度は向上するので、共産主義的な憲法体制の下では巨大なデータプールが完成するので、「プライバシー」によってデータが分断される社会よりもAIは早く成長するということになるから、国家として情報政策をどう設定するかも、「この国のかたち」を巡る憲法上の論点そのものということになろう
本書は、第4次産業革命ともいえる現在のAI革命が憲法の観点から詳細に分析されなければならないが、その手引書になることを目的としている
EUでは2018.5.25.施行の、「一般データ保護規則General Data Protection Regulation: GDPR によって、AIの発展によって個人の自律的で主体的な生き方が妨げられることのないよう、AIなどを含む自動処理のみによって重要な決定を下されない権利を保障している(22)
経済合理性や効率性の論理だけにとらわれない、憲法と調和的なAI社会の実現に向けた「両眼主義」(福沢諭吉)を日本においても浸透させるべく編纂されたのが本書
法律の制定や解釈を通じて、憲法原理が間接的に民間企業(私人)の行為にも適用されると考えられている(間接適用説)。個人情報保護法も、プライバシーという憲法の規範的理念を経済市場において実現する「憲法実現法律」の1つであり、憲法が国家権力を縛るだけではなく、経済市場においても守られるように積極的に「動く」ことを義務付けてもいる
憲法が過度に政治化され、運動論課されてきたために、憲法の重要な機能である産業の効率化や経済合理性をほどほどに統御する機能が軽視され、効率や経済合理性が殊更に強調される傾向が強い
今まさに、「個人の尊重」や「民主主義」といった「青臭い」憲法原理に思いを巡らせ、AIが本当に我々一人ひとりを幸せにするのかをじっくり考えてみる必要があるのではないのか

序章 AIと憲法問題
²  AIの定義 ⇒ AIソフト及びAIシステムを総称する概念
²  AIソフトの定義 ⇒ データ・情報・知識の学習等により、利活用の過程を通じて自らの出力やプログラムを変化させる機能を有するソフトウェア
²  AIシステムの定義 ⇒ AIソフトを構成要素として含むシステム
1. AIの予測力
憲法原理に及ぼすAIの影響を考える時、最も重要となるAIの特徴は「予測力」であり、プロファイリングと呼ばれる ⇒ 過去の膨大なデータから、個別の事柄の相関関係やパターンを発見し、特定の個人に関わるデータセットに適用することにより、当該個人の趣味嗜好や信用力・学力などを自動的に分析・予測できる
AIの予測精度とデータ量は比例関係にある
憲法上注意が必要なのは、AIの予測力の権力的側面で、共通の属性を持った集団(セグメント)の一般的傾向を見るAIの予測は、「特定の属性を共通して持つセグメントに含まれる者は一般に重罪犯罪を行う可能性が高い」という確率を示したものにすぎないが、善良な市民が「犯罪者予備軍」としてラベリングされ、その人生を狂わされることもあり得るので、何をもってAIの予測が「合理的」と考えるのか、「個人の尊重」と「効率性」とのバランスを図ることが重要
AIの予測力は、複雑なアルゴリズムの結果なので、理由の説明がない(ブラックボックス化)ため、AIに否定的な評価を受けた者にとって、その予測はわけのわからない生(ナマ)の力Powerとして作用
2. AIと民主主義
2018Facebookの個人情報がトランプ陣営に流れ、選挙で利用された可能性があるとの報道 ⇒ 単なる情報漏洩の問題ではなく、SNS上の個人の情報(「いいね」のクリックなど)から、AIに個人のあらゆる私的側面を予測され、その予測を受けた情報の選択的フィードにより個人の投票行動がコントロールされ、「選挙の公正」という民主主義の基本原理が危険に晒されることが問題。SNSの個人情報からそれぞれのユーザーの政治信条や心理的な傾向が細かく分析(プロファイル)され、「トランプ支持者でネット上の情報に流されやすい性格の人」などと予測された者に、集中的にフェイクニュースが投下され個人の投票行動を操作できるし、Facebookの「いいね」の分析だけで、白人化黒人化を95%の確率で正しく分類できるし、性別は93%、政党支持は85%、キリスト教信者かイスラム教かは82%、性的指向や知的水準ですらかなり高い確率で予測できるという
同じコンサルタント会社が英国のEU離脱の是非の投票にも関与していたという事実も報道されており、国家の命運をかけた選挙イベントにもAIの予測力が利用された可能性が強い
日本国憲法は、国会が「唯一の立法機関」と定めるが、法律によって規律の方向性を具体的に指示した上で行政機関等に委任することは認められている。とはいえ、AIが自ら学習し始め、アルゴリズムが高度に複雑化していくと制御が困難になり兼ねない
既に一部の自治体レベルでは、過疎対策や医療体制のあり方、リニア新幹線開通の影響と対策などについてAIに予測や提言をさせる実験を始めている ⇒ データプールの「代表性」の適切性確保が大前提
3. AIと刑事手続、裁判
米国の一部の州では、刑事裁判における裁判官の量刑判断に、AIによる再犯リスクの予測・評価プログラムが用いられているが、ブラックボックス化したAIの判断によって被告人が不当に重い刑罰を科される危険もあることから、適正手続きの整備は憲法上非常に重要な課題。あくまで裁判官の判断の1材料に留めるべきとしている
4. AIと個人の尊重
人材の採用や教育現場、更には顧客の信用力のスコアリングにもAIの予測力が利用されると、検討しなければならない憲法問題もいくつか浮上 ⇒ データ・プールの偏りが少数派への差別を再生産・助長する可能性、スコアリングはあくまでセグメント単位で行われるために埋もれてしまいバーチャル・スラムが形成される可能性がある
個人の評価にAIの予測力を用いることは、効率性や経済的合理性に資する側面があるが、憲法の「個人の尊重」原理から一定の制約が求められる場面も少なくない
5. AIと経済
日本国憲法は、個人の自律的な意志決定を尊重するという考え方を重視するが、AIの予測力によって個人の意思決定を特定の方向に誘導することが可能になると、憲法の原則に抵触しかねない ⇒ AIネットワーク社会では、事業者はカモを待つのではなく、意識的に自ら作り出すことが出来る
AIの存立基盤が大量のデータとなると、AIに依拠した産業構造とは、データを持たないものは他社と競争できず、データへのアクセスが不可欠だが、一部巨大企業によるデータの独占や囲い込みにより、他の事業者が市場から排除される可能性が指摘されている
AIが社会活動や経済活動の「主体」となりつつある中で、AIにも自然人同様の権利・義務を与えるべきかも問題

第1章        AIと個人の尊重、プライバシー       山本龍彦
憲法13条に規定する個人の尊重原理とは何か。AIの予測力がこの原理とどのように抵触するか。プライバシーの権利とAIとの関係にも言及
憲法が規定しているすべての人権規定は、個人の尊重原理に由来 ⇒ 以下の4層構成
   人間の尊厳 ⇒ 人の生命の不可侵性、平等性・均一性の尊重
   狭義の個人の尊重(集団的拘束からの自由) ⇒ 個人は人格的存在として平等に尊重
   個人の尊厳(個人の自律) ⇒ 人格的自律の存在として尊重
   多様性・個別性の尊重 ⇒ 個人が自律的・主体的に決定・選択した結果を尊重
AIの予測/プロファイリングは、共通の属性を持った集団/セグメントを対象にしたもの
1.    効率的で経済的にも合理的かもしれないが、憲法でいう個人の尊重原理とは矛盾
2.    自動化バイアス(コンピュータにより自動化された判断を過信する認知的傾向がある)に加え、プロファイリングの結果の間違いを具体的に検証できないまま、AI化がどんどん進行している ⇒ 原因不明で説明つかないバーチャル・スラムが拡大
3.    プライバシーの権利とAI ⇒ 1964年の三島由紀夫の『宴のあと』を巡る裁判で政治家のプライバシー権が争点となり、東京地裁が民事上の人格権として「私生活を妄りに公開されない権利」が承認され、これを契機に古典的プライバシー権が社会に広く受容され、更に70年代に入ると自分の情報を本人がしっかりコントロールできることが重要であるとの認識が広まる
4.    EUでは、18年に「一般データ保護規則(GDPR)」の施行開始 ⇒ 「21世紀の人権宣言」とも呼ばれ、データ主体にプロファイリングに対する「異議申し立ての権利」を認めるとともに、自動処理のみに基づき重要な決定を下されない権利を保障、併せて「公正と透明性確保のため」自動決定が存在する場合には事前の告知を義務付け、関連情報へのアクセス権を認めている
5.    日本では、憲法13条で「すべて国民は個人として尊重される」という理念を謳っているが、その理念に適合的といえるかどうか。近代憲法では個人の身分的、集団的バイアスを除去し、個人1人ひとりの個性や能力を時間とコストをかけて丁寧に評価することを要請しているのに対し、AIによる統計的・確率的評価によって「人格」を仮構し個々人を類型化していく発想は馴染まないと思われる
個人の尊重原理を組み込んだAIネットワーク化を進めていくべき

第2章        AIと自己決定原理     古谷貴之(1980年生まれ。京都学園大法卒、同志社大院後期課程単位取得退学。京産大法准教授)
データのポータビリティの権利  サービス間のスイッチングを容易にすることに基づく競争の促進と、自己のデータを活用する機会の確保
1.    憲法上の自己決定権は、13条後段の「幸福追求権」によって基礎づける見解が有力であり、私法の領域でも、エホバの患者に輸血を伴う手術をする方針を説明せずに病院が施療を行うのは患者の意思決定をする権利を奪うものとして人格権の侵害と判断
2.    AIと自己決定を巡る法的議論 ⇒ ①デジタル・ゲリマンダリングと呼ばれる問題で、政治の場面でプロファイリング技術が登場すると、個人をターゲットとした選挙運動や選択的情報フィードによって情報の偏向が生まれ、有権者の主体的判断過程が歪められる可能性がある。②スコアリングに伴う問題で、ネガティヴな結果による不利益な扱いを甘受しなければならない可能性がある。③行動ターゲティング広告と密接に関連するが、ユーザーの趣味嗜好等をプロファイリングして個人化した広告配信をすることにより、ユーザーの意思決定に実質的に関与する側面がある
3.    行動ターゲティング広告 ⇒ オンラインの行動履歴からデータを収集・分析した結果に基づいて広告を配信するアルゴリズムが構築されているが、プライバシーや自由な意思決定の侵害になり兼ねず、「適切な情報提供(ナッジ)」とは紙一重。収集データの内容やアルゴリズムの透明性を図る試みが続いているものの、実効性には疑問
4.    行動ターゲティング広告と消費者の救済 ⇒ 消費者契約法では「困惑行為」を理由とする意思表示の取り消しが認められるとともに、自由な意思決定を侵害された消費者は自己決定権侵害を理由に不法行為に基づく損害賠償を請求できる
5.    複雑化する自己決定を巡る問題 ⇒ AIの適切な使いこなしによって生活の利便性は増すが、無視しえない法的・倫理的問題が生じる可能性がある。情報の提供側と収集側では「情報の非対称性」が大きく、いかにそのギャップを埋めるかが問題

第3章        AIと経済秩序          市川芳治(慶應大法科大学院・経済学部非常勤講師。英国レスター大ロースクール卒。兵庫県立大応用情報科学研究科卒(Ph.D.)
1.    憲法と経済秩序 ⇒ 憲法上の規定はなく、職業選択の自由(22)と財産権の保障(29)によって読み込む。憲法は「経済秩序」について何も言及せず、その具体的な内容は、政府の政策判断、すなわち競争法に委ねられている。経済的自由は、自律的な生の可能性を保障するもので、精神的自由に劣らず、我々の生に密接不可分のものとされ、労働権や社会権などの領域では「私的自治の原則」だけでは足りず、憲法が政府による積極的な介入を認めてきた歴史があるが、経済秩序については過剰な政府介入や政府と社会的権力の連携等への警戒感が根強く残る
2.    「社会的権力」としてのAI活用プラットフォーム企業の勃興 ⇒ インターネットという共通の「場」を数多くの顧客が利用するよう導く戦略をとり、幅広いサービスを提供することによってサービスの効用増を高め、ネットワーク効果を発揮してその地位を確立してきている。GAFAはその代表格
3.    求められる経済秩序――競争法そしてAI技術の観点から ⇒ 個人の自律性(裁定限の私的自治)が確保される環境の中、最終的な社会の利益のために、経済理論を踏まえた競争政策が政府により選択され、、かつそれは政府介入に抑制的なアプローチであるという想定通りの理想的な状況

4.    根源論への回帰を見せる競争法――競争法だけでは済みそうにない経済秩序議論
5.    精神的自由・表現の自由との接近、民主主義2.0――不即不離の精神的自由 ⇒ AI活用プラットフォーム企業は、個人の精神的自由、表現の自由にまつわるデータの解析でその経済力を得る、あるいは相乗効果を発揮する事業を展開する。立憲民主主義の価値としては、自由に加え、平等・公正等が掲げられるのが一般的

第4章        AIと人格                栗田昌裕(名大法准教授。1976年大阪生まれ。京大法卒。同大大学院修士課程修了。司法修習生)
1.    人格という言葉の多義性 ⇒ 「人格」は「私法上の権利義務の帰属主体となる資格」を意味し、「権利能力」と同義に用いられるが、「人格の尊厳」という場合には、憲法による基本的人権の保障と密接に関わる言葉
2.    AIと法人格 ⇒ 現行法はAIに法人格を認めないどころか、法解釈によって認めることもできないが、AIによる完全自動走行車に起因する交通事故では被害者救済が十分図れるとは言えない
3.    AIと人格の尊厳 ⇒ 歴史的には、基本的人権は啓蒙主義自然法論の所産であり、自然人のみが対象だったが、社会の変化とともに、法人にも基本的人権の共有が認められているのを見れば、AIそのものにではなく、人工知能法人に人権の享有を認めることもできそう。動物愛護法のように、AIやロボットが権利主体である必要はない

第5章        AIと教育制度          堀口悟郎(九産大地域共創学部准教授。1987年神奈川生まれ。早大法卒。慶応大法科大学院修了)
最もAIに仕事を奪われにくい業界の一つとされてきたが、まず自習の方法に始まり、授業のやり方、入学者選抜など、次々にAIが個々の生徒に合わせたプログラムを提供
1.    現実化しつつある「教育制度のAI化」 ⇒ 神野元基氏の学習塾Qubenaアカデミーでは、生徒の習熟度に応じたタブレット教材での自習が数学では常態化
憲法の保障する教育を受ける権利、教育の自由、教育の機会均等は、人間が人間を教育するという制度を前提としているので、当然に変わってくる
2.    教育を受ける権利への影響 ⇒ AI活用によって生じる教育の個別化は、必ずしも憲法違反とは言えないが、特に障碍児の学校選択の場面などでは本人の意思と能力を無視した特別支援学校(旧・養護学校)への強制入学は認められなかった。また、AIによる個別指導が進み過ぎると学力格差が明白になり、年齢を基準にした学年制の維持が困難に
3.    教育の自由への影響 ⇒ 教師に一定限度で認められた教育の自由は、AIの導入によって侵害されるか。判例によれば、教師に認められた教育の自由は子供の「学習権」のために認められた自由とされるが、人間が人間を教育することの意義にも関わってくる問題
4.    教育の機会均等への影響 ⇒ AIの活用により特に入試の「公平性」の実現は大きなメリットだが、ビッグデータ解析を通して意外な相関関係を明らかにすることによって、人間なら避けられるような差別的な選考を行ってしまう恐れがある
5.    教育制度の「遠未来」 ⇒ AIAIを教育する世界では、人間が学習と教育という苦しみに満ちた営みを放棄し、知識の継承・発展をAIに任せた結果として、知識を支配するものは、社会を支配する。したがって、AIやそれを開発する一部のエリートが支配する社会を望まないのであれば、人間は学習と教育をやめてはならない

第6章        AIと民主主義          水谷瑛嗣郎(帝京大法助教。1986年大阪生まれ。同志社大法卒。慶應大大学院法修士課程修了)
1.    政治が目的化する未来 ⇒ 政治は国民にとって、自らの私益(欲望)を実現するための「手段」だったが、AIの普及により、労働から解放され、公的な「活動」こそを自らの生の目的とする社会(政治を目的化した社会)を生み出すかもしれない
2.    AIと民主主義制度――これから起こる(かもしれない)こと ⇒ 政治は「本人」「共通の目的」「代理人」という3要素で整理でき、憲法は「本人」によって「代理人」の設計を記した契約文書といえるが、「代理人」は人である必然性はない。ただ、AIによって意思集約や統計的・数学的パターンの導出を政策立案に導入した場合、国会議員に保障される免責特権はどうなるのか。国会議員による熟議が成り立つのか
3.    AIと公共圏 ⇒ ニュースメディアにおけるアルゴリズムの透明性という概念も重要で、アルゴリズムに関する情報公開により、ニュース記事の内在的な視点を理解するために、動作中の価値、偏見又はイデオロギーを見極めることが出来るようになる
4.    AI時代の政治家、ジャーナリストの憲法的役割 ⇒ 民主政治領域の「聖域化」を主張するのではなく、AIをいかに使いこなして「豊かに」するかということで、憲法が保障する「個人として尊重」されるべき人(国民)と、その「道具」であるはずのAI、そのどちらが主・従かを誤らないようにせねばならないということに尽きる。「ヒト固有の役割」の追究こそ必要

第7章        AIと選挙制度          工藤郁子(マカイラ社コンサルタント。1985年東京生まれ。上智大法科大学院修了)
1.    デモクラシーの機能不全 ⇒ 「フェイクニュース」といっても、何が「フェイク」で何が「真実」かさえわからない。ファクトはなく、あるのはオピニオンのみという開き直りすらある。大衆の「情熱」と「偏見」をどのように取り扱うべきか注意を払いつつ憲法上の統治機構が組み上げられてきたが、ここでは選挙という場面において、AIを含む情報通信技術の発展・普及によってデモクラシーの価値が修正や変容を迫られるのか
2.    政治マーケティングの進展 ⇒ マイクロ・ターゲティングと得票予想は21世紀初頭から始まっており、着実に洗練されたパーソナライズされた政治メッセージが個人に直接届けられる。政治マーケティングの精緻化によって、公共圏が衰退
3.    フェイクニュースとビジネス ⇒ 近代法の前提になっているのが「自由と幸福の一致」。フェイクニュース対策の主体として着目されているのが情報媒介者であり広告配信主体でもあるIT事業者
4.    アーキテクチャ・世論操作・ナッジ(行動のヒント付け) ⇒ 企業が所有・管理するアーキテクチャをどのようにして統制するかという難問がある
5.    「支配されるという特権」を ⇒ 論理の1次、知識の2次を経てきた現在の第3AIブームが、人間の知的活動の不合理さや曖昧さをも包摂しようとしてきたことを鑑みれば、近代の法・政治システムを支えるいくつかのフィクションを維持するための努力は、かつてよりも増すばかりである

第8章        AIと裁判                柳瀬昇(日大法教授。1977年横浜市生まれ。慶應大法卒。同大大学院法学研究科修士課程修了。同政策・メディア研究科博士課程単位取得退学。博士(政策・メディア))
1.    半世紀前の未来予想図の検証 ⇒ 法律事務を補助するAIはすでに実用化され、ある単語の出現頻度により判決を予測した精度は、弁護士を上回った
2.    アルゴリズムが占う再犯可能性 ⇒ 再犯可能性予測システムが、保釈の可否を決定する手段に使うことが認められている州もある
3.    AIを遥か彼方にながめつつIT化を議論するわが国の現状 ⇒ わが国では、まだ手続きにおけるIT化が検討されている段階
4.    裁判手続等へのAIの活用と憲法問題 ⇒ 手続法定主義が確保されたと言えるのか、かけがえのない個人として尊重されたと言えるのか、裁判の正当性と正統性が問われる

第9章        AIと刑事法             笹倉宏紀(慶應大法大学院教授。99年東大法卒)
1.    憲法と刑事法 ⇒ 憲法が定める基本的人権の保障は30か条に及び、うち10か条は国家による刑事罰の行使とそのための手続きに関わる権利の保障に費やされており、憲法と刑事法の間には強い結びつきがあって、AIがその結び付きをどのように動揺させるのか
2.    AIの「犯罪」と憲法 ⇒ 動物裁判と同じように、Aiを処分の対象としたらどうか
3.    AIによる犯罪予測と憲法 ⇒ 「人」の属性に着目したプロファイリングには、個人に関する大量の情報が集積され、誤りの可能性から差別・偏見につながり得るという問題が不可避的に伴い、憲法の基本理念との抵触という問題も抱える
4.    再犯予測と憲法 ⇒ 裁判官が最終的な判断権を持っていなければならないというが、人の判断を優先すべき理由もないし、犯罪予測が完璧になれば事前に危険を察知して予防策を講じればいい。積極的に予測機能を使って予防を追求するのと、あくまでもやったことに対する報いの限度でのみ予防が追求され、自由を享受する大前提である生命を奪われる危険を甘受しなければならない世界とを比べたとき、いずれが憲法の謳う「個人の尊重」の理念に適合的か、真剣に考えてみる価値はある






AIと憲法 山本龍彦編著 未来の人格・人権概念を問う
2018/11/24付け 日本経済新聞
このところ、堰(せき)を切ったように「AIと法」や「ロボット法」に関する本が出版されている。本書もその時流に乗ったものに見えるが、「AIと憲法」という、やや奇をてらった表題である。憲法といっても、巷(ちまた)を賑(にぎ)わせている天皇制や憲法9条の話ではない。民法や刑法、経済法や裁判など、法実務に関する緻密な実定法の検討が行われている。では、なぜ「憲法」なのか? これが本書を通底する基本的な問いかけである。
山本氏は76年生まれ。慶応大教授。ほか13人の研究者が各章、コラムを分担執筆した。
書籍の価格は税抜きで表記しています
人工知能の進化と活用により、社会はどう変わるか。すでにインターネットの閲覧履歴から嗜好による商品が推奨され、企業の採用人事や与信の場面でもAIが使用されつつある。AIによる再犯予測で量刑が決められることも、米国では現実化している。AIにより人間が仕分けされ、差別や社会的排除が起きたら、憲法の保障する「個人の尊重」や「平等原則」が台無しとなる。フェイスブックの「いいね」の情報から政治的信条や思想を予測し、投票行動の操作にも使われる。まさに選挙制度や民主主義の危機である。これらがダイレクトに憲法の論点となる。
また、男女雇用機会均等法や個人情報保護法などは、憲法を具体化した法律として企業活動を拘束する。民法も、公序良俗を通じて憲法原理が浸透し、間接的に影響を与えている。このような視点からすれば、すべて「憲法」に通じる、というわけだ。
本書は「AIと憲法」を主題としたことで、法秩序の根底に置かれる概念、つまり権利義務の主体たる「人格」と「人権」の概念を改めて問うものとなっている。具体的な設例として、完全自動運転の車が歩行者を轢(ひ)いてケガをさせた場合に、誰がどのような法的根拠で責任を負うかが論じられる。ここでは、欧州議会の2017年決議を基に、自然人・法人に次ぐ第三の責任主体としてAIの法人格「電子人」という概念を俎上(そじょう)にのせ、詳しく検討している。結論として、民事責任は財団法人の枠組みで十分であり、AIに刑事責任を認めるのは無意味だと断じる。
他の例にはドラえもんとのび太君も登場し、硬軟取り混ぜているが、論述はあくまで法律学の王道を行く硬派だ。AIとどう向き合い、未来の社会をどう構築するか、我々に突き付けられた課題だ。
《評》明治大学教授 中山 幸二


信用スコアの光と影 憲法学者・山本龍彦が警告する「バーチャルスラム」の恐怖
20181220日 朝日
先日実施した若林へのインタビュー後編で話題に上がったトピックのうち、中国のアリババから始まり、日本企業も導入を進めている「信用スコア」について、慶應義塾大学大学院法務研究科(法科大学院)山本龍彦教授の論考を、本誌より特別掲載する。
テクノロジーが内包する「ジェンダー」の課題
2018年の1010日に、こんなニュースを目にした。ヤフーが「信用スコア」事業に参入し、「Yahoo! JAPAN ID」に紐づいたユーザーの情報を分析して算出したスコアをパートナー企業と連携して利用することを明かしたというニュースだ。
個々のIDと結び付いた購買履歴、検索履歴、性別などの属性情報を、独自の基準で分析し、100点満点のスコアを算出するという。2018年内に本格的に事業をスタートさせる計画だが、それまでは特定の企業と実証実験を行い、スコアの有用性などを検証するとされる。シェアリングサービスの分野で、スコアに基づき申し込み時の手続きを簡略化、保証金を免除するといった活用を見込むほか、実証実験では、アスクル、ソフトバンク、コスモ石油マーケティング、シェアサイクルサービスを手掛けるOpenStreet、ホテル・旅館などの予約サービスを提供する一休など、合計12社が参加する。
こんなニュースもある。ロイター通信の20181011日付の報道だ。Amazon14年に、就職希望者に対して1つ星から5つ星でランク付けをする自動システムの開発に着手したが、このシステムが技術職において男性志願者を優遇していることが分かり、17年に廃止したというのだ。このAIツールは、Amazonがそれまで10年間にわたって受け取ってきた履歴書のデータを元に訓練された。テクノロジー産業は男性優位分野であるため、履歴書の大部分は男性から送られてきており、システムは意図せずして、男性志願者を女性志願者よりも優先して選ぶように訓練され、報道によれば、「女性の」という言葉や、特定の女子大の名前を含む履歴書を減点するようになっていた。Amazonは、システムがこれらの条件を中立なものとして判断するように変更を加えたものの、プログラムが他のあらゆる分野において本当に性別に対する偏りがないか、自信をもてなくなったと語っている。
広がる格差
わたしたちはAIをバイアスがないものとして扱うことはできない。バイアスのあるデータでシステムを訓練すれば、アルゴリズムもまたバイアスを含むことになる。もし、今回のような公平性を欠いたAI人材採用プログラムが導入前に明るみにならなければ、ビジネスに長年根付いている多様性の問題の数々は解決されず、むしろ固定化されてしまう。
21世紀の石油」とまでいわれ、今後のデジタル経済の主たる資源として多方面での利活用が期待される「個人データ」は、その扱いをめぐってさまざまな問題が噴出している。冒頭で紹介した「信用情報」を、日本よりもはるかにラジカルなかたちで利用している中国の状況を見てみよう。
Alibaba傘下の信用情報機関である「ジーマクレジット」(芝麻信用)は、決済アプリ「アリペイ」の購入履歴やSNSデータ、資産保有情報などを分析し、個人の信用力を950点満点で採点する。この「信用力スコア」は、官民を跨いださまざまな領域で使われている。スコアが高い人は低金利でローンを組めたり、賃貸物件の契約で敷金が不要になったり、外国の観光ビザが取得しやすくなったりするなど、さまざまな便益を享受できるため富裕層は喜んでこれを利用する。
写真・Getty Images
使えば使うほど生活がスマート化されていくことで得る利益は大きい。その一方で、こうしたスコアの運用の仕方を誤ると、スコアが低い人は、あらゆる場面で差別的な扱いを受け、下層から這い上がることが困難になるといったことが起こりうる。裕福な人は上昇スパイラルに乗ってどんどん上昇していくが、いったん低いスコアをつけられるとダウンスパイラルに乗ってますます利便から遠ざかってしまう。「信用スコア」は、「バーチャルスラム」と呼ぶべき状況を生み出す危険がある。
見えないゲート
信用スコアには、もちろん、いくつものポジティブな側面がある。効率化による余暇の増大。取引の安全。信用を落としたくないがためにみながスコアを落とす行動を抑えるようになる「規範の内面化」を通して、社会の安全も増大する。けれども同時にネガティブな側面も多くあることは忘れられてはならない。
デジタルデータが永続的にインターネット上に残ることで、学習データに含まれるバイアスがAIの下す判断のなかに承継され、過去の差別が再生産されることがある。また、AI社会では、自分という存在がデータ上に良く現れる必要がある。不断の監視からくる疲労が社会に蔓延することで、みなが安全に振る舞うばかりの予定調和的で無気力な社会が実現することにもなってしまう。これは経済にとって大きなマイナスにもなる。
また、上に記したバーチャルスラムの出現という問題もある。これは、スコアリングがブラックボックス化されることで、評価の低い人たちをその状態にとどめおき、社会的に排除される可能性を助長する。さらに遺伝情報とAIの相性の良さは、自らの力では変更・修正できない属性による選別を引き起こしうる。「生まれによる差別」は現代の社会においては否定されているが、それが新しい優生思想を胚胎する可能性も否定はできない。信用スコアは多くの幸福を生み出す一方で、ゲートの見えないゲーテッドコミュニティのようなものとなるかもしれないのだ。
21世紀の「人権宣言」
そうしたなか自動処理のみに基づいて重要な決定を下されない権利や、説明を受ける権利などを明記し、データに対する個人の主導性を謳ったGDPR(一般データ保護規則)は、21世紀の新しい「人権宣言」ともいうべき意味をもっている。
アメリカでも「FCRA」(Fair Credit Reporting Act、公正信用報告法)という法律を、与信・雇用・保険・住宅供給に関する決定をなすために利用される消費者情報を販売する消費者報告機関にも適用しようという動きがある。FCRAは、消費者報告の正確性を担保するための合理的手続を整備することを消費者信用機関に課し、消費者に対して、その情報に対するアクセス権と過誤を訂正する権利を保障している。また、ネガティブ情報は通常7年、破産宣告なら10年以上経過したものは提供してはならないなどと定めている。さらに、消費者報告を用いる企業にも一定の義務を負わせている。
またカリフォルニア州が2018年に定めた消費者プライバシー法(California Consumer Privacy Act 2018)は、個人に関する「推測的な情報」(inference)を「個人情報」のうちに包含すると定め、そうした情報に対してユーザーは、開示請求や消去請求、販売中止請求を行うことができるとした。
山本編著によるAIと法をめぐる最新論考集『AIと憲法』(日本経済新聞出版社) 写真・平松市聖
適正なバランス
残念ながら日本では、データ活用のポジティブな側面が語られることはあっても、こうしたネガティブな側面が議論される機会はまだまだ少ない。データの利活用をめぐる「透明性」「アカウンタビリティ」「公正さ」「スコアの正確性」「効率性」のバランスをいかに実現するのか。これらの要件すべてが十全に満たされることはない。透明性や公正さを高めることで、効率性が損なわれるといったトレードオフの関係になることもあるため、その適正なバランスがどこにあるのか、より慎重な判断が必要となる。それは同時に、スコアに対する個人の主体性、コントロール可能性を、いかに、どの程度確保するかという課題とも重なっている。
また、日米欧でデータ交易圏をつくりあげる構想がはじまっていると報道されてもいる。データの利活用をめぐるルールの国際化が避けられない趨勢となるならば、日本企業も、今後ますます厳格な国際ルールに則った対応が求められることになる。むやみに個人情報を収集したりやり取りすることは、セキュリティのコストを高めるだけでなく、法的リスクを増大させることにもなることを企業は留意しておくべきだろう。なにが本当に必要な情報なのかを見定め、不必要な情報は取らないなど、個人情報をめぐる適切なガバナンスが求められる。そして最も重要なことは、そうした個人データの利活用が一部の人間のみではなく、あらゆる個人をエンパワーするものでなくてはならない、ということだ。
スーパーシティはオープンになれるか
20181016日付の日経新聞は、AIやビッグデータを活用したまちづくりが、国家戦略特区や自治体で検討されはじめたことを伝えている。片山さつき地方創生相によって「スーパーシティ」と仮称されたそれらの特区では、エネルギー対策から、キャッシュレス、自動運転技術、遠隔診療へのAIの応用が検討されているという。構想自体に問題があるとは思わない。これから訪れるスコア社会は必然的な方向であって、それを止めるべきでもないだろう。けれども、AIとデータによって駆動された「スーパーシティ」が、「ゲートの見えないゲーテッドコミュニティ」(排除的社会)にならないために考えなくてはならないことは、すでに山積みとなっている。
(「NEXT GENERATION BANK 次世代銀行は世界をこう変える」より転載、文中敬称略)
山本龍彦(やまもと・たつひこ)
慶應義塾大学大学院法務研究科(法科大学院)教授。慶應義塾大学グローバルリサーチインスティテュート(KGRI)副所長。総務省「AIネットワーク社会推進会議」構成員、内閣府消費者委員会専門委員(オンラインプラットフォームにおける取引の在り方に関する専門調査会)、経済産業省・公正取引委員会・総務省「デジタルプラットフォーマーを巡る取引環境整備に関する検討会」委員を務めるほか、主な著書に、『憲法学のゆくえ』『プライバシーの権利を考える』『おそろしいビッグデータ』『AIと憲法』など。



2019.1.14. 朝日
 AIがもたらす政治分断と民主主義 慶応大教授・憲法学者、山本龍彦さん
 連載で取り上げた政治の問題の解決を難しくしているのは社会の分断だ。人工知能が隅々に行き渡る「AI社会」の課題を研究する憲法学者の山本龍彦・慶応大教授に分断の背景と今後の政治の可能性を聞いた。
     
 政治的、社会的な分断はかなり顕著な形で起きている。その原因の一つが、情報環境の変化だ。
 多くの人が情報を得るネットニュースは、基本的にその人の好みや政治的傾向に沿って提供されている。政治に関心がない人には、芸能やスポーツのニュースばかりが送られてくる。
 好みが合わない情報にフィルターがかかり、自分色の情報の泡の中に個々人が閉じ込められる「フィルターバブル」と呼ばれる現象が起きている。心地よい情報の繭に包まれるようなものだが、それにより自分を批判するような他者を認識しづらくなってもいる。

コメント

このブログの人気の投稿

近代数寄者の茶会記  谷晃  2021.5.1.

新 東京いい店やれる店  ホイチョイ・プロダクションズ  2013.5.26.

自由学園物語  羽仁進  2021.5.21.