憲法講演会『AIのリスクと個人の尊重~新しい憲法論~』


 新潟大学との共催

新潟県弁護士会は、11月9日(土)、山本龍彦慶応大学大学院法務研究科教授の講演会を開催しました。

20190906104217-0001

大学関係者、特に大学生や大学院生に参加してもらいたいという気持ちから、新潟大学に共催をお願いし、会場も新潟大学内のホール(中央図書館ライブラリーホール)をお借りしました。その甲斐あってか、学生を含む大学関係者が数多く参加してくださいました。

77159365_2495379850709978_9130551273827860480_n

あっという間の2時間

講演の概要は以下の通りですが、世界各国の具体的実例をたっぷり交えながら展開されるお話は知的な刺激に溢れていて、話に引き込まれて聞き入っているうちにいつの間にか講演の終了時刻となっていました。

  • 「AI社会」とはどのような社会か
  • 「AI社会」とプライバシー
  • 「AI社会」と個人の尊重(憲法13条)
  • 「AI社会」と差別、バーチャル・スラム
  • 「AI社会」と民主主義
  • EU等と対比した日本の実情

印象的だったことの1つは、AIの導入が広がることで様々なトレードオフが要求されることになるということです。例えば、AIの予測精度を高めるためには大量の情報を学ばせる必要がありますが、なるべく多くの情報を提供する上では一定程度プライバシーを犠牲にすることが余儀なくされますし、AIの予測精度が高まること自体がプライバシーに対する脅威にもなる訳なのですね。

人間をバイアスの源泉と捉えるか、それとも価値の源泉と捉えるかという、方向性がまったく異なる二つの見方がせめぎあっているというお話も新鮮でした。前者の捉え方によれば出来る限り人間の関与をなくすべきということになり、後者の捉え方によれば出来る限り人間の関与を確保すべきということになります。数年前のコラムでAIに主権を委ねるようなことはすべきではなく「人間主権」を維持すべきではないかということを書いたことがありますが、立憲主義に立脚する憲法がある以上、後者の立場に立脚すべきという山本先生のお話に共感を覚えました。AIの最適解に従う方が幸福なのか、「自己決定」に執着するこ方が幸福なのかなど、突き詰めていくと、功利主義と義務論の対立のような哲学的な問題に行き着くという指摘も興味深かったです。

講演の概要

75564585_2495380044043292_1664455966441078784_n

1 「AI社会」とはどのような社会か

「予測」と「個別化」
「AI社会」とは、データサイクルを効率的に循環させ、精度の高い予測を行うことで、個別化されたサービスを提供する社会

データサイクルとは→①~⑤をぐるぐる回す
11①ビッグデータの収集と集積
11②解析(学習) 人間では気づくことが出来なかった相関関係や行動パターンの抽出
11③プロファイリング 個人の趣味嗜好、健康状態、性格、能力、信用力等を予測・分析
11④利用 企業の採用活動、ターゲティング広告、量刑判断、テーラーメイド型医療等
11⑤追跡 予測結果の妥当性検証

2 「AI社会」とプライバシー

プロファイリング
個人情報保護法では、「要配慮個人情報」の取得に本人の事前同意が要求されているが、いくつかの「個人情報」をプロファイリングすることで、「要配慮個人情報」を割り出すことが可能になっている。プロファイリングに対する法規制がないままでは、個人情報保護法(17条2項)が無意味化してしまう。

顔認証技術とセンシング
DEFENDER-Xというセキュリティーシステムを用いることで、静脈の動きから興奮や緊張の度合いなど心理状態を把握することが可能となっている。内心の自由までもが脅かされる超監視社会の到来。

Hire Vue(クラウド型デジタル面接ネットワーク)
企業の採用の場で実際に用いられている。デジタル動画面接によるAI選考支援機能では、就活性の表情や声のトーン、抑揚から性格等を診断しているとされている。
自らが修正・変更できない事柄により不利益を受けないという近代の基本原理を脅かすおそれ。
企業側としても、多様な人材を確保できるのかという問題。

3 「AI社会」と個人の尊重(憲法13条)

個人の尊重とは
「集団」から解放された「個人」が自律的に生きていく(人生を自分でデザインできる)こと。
「集団」による短絡的見極め(身分制)から脱却して、時間とコストをかけて「個人」を評価すること。

自動化バイアス
AIによる評価は「セグメント」の評価=確率評価。このため、誤差が本来的に存在する。
しかし、人間には確率評価を鵜呑みにしてしまう弱さがある。

効率性
多少の誤差はあってもAIに依拠した方が効率的。
しかし、それは新たな「身分制」であり前近代への逆行ではないか?
時間とコストをかけてでも「個人の尊重」を貫けるか。

相互補完
AIと人間が相互に補完し合うことが重要ではないか(「ケンタウロス型」の意思決定)。

4 「AI社会」と差別、バーチャル・スラム

75453525_2495379977376632_1452574032749658112_n

古い差別の再生産
アルゴリズムが過去のバイアスを承継して、過去の社会的・構造的差別を再生産してしまう

新しい差別
信用スコアが本来の想定範囲を超えて、社会のあらゆる分野で利用されてしまう

信用スコアリングの両側面
・積極的側面
正確な信用力の予測が可能になる、努力や能力を反映した公正な社会システム、スコアを低下させないために危うい行為を避けるようになる?
・消極的側面
ブラックボックス、不適切データが混入しても検証が困難、萎縮効果(同調圧力による多様性の喪失)、差別の再生産、バーチャル・スラムの形成

5 「AI社会」と民主主義

超監視社会
高スコアを維持するためにお行儀よく振る舞う。民主主義の死(全体主義)。

フィルター・バブル、インフォメーション・コクーン(情報の繭)
エコー・チェンバーによる社会的・政治的分断の深まり

デジタル・ゲリマンダリング
フェイクニュースに対する脆弱性を分析したうえでのねらい打ち。

アメリカ大統領選(ケンブリッジ・アナリティカ事件)、イギリスのEU離脱国民投票、沖縄県知事選、台湾総統選、さらには憲法改正国民投票でも?

アルゴクラシー(アルゴリズムの支配)
行政領域におけるAIの利用が進むことで、アルゴリズムによる非民主的な支配がなされるようになるおそれ。

6 EU等と対比した日本の実情

EU(GDPR)

ドイツでは、ナチス時代の反省から情報自己決定権が憲法上の人格権として承認されている。
EU憲法(EU基本権憲章)8条の具体化法としてGDPRがつくられた。

・AIのみで個人の人生に重大な影響を及ぼす決定を行ってはならないという原則
明示的な同意がある場合でも、適切な権限と能力を有する「人間の関与」を得る権利、自らの見解を表明する権利、決定を争う権利を保障

・データ保護影響評価
新たな技術を用いるような種類の取り扱いが自然人の権利及び自由に対する高いリスクを発生させるおそれがある場合、事前に個人データ保護に対する影響について評価しなければならない。

日本

・EU型なのか、米国型なのか、位置づけが不明確(理念なきData Free Flow)
個人情報保護が明確に人権として位置づけられておらず、単なる「データ保護」にとどまっている。形式的ルールを守れば免責されるといった扱いであり、「過剰かつ過小」な保護となっている実情。

・最近の地殻変動?→これを転換点にできるかどうかが問われている
内閣府「人間中心のAI社会原則」(統合イノベーション戦略推進会議決定、2019年3月)
人間中心の原則、教育リテラシーの原則、プライバシー確保の原則、公平性・説明責任・透明性の原則等

 


 

41571URvqHL

『上越よみうり』に連載中のコラム「田中弁護士のつれづれ語り」が電子書籍になりました。憲法に関わる問題についても何度か取り上げています。
販売価格は100円。こちらのリンク先(amazon)からお買い求めいただけます。スマートフォン、パソコン、タブレットがあれば、Kindleアプリ(無料)を使用して読むことができます。