ページの本文へ

Hitachi

公益財団法人 日立財団公益財団法人 日立財団 日立財団グローバル ソサエティ レビュー日立財団グローバル ソサエティ レビュー

鼎談科学技術 × 多文化共生

多文化共生社会とテクノロジーがどう向き合うのか

是川 夕 写真
編集委員長/博士(社会学)/国立社会保障・人口問題研究所国際関係部 部長
是川 夕
東京大学文学部,同大学大学院人文社会系研究科博士課程修了。2012年から国立社会保障・人口問題研究所に勤務。専門は社会人口学,移民研究。出入国在留管理庁「技能実習及び特定技能制度の在り方に関する有識者会議」委員,OECD移民政策専門家会合(SOPEMI)メンバー等を務める。
南澤 孝太 写真
慶應義塾大学大学院メディアデザイン研究科(KMD) 教授/科学技術振興機構ムーンショット型研究開発事業・目標1 プロジェクトマネージャー
南澤 孝太
2005年東京大学工学部計数工学科卒業,2010年同大学院情報理工学系研究科博士課程修了,博士(情報理工学)。KMD Embodied Media Projectを主宰し,身体的経験を共有・創造・拡張する身体性メディアの研究開発と社会実装,Haptic Design Project を通じた触覚デザインの普及展開を推進。日本学術会議若手アカデミー幹事,テレイグジスタンス株式会社技術顧問。
慶應義塾大学義塾賞,計測自動制御学会技術業績賞,日本バーチャルリアリティ学会論文賞・学術奨励賞,グッドデザイン賞など各賞受賞。
KMD Embodied Media Project https://www.embodiedmedia.org
JST Moonshot │ Project Cybernetic being https://cybernetic-being.org
Haptic Design Project http://hapticdesign.org
岸本 充生 写真
大阪大学D3センター(旧・データビリティフロンティア機構) 教授/大阪大学社会技術共創研究センター(ELSIセンター)長
岸本 充生
1998年京都大学大学院経済学研究科後期博士課程修了。博士(経済学)。専門はリスク学,政策評価。
通産省工業技術院資源環境技術総合研究所,独立行政法人産業技術総合研究所,東京大学公共政策大学院を経て,現在は,大阪大学D3センター(旧・データビリティフロンティア機構)教授。大阪大学社会技術共創研究センター(ELSIセンター)長を兼任。

是川:今回は多文化共生社会とテクノロジーの関係性を考えたいと思います。これまでも,科学技術と倫理の間には様々な問題がありましたが,AIや生成AIは,社会の写像としての部分が非常に大きく,それを実装していくなかで,よりインタラクティブになっていくと考えられます。ただ,そこではアンコンシャス・バイアスなども懸念されています。私は主に移民研究に携わっていますが,AIの移民政策分野での活用はかなり進んでいます。ただ国際的に見ても,まだこの分野でのまとまった書籍や論文はなく,日本ではディスカッションすらない状況で,そうしたなか,この雑誌でいち早く取り上げることに意味があると思っています。では,最初にそれぞれの研究の内容と,現時点におけるこのイシューに関しての問題提起などもお話しください。

南澤:僕は慶應義塾大学の大学院メディアデザイン研究科(KMD)で教授をしています。学生時代からバーチャルリアリティ(VR)の研究を始め,特にハプティクス(触覚)を専門としています。ハプティクスとは,利用者に振動や力を与えることで,実際にモノに触れているような触覚を伝える技術で,触覚が情報として共有できることでコミュニケーション向上はもちろん,人間の体を使った様々な行動や技能を伝え合えるようになります。現在は,「身体性メディア」というテーマで,人の身体的な経験を伝え合う技術の研究開発に取り組んでいて,サイバネティック・アバターと呼ばれる,人がCGの身体やロボットを遠隔操作することで空間や時間を超えて活動できるようになる技術の研究開発と社会実装にも携わっています。

多文化共生社会というキーワードで絡むポイントは2~3あると思います。なかでも大きいものとして,僕が内閣府のムーンショット型研究開発制度のプロジェクトマネージャーとして取り組んでいる,障がいや加齢により身体が思うように動かない人がサイバネティック・アバターを通じて社会参加できる仕組みづくりが挙げられます。その中でも代表的なものが,日本橋にある「分身ロボットカフェ」です。オリィ研究所の吉藤健太朗さんが提唱し推進されているこのカフェは,「障がいをはじめ様々な理由で家から出られない方々が,アバターロボットを遠隔操作することで社会との接点を持てるようになる」ことをミッションにしています。また,サイバネティック・アバターの技術をLGBTQ+の当事者の方々と使っていく研究も進めており,たとえば,トランスジェンダーにおける肉体と心のギャップを,アバターを使って解消するという試みも行っています。カウンセラーと会話するときなどにも,自分の心に馴染む見た目のアバターを使った方がスムーズなコミュニケーションを行えることが示されつつあり,身体をデザインすることで心の障壁もテクノロジーで解消できる可能性が生まれてきています。

岸本:私は元々経済学の出身で,1998年に工業技術院(今の産業技術総合研究所)に入りました。ちょうど独立行政法人化する直前で,そこに社会科学系の研究者として最初に入った人間です。15年ほど在籍し,テクノロジーのリスクアセスメント,安全性評価といった仕事に従事しました。法規制の問題や社会受容性といった心理学的な話まで,幅広く対応しました。その後,東京大学の公共政策大学院に3年ほどいて,Risk and Regulatory Policy(リスク影響評価論)という授業を受け持っていました。2017年には,できたばかりの大阪大学のデータビリティフロンティア機構に移りましたが,ここは昨年10月,学内組織再編で,D3センターという名前に変わっています。当初は私以外,周りは全員AI研究者やデータサイエンティストで,企業や学内他部局の研究者と一緒に共創プロジェクトに取り組んでいました。例えば,データを持つ人と解析手法を持つ人を合わせて,一つのプロジェクトを作ったりしました。その中で私は,パーソナルデータを使う際のプライバシー周りの課題を担当していました。さらに,2020年4月に設立された社会技術共創研究センター(ELSIセンター)のセンター長もやっています。学内他部局だけでなく,企業との新しい科学技術の倫理的・法的・社会的課題(ELSI)に関する共同研究を多数実施していて,日本における人文社会系の産学連携におけるパイオニアになっています。

VRによって編集可能になった“身体性”の可能性とは

是川:南澤先生からお話のあった触覚,身体性ということですが,これまで哲学において“身体性”については,あまり掘り下げられてこなかったと思います。身体性それ自体が客体として使われたとき,個人の間でそのあり方はかなり異なります。そういったとき,例えば出身国や育った環境が違うなかで,「異なる身体性」が多文化共生社会のなかで論点としてあると思います。

南澤:身体性については,今,VRの技術がかなりこなれてきており,アバターと呼ばれる,自分の肉体とは別の身体を持ち,アバターに任意の編集やデザインを施すことが可能になっています。アメリカでの例を見ると,たとえば白人男性と黒人女性を被験者として,それぞれ相手の身体を模したアバターに入ってもらい,VR空間で会話をすると,コミュニケーションに違和感やギャップがあることに気づき,アンコンシャス・バイアスの解消につながることがわかっています。あるいは,自閉症や引きこもり,身体に障がいのある方など,自分の身体で外に出ることが困難な人がアバターを通じて外のコミュニティとの接点を持つこともできます。デジタル空間上でコミュニケーションができるようになったら,次の段階として実世界での肉体のコミュニケーションに進むハードルも下がるでしょう。このようなデジタルと実世界とのグラデーションを編集しコントロールできるところが,この技術の面白いところです。

もう一つ,VRを使えば“人の主観”にも入れます。本を読んだり映像を見たりして得る情報は,どうしても視点が第三者的になりがちですが,触覚や身体性を共有できれば強制的に“自分事”になっていきます。その人しか感じ得ない感覚がこちらの体に入ってくることで,文化,宗教,地域の違いなどで他人事だったものを主観的体験として伝えることができるわけです。

是川:ちなみに他者の触覚を再現して自分事として感じる場合,具体的にはどういうインターフェースで感じるのですか。

南澤:ハプティクス技術による触覚の提示は,コントローラのような道具を持つだけでもできるし,あるいは机や椅子などの家具に振動を与えるパターンもあります。スマートフォンを通じて画面の向こうで起きていることを触覚的に感じられるシステムや,スーツを着て,頭にヘッドセットを被って,全身でその世界に入るフルダイブのシステムなどがあります。基礎研究としては,温度や痛み,硬さなどを伝えることもできますが,社会実装の方では主に振動を用いて“素材感”を伝える技術が浸透してきています。ザラザラ,サラサラ,ゴツゴツなど,振動で表現できる触覚は比較的簡単に伝えられるので,そこに様々なコンテンツやアプリケーションを載せていき,ニーズが高まったところに温度や硬さなどより高度な触覚情報を加えていくのが良いだろうと思っています。

是川:そういう場合,中の処理にAIは入ってくるのでしょうか。

南澤:そうですね。今,ChatGPTはネット上にあがっている文章,画像,動画などを学習することで自然な応答が可能になっています。一方,身体感覚や触覚,運動の感覚は,まだネット上にあがっていません。これらの感覚を情報としてどんどんあげていければ,やがてGPTができます。僕らはそれを“身体性のGPT”と呼んでいます。近い将来,人の技能や運動能力などもAIによる生成の対象になり,人間の作業もどんどんAIとロボットで置き換えられていくでしょう。

是川:ちなみに主観に入り込んでものを見るときに,最初に受け取る他者の主観をインプットし,受け取るとして,それに対する反応もデータとして採取されているのでしょうか。

南澤:人の反応を取るには,表情をカメラで捉えたり脳波を測ったり唾液や血液からホルモンバランスの変化を捉えるような方法もありますが,僕らはいわゆる生体データ(心拍,発汗)を測って,様々な働きかけに対して人の情動にどういう影響が出てくるのか,というのを観ています。たとえばBoiling Mindというプロジェクトでは,ダンサーの舞台の観客にリストバンドをつけてもらい,数十人の観客の生体データをリアルタイムで測定して,ステージ上の光や音の演出で表現したことがあります。そうすると,舞台上のダンサーは観客の心の状態が反映された空間で演じることになり,ダンサーの演技で観客が興奮すればステージ演出も激しくなり,音楽のビートが速まってステージの色が赤くなっていき,更に観客の心を掻き立てる。これを僕らは集合的沸騰(Boiling Mind)と呼んで研究を行っていました。このように,テクノロジーを使って人に働きかけて,その反応を測るのも大事ですし,測ったデータをもとに再び人に働きかけることで,さらに大きな循環を作ることもできます。

科学技術が多文化共生に及ぼす貢献と危険性を考える

是川:岸本先生はELSIセンターで様々な新しい研究の立ち上げやご支援をされているなかで,先端科学技術が多文化共生に対して,ポジティブな面で貢献していく部分についてどう感じていますか。

岸本:まず,バイオメトリクス認証(生体認証)には注目しています。というのも,世界には戸籍制度がない国があり,IDを持たない人が大勢います。そういう地域へ援助物質や寄付を届ける際,生体情報を使い個人の口座を作れば,直接個人の口座に届けられます。そのため利用に積極的な国際援助機関も増えています。ただ,そこには同時に個人情報の流出という危険が伴うため,例えば支援団体であるOxfam(オックスファム)などは使用をしばらく見合わせていました。実際,ロヒンギャの難民のデータが元の国に渡ってしまい,「国外逃亡者,反政府派」というレッテルを貼られてしまう可能性があるという報道がありました。生体情報は大変センシティブなデータなので,扱うことに対するメリット・デメリットは当然あります。

もう一つ注目しているのは感情分析技術です。顔認識技術はすでにパソコンやスマホを開けるとき,あるいは会場での入退場などでも使われていますね。感情分析技術の課題は,単に認証するだけでなく,人の顔から感情分析ができてしまうことです。極端な例で言うと,顔情報をもとにした学習データセットに基づいてアルゴリズムを作り,「この顔はこれから犯罪を起こす危険性がある」ということがわかるシステムを作ることは技術的には可能です。しかし,その学習データセットにダイバーシティがなければ大変なことになりますよね。しかも,正確性が増した場合でも100%ではないので,フォルスポジティブ(偽陽性)が起こり,人権問題となります。

是川:AIと言っても,基本は人間の学習モデルを教えるだけなので,「お前は顔が怖いから犯罪者だ」と言っていることと何も変わってない状態なわけですね。

岸本:そうなのです。だから,今ある情報から作成された学習データセットをそのまま使うのなら,結局,私たちの持っているバイアスを再現するだけですし,もっと言うと,そうしたバイアスの拡大再生産を強くしていくだけなのです。一方で,日本人のなかには,中高年の男性面接官よりもAIを使ったオンライン面接のほうが公平だと思う人が一定数います。彼らは人間の持つバイアスをリアルに体験しているので,AIのほうがマシだと思うのです。これが欧州だと,いくら人にバイアスがあるとしても,やはり最終的判断は人がすべきだという価値観が強いので,根拠がブラックボックスであるAIやデータのみに基づく意思決定に対する警戒心があります。

是川:技術と人間の関係に対して,対立的に見るのか,親和的に見るのか,という問題ですね。「人間と人間ならざるもの」の区別や峻別が厳格ないわゆるキリスト教の教えと,物にも魂があると考える日本人だと,AIや先端科学技術の受容の仕方でもだいぶ違いがあるのでしょうね。

南澤先生の研究では触覚情報を取ってフィードバックをかけるということですが,実際に再現する技術だけでなく,フィードバックやデータ収集のシステム,実際に収集されたデータをほかの研究チームと統合するなど,いわゆるデータベース化する方向の研究もされているのでしょうか。

南澤:こういうのはプラットフォームが立ち上がらないとデータが取れないので,それをどこが取るのか,というのが今の問題ですね。音声で言えば,今はほとんどAmazonのアレクサとGoogleの2強になっています。結局,最初にその領域を取った企業が勝ちなんです。触覚伝送の国際標準という観点ではAmazon-Apple連合が一歩進んでいるようです。iPhoneを使ってAmazonで物を買うとき,触覚を通じてリアルな素材感を感じることができるようになる一方で,どのような素材が好みかという情報は握られてしまう,かもしれない。つまり,“個人情報を売り渡してベネフィットを受ける”という関係性ができつつあるわけです。それを日本で国内だけで作るのは多分無理だし,あまり意味がない。でも,世界中のデータが1か所に集まると,そこだけが強くなりすぎてしまいます。今後さらに技術が進化して,人や企業が持っている技能やスキル,経験までもがデジタル化できるようになったときに,そのプラットフォームを誰が担うのかということが課題です。

岸本:でも,それを多文化共生的な観点で言うと,少数民族の文化や絶滅しかかっている言語などを保存する際に使うことはできそうですね。

南澤:僕らも今,沖縄の伝統的な陶芸家さんの技能のデータを取っていますが,当初想定していた以上に,先端技術を使って自分たちの技を継承することには肯定的でした。こういった領域にもデジタル技術をもっと取り入れていくべきだし,少子化の今,伝統や技能を残していくためにも必要でしょう。ただ一方で,多文化状態を維持するのも大事で,単に技術的な効率化のみを求めるとどうなるか。レインボーカラーを全部混ぜるとただのグレーになるのと一緒で,画一化してしまわないように工夫が必要だと思います。

多文化共生にとって生成AIは脅威なのか?共存のための知見とは

是川:岸本先生はELSIにおいて,いろいろなテーマを扱われていますが,多文化共生について議論する動きはありますか。

岸本:我々は今,AIも含め,できるだけその技術の早い段階,可能ならば技術開発段階から一緒に取り組み,問題をあぶり出そうとしていますが,そのとき議論されるべき事項の一つが,「ステークホルダー」は誰かということです。技術のもたらす社会への影響が大きくなってくると,単なるユーザだけでなく,国民全体がステークホルダーになりえます。当然,外国人,高齢者,子ども,障がいを持っておられる方など,みんな入ってくる。使いたくない人,使えない人などもカバーする必要がある。つまり,ステークホルダーのスコープがどんどん広がり,ますます多文化要素も入ってくる。そうなると,文化によって捉え方が違うことがあるので,そういう観点で検討をすることは必要になってきていますね。

南澤:今,僕らが大事にしているのは,共創的デザイン(Participatory Design:技術を使う当事者とともにデザインする)という考え方です。当事者とともにデザインする中で研究者は具体的なニーズがわかって最適な解決策を提案できるし,当事者側はその技術を使って自分たちで自分たちの課題解決ができる。こういった流れはヨーロッパの情報学の研究ではかなり進んでいます。ただ,こういった取り組みの中で,法律の壁が立ちはだかって,グレーゾーンになっていることが浮彫りになってくることがあります。身体に重度の障がいをお持ちの方の場合,肉体は24時間介護による支援が必要なのに,アバター技術を使って自宅や病院から働けると,「働けるなら介護はいらないだろう」というロジックで介護が切られてしまいます。理不尽ですが,つい最近まで肉体と労働が不可分だった時代ではそれが当然だったわけです。幸い,現在は自治体単位で制度を整備することで,オンラインで働いている間も介護を継続できる特例が適用可能になっていますが,その対応状況は自治体によってまちまちです。このように,技術の進化にルールが追いついてないケースはいくらでもあります。研究活動の中でこのギャップを可視化するサンドボックスを作って,それを皆さんに投げかけて,どういう手順で新しい技術に新しいルールを適用していくのかを考えるのが,今後の課題ですね。

是川:情報科学のベースには統計学があって,統計学では平均値を取り,外れ値や少数のものはノイズとして捨てていきます。それに対して科学技術を扱われてる方々は,どういう倫理的な態度を取っていくのでしょうか。

岸本:生成AIは多数派主義なので,放っておくと少数派が全く無視されてしまいます。例えば,初期のころ,画像生成AIで「社長」や「大統領」の画像を作るように指示すると,白人の高齢男性しか出てきませんでした。最近は修正が施されて女性やアフリカ系が入っていますが,アジア系や中東系,あるいは若い人はいません。政治家や医者ではジェンダーの観点からいうと男女半々がよいように思いますが,例えば,アメフト選手やチアリーダーなどどんなバランスで出すのが正解なのかわからないものもあります。現在あるバイアスを拡大再生産する傾向があることを,生成AIを使う人は知っておく必要があるでしょう。私が思うに,多文化共生にとって生成AIは,かなり脅威です。生成AIはありそうなもの,つまり平均を狙ってきますし,AIはデータ化されたものしか学習しないので,そもそもデータ化されていない少数民族の画像や文字は反映されません。基本は英語圏や欧米中心なので,初期のころは「日本の○○」と指示したら,「富士山・芸者」といった,かつて欧米人が日本をイメージしていたものが出てきました。そういうバイアスの改善は進んでいますが,今後も意識し続けておく必要がある部分です。

南澤:生成AIのシステムを考えると,バイアスを解消するためには,男女ぐらいの二極化ならまだいいのですが,ナショナリティ,生活スタイル,身体性など,いろんな違いがひしめき合ってる中で,それを全部トップダウンで保護するという考え方は,成立しないでしょう。これから大事になるのは,それぞれのコミュニティが自ら生成AIの学習に対して働きかけること。つまり,積極的に生成AIにデータを提供することです。実はそれが生成AIの世界の中で多文化を守る一つの手段なのだと思います。生成AI時代に生きる個人が持つべきコンピテンシー(行動特性)として,自分たちのコミュニティの価値観をAIの学習に組み込んでいくことが必要になってきます。インターネットに写真や文章をあげるだけでもいいのです。

インターネットのもたらした功罪も検証が必要

是川:昨今は情報科学が作った一つの情報空間が,参加する民主主義の一つのプラットフォームになる状況もあります。今までは,生の経済社会が民主主義の舞台でしたけども,そこに情報空間が誕生しています。現在は,リテラシーとコンピテンシーといった言葉で表現されるような,参加の問題こそが民主主義の主要なテーマだと思いますが,岸本先生は,情報空間による民主主義の再構築については,どうお考えですか。

岸本:難しいですね。私は大学でSociety 5.0とかスマートシティについて議論をしている一方で,自治会長として,回覧板を回しています(笑)。このギャップはなんだろうと,ときどき考えてしまいます。そういう意味で,情報空間に対して,少なくとも若者は取り込めますが,やはり高齢者はどうするのかという問題があり,インクルーシブを情報技術だけでやるのは,まだまだ遠い気はしています。

是川:確かに,情報空間への参加自体が一つの社会的分断でもありますね。そういう意味では,多文化共生という文脈でも,外国から来た人たちが日本語で作られている情報空間に参加できるのか,という話も出てきています。

南澤:ただ,アクセシビリティに関しては,デジタルだからできることも多くて,言語の問題はどんどん解消されています。紙だったらその場で翻訳はできないけど,デジタルでならできますから。そういう意味では,高齢者問題は別として,アクセシビリティは良くなっているのは確かです。結局,「これ,使えない人がいるから使わないようにしよう」とやっていると,いつまでも社会は変わりませんよね。

是川:インターネットの黎明期には,希望的にデジタル民主主義,ネチズンなどと言われて,「誰もが発信者になれて,物理的制約があった民主主義がアップグレードされる」と考えられていましたが,30年経って起きたことは,デジタル分断と独裁主義が進み,治安の悪い場所になってしまったと感じています。

南澤:少し前までは,個人が望む情報を最適化して提供するパーソナライゼーションは情報技術の最先端だとされ,みんなこぞって研究し,企業も実装していましたが,生み出したのはフィルターバブルという現象で,米国の分断や英国のBrexitの大きな要因になりました。これをどう総括するべきなのか。今は本当に10年とか20年のスパンで未来を想定し検証しなければいけませんよね。20年前にパーソナライゼーションの技術を推進しないという選択肢はなかったと思いますが,だとしたら,その功罪をどう振り返ればいいのか。僕の中でまだモヤモヤしている問題です。

是川:欧米では先端技術を実装したインターネットが排外主義の温床になっています。個人単位ではいい人が多いのに,集団となると強烈な分断が起きています。そこのギャップはELSI問題そのものなのかもしれないですね。

岸本:原因の1つにアテンションエコノミーと呼ばれる経済モデルがあり,閲覧数で儲かるという仕組みがインターネットの原理になっているので,そこに最適化するようにコンテンツが選ばれます。ネットをつけたら自分の好みに合ったYouTubeやTikTokが勝手に流れて,そこに身を任せるのが一番楽なので,わざわざ自分でワードを入れて検索する人は減っています。そのあたりのギャップかなと思っています。やっぱり情報を得るにもエネルギーが必要なのですよ。

是川:そういう意味で,こういう情報交換の場は必要ですね。私も多文化共生や移民政策などに関わっていますが,情報空間における発展や進展が,ここまで来ているとは思っていませんでした。こういう意見交換や情報交換のプラットフォームは,今お二人が関わってる分野にはありますか。

南澤:国の科学技術戦略としても,今,「総合知」という言葉でまとめ始めていて,その理念はまさに今お話ししていることだと思います。つまり,技術や新しいサイエンスが社会に影響を与える時間のスパンが短くなっているなかで,責任を持ってやるためには,社会科学と,自然科学や工学が連携し,あるいは産業界とも連携することが大事で,多様性をちゃんと温存できる社会をそれぞれの分野で作ろうという流れになってきています。個々の研究者を見ても,様々なステークホルダーと連携することに対して,みんな結構ポジティブになってきているし,必然性を持って行われています。いま自分たちが作っている技術は,10年後の自分の生活に関わる話なわけで,もはや自分自身が当事者なのです。AIも日進月歩です。そうなると,当事者性を持ちながら研究や活動をしていくことがますます重要で,当事者性を個人からさらに広げていくために,いろいろな人とコラボレーションすることが大事なのだと思います。

岸本:結局,技術的にできることと社会的にやって良いことのギャップが徐々に開いていって,それがあるレベルを超えると社会問題になり,そこで総合知的な知見が必要になってくるわけです。開発当初は研究だけをしていればいいけれど,社会実装になったときに問題が起きて,どうしても技術的にできることと社会的にやって良いことの間の線引きが必要となり,そこに人文社会科学の知見が必要になってくる。法律は技術の後追いになるので,結局,依って立つべき考え方,すなわち倫理が必要になり,ELSIの考え方が必要となるわけです。社会的にどこまでやって良いのかについての正解は1つではないし,またそれを決められるのは倫理学者でもないと思います。正当性は最終的にきちんとしたプロセスを踏むことでのみ担保できるものと思います。だからこそ,多様なステークホルダーが早い段階から意思決定プロセスに参加することが大事なんです。正しいか間違ってるかがわからないものに対して正しいことを担保するためには,適切なプロセスを最初に決めて,それをたどるしかない。それが「総合知」なのかなと思います。

是川:なるほど。最初お伺いした新体制の話やそこを通じた学習や追体験などに関してはすごくポジティブだと思いましたし,情報空間の可能性が広がっていることも,多文化共生の文脈でもあるのかなと思いつつ,一方で,そういう“情報の帝国”ができているところに対して,一人ひとりに悪意はなくても,結果的に集合レベルになると合成の誤謬みたいなことがあって,インターネットこそが民主主義を掘り崩すみたいなこともある。炎上は局所的なものですが,実際にもたらしてる影響は大きい。だから,その辺は私たちもちゃんと見ていかなければいけないと,改めて思いました。ちなみに,ネットには移住を促進する面もあって,情報を拾えるチャンスも広がっています。ただ一方で,行った先で強い排外主義に遭うことも増えていて,功罪両方あります。先ほど生体情報の話で,ロヒンギャの難民の話がありましたが,難民申請をする人たちが自分たちの身分証明になる書類をブロックチェーンで暗号化して,当局には知られない形で受け入れ先に認めさせるという技術もあると聞いています。多文化共生社会にとって,この技術が今後どうなるのか,注視していくべきだと感じました。本日は,情報技術やELSIの専門家とお話をする貴重な機会をいただき,本当にありがとうございました。

Vol.4に戻る