
2025年の国連ビジネスと人権フォーラムでも大きな話題となったのは、やはり人工知能(AI)だ。政府や企業は先を争うようにしてAIシステムの開発や導入を急いでいる。とはいえ、先走るあまり、AI導入に伴う責任や管理の重要性となると、なおざりになっているのが実情だ。また、AIを安全に利用できるよう、生身の人間が背後で支えていることはあまり知られていない。AIの倫理性をテーマに交わされた議論を紹介する。(翻訳・編集=遠藤康子)
前回の記事はこちら
毎年11月に開催される国連ビジネスと人権フォーラム。14回目を迎える今回は、AIに対する不安や恐怖を競い合うようにあおるだけで終わってしまったのか。あるいは、AIを安全かつ公正に開発するための具体策を企業に提示できたのだろうか。
方向性を打ち出したのは、国連人権高等弁務官のヴォルカー・ターク氏だ。同氏は開会のあいさつに際し、AIは人間が作り出した怪物であり「人を巧みに操り、ねじ曲げる影響力」を持つと同時に、「とてつもない可能性」を秘めた技術であると述べた。その上で、今フォーラムではAIをテーマにした専門セッションなどが開催され、建設的な考えが示された。
AIが無自覚に導入されている現状
フォーラムでは、政府は規制当局としてのみならず、顧客としても強大な権限を握っているという意見が出た。政府と学術機関は、独自のAIシステム開発に向けてテクノロジー企業との提携を強化しているが、慎重に扱うべき問題に関して提携先企業に透明性を求め、倫理規範を推進していく権限と責任を有していることは言うまでもない。
ところが、ケンブリッジ大学と共同で実施された「AIと公平性」プロジェクトの研究によれば、公的機関がその権限を行使して責任を果たしていることを示す動きは今のところ全く見られない。それどころか、公的部門であれ民間部門であれ、AIはほぼ無自覚のうちに導入されている。
そしてAIの急速な導入は、定期的なITアップデートという形で進められ、組織側がAI導入時に格別な配慮を払うようなことはなく、その重要性を意識すらしていないケースが少なくないという声も聞かれた。
思考回路のブラックボックスが差別を招く
こうした空白を埋める上で役立つ情報はすでに、国連内に大量に存在する。例えば、国連ビジネスと人権フォーラムの作業部会は昨年5月、AIシステムの導入と人権への配慮に関して取りまとめた報告書を発表した。国連人権高等弁務官事務所(OHCHR)の「B-Tech」プロジェクトという、人権を尊重したデジタル技術の開発と利用を目指す取り組みの一環として、生成AIに対する企業側の動きを分析した資料もある。
作業部会が作成した報告書は、自社内で、ならびに自社向けにAIが開発される際のプロセスに細心の注意を払うよう企業に呼び掛けている。また、開発が頓挫した場合には法的リスクが生じ得ると警鐘を鳴らし、AI開発プロセスの透明性を大きく向上するための指針も提示している。
資産運用会社アムンディの社会調査部門責任者ルーダ・スヴィストゥノヴァ氏は、AIはそもそも思考回路や根拠が分からない「ブラックボックス」になっており、どこにリスクがあるのか特定が難しいと指摘。その問題を乗り越えるには、人権専門家とAI開発責任者の間でより直接的にやり取りするしか方法はないという意見を示した。
生成AIが下す意思決定は、偏りのある不完全なデータを学習した大規模言語モデルに基づいたものであるため、差別が生じるリスクがあるという指摘も多かった。このリスクは、社会的弱者のAIリテラシーが低いことで拍車がかかり、現在の格差をさらに押し広げる可能性があるという。
全関係者が責任を負うべき時代に
総意としては、AI企業自体にもっぱら関心が向けられるフェーズは終わりに近づき、これからは全ての企業がAIの導入に関する管理体制についてどう責任を果たしていくかに重点を置いたフェーズに移っていくという意見が大勢を占めた。
今フォーラムで最も核心を突いた発言に数えられるのは、ビジネスと人権分野の第一人者として長年活躍し、今回が最後のフォーラム参加となるジョン・モリソン氏の次の言葉だ。「AIが今まさに必要としているのは、基本的なマルチステークホルダー型の取り組み」、つまりAIに関わる多様な利害関係者がAIの議論に参加すべきという指摘だ。
AIの背後にある労働と人権侵害
アパレル系サプライチェーンで働く人の労働条件改善を訴える「ラベルの背後にある労働(Labour Behind the Label)」というキャンペーンがある。それを知っている人は、今フォーラムで「AIの背後にある労働」キャンペーンが動き出したことに気付いたはずだ。
今フォーラムでは、サービス産業労働者を代表するUNIグローバルユニオンがサイドイベントを開催。世界にはデータアノテーション(AIの学習を助けるためにデータにラベルやタグを付与して整理する作業)とコンテンツモデレーション(偽情報や不適切なコンテンツを排除する作業)に従事する人が数百万人いると言われ、そうした労働者が直面する不安定な雇用条件と深刻な心理的ストレスに光を当てたイベントだ。
コンテンツモデレーションに携わるポルトガルのエリザ氏はフォーラム出席者を前にこう語った。「私たちの仕事は、人が手首を切ったり自殺したりといった、見るに堪えない不快なコンテンツを利用者が目にしないようにすることです。実に過酷な作業で、そうした画像を1日中見続けなくてはなりません。ああ、それはもう息が詰まりそうなほどなのです」
「成人向けコンテンツを1日中視聴し、さまざまな体位や身体部位にラベル付けする作業を担当した時は、女性として到底受け入れられませんでした。担当から外してほしいと頼みましたが、続けるよう強要されました」
「ノルマを与えられていますが、達成など不可能です。ガイドラインは複雑で40ページから50ページにもなりますし、チェックする動画は1日に1000本に上ります。しかも、『承認か削除か』をただ判断すればいいわけでなく、各判断の正しさを説明しなくてはならないのです」
サプライチェーン透明化が第一歩
労働組合は引き続き、プラットフォーム労働者が不安定なパートタイム雇用から正規雇用に移行できるようにすることと、適切な保護と公正な賃金、労働組合結成の保障を要求の中心に据えて声を上げていかなくてはならない。
労働者から聞き取った内容を基に作成した詳細な提案には、有害度の高いコンテンツと低いコンテンツの担当を交代制にすること、労働時間の上限を定めること、適切な休憩時間を設けること、心理的サポートを個別提供することなどが含まれている。
UNIグローバルユニオンのクリスティ・ホフマン書記長は、少なくとも一部のテクノロジー企業がサプライチェーンの透明化を進めることが必要不可欠な第一歩だと述べた。「AIの信頼性に関する会合は数多(あまた)行われています。しかし、AIが開発される段階で生身の人間が果たしている役割となると、そうした場では蔑ろにされていると言っていいでしょう」
UNI世界ICTS部会担当のベンジャミン・パートン局長はさらに踏み込んでこう言った。「AIが社会に与える脅威について議論する際には、AIが生成するアウトプットばかりに関心が集まりますが、AIを作る過程はインプットの問題です。インプットの段階で人間を粗末に扱えば、アウトプットも粗末になるのは当然でしょう」
一般市民を有害なコンテンツから守ることは言うまでもなく、より広範な社会全体に役立つ利益である。そして実のところ、そうした利益は、大規模言語モデルを正確かつ信頼できる情報で学習させたいというテクノロジー企業のニーズと合致している。
社会のあるべき姿とテクノロジー企業の目指すところを両立するためには、AIの背後にある労働から目を背けてはならない――。今まで多くが語られていなかった倫理性の大事なポイントが議論の俎上(そじょう)に上がっていた。
SUSTAINABLE BRANDS














