人権コラム

  • 2025年07月31日
    AIとビジネスと人権

 今日では、AIの飛躍的な発展に伴って、ビシネスでもAIが広く活用され、業務の効率化や付加価値の創造に貢献するようになっている。生成AIを資料の作成や情報の収集・整理、翻訳など業務に利用している方も多いだろう。
 一方、AIにより差別的な判断が行われるなど、AIが人権に及ぼす負の影響も懸念されている。例えば、自社がこれまで採用してきた従業員のエントリーシートをAIに学習させて、応募者のエントリーシートを評価させるAIを開発しようとすると、今までの従業員に男性が多かった場合、男性がエントリーシートに書きがちなエピソードが評価されやすくなり、結果として女性が採用されにくくなってしまうかもしれない。アメリカでは、AIが黒人などマイノリティに不利な判断をしがちな傾向が指摘されている。生成AIも、もっともらしく見えるものの事実に反する「ハルシネーション」(幻覚)を生み出すことで、他人の名誉を毀損したり、差別につながるデマを生み出してしまうおそれがある。
 近年では国連や日本を含む多くの国が推進する「ビジネスと人権」という枠組みの下に、企業も人権を尊重する責任を負うべきだと考えられるようになっている。企業には、人権方針を策定・公表し、自社のビジネスによる人権への影響を特定、予防・軽減し、対処するための人権デュー・ディリジェンスを実施することなどが求められるようになっている。
 企業は、AIを開発したり利用する際にも、AIが人権に及ぼす影響をあらかじめ評価し、人権侵害のリスクを予防したり、実際に人権侵害が生じてしまった場合には適切に対処することが求められる。AIは、大量のデータから学習することを通じて高度な機能を実現している。また、AIは、さまざまなシステムで利用されるようになっている。したがって、企業には、AIだけでなく関係するデータやシステムのあり方全体を、人権の観点から継続的に見直していくことが求められる。企業には、「AIによる差別」などAIに関する人権問題に向き合うことを通じて、自社のビジネスや社会の中での差別や偏見など人権問題を認識し、人権状況を改善していくことが期待される。そのためにも、企業は、国内外の立法やガイドライン、技術標準の動向を把握して、人権への取組をアップデートしていくことが求められる。

九州大学法学研究院・法学部 准教授 成原 慧

一覧へ

このページの先頭へ