ワカリタイムズ

🌍 海外ニュースを「わかりやすく」

AI動画が黒人女性を類人猿に?人種差別的表現の拡散と日本への影響は

AI技術の進化は目覚ましい一方で、その使い方によっては、過去の差別的な表現を現代に再現してしまう危険性もはらんでいます。最近、インターネット上で「ビッグフット・バディーズ」と呼ばれるAI生成動画が拡散され、黒人女性を類人猿のように描くことで人種差別的な固定観念を助長していると問題視されています。

この記事では、米WIRED誌のニュース「AI Videos of Black Women Depicted as ‘Bigfoot’ Are Going Viral」を基に、この現象の背景にある深刻な問題と、テクノロジーが社会に与える影響について深く掘り下げていきます。AIの光と影を理解し、私たちがどう向き合うべきかを考えるきっかけとなるはずです。

AIが生み出す人種差別的動画「ビッグフット・バディーズ」の実態

現在、インターネット上で「ビッグフット・バディーズ」と称されるAI(人工知能)生成動画が急速に広がっています。これらの動画は、黒人女性を類人猿のように描写しており、その内容が深刻な問題となっています。

この背景には、Googleが開発した「Veo 3」のような動画生成AIの登場があります。こうしたツールを使えば、ユーザーは簡単な指示(プロンプト)を入力するだけで、映像や音声、キャラクターを含む動画を自動で生成できます。この手軽さにより、誰でも簡単に動画を制作・発信できる時代が到来しました。

問題となっている「ビッグフット・バディーズ」動画では、派手なウィッグとアクリルネイルが特徴の「ビッグフット」風キャラクター(多くが黒人女性をモデルにしているとされる)が登場します。彼女たちはインフルエンサーのように振る舞い、「赤ちゃんパパの誤報で私が追われている」といった作り込まれたストーリーを展開します。

驚くべきことに、これらの動画はInstagramなどで爆発的に拡散されており、中には100万回以上再生されたものもあります。さらに、1カ月足らずで100万回再生を超える動画を5本も投稿したアカウントさえ存在します。

なぜこのAI動画は深刻な人種差別なのか?歴史的背景と専門家の警鐘

黒人女性を類人猿のように描くことが、単なる不適切な表現にとどまらない深刻な問題である理由は、その背後にある長い人種差別の歴史に根ざしています。

米国の著名なシンクタンクブルッキングス研究所でテクノロジーイノベーションセンターを率いるニコル・ターナー・リー氏は、「奴隷制度の初期、黒人は原始的な特徴を強調するため、挿絵で誇張されて描かれました。こうした歴史的背景があるため、これは不快で、問題なのです」と指摘します。黒人を人間以下の動物や類人猿と結びつける表現は、歴史的に黒人への差別を正当化する目的で使われてきた、非常に根深い人種差別的な固定観念レイシスト・トロープ)なのです。

さらに、動画内で使われる「アフリカ系アメリカ人方言英語(AAVE)」の戯画化も問題です。AAVEはアフリカ系アメリカ人コミュニティで育まれた豊かな文化を持つ言語表現ですが、AIによって歪められ、ステレオタイプなイメージと結びつけられることで、過去の差別的な表現をなぞる結果となっています。

WIREDのシニアライターであるジェイソン・パーハム氏は、これらのAI動画を「新しいミンストレルショー」と評しています。ミンストレルショーとは、19世紀から20世紀初頭にかけて米国で流行した、白人が顔を黒く塗り、黒人を愚かで劣った存在として演じた人種差別的な舞台芸能です。AIによって容易に生成される「ビッグフット・バディーズ」は、テクノロジーを使い、このミンストレルショーの持つ差別的な性質を現代に蘇らせていると言えるでしょう。

テクノロジーに潜む偏見と企業の責任

AIは中立的なツールに見えますが、実際には開発者の意図しない形で社会の偏見を増幅させてしまう危険性を秘めています。

AIは、学習の基となる膨大なデータからパターンを学び、コンテンツを生成します。そのデータが、インターネット上に存在する過去の差別的な表現やステレオタイプを含んでいる場合、AIはそうした偏見を無批判に学習し、再生産してしまうのです。黒人女性を類人猿のように描く動画が生まれる背景には、こうしたAIの仕組みが関係しています。

ニューヨーク大学の教授であり、著書『More Than a Glitch』で技術に潜むバイアスを論じるメレディス・ブラウサード氏は、「ジェネレーティブAIの問題の一つは、開発者が、人々がお互いにどれほどひどいことをできるか全てを想像できないことです」と述べています。つまり、技術の作り手側が、あらゆる悪用を想定して完璧な対策を講じることは極めて困難だという現実があります。

この問題は、AIを開発するテクノロジー企業と、それを利用するクリエイター双方に重い責任を問いかけます。企業には、自社技術の悪用を防ぐための倫理的なガイドラインや監視体制の強化が求められます。同時に、クリエイターは自らが作り出すコンテンツの影響力を自覚し、歴史的に差別されてきた人々を傷つけるような表現を避ける倫理観を持たなければなりません。AIは単に画像や動画の操作を容易にしただけでなく、その拡散を促すアルゴリズム自体が、社会的な問題を加速させる可能性があるのです。

対岸の火事」ではない 日本に住む私たちとAI倫理

AIによる人種差別的なコンテンツの問題は、決して海外だけの話ではありません。日本でもAI技術が急速に普及する中で、同様の問題が起こる可能性は十分にあります。この問題を「対岸の火事」と捉えず、私たち自身の課題として向き合うことが重要です。

AIが生成するコンテンツは非常にリアルで、一見すると本物と見分けがつかないこともあります。だからこそ、私たちは情報を鵜呑みにせず、「これは誰が、どんな意図で作ったのか?」と批判的に考える視点、すなわち情報リテラシーが不可欠です。特にSNSで拡散される情報に対しては、その出所や信憑性を一度立ち止まって考える習慣が、差別的な情報に惑わされないための防御策となります。

多様な価値観が尊重される社会を守るため、私たち一人ひとりにできることがあります。

  • AI生成コンテンツへの意識: AIが作ったものだと認識し、倫理的な問題がないか考える習慣を持つ。
  • 差別的なコンテンツの報告: SNSなどの報告機能を活用し、プラットフォームに問題を知らせる。
  • 多様性への理解: 書籍やドキュメンタリーなどを通じて、異なる文化や背景を持つ人々について学び、固定観念を乗り越える。
  • 建設的な対話: 家族や友人とAIの倫理について話し合い、様々な視点から理解を深める。

AI技術を賢く、そして倫理的に活用していくためには、私たち自身が学び、主体的に行動していく必要があります。

AIは社会を映す鏡 私たちの倫理観が未来を創る

AIは、私たちの社会が持つ光と影を、良くも悪くも映し出す「鏡」のような存在です。「ビッグフット・バディーズ」の問題は、その鏡に映った、私たちがまだ乗り越えられていない差別の歴史という深刻な一面に他なりません。

今後、AIによるコンテンツ生成技術はさらに進化し、誰もが簡単にリアルなコンテンツを作れる時代が到来します。これは創造性の爆発という素晴らしい機会であると同時に、悪意ある情報が社会を混乱させるリスクも高めます。テクノロジー企業による規制や法整備も重要ですが、それだけでは追いつかないでしょう。

最終的に問われるのは、AIという強力な道具を手にした私たち「使う側」の倫理観です。AIが生成した情報に触れたとき、ただ受け取るのではなく、「誰かを傷つけていないか?」と一歩立ち止まって考える習慣が、これからのデジタル社会に不可欠なスキルとなります。

技術の進化のスピードに、私たち人間の思いやりが追いつかなければ、AIは意図せずして社会の分断を深める道具になりかねません。AIという新しい鏡に、どのような未来を映し出すのか。その選択は、私たち一人ひとりの手に委ねられているのです。