Glossary

生成AIには男性支配的な視点やバイアスが反映されやすい構造的な問題があります。これをフェミニズムの観点から整理すると、以下のような課題が浮かび上がります。

1. データの偏りと再生産されるパワーダイナミクス

• ネット上の多くのデータが、長年にわたる男性中心の文化や社会構造の影響を受けているため、生成AIが学習するデータには男性視点や伝統的なジェンダー観が多く含まれています。例えば、歴史的に男性が多く占めてきた分野(科学、技術、政治など)や、男性によって書かれた記事や意見がそのままAIに反映されやすいです。こうしたデータが学習に使用されると、生成AIもまた男性中心の価値観や視点を再生産しやすくなります。

2. 女性の視点や経験の欠如

• 生成AIが生成する内容には、女性の視点や多様なジェンダーの経験が十分に反映されないことが多くあります。これは、社会的に認識されにくい「家事労働」や「ケアワーク」、あるいは女性が多く関わる分野(例えば教育や福祉)に関するデータが限られているためです。これにより、AIが生み出すコンテンツや回答において、女性の体験や感情が軽視されるリスクがあります。

3. アンコンシャスバイアスの強化

• 生成AIが男性支配的なデータから学習を続ける限り、アンコンシャスバイアス(無意識の偏見)を強化してしまう可能性があります。フェミニズムの視点では、こうした無意識の偏見が根底にある状態を放置することは、構造的な差別の再生産に繋がりやすく、AIによる回答が性差別的、または女性にとって不利益な内容になる危険があります。

4. ジェンダーと多様性の視点が欠けた開発環境

• 生成AIの開発に携わる人々が、男性が多い状況が続くと、AIが学習するデータの選別や調整の段階で、多様なジェンダーの視点が反映されにくくなります。フェミニズムの観点では、技術開発の段階から女性や非男性的視点が関わることで、AIのデータやアルゴリズムがより公平でインクルーシブなものになるべきだと主張します。

5. ステレオタイプの固定化と新たな偏見の生成

• AIは学習データのパターンを再現する傾向があるため、従来の性別に基づいたステレオタイプ(例:女性=家庭的、男性=リーダーシップ)を固定化しがちです。このため、女性がリーダーや専門家として描かれる機会が少なくなり、AIが生成するコンテンツにおいても、女性は従来の役割に「押し込められる」可能性があります。これは女性や非男性的な人々の社会的・経済的な進展を阻害する要因にもなります。

6. ジェンダー公平なデータセットの必要性

• フェミニズムの視点からは、AIが学習するデータセットが、多様な性別、民族、社会的背景の声や視点を公平に反映するものであるべきだと考えられます。これには、歴史的に不利な立場に置かれてきた人々(女性、LGBTQ+、非白人など)の経験や意見を含めたデータを意図的に増やすことが含まれます。生成AIの学習データが広範な視点をカバーすることで、ジェンダーに対する理解が深まり、偏りの少ないアウトプットが期待できます。

7. AI倫理とフェミニズムの交差

• フェミニズムは、AI倫理とも密接に関わっています。ジェンダーバイアスや不平等が生じないようにするための倫理的な配慮が、AI技術の進化と共に求められています。特に、社会における既存の権力構造や支配関係を再生産しないようにするため、AIのデザインや開発においてジェンダーの視点を組み込むことが重要です。

生成AIの開発において、フェミニズムの視点を取り入れることで、性別に関わらず公平で多様性を尊重したアウトプットが可能になります。

ZINE

まさにこのサイトこそが生成AIによるバイアスを試している場であり、それに対する批評をこのZINEのセクションでおこなうわけなんだけど、以外とバイアスがかかってなくってChatGPTのチューニングはすごいなと思ったりしてる。

いや、きがつかないバイアスに毒されてるだけなのかもしれないけど。
みんなも気がついたら、どんどん投稿してほしい。

この記事を書いた人