盛合志帆執行役(以下、盛合):
最近はAIの研究開発の進展に伴い、NICTでも多くの分野で取り組んでいるところですが、AIの分野でジェンダーバイアスはどのような影響を及ぼしているのでしょうか。
佐々木成江先生(以下、佐々木):
例えば、ある会社が人材を採用するためにAIを活用しようと開発をしていたのですが、「女性」とか「女子大」っていう言葉が入ってくると低く評価されてしまったそうです。これはいままでの状況を機械学習で学習するので、ジェンダーバイアスがそのまま引き継がれていってしまっているためですね。
こういったことはAIの翻訳にも見られます。男性名詞/女性名詞があるフランスなどでは、「私は外科医だ」と入れると、勝手に”男性名詞の外科医”が入ってきてしまいます。 一方で「私は看護師です」と入れると、勝手に”女性名詞の看護師”が入ってしまうんですね。
それから、「理系女(リケジョ)」と翻訳に入れてみると、「愛や女性の興味などを犠牲にしてキャリアを追求している女性」と出てきてしまいます(笑)。おそらく、どこか深層学習で繋がってしまっているのだろうなと思います。
盛合:
なるほど(笑)。宇宙天気予報など自然科学データであればそういうジェンダーギャップはあまり影響がないのかなと思うのですが、今まさにNICTが注力しているLMM(Large Language Models:大規模言語モデル)とか、脳科学とか、そういったところには影響がありそうですよね。どういうふうに進めていくのがよいと思われますか。
徳田英幸理事長(以下、徳田):
インプットに関しては、性別であったり年齢であったり、 人種、民族、宗教…と様々なバックグラウンドがあることをきちんと意識して、バイアスが含まれていそうな可能性の高いデータソースは避けたり、注意を持ってデータを集めないといけないなと思います。オンラインでクローリングして取れるからといって取ってくると、アンコンシャス・バイアスが入ったまま集めてきてしまう可能性があるので。
それからアウトプットに関しては、特にNICTでもそうですが、生成AIの特に大規模言語モデルの場合には、ヘイトスピーチや著作権を侵害するようなアウトプットがポンポン出てくるので、セーフガードを工夫しないといけないかなと思っています。
佐々木:
そうですね。最近データ収集について、性別欄をなくしましょうという話があるのですが、その結果、データが取れないという問題がありました。アメリカで2019年に、あるクレジットカードを申し込んだ人が、自分より妻の方が与信スコアが高いのに、自分の方に妻の20倍ぐらいの限度額が設定されていたとツイートしたところ炎上して、ニューヨーク州の金融監督局が調査に入りました。その審査手法を作っていた企業は非常にジェンダーに配慮していて、申込書に性別の欄は設けていなかったのですが、職業やジェンダーに関わっているものが少しでもあると、AIは女性とみなしてしまうんですね。アルゴリズムにジェンダーバイアスが隠れてしまっていないかを確認するためには、性別や人種は積極的に調べていかなくてはならない。個人的には、そこを隠して平等を目指すというのはちょっと違うような気がして、属性が明らかになっている上でみんなが平等にできる社会というのを目指すべき、そこが本質的なのではないかなと思っています。属性で差が生じていないかを調べ、生じていた場合はその差をうめるような開発を目指すことが非常に重要だと思います。
盛合:
今回、職員に対してアンコンシャス・バイアスのアンケートを行った時にも、性別欄を設けました。もちろん答えないというオプションを入れつつですが、これだけ男性と女性で意識の差があるということがはっきりわかったので、 属性を答えていただくことは大事だなと改めて思いました。