概要
今回は
AIチャット
ボット
である、
ChatGPTとの
対話を通じて、
AI技術が
持つ可能性
と同時に
潜む
偏見や問題点
について
考察した内容
を説明する。
A大学で
非常勤講師を
しておられる
Bさんは
学生の
レポート課題に
ChatGPTが
利用される
可能性に
以前から
危機感を
抱いていた。
それ故、
ChatGPT自身に
自己紹介を求め、
その回答や
他の質問への
反応を分析した
内容も紹介する。
ChatGPTの自己紹介と限界
ChatGPTは
自己紹介で、
OpenAIが
開発した
GPT-3.5
アーキ
テクチャ
を基に、
大量の
文章やデータを
学習している
ため、
自然言語での
質問や会話に
応じることが
でき、
幅広いトピック
について
情報を提供できる
と述べている。
しかし、
Bさんが
原発やテロリズム
について
質問したところ、
回答には
不正確な記述
や
表面的な模範解答
が見られた。
これは、
ChatGPTの知識が
2021年9月までの
情報に基づいて
いることや、
あらゆる利用者に
不快感を与えない
ように用心深く
設計されている
事が原因である
と考えられる。
AIに潜む「白人性」
ヤーデン・カッツ氏の
著書
『AIと白人至上主義』
を引用し、
AI技術の根底に
「白人性」
が潜んでいる
可能性を
指摘する。
そもそも
「白人性」とは、
生物学的な意味
ではなく、
白人、
男性、
中流階層、
異性愛
といった
特定の
属性を持つ
人々が
優位に
立つように
作られた
フィクション
である。
AIは、
学習データに
含まれる
人間の
バイアス
や
偏見を
反映し、
既存の差別を
再生産し、
増幅させる
可能性がある。
Bさんは
ChatGPTに対し、
あなたが学習した
という
文章やデータは
『白人性』に
汚染されている
のではないか?
と質問した。
その結果
ChatGPTは、
人間が提供した
データには
バイアス偏見が
含まれる
可能性が
あることを
認めつつ、
公平で包括的な
情報を提供する
よう努めている
と回答した。
しかし、
Bさんは
この回答を
「中立性」
や
「客観性」
を装う
「白人性」
の表れではないか
と疑っている。
AIとの付き合い方
Bさんは
「沖仲仕の哲学者」
と呼ばれた
エリック・ホッファー
の言葉を引用し、
AIのような常に
答えを知って
いる存在に
頼りすぎると、
自分自身で
深く考える
ことを
やめてしまう
危険性を
指摘している。
その上で、
AI技術の
進化は
社会を
骨抜きにする
可能性があり、
私たちは
AIとの
付き合い方を
慎重に考える
必要があると
述べている。
具体的に
例をあげる。
①学生が
レポート課題を
ChatGPTに
丸投げする。
➁AIが
生成する文章が、
特定の民族性別
に対する偏見を
含んでいる。
③AIによる
採用選考が、
特定の属性を
持つ応募者を
有利に扱う。
などである。
総合
今回は
AI技術の
可能性
と同時に、
それに潜む
偏見や問題点を
提起した。
私たちは、
AIを便利に
活用する
一方で、
その限界や
リスクを理解し、
AIとの適切な
距離感を保つ
ことが重要で
ある。