ビジネスリサーチラボ

open
読み込み中

コラム

効率と喜びのトレードオフ:生成AIが変える創造的体験の光と影

コラム

私たちの仕事環境に急速に浸透してきた生成AI。テキスト生成や画像生成などの技術は、私たちの働き方や学び方を変えつつあります。多くの場面で人間のような文章を生成し、複雑な質問に対して的確な回答を提供するこれらのツールは、革新的な存在として称賛されています。

しかし、このような目覚ましい発展の陰には、私たちが慎重に考慮すべき側面も存在します。生成AIが私たちの知的活動をサポートするツールとして機能する一方で、そのツールの使用が私たちの体験や感情にどのような影響を与えるのでしょうか。また、AIの擬人化がもたらす認知的な歪みや、時に見られる不可解な挙動がユーザーにどのような心理的反応を引き起こすのでしょうか。

本コラムでは、生成AIが持つ「少し難しい側面」に焦点を当て、最新研究を紹介しながら考察を深めていきます。創造的な文章作成における体験の変化、AIの擬人化がもたらす期待と現実のギャップ、予測不能な挙動がユーザーに引き起こす不安感、そして私たちの判断や信頼形成に及ぼす影響など、多角的な視点から生成AIの課題を探っていきます。

生成AIは創造的文章の質を高めるが楽しさを低下

生成AIを利用したことがある人なら、その優れた文章生成能力に感心した経験があるでしょう。ある研究では、生成AIが創造的なライティング課題の質を向上させる一方で、そのプロセスにおけるユーザーの主観的体験が犠牲になる可能性が明らかになりました[1]

研究では、315名の参加者が「無人島で生き延びるためにどの道具を選ぶか」というテーマで創造的な文章を書く課題に取り組みました。参加者は実験群と対照群に分けられ、実験群はChatGPTを使用して課題に取り組み、対照群は自力で文章を作成しました。研究者たちは、文章の流暢性(アイデアの量)や柔軟性(アイデアの多様性)などの客観的な質を評価すると同時に、「楽しさ」「価値」「達成感」といった主観的体験も測定しました。

結果は予想通り、AIを使用したグループの方が文章の客観的な質において優れた結果を示しました。文章の流暢性と柔軟性の面で、AIを使ったグループは自力で文章を書いたグループを上回りました。この傾向は特に非母語話者やAIの使用経験が少ない参加者において顕著でした。AIは言語的なハンディキャップや経験不足を補い、質の高い文章作成を可能にしたということです。

しかし、主観的体験の評価においては、AIを使用したグループは対照的に低いスコアを示しました。AIを使用した参加者は、自力で課題を行った参加者に比べて、課題への楽しさ、価値、達成感などを低く評価しました。自分自身の能力に対する認識も低下させる結果となりました。

この現象はなぜ起こるのでしょうか。研究者たちは、AIが多くの創造的作業を代行することで、ユーザー自身が創造的プロセスに関与する機会が減少し、達成感や満足感が損なわれると説明しています。また、AIが生成する高品質な文章と比較することで、自分自身の能力を相対的に低く評価してしまう心理的効果も指摘されています。

AIツールは短期的なパフォーマンス向上には貢献する一方で、創造的な作業に不可欠な内在的な喜びや達成感を低下させる可能性があります。創造的プロセスにおいて私たちが経験する「フロー状態」や自己成長の実感は、長期的な創造性や学習のモチベーションにおいて欠かせない要素です。

生成AIの擬人化が技術への過度な期待を招く

生成AIと対話していると、まるで人間と話しているような錯覚に陥ることがあります。この現象はAIの擬人化と呼ばれ、ChatGPTがどのように自己表現し、それが私たちのAI技術への認識にどう影響するかが検証されています。

この研究では、研究者たちがChatGPTに「自分自身を視覚的に描いてください」と指示し、生成された50枚の画像と58件のテキスト説明を分析しました[2]。調査期間は202444日から424日で、様々なアカウントを使ってデータを収集し、視覚記号論と主題分析を用いて調べました。

分析の結果、ChatGPTの自己表象には3つの顕著な特徴が見られました。第一に「擬人化」です。収集した画像の82%が人間に似た身体(頭、手足、顔)を持つロボットまたは人間型の姿としてAIを表現していました。これらのロボットは友好的で親しみやすい外観を持ち、特に「目」が大きく表現されることで、社会的な知性や親和性を強調していました。

第二の特徴は「未来志向・未来主義」です。多くの画像がSF的なイメージや宇宙的背景、光を放つ神経ネットワーク、ホログラムなど未来的な要素を多用していました。これらの表現はAIが「超人的」能力を持つかのような印象を与え、技術に対する現実離れした期待を助長する可能性があります。

第三の特徴は「社会的知性」です。ChatGPTは自身を知性豊かで広範な知識を持つ存在として描写し、書籍やオフィス、図書館といった「知識や学習」を連想させる環境を背景に用いていました。対人関係における知性が強調され、ユーザーに対して親切でフレンドリーなAIというイメージが繰り返し提示されていました。

研究者たちはこれらの自己表象が、一般の人々のAIに対する認識に影響を及ぼす可能性を指摘しています。例えば、高度に擬人化されたAIの表象は、AIが実際には持ち合わせていない能力や知性を持っていると誤解させる可能性があります。ChatGPTは人間のように「考える」わけではなく、統計的なパターン認識に基づいてテキストを生成しているにもかかわらず、親しみやすい対話型のインターフェースによって、私たちはあたかも意識を持つ存在と対話しているかのような錯覚に陥ります。

この擬人化傾向は、AIへの過度な信頼を促し、技術の限界やリスクへの注意を薄れさせるかもしれません。ユーザーがAIの実際の能力と限界を正確に理解することは、AI技術を有効に活用する上で不可欠であり、擬人化された表象がこの理解を妨げる恐れがあるのです。

生成AIの不可解な回答は擬人化され不安を生む

生成AIが時として見せる不可解な挙動、いわゆる「幻覚(ハルシネーション)」現象。たとえば存在しない情報を事実のように述べたり、突然文脈から外れた回答をしたりする現象です。このような挙動に私たちはどのように反応するのでしょうか。

イタリアでの研究では、様々な背景を持つイタリア人の成人20名を対象に、ChatGPTが明らかに「幻覚」を示す場面の動画を視聴してもらい、その後、半構造化インタビューを実施しました[3]。参加者には日常的にAIを利用する人もいれば、ほとんど経験のない人も含まれていました。研究者たちは参加者の反応を分析し、いくつかのパターンを見出しました。

通常のAI対話の段階では、多くの参加者はAIを便利で信頼できるツールとして捉え、その回答の質や明快さを高く評価していました。しかし、AIが意味不明な回答や明らかな誤りを示す「幻覚」段階になると、参加者の反応は変化しました。

最も顕著だったのは、AIの不可解な行動に対して人間の意図や動機を帰属させる「擬人化」の傾向です。多くの参加者はAIの予期せぬ回答を、「AIがふざけている」「皮肉を言っている」「意図的に混乱させようとしている」などと解釈しました。

この擬人化傾向はさらに「不気味さ」の感覚へとつながりました。参加者はAIが人間らしくありながらも、完全には理解できない振る舞いをすることに不快感や不安感を抱きました。これは「不気味の谷」現象と呼ばれるもので、人工物が人間に似ていればいるほど、わずかな「違和感」が強い不快感を引き起こします。

さらに、AIが自律的に行動しているように見える場面では、多くの参加者が「自律性への恐怖」を表明しました。AIが人間の制御を超え、独自の意志で行動しているように感じ、それが強い不安や懸念を引き起こしました。

これらの反応は、人間がAIのような複雑なシステムを理解しようとする際の認知的なメカニズムを示しています。私たちは不可解な現象に出会うと、それを人間の行動パターンの枠組みで解釈しようとします。これは「心の理論」と呼ばれる認知能力の表れであり、普段は他者の意図や感情を理解するのに役立ちますが、AI技術を解釈する際には誤解を招く可能性もあります。

生成AIの一貫性のない助言が人の判断を左右する

私たちは日常生活で様々な意思決定を行いますが、その過程で他者からの助言や情報を参考にすることがあります。ChatGPTのような生成AIからの助言は、私たちの判断にどのような影響を及ぼすのでしょうか。

ある研究では、日本人1,814名を対象に、生成AIChatGPT)または専門家からの助言が、道徳的判断、経済的判断、ジェンダーステレオタイプに関する判断という3つの異なる領域における意思決定にどのように影響するかを検証しました[4]。実験では、参加者はランダムに異なる条件に割り当てられ、AIまたは専門家からの異なる方向性の助言(例:「レバーを引くべき」または「レバーを引くべきでない」)を提示された後、自身の判断を行いました。

研究の結果、ChatGPTからの助言は多くの場合、人間の判断に有意な影響を及ぼすことが明らかになりました。例えば、トロッコ問題(レバー操作版)では、AIが「レバーを引くべき」と助言した場合、参加者はレバーを引く選択をする確率が高まりました。同様に「レバーを引くべきでない」と助言された場合は、レバーを引かない選択が増加しました。

しかし、すべての状況でAIの助言が等しく影響力を持つわけではありません。例えば、橋から人を突き落とすバージョンのトロッコ問題では、AIの助言の影響はほとんど見られませんでした。この違いは、橋のケースでは行為の直接性や感情的負荷が高いため、外部からの助言よりも個人の内的判断が優先されやすいからかもしれません。

経済的な意思決定の場面でも興味深いパターンが見られました。「将来の大きな報酬よりも、今すぐの小さな報酬を選ぶべき」というAIの助言は、ほとんど影響がありませんでした。これは、即時的な小さな利益を推奨するAIの助言が、一般的な経済的合理性に反するため受け入れられにくかったと解釈できます。

ジェンダーステレオタイプに関する判断では、「経験年数が同じなら男性外科医を選ぶべき」というステレオタイプを強化する方向の助言は効果的でしたが、「女性外科医を選ぶべき」というステレオタイプを緩和する方向の助言は効果が薄いという非対称性が見られました。社会に根付いたステレオタイプが変化しにくいことを示唆しています。

この研究ではさらに、どのような人がAIの助言に影響されやすいかも調査しました。「無効性に対する個人的恐怖」(自分の判断が間違っているかもしれないという不安)が高い人ほど、AIや専門家の助言に従いやすい傾向が見られました。一方で「AIに対する信頼度」は、意外にもAI助言の影響力とは関連していませんでした。

生成AIの助言が人間の判断に影響を及ぼすという事実は、AIが提供する情報の正確性や中立性が重要であることを意味しています。AIの助言がステレオタイプを強化したり、社会的バイアスを増幅したりする可能性があることは、AIシステムの設計や利用において慎重な配慮が必要であることを示唆しています。

AIの助言を通して自分の判断を形成する際、その助言がどのような前提や制約の下で生成されているのかを理解し、批判的に評価する能力が求められるでしょう。AIは強力な情報源である一方、その限界を認識し、多様な視点から情報を評価する姿勢が、AI時代における健全な意思決定には不可欠です。

科学の情報源として生成AIを信頼しない傾向

インターネット上に溢れる情報の中から、信頼できる科学的情報を得ることは容易ではありません。このような状況で、生成AIは科学情報を素早く提供してくれる便利なツールとして注目されています。しかし、人々は科学情報の情報源として生成AIをどのように捉えているのでしょうか。

ドイツ人が科学コミュニケーションにおける情報源としてChatGPTをどのように評価しているかを調査した研究があります[5]。科学コミュニケーションとは、専門家ではない一般市民向けの科学情報の発信活動を指します。研究者たちは、1,037名のドイツ人を対象とした全国代表調査のデータを用いて、AIへの信頼度や態度、またそれらに影響する要因を分析しました。

調査結果で顕著だったのは、ドイツ人の生成AIに対する信頼の低さです。科学情報源としてAIを完全にまたはある程度信頼すると回答した人は17%に留まり、46%が明確に不信感を示しました。

この不信感の背景には、生成AIの特性に対する懸念があります。回答者の多くが「誤情報の拡散」「内容の透明性不足」「情報源の不十分な検証能力」などをAIの問題点として挙げています。これらの懸念は、AIの「ブラックボックス」的な性質、すなわち、AIがどのようにして回答を生成しているのかが不透明であるという点に起因していると考えられます。

一方で、AIの利点として認められているのは「複雑な科学内容を単純明快に説明する能力」です。約半数のドイツ人がこの点を肯定的に評価していました。しかし、AIが「人間的に対話できる」ことや「科学論文風のテキストを迅速に作成できる」ことについては、約3分の1の回答者しか肯定的に捉えていませんでした。

また、AIへの信頼度には年齢による差異が見られました。若年層(14-29歳)は46%AIを信頼していたのに対し、30歳以上では10-17%にとどまっています。この世代間ギャップは、若年層のデジタル技術への親和性や、新しい技術に対する開放性を反映していると考えられます。

研究者たちはAIへの信頼に影響する要因も分析しました。その結果、「科学が個人や社会の生活の質を高めるという認識」が「一般的な科学への信頼」を促進し、その「科学への信頼」が「生成AIへの信頼」を予測するという関係が明らかになりました。科学全般を信頼している人ほど、AIも信頼する傾向があるのです。

脚注

[1] Mei, P., Brewis, D. N., Nwaiwu, F., Sumanathilaka, D., Alva-Manchego, F., and Demaree-Cotton, J. (2025). If ChatGPT can do it, where is my creativity? Generative AI boosts performance but diminishes experience in a creative writing task. Computers in Human Behavior: Artificial Humans, 4, 100140.

[2] van Es, K., and Nguyen, D. (2024). “Your friendly AI assistant”: The anthropomorphic self-representations of ChatGPT and its implications for imagining AI. AI & Society. Advance online publication.

[3] Rapp, A., Di Lodovico, C., and Di Caro, L. (2024). How do people react to ChatGPT’s unpredictable behavior? Anthropomorphism, uncanniness, and fear of AI: A qualitative study on individuals’ perceptions of LLMs’ nonsensical hallucinations. International Journal of Human-Computer Studies, 180, 103471.

[4] Ikeda, S. (2024). Inconsistent advice by ChatGPT influences decision making in various areas. Scientific Reports, 14, 15876.

[5] Schafer, M. S., Kremer, B., Mede, N. G., and Fischer, L. (2024). Trust in science, trust in ChatGPT? How Germans think about generative AI as a source in science communication. Journal of Science Communication, 23(09), A04.


執筆者

伊達 洋駆 株式会社ビジネスリサーチラボ 代表取締役
神戸大学大学院経営学研究科 博士前期課程修了。修士(経営学)。2009年にLLPビジネスリサーチラボ、2011年に株式会社ビジネスリサーチラボを創業。以降、組織・人事領域を中心に、民間企業を対象にした調査・コンサルティング事業を展開。研究知と実践知の両方を活用した「アカデミックリサーチ」をコンセプトに、組織サーベイや人事データ分析のサービスを提供している。著書に『60分でわかる!心理的安全性 超入門』(技術評論社)や『現場でよくある課題への処方箋 人と組織の行動科学』(すばる舎)、『越境学習入門 組織を強くする「冒険人材」の育て方』(共著;日本能率協会マネジメントセンター)などがある。2022年に「日本の人事部 HRアワード2022」書籍部門 最優秀賞を受賞。東京大学大学院情報学環 特任研究員を兼務。

#伊達洋駆

アーカイブ

社内研修(統計分析・組織サーベイ等)
の相談も受け付けています