2025年7月10日
AIとの共存:人間心理から紐解く関係性
人工知能(AI)は急速に私たちの生活に浸透しています。様々な場面でAIが活用されており、日常的な存在となりつつあります。技術の進歩に伴い、人間とAIの関係性や心理的な側面についての理解も深めていく必要があります。
AIと人間の心理的な関わりには、多くの興味深い側面があります。例えば、人間はAIをどのように受け入れ、信頼するのでしょうか。AIとの協働はどのような場面で最も有益なのでしょうか。AIによって生成された情報に対して、私たちはどのような反応を示すのでしょうか。
本コラムでは、AIと人間心理の関係性について研究知見をもとに考察します。AIと人間の協働が効果的な場面、AIへの期待がもたらす心理的効果、AIが介在する情報への信頼の問題、AIと人間の相互作用による偏見の増幅、そしてAI受容の理論的視点について解説します。
AIと人間の協働は創造的課題で有効
人工知能(AI)が私たちの仕事や生活の様々な場面で活用されるようになった現在、「人間とAIの協働」という新しい形の共同作業が注目されています。しかし、人間とAIの協働が常に良い結果をもたらすとは限りません。どのような状況で人間とAIの協働がうまく機能するのでしょうか。
2020年から2023年までの106件の実験研究を対象にメタ分析が行われています[1]。この研究では、人間とAIの組み合わせ(Human-AIシステム)が、それぞれ単独で動作する場合(人間のみ、AIのみ)と比較してどの程度パフォーマンスが向上するかを検討しています。
調査では、人間とAIの組み合わせによるシナジーと、人間の能力拡張という二つの観点から分析が進められました。ここにおけるシナジーとは、「人間とAIの組み合わせが人間単独およびAI単独の両方より優れているか」を評価する指標です。一方、人間の能力拡張とは、「人間とAIの組み合わせが人間単独より優れているか」を評価するものです。
分析の結果、平均的には「Human-AIシステム」が「人間またはAI単独のうち最も優れた方」に比べて劣ることが多く、シナジーの平均効果量はマイナスとなりました。しかし、人間単独と比較した場合は、人間とAIの組み合わせのほうが優れており、人間の能力拡張の効果量はプラスで中程度から大きいことが判明しました。「人間とAIの組み合わせは人間単独を上回るが、人間かAIのいずれか最も良い方には及ばない」ことが平均的な状況だと言えます。
しかし、この結果にはタスクの種類による違いが関わっています。意思決定タスクでは、人間とAIの組み合わせは単独で行う場合よりも性能が低下しましたが、創造的タスク(コンテンツ作成など)では、人間とAIの協働が有効となる可能性が高いことが明らかになりました。
また、人間とAIの相対的なパフォーマンスも重要でした。人間がAIよりも優れている場合には、人間とAIの組み合わせは単独よりも性能が高まりましたが、AIが人間より優れている場合は、人間が関与することで性能が低下する傾向が見られました。
なお、AIの説明可能性(AIがその判断を説明すること)やAIが示す信頼度といった要素は、人間-AIシステムの性能向上に影響していないことも判明しました。これらの要素は、これまでAIの設計において重視されてきましたが、実際の協働パフォーマンスへの寄与は限定的だったのです。
この研究からは、人間とAIの単純な組み合わせが必ずしも良い結果を生むわけではなく、相互作用の設計や役割分担が大切であることが分かります。例えば、意思決定タスクでは役割分担を明確にし、AIが得意な領域のみを任せる設計が望ましいでしょう。一方、創造的タスクは人間とAIとの相性が良いため、AIを利用した協働を深める方向性が有望です。
単にAIを導入すれば生産性が向上するという単純な図式ではなく、どのようなタスクで、どのような役割分担で協働するかという綿密な設計が必要なのです。
AIへの期待感が共感や信頼を高める
私たちがAIと関わる際、AIそのものの性能だけでなく、私たちがAIに対して抱く「期待」や「イメージ」が、AIとの関係性に違いをもたらすことがあります。AIの実際の能力と私たちの期待との間にはギャップが存在することが多く、そのギャップが私たちの心理にどのような変化をもたらすのでしょうか。
ある研究では、人間が持つAIに対する事前の信念が、AIに対する信頼感、共感性、効果性の認識をどのように変化させるかが実験的に検証されました[2]。この研究では、AI自体の特性を変えることなく、人間がAIに対して抱く主観的なメンタルモデルを操作するだけで、AIとの相互作用体験が変わることが明らかになりました。
実験では、310人の参加者が生成モデル(GPT-3)または単純なルールベースモデル(ELIZA)と対話しました。参加者は次の3つのグループに分けられました。
- 1つ目のグループには、AIは機械的に正確な返答を行うが感情や意図を持たないと伝えられました(動機なし)。
- 2つ目のグループには、AIは利用者の精神的な健康を改善する意図を持ち、共感的で親切であると伝えられました(ケア的動機)。
- 3つ目のグループには、AIはサービスを売り込むことを目的とした操作的な意図を持ち、本質的には利己的であると伝えられました(操作的動機)。
実験の結果、ケア的動機を与えられた参加者の88%はAIを「ケア的」だと認識しましたが、操作的動機を与えられた参加者でAIを「操作的」だと認識したのは44%にとどまりました。ポジティブな期待は受け入れられやすく、ネガティブな期待は受け入れられにくい傾向があったのです。
AIがケア的だと認識したグループでは対話中の感情がポジティブに推移した一方、AIが操作的だと認識したグループではネガティブな感情が強くなりました。また、ケア的動機を与えられたグループは、AIを信頼できる、共感的である、有効であると評価し、そのスコアは操作的動機グループと比較して統計的に有意に高いことがわかりました。
これらの結果は、人間のAIに対する認識が、AIの実際の性能や挙動だけでなく、事前の信念や期待に左右されることを示しています。さらに、AIモデルの性能が高いほど(GPT-3のような生成モデル)、メンタルモデルの違いによる評価の差が顕著になりました。高性能なAIほど、人間の期待の影響を強く受けるということです。
この現象は、人間同士のコミュニケーションにもみられる「確証バイアス」に似ています。私たちは一度抱いた期待や印象を支持する情報に気付きやすく、それに反する情報は無視または解釈し直す傾向があります。AIとの対話でも、ケア的な存在だと期待すれば、その期待に合致する反応により注目し、期待に反する反応は偶然や例外として処理してしまうのでしょう。
企業がAIシステムを導入する際には、単にシステムの機能だけではなく、ユーザーがそのシステムに対してどのような期待を持つかについても考慮する必要があります。利用者に対して、AIの目的や特性を適切に伝えることが、AIとの健全な関係構築には求められます。
AIが介在すると情報への信頼は揺らぐ
AIの発展と普及に伴い、日常的なコミュニケーションの中にもAIが介在する場面が出てきました。メールの文章作成補助、SNSの投稿内容の生成や編集、あるいは会議の議事録作成など、AIが人間のコミュニケーションを生成・補助するケースがあります。このようなAIを介したコミュニケーション(AI-Mediated Communication;AI-MC)が広がる中で、情報に対する「認識的信頼」という問題が浮上してきました。
認識的信頼とは、「他者の情報が信頼に値する知識を提供している」と信じる態度のことです。私たちが日常生活や仕事で意思決定を行う際、認識的信頼は大事な役割を果たします。しかし、AIが介在するコミュニケーションが増えることで、この認識的信頼が揺らいでいることが指摘されています[3]。
最近の実証研究では、AIが関与したコミュニケーションに対する信頼度は、人間のみのコミュニケーションよりも低くなる傾向があることが明らかになっています。AIの使用が多いほど、メッセージの信頼性や誠実性が疑われることが多くなり、人々はAIを利用したメッセージを疑い、その正確性を軽視する傾向があるのです。
なぜ、AI-MCへの信頼は低下するのでしょうか。理由はいくつか考えられます。
AIが虚偽や偏見を含む情報を生成するリスクがあります。AIの「ハルシネーション」と呼ばれる現象では、実際には存在しない情報を生成することがあります。また、AIが学習したデータに偏りがあれば、その偏りを反映した出力が生まれる可能性もあります。
AI使用により、実際よりも深い理解や説明力があるように見せかけられるという問題があります。AIを使用すると、自分自身が理解していないことでも流暢に説明できてしまうため、「理解の錯覚」が生じる可能性があります。このことは、特に専門的な内容や複雑な概念を扱う場合に顕著です。
AIが主流意見を偏重し、少数意見を無視するリスクもあります。AIはトレーニングデータの中から一般的なパターンを学習するため、主流から外れた考え方や少数派の視点を軽視するかもしれません。社会的な議論や意見の多様性を確保する上で課題となります。
さらに、AIがコミュニケーションにどの程度関与しているかを判断することは困難です。文章の一部だけをAIが生成したのか、全体をAIが生成したのか、あるいは人間が書いた文章をAIが編集しただけなのか、外見からは判断しにくいのです。これによって、コミュニケーションの透明性が損なわれ、情報源の信頼性評価が難しくなります。
特にソーシャルメディアなどのオンライン環境では、「AI-MCのジレンマ」と呼ばれる問題が生じます。このジレンマとは、次のような状況です。もし認識的信頼を通常通り維持すると、AI-MCが不適切な場合に容易に騙されてしまいます(認識的軽信)。一方、認識的信頼を一律に低下させると、AIを適切に使用した正当なコミュニケーションまで差別してしまいます(認識的不正義)。このジレンマは、オンライン環境において深刻であり、情報の真偽を見極める基準が曖昧で判断を誤りやすいのです。
ジレンマに対処するためには、いくつかの方法が考えられます。一つは、AI利用の透明な開示です。AIがコミュニケーションにどの程度関与しているかを明示することで、受け手が情報の信頼性を評価できるようになります。しかし、過剰な開示は逆にコミュニケーションの信頼性を下げる可能性もあるため、バランスが必要です。
もう一つはAIリテラシー教育の推進です。AIの仕組みや限界について理解を深めることで、AI生成コンテンツを批判的に評価する能力を養うことができます。ただし、リテラシー教育だけではジレンマ自体を解決できない可能性もあります。
専門性マーカーの活用も考えられます。これは、情報発信者の専門性や信頼性を示す指標を導入することで、コミュニケーターの信頼性を可視化する方法です。このような指標があれば、情報の信頼性評価がより容易になるでしょう。
AIは人間の偏見を無自覚に増幅する
人工知能(AI)は私たちの偏見(バイアス)を写し取り、増幅させる鏡のような存在かもしれません。ある研究では、人間とAIが相互作用を繰り返すことによって、微細な偏見が雪だるま式に拡大していく過程が明らかにされています[4]。
この研究では、AIと人間の相互作用において、AIが持つバイアスが人間の知覚、感情、社会的判断に与える作用が検証されました。研究者たちは、人間がAIシステムと繰り返し相互作用することで、初めは小さかった偏見が増幅され、最終的には人間の判断が元の偏見よりもさらに偏ったものになることを発見しました。この現象は人間同士の相互作用よりもAIとの相互作用で顕著にみられることがわかりました。
実験では、「感情判断タスク」が用いられました。被験者に12枚の顔写真の配列を短時間だけ提示し、全体の表情が「幸せ」か「悲しい」かを判断させるというものです。人間の判断には、わずかに「悲しい表情」寄りとなるバイアスがあることが最初に確認されました。
その後、この人間の判断をニューラルネットワークで学習させると、AIは人間よりも大きくバイアスを増幅させました。新しい被験者がこのバイアスのかかったAIと相互作用し、自分の判断をAIの判断に応じて修正する機会を与えられました。その結果、人間自身が元のバイアスよりさらに強く偏った判断を示すようになったのです。AIとの相互作用を通じてバイアスが増幅することが実証されました。
対照的に、AIの代わりに他の人間と相互作用をさせた実験では、バイアスはAIとの相互作用ほど増幅されませんでした。これは、人間の判断がAIと異なり揺らぎが多く、微細な偏見を迅速に学習・強化することが少ないためと考えられます。
「AIであると告げられたが実は人間である」「人間であると告げられたが実はAIである」などの条件も検討され、人間が相手をAIだと認識するとより強く影響を受けることが確認されました。このことから、AIに対する私たちの心理的な態度も、このバイアス増幅現象に関わっていることが示唆されます。
この研究が明らかにしたのは、「バイアスのフィードバックループ」の存在です。人間が持つわずかなバイアスをAIが学習し増幅し、人間がAIからさらに偏ったバイアスを学習するというサイクルが確認されました。このフィードバックループが徐々にバイアスを大きくする「スノーボール効果」を引き起こすのです。
被験者はAI判断の影響を実際よりも過小評価していました。自分がAIからバイアスを取り込んでいることに気づいていないことを意味します。多くの人は、AIが人間より客観的で正確であるという認識を持っているため、AIの判断を無批判に受け入れてしまうのかもしれません。
こうした現象は、表情判断といった単純なタスクだけでなく、社会的判断においても見られました。テキスト画像生成AIシステムを用いた実験では、特定の人種や性別を高所得や高地位の職業に関連付けるような社会的偏見が、AIを介して人間に影響を及ぼすことが示されました。AIが社会的な認識やステレオタイプをさらに強化してしまうリスクを意味しています。
この研究の結果は、AIのバイアス問題が「AIの判断の誤り」という問題ではなく、「人間の判断を誤らせる」という形で人間社会に作用することを明らかにしています。AIに対する信頼が高く、その判断を重視する場面では、このようなバイアスの増幅が生じやすいと考えられます。
AI受容の理論的視点は統合可能
人工知能(AI)の普及が進む中、人々がAIをどのように受け入れ、どのような態度を形成するかを理解することは、AIの開発者だけでなく、AI導入を検討する組織にとっても価値のあることです。しかし、AIに対する態度や受容性を研究する際、異なる学問分野から様々な理論的視点が提案されており、研究領域が断片化している状況があります。
ある研究では、AIに対する態度研究で用いられる異なる理論的視点を整理し、それらを統合する必要性が提唱されています[5]。AIの多面的な特性に対応するため、3つの異なる理論モデルを組み合わせた統合的な視点が提案されています。
第一の視点は「ユーザー中心の技術受容モデル」です。このモデルの中心となるのは「技術受容モデル(TAM)」と呼ばれる理論で、技術の知覚された有用性と使いやすさに基づいて技術使用の意図が形成されるという考え方です。例えば、AIチャットボットが便利で簡単に使えると感じれば、ユーザーはその技術を受け入れるでしょう。このモデルはAIを「ユーザーが主体的に道具として扱う状況」に適していますが、AI特有のエージェント的(代理人的)な特徴を捉えるには十分ではありません。
第二の視点は「委任・自動化受容モデル」です。このモデルではAIを「エージェント」と見なし、人間がAIに対してタスクを委任する状況を扱います。例えば、自動運転車にドライビングを任せたり、AIアシスタントにスケジュール管理を委ねたりする状況です。委任関係においては透明性や説明可能性、制御可能性が必要であり、これはエージェント理論を用いて分析できます。人間は、AIが自分の利益に沿って行動するかどうかを懸念し、その信頼性を判断します。
第三の視点は「社会的技術採用受容モデル」です。このモデルはAIを社会全体に影響を及ぼすリスクを伴った技術として扱い、その社会的影響(雇用喪失、環境影響、公共的利益など)を評価します。個人レベルの評価ではなく、社会全体への評価を重視するのが特徴です。例えば、人々はAIが自分自身の仕事を便利にすることを認めつつも、社会全体で雇用を減少させる可能性を懸念するかもしれません。
これら3つの視点はそれぞれAI受容の捉え方や対象範囲が異なりますが、相互排他的ではありません。あるAIシステムが複数のモデルで同時に捉えられることもあるのです。例えば、生成AIは道具としての利用も、エージェントとしての委任も、社会的影響も持つため、3つの視点全てで分析できます。
脚注
[1] Vaccaro, M., Almaatouq, A., and Malone, T. (2024). When combinations of humans and AI are useful: A systematic review and meta-analysis. Nature Human Behaviour, 8, 2293-2303.
[2] Pataranutaporn, P., Liu, R., Finn, E., and Maes, P. (2023). Influencing human-AI interaction by priming beliefs about AI can increase perceived trustworthiness, empathy and effectiveness. Nature Machine Intelligence, 5(10), 1076-1086.
[3] Sahebi, S., nad Formosa, P. (2025). The AI-mediated communication dilemma: epistemic trust, social media, and the challenge of generative artificial intelligence. Synthese, 205(3), 1-24.
[4] Glickman, M., and Sharot, T. (2024). How human-AI feedback loops alter human perceptual, emotional and social judgements. Nature Human Behaviour, 9, 345-359.
[5] Koenig, P. D. (2024). Attitudes toward artificial intelligence: Combining three theoretical perspectives on technology acceptance. AI & Society, 39(2), 567-579.
執筆者
伊達 洋駆 株式会社ビジネスリサーチラボ 代表取締役
神戸大学大学院経営学研究科 博士前期課程修了。修士(経営学)。2009年にLLPビジネスリサーチラボ、2011年に株式会社ビジネスリサーチラボを創業。以降、組織・人事領域を中心に、民間企業を対象にした調査・コンサルティング事業を展開。研究知と実践知の両方を活用した「アカデミックリサーチ」をコンセプトに、組織サーベイや人事データ分析のサービスを提供している。著書に『60分でわかる!心理的安全性 超入門』(技術評論社)や『現場でよくある課題への処方箋 人と組織の行動科学』(すばる舎)、『越境学習入門 組織を強くする「冒険人材」の育て方』(共著;日本能率協会マネジメントセンター)などがある。2022年に「日本の人事部 HRアワード2022」書籍部門 最優秀賞を受賞。東京大学大学院情報学環 特任研究員を兼務。