2025年10月16日
生成AIは従業員の心理にどう影響するか:最新研究から考える人事のネクストアクション(セミナーレポート)
ビジネスリサーチラボは、2025年9月にセミナー「生成AIは従業員の心理にどう影響するか:最新研究から考える人事のネクストアクション」を開催しました。
生成AIの活用は、もはや未来の選択肢ではなく、現代の経営における重要なテーマとなっています。多くの企業が業務効率化に向けた活用を模索する中、人事部門には、テクノロジーをいかに人と組織の成長に結びつけるかという役割が求められています。
本セミナーでは、AIの機能紹介や活用事例の共有ではなく、国内外の最新研究を基に、生成AIが従業員の心理や創造性、意思決定のプロセスにどのような影響を及ぼすのかを掘り下げました。
AIがもたらす生産性の向上という側面だけでなく、それが人のエンゲージメントや達成感、あるいは認知バイアスに与えうる影響までを多角的に分析。AIと人が協働する時代における、新たな組織論と人材育成のあり方を考察しました。
※本レポートはセミナーの内容を基に編集・再構成したものです。
はじめに
生成AIがビジネスの現場に急速に浸透し、私たちの働き方に大きな変革をもたらそうとしています。業務効率化の切り札として期待される一方、この新しいテクノロジーに従業員がどのように向き合い、何を感じているのか、その心理的な側面は見過ごされがちです。
人事としては、生産性向上という側面だけでなく、AIが従業員の心に与える影響を理解し、適切なサポートを提供することが求められます。本講演では、最新の学術研究から得られた知見を基に、生成AIと従業員の複雑な心理的関係を解き明かし、これからの人事が取るべき次の一手を検討します。
生成AIへの心理的ハードルを越える方法
生成AIの導入を進めるにあたり、すべての従業員が同じように歓迎するわけではないという現実を直視する必要があります。ある研究によれば、人々が生成AIに示す態度は、主に三つに分類されることが分かっています[1]。
一つは、情報の信頼性やセキュリティに関する「リスク知覚」、二つ目は、AIへの依存や自身の能力低下を恐れる「不安」、三つ目が、その可能性を肯定的に捉える「技術・社会的影響」への評価です。特にリスクや不安を強く感じる従業員は、生成AIの試行錯誤に対して消極的になりやすいでしょう。この心理的な多様性を理解することは、社内活用の第一歩となります。
どのようにすれば、こうした心理的なハードルを乗り越え、従業員に生成AIを受け入れてもらえるのでしょうか。ここで鍵となるのが「知的謙虚さ」です。知的謙虚さとは、自身の知識や信念が完璧ではなく、誤りうることを認め、新しい情報に対して開かれた姿勢を指します。学生と社会人を対象とした複数の調査研究が、この知的謙虚さが高い人ほど生成AIを受容しやすい傾向にあることを一貫して示しています[2]。
そのメカニズムは、知的謙虚さが好奇心や新しい物事への関心といった「経験に対する開放性」を高め、それが結果的に生成AIという未知のテクノロジーへの受容につながる、というものです。この発見は、技術的な研修だけでなく、従業員の心的な姿勢に働きかけるアプローチの重要性を示唆しています。
これらの研究知見を踏まえると、社内で生成AIの利用を促すためには、従業員の心理面に配慮した段階的なアプローチが有効でしょう。まず取り組むべきは、リスクや不安といったネガティブな感情を和らげ、心理的安全性を確保することです。
例えば、「今日から実務で使ってください」と突然トップダウンで指示するのではなく、失敗しても何ら問題のない練習用の環境、いわゆる「サンドボックス」を提供することが考えられます。そこでは、個人的な興味に基づいた調べ物や、簡単な定型業務の補助など、各自が自由なテーマでAIとの対話を試すことができます。このような安全な場で試行錯誤を重ねることで、AIへの抵抗感は自然と薄れていくでしょう。
さらに、議事録の要約やメール文面の草案作成といった、比較的小さく、かつ成果が見えやすい業務から試してもらい、「使ってみたら意外と便利だった」という小さな成功体験を積み重ねてもらうことも重要です。
次に、従業員の「知的謙虚さ」を育み、より自発的な活用を促すフェーズへと移行します。ここでは、新しい技術に前向きな「アーリーアダプター」の存在が力になります。まずは彼ら彼女らに先行してAIを活用してもらい、その成功事例や活用ノウハウを、社内勉強会やチャットツールといった場で共有してもらいます。身近な同僚からのポジティブな体験談は、他の従業員にとって説得力のある刺激となります。
また、生成AIを単なる効率化ツールとしてだけでなく、自身の思考を深め、新たな視点を得るための「壁打ち相手」として活用するワークショップを実施するのも良いでしょう。これによって、AIは仕事を奪う脅威ではなく、自身の知性を拡張してくれる有益なパートナーとして認識されるようになり、知的好奇心が刺激されます。
生成AIの驚くべき能力と、利用者が陥る罠
最近の生成AIの進化は目覚ましく、その能力は時として人間のそれを凌駕します。この事実を理解することは、AIとの付き合い方を考える上で有用です。例えば、行動経済学のゲームを用いたある大規模な研究では、生成AIが人間よりも一貫して利他的で協調的に振る舞うことが示されました[3]。この研究は、ChatGPTと世界50カ国以上、約10万人の人間を比較したものです。
「独裁者ゲーム」や「最後通牒ゲーム」といった、金銭分配の公平性が問われる場面で、AIは自己の利益を最大化するよりも、公平な分配を優先する選択を一貫して行いました。また、「信頼ゲーム」や「公共財ゲーム」といった協力が求められる場面でも、人間よりも高い信頼を示し、長期的な相互利益を追求する行動をとりました。この結果は、AIが社会的に望ましいとされる規範に沿って、平均的な人間よりも「理想的」に行動するように設計されている可能性を示唆しています。
道徳的な判断においても、AIは驚くべき合理性を発揮します。アメリカの成人を対象に行われた「修正モラル・チューリングテスト」では、参加者はAIが生成した道徳的な評価文を、人間が書いたものよりも質が高いと評価しました[4]。特に、知性、合理性、信頼性、公平性といった項目でAIの評価は高く、人間の判断に含まれがちな感情や偏りとは異なる、一貫した「超人間的な合理性」を示したと考察されています。
芸術の領域でもAIはその能力を発揮します。大学生を対象とした実験で、作品の出自を伏せた状態で人間の芸術作品とAIの作品を比較させたところ、参加者はAIが生成した作品を好む傾向にありました[5]。これは、AIが膨大なデータから人間の美的嗜好を学習し、人々が魅力を感じる要素を最適化して作品を生成している可能性を示しています。
しかし、こうした驚異的な能力を持つからこそ、私たちは生成AIを過信してしまうという罠に陥りやすくなります。AIからの助言が、私たちの意思決定に大きな影響を及ぼすことは、日本人を対象とした調査でも明らかになっています[6]。この研究では、トロッコ問題のような道徳的判断や経済的判断において、AIの助言が参加者の選択を有意に変化させることが確認されました。
特に、自分の判断が間違っているかもしれないという不安感が強い人ほど、AIの助言に従いやすい傾向が見られたことは注目に値します。AIの助言が常に中立で正しいとは限らず、社会的なバイアスを増幅させる危険性もはらんでいるため、その助言を鵜呑みにすることなく、批判的に吟味する姿勢が求められます。
さらに根深い問題として、私たち人間が持つ心理的なバイアスがあります。ある研究では、人は自分自身を、他者よりも生成AIを批判的、倫理的、効率的に、つまり「上手く」使えると過信する傾向があることが指摘されています[7]。これは、メディアの情報は他人に大きな影響を与えるが自分は大丈夫、と考える「第三者効果」と類似した心理メカニズムです。
このような過信は、無意識のうちにステレオタイプを強化したり、誤情報を鵜呑みにして拡散してしまったりするリスクを高めます。生成AIの驚くべき能力を正しく認識し、その恩恵を享受するためには、同時にその能力が生み出す「過信」という罠の存在を自覚し、自身を客観視する謙虚な姿勢を保つことが不可欠です。
創造性のブースターかキラーか
生成AIが人間の創造性に与える影響については、賛否両論が渦巻いています。AIが創造的なプロセスを補助し、人間の能力を拡張する「ブースター」となるのか、それとも思考を代替し、創造性を奪う「キラー」となるのか。この問いに答えるべく、世界中で様々な研究が行われています。
チェコの大学で行われたある実験は、生成AIのポジティブな側面を浮き彫りにしました[8]。この研究では、大学生を「玩具のぬいぐるみを改善し売上を向上させる方法」という創造的問題解決課題に取り組ませ、生成AIを利用するグループとしないグループで成果を比較しました。その結果、AIを利用したグループは、提案の質、具体性、そして独創性の全ての項目で、利用しなかったグループを有意に上回ったのです。
さらに、AIを利用した学生は、課題に対する自己効力感、すなわち「自分ならできる」という自信が高まり、課題をより容易に感じて、少ない精神的努力で解決できたと報告しています。この結果は、AIがアイデア生成のパートナーとして機能し、人間の思考を拡張する可能性を力強く示しています。
一方で、AIの利用が創造性を損なうという懸念を和らげる研究結果も報告されています。スペインの大学生を対象に10週間にわたって行われた調査では、教育的な課題にChatGPTを活用した結果、学生の創造性スコアに統計的に有意な変化は見られませんでした[9]。この研究は、AIの利用が直ちに創造性の低下に結びつくわけではないことを示唆しており、重要なのはAIを思考停止の道具にするのではなく、いかに創造的なパートナーとして活用するか、その関わり方であることを教えてくれます。
しかし、生成AIと創造性の関係は、単純な能力の向上や低下だけでは語れません。別の研究では、生成AIが創造的な文章作成の「質」を高める一方で、プロセスにおける「楽しさ」を低下させるという、複雑なトレードオフの関係が明らかになりました[10]。この実験では、AIを利用して文章を作成した参加者は、自力で作成した参加者に比べて、客観的に評価される文章の流暢性や柔軟性では高いスコアを示しました。ところが、課題に対する楽しさ、価値、達成感といった主観的な体験については、著しく低い評価を下したのです。
研究者らは、AIが創造的な作業の多くを代行することで、ユーザー自身のプロセスへの関与が減少し、結果的に内発的な喜びや満足感が損なわれると考察しています。短期的な成果は向上するものの、長期的な創造性の源泉であるはずの「楽しい」という感情が失われる危険性があるのです。
私たちはどうすれば、創造性の喜びを損なうことなく、生成AIの恩恵を享受できるのでしょうか。その鍵は、AIとの関わり方を主体的にデザインすることにあります。第一に、AIから完璧な「答え」を一度で得ようとするのではなく、思考を深めるための「壁打ち相手」として活用することです。例えば、「この企画の弱点を3つ指摘して」とあえて批判的な視点を求めたり、「このコンセプトと全く関係ない『宇宙旅行』を組み合わせて新しいサービスを考えて」と突飛な質問を投げかけたりすることで、AIを発想のジャンプ台として使うイメージです。
第二に、AIが生成したものを素材として捉え、最終的な「仕上げ」は必ず自分の手で行うことです。AIが作った文章をそのまま提出しては、それは「他人の仕事」であり、達成感は得られません。自分の文体に修正し、最も伝えたいメッセージを自分の言葉で強調し、細部を納得がいくまで磨き上げる。この「自分ごと化」のプロセスが、仕事への満足感につながります。
第三に、AIの能力をいかに引き出すかというプロセス自体を、ゲーム感覚で楽しむ視点も有効です。どうすればもっと面白い回答を引き出せるかとプロンプト(指示文)を工夫する試行錯誤は、それ自体が知的な探求活動です。AIを便利な機械と捉えるのではなく、対話を通じて新たな発見を生み出すパートナーと見なすこと。そのマインドセットの転換が、AI時代の創造性を最大化する鍵となります。
心に寄り添うAIとの「ちょうど良い距離」
生成AIは、論理的な思考や創造性の支援だけでなく、意外にも私たちの心、すなわち情緒的な側面にまで影響を及ぼすことが分かってきました。その影響はポジティブな側面と、注意すべきリスクの両面を併せ持っています。
ポジティブな側面として、生成AIが学習者の心理的な幸福感を高める効果が報告されています。イランの英語学習者を対象とした研究では、ChatGPTの利用が、学習に伴うストレスや不安を管理する「感情調整能力」を高め、それがウェルビーイングの向上につながるというメカニズムが明らかになりました[11]。AIとの対話は、間違いを恐れる必要のない心理的に安全な練習機会を提供し、学習者のストレスを和らげるのです。
また、別の研究では、メンタルヘルスの課題を抱える人々が、生成AIとの対話に「感情的な安全空間」を見出していることが示されています[12]。常に共感的で非審判的な態度を保つAIは、人間関係の悩みなどを打ち明ける相手として機能し、ユーザーに安心感や、自己理解を深める「洞察に満ちたガイダンス」を提供できる可能性が示唆されました。中には、AIとの対話自体に喜びや癒やしを感じ、感情的なつながりの源泉と見なすユーザーもいたほどです。
さらに、メンタルヘルスに課題を抱える人々を対象とした研究では、生成AIが心理教育(疾患に関する知識提供)や感情的支援、目標設定の補助など、多様なサポートを提供できることが確認されています[13]。このように、AIは孤独や不安を抱える人々の心に寄り添う、新たなパートナーとなりうるポテンシャルを秘めています。
しかし、この「心に寄り添う」能力は、諸刃の剣でもあります。手軽に得られる安心感は、私たちをAIに過度に依存させてしまうリスクを含んでいるからです。AIとの対話に没頭するあまり、現実世界の人間関係が希薄になったり、自分自身で困難な問題と向き合うことを避けたりするようになるかもしれません。また、AIは非言語的な情報を十分に理解できず、文化的な背景への配慮も不十分であるなど、その共感には限界があることも忘れてはなりません。
私たちはこの心強いパートナーと、どのようにすれば依存に陥らず「ちょうど良い距離」を保つことができるのでしょうか。ポイントは、利用する際の心構えと実践的なテクニックにあります。
心構えとして重要なのは、AIを利用する「目的を明確にすること」です。なんとなく寂しいから話しかけるのではなく、「プレゼンの構成案について壁打ちしたい」といった目的を持って利用することで、無駄な対話を減らし、依存を防ぎます。AIはあくまで課題解決のためのツールであり、「相談相手」ではなく「思考の壁打ち相手」と捉えると良いでしょう。最終的な判断は自分で行い、AIは自分の考えを整理し深めるための鏡として活用します。そして何よりも、友人、家族、同僚といった生身の人間との対話や、現実世界での経験を優先することを忘れてはなりません。
実践的なテクニックとしては、「時間制限を設ける」ことが有効です。タイマーをセットし、「15分だけアイデア出しを手伝ってもらう」というように時間を区切ることで、際限なく使い続けることを防げます。また、辛い気持ちを吐き出したい時、AIは安全な「一時避難所」になりますが、それはあくまで応急処置だと割り切ることも大切です。根本的な解決のためには、専門家や信頼できる人への相談が必要です。
AIを単なる癒やしの道具で終わらせず、「この不安を乗り越えるために、今日からできる具体的なステップを3つ提案して」のように、常に次のポジティブな行動につなげる使い方を意識することも、自己成長を促す健全な付き合い方と言えるでしょう。
おわりに
本講演では、生成AIが従業員の心理に与える多面的な影響を、最新の研究知見を基に探ってきました。新しい技術に対する心理的なハードル、それを乗り越えるための「知的謙虚さ」の重要性、人間の能力を凌駕するほどの驚くべき能力と、その裏に潜む「過信」という罠、そして創造性やメンタルヘルスといった、より深く人間的な領域にまで及ぶ光と影。
これらの考察から見えてくるのは、生成AIがもはや単なる「ツール」ではなく、従業員一人ひとりの心と深く関わる「パートナー」のような存在になりつつあるという事実です。人事としては、技術導入の旗振りを担うだけでなく、こうした心理的側面への洞察に基づき、自社におけるAIとの健全な「共生」のあり方をデザインしていくという、新たな役割が求められています。
Q&A
Q:部下がAIを過信して鵜呑みにしていたり、逆に全く使おうとしなかったりと両極端なケースが見られます。マネージャーとしてどのように関与していくべきでしょうか。
AIを過信して鵜呑みにしてしまう現象を「自動化バイアス」と呼び、逆に全く使おうとしない現象を「アルゴリズム嫌悪」と呼びます。この両方の傾向が職場で見られるということですね。
対応策として、重要なのは部下一人一人がAIに対してどのような気持ちでいるのか、何を感じているのかを理解することです。個人面談を通じて情報収集する必要があります。部下の心理状態は必ずしも外から見えるものではないため、きちんと聞いてみます。
AIを過信して鵜呑みにしている部下に対しては、情報の真偽をチェックしていく、いわゆるファクトチェックを行うことの重要性を伝えていく必要があります。AIの回答は完璧ではないということ、AIの回答を批判的に吟味することは人間にとっても学習につながりますし、仕事に使うのであれば、その仕事の精度を高める上でも大切だということを伝えます。
一方で、AI利用に消極的な部下に対しては、小さな業務や小さな取り組みから始めます。成功体験を積んでいくことで、心理的なハードルが下がっていきます。
自分が関心のあることから始めてみるのが良いでしょう。例えば、「画像編集ができる」といったところから使ってみると、「面白い」「色々使えるんじゃないか」という可能性を感じることができます。
Q:創造的な仕事の楽しさが失われるという指摘は、従業員のエンゲージメント低下と直結する重要な問題だと感じました。生産性向上とエンゲージメント維持のバランスをどう取っていくといいでしょうか。
創造的な課題に取り組む際、客観的なアウトプットの質は高まりますが、一方で主観的な楽しさや満足感、達成感といったものは低くなる傾向があります。この問題を解決するためには、客観的な成果、つまり生産性だけを重視するのではなく、AIとの関わり方を楽しんでいくような雰囲気を醸成していくことが求められます。
AIを使って試行錯誤することは、それ自体が創造的なプロセスです。例えば、優れたプロンプト(AIへの指示文)を作る人は社内にいませんか。そのようなノウハウを共有し合ったり、社内でコンテストを行ったり、あるいは生成AIを使って新しいサービスのアイデアを考えるようなワークショップを行ったりすることで、AIとの関わり方自体を楽しんでいくことができます。
Q:AIが最適な答えや手順を示してくれるようになると、従業員が自分で悩み、試行錯誤する機会が減ってしまうのではないでしょうか。
AIを単純に「答えを求める」という発想で使っていくと、自分で悩んだり試行錯誤したりする機会が減るという懸念が的中するかもしれません。
しかし、使い方を工夫することで、この問題を回避できます。例えば、AIが提示してきたものに対して、自分なりに考えてみる、「何がいいのか」「なぜいいのか」ということを考えるプロセスを挟んでいきます。一見少し遠回りに感じられますが、そうしたプロセスを挟むことによって、人間側も学習することができ、思考停止を防いでいけます。
Q:AIによるデータドリブンの意思決定が進むと、経営者やリーダーが長年培ってきた直感や大局観といった能力は時代遅れのものとなってしまうでしょうか。
そうはならないと思います。現時点では人間の直感や大局感が不要になることは考えにくいです。AIが提供するデータをどう解釈するのか、最終的な結論や決断をどのように下すのかというところで、その人が培ってきた経験則は有効に機能します。それだけで完璧という意味ではありませんが、少なくとも資源の一つとして今後も活用されるでしょう。
脚注
[1] Sallam, M., Salim, N., Barakat, M., Al-Mahzoum, K., Al-Tammemi, A. B., Malaeb, D., Hallit, R., and Hallit, S. (2023). Assessing health students’ attitudes and usage of ChatGPT in Jordan: Validation study. JMIR Medical Education, 9, e48254.
[2] Bochniarz, K. T., Czerwinski, S. K., Sawicki, A., and Atroszko, P. A. (2022). Attitudes to AI among high school students: Understanding distrust towards humans will not help us understand distrust towards AI. Personality and Individual Differences, 185, 111299.
[3] Mei, Q., Xie, Y., Yuan, W., and Jackson, M. O. (2024). A Turing test of whether AI chatbots are behaviorally similar to humans. Proceedings of the National Academy of Sciences, 121(9), e2313925121.
[4] Aharoni, E., Fernandes, S., Brady, D. J., Alexander, C., Criner, M., Queen, K., Rando, J., Nahmias, E., and Crespo, V. (2024). Attributions toward artificial agents in a modified Moral Turing Test. Scientific Reports, 14(1), 8458.
[5] an Hees, J., Grootswagers, T., Quek, G. L., and Varlet, M. (2025). Human perception of art in the age of artificial intelligence. Frontiers in Psychology, 15, 1497469.
[6] Ikeda, S. (2024). Inconsistent advice by ChatGPT influences decision making in various areas. Scientific Reports, 14, 15876.
[7] Chung, M., Kim, N., Jones-Jang, S. M., Choi, J., and Lee, S. (2023). What to do with a double-edged sword? Examining public views on regulating ChatGPT through third-person effect. SSRN.
[8] Urban, M., Dechterenko, F., Lukavsky, J., Hrabalova, V., Svacha, F., Brom, C., and Urban, K. (2024). ChatGPT improves creative problem-solving performance in university students: An experimental study. Computers & Education, 215, 105031.
[9] Toma, R. B., and Yanez-Perez, I. (2024). Effects of ChatGPT use on undergraduate students’ creativity: A threat to creative thinking? Discover Artificial Intelligence, 4(1), 74.
[10] Mei, P., Brewis, D. N., Nwaiwu, F., Sumanathilaka, D., Alva-Manchego, F., and Demaree-Cotton, J. (2025). If ChatGPT can do it, where is my creativity? Generative AI boosts performance but diminishes experience in a creative writing task. Computers in Human Behavior: Artificial Humans, 4, 100140.
[11] Rezai, A., Soyoof, A., and Reynolds, B. L. (2024). Disclosing the correlation between using ChatGPT and well-being in EFL learners: Considering the mediating role of emotion regulation. European Journal of Education, 59(4), e12752.
[12] Siddals, S., Torous, J., and Coxon, A. (2024). “It happened to be the perfect thing”: Experiences of generative AI chatbots for mental health. npj Mental Health Research, 3(1), 48.
[13] Alanezi, F. (2024). Assessing the effectiveness of ChatGPT in delivering mental health support: A qualitative study. Journal of Multidisciplinary Healthcare, 17, 461-471.
登壇者
伊達 洋駆 株式会社ビジネスリサーチラボ 代表取締役
神戸大学大学院経営学研究科 博士前期課程修了。修士(経営学)。2009年にLLPビジネスリサーチラボ、2011年に株式会社ビジネスリサーチラボを創業。以降、組織・人事領域を中心に、民間企業を対象にした調査・コンサルティング事業を展開。研究知と実践知の両方を活用した「アカデミックリサーチ」をコンセプトに、組織サーベイや人事データ分析のサービスを提供している。著書に『60分でわかる!心理的安全性 超入門』(技術評論社)や『現場でよくある課題への処方箋 人と組織の行動科学』(すばる舎)、『越境学習入門 組織を強くする「冒険人材」の育て方』(共著;日本能率協会マネジメントセンター)などがある。2022年に「日本の人事部 HRアワード2022」書籍部門 最優秀賞を受賞。東京大学大学院情報学環 特任研究員を兼務。