2025年8月13日
生成AIがもたらすコーチング:楽しさが変える自己成長
職場環境が複雑化する中、個人の成長や目標達成をサポートするコーチングの需要が高まっています。しかし、従来の対面式コーチングは費用がかかり、時間的制約もあることから、誰もが気軽に利用できるものではないかもしれません。そこで注目されているのが、AIを活用したコーチングサービスです。スマートフォンやパソコンを通じていつでも利用できるAIコーチングは、アクセスの壁を下げ、より多くの人々にコーチングの機会を提供する可能性があります。
AIコーチングの形態は日々進化しており、単純に定められたスクリプトに従って応答する初期のものから、生成AIを活用した柔軟な対話が可能なシステムまで、多様化しています。また、テキストベースのチャットボットだけでなく、音声でコミュニケーションを行うボイスボットなど、異なるインターフェースも登場しています。
本コラムでは、AIコーチングと人間との相互作用にスポットを当て、実証研究から見えてきた知見を紹介します。生成AIが利用者の楽しさをどのように高めるのか、テキストと音声というコミュニケーション方法の違いがどのように目標達成に影響するのか、ユーザーがAIコーチングを採用する決め手となる要因は何か、そして専門のコーチたちはAIコーチングをどのように受け止めているのかについて掘り下げます。
AIコーチングは生成型が楽しさを高める
AIを活用したコーチングシステムには、大きく分けて二つのタイプがあります。一つは、あらかじめ設計されたシナリオに沿って会話を進める「スクリプト型」、もう一つは、ChatGPTのような最新の言語モデルを活用して、ユーザーの発言に合わせて柔軟に応答を生成する「生成型」です。この二つのタイプでは、ユーザー体験にどのような違いが生まれるのでしょうか。
ある研究では、両タイプのチャットボットを比較する実験が行われました[1]。この実験では、242名の参加者がオンラインで募集され、スクリプト型のチャットボット(ScriptBot)と生成型のチャットボット(GenBot)の両方を体験しました。GenBotは基本的な会話の流れはScriptBotと同じでしたが、ユーザーの応答に応じて文脈を理解し、より自然な返答を生成するという違いがありました。
5分間のコーチングセッションを体験した後、参加者はいくつかの指標で両方のボットを評価しました。その結果、パフォーマンスへの期待、操作のしやすさ、ボットを使う意欲など、ほぼすべての評価項目において、生成型のGenBotがスクリプト型のScriptBotを上回りました。
顕著だったのは「楽しさ」の評価です。参加者は生成型AIとの対話を、スクリプト型と比べて楽しいと感じていました。生成型AIが文脈を理解し、個々のユーザーに合わせた応答を返すことで、より人間らしい対話体験を提供できるからかもしれません。
自己決定理論という心理学的な枠組みから分析すると、生成型AIは「有能感」と「関係性」という二つの心理的欲求を高めます。有能感とは自分が能力を発揮できていると感じる感覚、関係性とは他者とのつながりを感じる感覚です。生成型AIの方が、ユーザーに「自分は理解されている」「対話がうまくいっている」という実感を与えられるということです。
一方で、目標達成に関しては意外な結果が出ました。目標設定やその進捗管理という点では、生成型AIとスクリプト型AIの間に明確な差は見られませんでした。目標設定のような構造化されたプロセスでは、あらかじめ設計されたステップを踏むスクリプト型でも十分に効果的だということを意味しています。
この研究からは、AIコーチングの目的によって最適な方式が異なる可能性が示唆されます。ユーザーの満足度や継続的な利用を促進したい場合は、楽しさや自然さを感じられる生成型AIが優れていますが、明確な目標達成のみを目指す場合は、スクリプト型でも十分なパフォーマンスを発揮できることが分かります。
AIコーチングはテキストが目標達成を促す
AIコーチングの形態は多様化していますが、その一つの分岐点として「テキスト」と「音声」というコミュニケーション方法の違いがあります。テキストベースのチャットボットと音声ベースのボイスボット、どちらがより効果的なのでしょうか。
ある研究では、この問いを検証するため、393名の参加者を対象に実験が行われました[2]。参加者はテキストボット群(189名)と音声ボット群(204名)に分けられ、約5分間の非指示的コーチングセッションを体験しました。セッション後、利用性(使いやすさ)、パフォーマンス期待(効果への期待)、リスク認識(セキュリティなどへの懸念)について評価を行いました。さらに、参加者の性格特性(外向性・内向性)による違いも分析されました。
研究者たちは、当初テキストボットの方が利用性で高評価を得ると予想していました。テキスト入力は音声より手間がかかるものの、公共の場でも使いやすく、編集が容易だからです。一方、パフォーマンス期待についても、テキストボットの方が高いと予想されました。また、音声録音によるプライバシーへの懸念から、音声ボットの方がリスク認識が高いと考えられていました。さらに、外向的な人は対話的なコミュニケーションを好む傾向があるため音声ボットを好み、内向的な人はテキストボットを好むだろうという仮説も立てられました。
しかし、実験結果は予想と一部異なるものでした。利用性については、テキストボットと音声ボットの間に統計的に有意な差は見られませんでした。どちらの方式も同程度に使いやすいと感じられていました。
パフォーマンス期待については予想通り、テキストボットの方が音声ボットよりも有意に高い評価を受けました。参加者は、文字を打って対話するチャットボットの方が、目標達成により効果的だと感じていました。
研究者たちは、この現象を「書くことの力」で説明しています。考えを文字にして表現する行為そのものが、思考を整理し、目標達成への道筋を明確にする効果があるとされています。音声で話すよりも、テキストで入力することで、自分の考えを練り上げるプロセスが生まれます。
リスク認識については、予想に反して両ボット間に差は見られませんでした。これは、実験の設定が安全だと感じられたことや、扱われる話題がそこまで個人的ではなかったことが理由かもしれません。
性格特性による違いも、予想とは異なる結果になりました。内向的なユーザーは、予想に反して音声ボットの利用性を高く評価しました。直感に反するようですが、テキスト入力の手間を避けられる点が内向的な人にとって利点となった可能性があります。一方、パフォーマンス期待については、内向的・外向的を問わず、テキストボットが高く評価されました。
AIコーチングの設計においては、用途に応じたモダリティ(コミュニケーション方法)の選択が必要です。例えば、ユーザーの初期獲得段階では、手軽に利用できる音声インターフェースが有効かもしれません。一方、目標設定や深い内省を必要とするタスクでは、テキストベースのインターフェースがより効果的でしょう。
多くのユーザーにとって、テキストで「書く」プロセスが目標達成を促進することを考えると、ハイブリッド型のアプローチ(音声とテキストの併用)も検討する価値があります。例えば、音声で簡単に対話しながらも、重要なポイントはテキストで確認・整理するという方式です。
AIコーチングの採用は有用性の認識で決まる
いくらAIコーチングの技術が進歩しても、ユーザーに受け入れられなければ普及は進みません。人々がAIコーチングを採用するかどうかを決定する要因は何でしょうか。
ある研究では、目標達成支援型のAIチャットボットを使って、この問いを探求しました[3]。226名の参加者がオンラインでこのチャットボットを体験した後、技術受容の統一理論(UTAUT)に基づく質問票に回答しました。UTAUTモデルは、新しい技術を人々が受け入れる際に影響する要因を包括的に分析するための枠組みです。
研究者たちは、パフォーマンス期待(AIが自分の目標達成に役立つと感じる度合い)、努力期待(使いやすさ)、社会的影響(周囲の人々の評価)、促進条件(技術的サポートの充実度)、知覚されたリスク(プライバシーなどへの懸念)、態度(AIに対する全体的な感情)が、AIコーチングを利用しようとする行動意図にどう影響するかを調査しました。
分析の結果、AIコーチングを使おうとする意図に最も強く影響していたのは「パフォーマンス期待」でした。AIチャットボットが自分の目標達成に実際に役立つと感じた人ほど、それを積極的に使おうと考えたのです。このことから、AIコーチングの設計において最も優先すべきは、ユーザーの目標達成を実質的にサポートする機能の充実だと言えます。
次に影響力が大きかったのは「社会的影響」と「態度」でした。家族や同僚がAIコーチングを高く評価していると、自分も使おうという気持ちが高まります。また、AIコーチングに対して前向きな感情を持っている人ほど、利用意図が強いことが分かりました。
一方、意外なことに「努力期待」(使いやすさ)、「促進条件」(技術的支援)、「知覚されたリスク」(セキュリティなどへの懸念)は、行動意図に統計的に有意な影響を与えませんでした。これは、システムの簡単さや技術的サポートの充実度、セキュリティへの懸念よりも、「実際に役に立つか」という点がユーザーにとって重要であることを表しています。
年齢、性別、目標達成度といった個人要素も、AIコーチング採用の意思決定に複雑な影響を与えることが明らかになりました。年齢が高い人ほど社会的影響を受けやすく、男性は女性よりもセキュリティリスクを強く認識する傾向がありました。AIコーチングで実際に目標を達成した経験がある人は、社会的影響をあまり受けずに自分自身の判断でAIコーチングを評価しました。
これらの発見から導き出される知見は多岐にわたります。AIコーチングの開発者は、システムがユーザーの目標達成に効果的であることを明示することに力を入れるべきでしょう。組織でAIコーチングを導入する場合は、社会的影響の力を活用すると効果的です。例えば、組織内の影響力のある人物(上級管理職やチームリーダーなど)に先行して利用してもらい、その経験を共有してもらうことで、組織全体への普及を促進できるかもしれません。
AIコーチングの大きな魅力の一つは、従来の人間によるコーチングと比べて低コストで多くの人に提供できる点です。コーチングは個人と組織の発展に有益であるとの認識が広がっていますが、人間のコーチはそれなりの費用がかかるため、通常は組織の上層部や特定の従業員にしか提供されません。AIコーチングなら、より幅広い層の従業員に継続的なコーチングを提供できる可能性があります。
AIコーチングは人間コーチに脅威を与える
AIコーチングの発展は、ユーザーにとって便益がある一方で、職業としてのコーチングを行っている人々にとっては不安や脅威を感じる対象となり得ます。AIが自分たちの仕事を奪うのではないか、自分の専門性や価値が損なわれるのではないかという懸念です。そこでAIコーチングに対するプロのコーチたちの反応を調査した研究を見てみましょう。
ある研究では、世界50か国以上から436名のビジネスコーチが参加し、AIコーチングに対する態度と反応が調査されました[4]。研究では「脅威と防御の一般モデル」という枠組みを用いて、コーチたちがAIコーチングについて考えた前後での心理状態の変化を測定しました。
具体的には、行動抑制システム(BIS:不安や抵抗感に関連)と行動接近システム(BAS:積極性やリラックス感に関連)という二つの心理的状態の変化を観察しました。また、AIコーチングに対する知識的好奇心と全体的な意見も評価しました。
分析の結果、AIコーチングについて考える(意図的に思いを巡らせる)だけで、コーチたちの不安や抵抗感(BIS)が明確に上昇し、積極性やリラックス感(BAS)が低下することが分かりました。AIコーチングの存在はプロのコーチたちにとって心理的な脅威となっていることが実証されたということです。
そして、この脅威感情の増加はAIコーチングに対する好奇心を減少させ、AIコーチングに対する否定的な意見を増加させました。これは「脅威と防御の一般モデル」が予測するとおりの反応パターンです。人は脅威を感じると、その対象に対して防衛的になり、受け入れを拒否する傾向があるのです。
なぜコーチたちはAIコーチングに対してこのような反応を示すのでしょうか。研究者たちは、職業的アイデンティティへの脅威が主な原因だと考えています。コーチングとは人間同士の深い関係性と信頼に基づく職業であり、コーチの中には自分の仕事の本質は機械には代替できないと考えている人もいます。しかし、AIの急速な進化は、そうした信念を揺るがす可能性があります。
この問題に対処するために、研究者たちはいくつかの方策を提案しています。コーチたちの脅威感情を軽減するための心理的介入が考えられます。マインドフルネスや自己肯定(自分の強みや価値を再確認する)といった技法は、不安を和らげる効果があります。
AIに関する教育と知識共有も重要です。AIの実態、可能性、限界を正確に理解することで、漠然とした不安を減らし、コントロール感を高めることができます。AIがコーチの代替ではなく、補完的なツールとして機能する可能性を理解してもらうことが肝心です。
AIと人間の協調を前提とした働き方の推進も有効でしょう。AIが繰り返し的なタスクを担当し、人間のコーチはより複雑で創造的な問題解決や深い人間関係の構築に集中するというモデルです。このようなハイブリッドアプローチは、AIと人間の強みを組み合わせることで、コーチング全体の質を高める可能性があります。
組織的なサポートも必要です。コーチング業界や組織がAI導入を推進する際には、コーチたちの懸念や不安に耳を傾け、彼ら彼女らが新しい環境に適応するための支援を提供することが求められます。AIの導入が雇用の削減ではなく、コーチングの質と範囲の拡大を意味することを伝えることも大切でしょう。
AIコーチングの発展は、プロのコーチたちに心理的な脅威をもたらしていますが、適切な対応策を講じることで、AIと人間のコーチが共存し、互いに補完し合う未来を実現できる可能性があります。このためには、技術的な発展だけでなく、心理的・組織的な側面にも目を向けたアプローチが必要でしょう。
脚注
[1] Terblanche, N. H. D. (2024). Smooth talking: Generative versus scripted coaching chatbot adoption and efficacy comparison. International Journal of Human-Computer Interaction, 40(1), 1-14.
[2] Terblanche, N. H. D., Wallis, G. P., and Kidd, M. (2023). Talk or text? The role of communication modalities in the adoption of a non-directive, goal-attainment coaching chatbot. Interacting with Computers, 35(4), 511-518.
[3] Terblanche, N., and Cilliers, D. (2020). Factors that influence users’ adoption of being coached by an artificial intelligence coach. Philosophy of Coaching: An International Journal, 5(1), 61-70.
[4] Diller, S. J., Stenzel, L.-C., and Passmore, J. (2024). The coach bots are coming: Exploring global coaches’ attitudes and responses to the threat of AI coaching. Human Resource Development International, 27(4), 597-621.
執筆者
伊達 洋駆 株式会社ビジネスリサーチラボ 代表取締役
神戸大学大学院経営学研究科 博士前期課程修了。修士(経営学)。2009年にLLPビジネスリサーチラボ、2011年に株式会社ビジネスリサーチラボを創業。以降、組織・人事領域を中心に、民間企業を対象にした調査・コンサルティング事業を展開。研究知と実践知の両方を活用した「アカデミックリサーチ」をコンセプトに、組織サーベイや人事データ分析のサービスを提供している。著書に『60分でわかる!心理的安全性 超入門』(技術評論社)や『現場でよくある課題への処方箋 人と組織の行動科学』(すばる舎)、『越境学習入門 組織を強くする「冒険人材」の育て方』(共著;日本能率協会マネジメントセンター)などがある。2022年に「日本の人事部 HRアワード2022」書籍部門 最優秀賞を受賞。東京大学大学院情報学環 特任研究員を兼務。