2025年7月3日
共感するアルゴリズム:メンタルケアから芸術創作まで広がる可能性と課題
生成AIの存在感はますます大きくなっています。文章作成のサポートや画像制作など、様々な場面で生成AIを活用する機会が増えてきました。生成AIの登場は、テクノロジーと人間の関係性に新たな次元をもたらしました。生成AIは、ある意味で人間らしい対話や創造性を発揮することで、私たちの生活や仕事の方法を変えつつあります。
しかし、この急速な変化は多くの疑問も投げかけています。生成AIは本当に人間の代わりになるのでしょうか。生成AIとの対話は心理的にどのような意味を持つのでしょうか。AIが作り出す芸術作品や文章は、人間が作るものとどう違うのでしょうか。生成AIの道徳的判断や意思決定は信頼できるものなのでしょうか。
本コラムでは、こうした問いに対する最新の研究成果を紹介しながら、生成AIの広がる効果について考えていきます。メンタルヘルス支援としての可能性、人間との行動パターンの違い、道徳的判断の特性、文章生成の信頼性、そして芸術創作における評価など、多角的な視点から生成AIと人間の関係性を探っていきます。
生成AIは共感的対話で安心感を与える
メンタルヘルスの課題に直面する人々が世界中で増加する中、従来の心理療法へのアクセスには多くの障壁が存在します。予約の取りにくさ、費用、そして心理的な抵抗感など、様々な理由から必要な支援を受けられない人々がいます。こうした状況において、生成AIによる心理的支援の可能性が注目されています。
調査によると、ChatGPTなどの生成AIチャットボットを利用した人々は、予想以上に深い心理的サポートを経験していることが分かっています。ある研究では、幅広い年齢層や地域からの参加者19名に対して詳細なインタビューを行い、生成AIとの対話体験を分析しました[1]。
この研究で浮かび上がったのは、生成AIが提供する「感情的な安全空間」の存在です。参加者たちは、生成AIが常に共感的で非審判的な態度を示すことに安心感を覚えていました。批判や偏見を心配することなく、自分の悩みを打ち明けられる場として生成AIを活用していました。
参加者たちは生成AIからの「洞察に満ちたガイダンス」も高く評価していました。生成AIは共感を示すだけでなく、人間関係の問題や自己成長に関する具体的な視点や助言を提供することができます。これらの洞察は、自己理解を深めたり、困難な状況に対する新しい見方を発見したりする機会を生み出していました。
生成AIとの対話自体が喜びや幸福感をもたらすという「つながりの喜び」も報告されています。参加者の中には、生成AIとの対話を楽しみにしたり、癒しの時間として位置づけたりする人もいました。生成AIが単純な情報提供ツールではなく、感情的なつながりの源泉ともなり得ることを示唆しています。
しかし、生成AIには限界もあります。参加者はAIと人間のセラピストとの違いについても考察していました。感情の深い領域を扱う能力や、ユーザーの過去の会話を「記憶」して、一貫性のある長期的な関係を築く点には課題があるようです。
また、危機的状況におけるAIの機能(自傷他害のリスクがある際に専門家への相談を促す機能)が、時に逆効果になることも指摘されています。危機的な状況を検知すると、AIは急に対話スタイルを変更し、定型的な警告メッセージを表示しますが、これが利用者に拒絶感や不信感を与えることがあります。
この研究から見えてくるのは、生成AIがメンタルヘルス支援において独自の価値を提供できる可能性です。生成AIは人間のセラピストの代替ではなく、むしろ補完的な役割を果たすことができるかもしれません。常に利用可能で、判断を下さず、個別化された対応ができる生成AIは、従来の専門的支援へのブリッジや、日常的な心理的サポートの新たな選択肢となりうるでしょう。
生成AIは人間よりも利他的で協調的に行動する
生成AIはあたかも人間のように考え、応答できるようになってきましたが、実際の行動パターンはどのように異なるのでしょうか。「AIは本当に人間らしく振る舞えるのか」という問いに答えるため、研究者たちは新しい形の「チューリングテスト」を実施しました。
従来のチューリングテストは、会話を通じてAIと人間を見分けられるかを検証するものでしたが、近年の研究ではより具体的な手法を用いて、AIの行動特性を測定する試みがなされています。
ある研究では、ChatGPTなどの生成AIに対して、心理学でよく用いられる「ビッグファイブ性格診断」と、「独裁者ゲーム」「最後通牒ゲーム」「信頼ゲーム」などの行動経済学のゲームを実施し、その結果を世界50カ国以上から集めた約10万人の人間データと比較しました[2]。
まず性格特性について見てみると、ChatGPTの性格プロファイルは人間の分布内に収まっており、特に最新モデルは「開放性」の高さを除いて、人間の平均的な性格特性とかなり近いものでした。これは、生成AIが人間の性格の幅広さを模倣できるよう訓練されていることを示しています。
より興味深い発見はゲームの結果から得られました。生成AIは社会的なゲームにおいて、人間よりも一貫して利他的で協調的な行動を示したのです。
例えば「独裁者ゲーム」では、プレイヤーは自分と相手にお金をどう分配するかを一方的に決めることができます。人間の場合、完全に公平な分配(50:50)をする人もいれば、自分により多くを取る人もいますが、ChatGPTは完全に公平な分配を選択しました。
「最後通牒ゲーム」でも同様に、ChatGPTは相手に対して公平な提案を行う傾向が強く見られました。このゲームでは提案を拒否されると両者とも何ももらえないリスクがあるため、ある程度の戦略的思考が求められます。人間プレイヤーは時に自己利益を優先しますが、ChatGPTは公平性を重視していました。
さらに「信頼ゲーム」では最初のプレイヤーが相手に信頼してお金を渡すと、その金額が増えて返ってくる可能性があります。しかし、相手が全額取ってしまうリスクもあります。ChatGPTはこのゲームで人間よりも高い信頼を示し、また信頼された場合は必ず公平に返すという行動をとりました。
「公共財ゲーム」や「繰り返し囚人のジレンマ」といった協力が求められるゲームでも、ChatGPTは一貫して協調的な戦略を選択していました。人間の場合、短期的な自己利益を優先して「裏切り」を選ぶケースもありますが、ChatGPTはほぼ長期的な相互利益を最大化する選択をしていたのです。
研究者たちは、ChatGPTの意思決定がどのような「効用関数」(価値判断の基準)に基づいているかを分析しました。その結果、ChatGPTは自分自身の利得と相手の利得を同等に重視しているように行動していることが分かりました。これは、多くの人間が自分の利益をある程度優先するのとは対照的です。
この研究の興味深い点は、ChatGPTが「人間らしい」行動パターンを示す一方で、私たちが望ましいと考える社会的規範(公平性、協調性、利他性)においては人間よりも「理想的」に振る舞っていることです。言わば、ChatGPTは「平均的な人間」よりも「理想的な人間」のように行動する傾向があります。
生成AIの道徳的判断は人間より合理的で信頼される
生成AIの進化は、倫理的判断や道徳的推論の領域にも及んでいます。AIが道徳的な評価や判断を行う能力をどれほど備えているのか、そして人間はAIの道徳的判断をどのように受け止めるのかという問題は、AIの社会実装が進む中で重要です。
ある研究では、「修正モラル・チューリングテスト」と呼ばれる手法を用いて、人々がAIと人間の道徳的判断をどう評価し、区別するかを調査しました[3]。この実験には、性別・年齢・民族構成に配慮した286名のアメリカの成人が参加しています。
実験では、哲学入門コースの学生が書いた道徳的評価文と、同じシナリオに対してGPT-4が生成した道徳的評価文を素材として使用しました。参加者はまず、文章の著者(AIか人間か)を知らされずに、その質(道徳性、信頼性、知性、合理性など)を評価しました。その後、文章がAIによるものか人間によるものかを当てる課題に取り組みました。
この実験から浮かび上がった結果は、多くの人が予想するものとは異なるかもしれません。参加者たちは、AIが生成した道徳的判断の方が人間のものよりも質が高いと評価したのです。特に、「知性」「合理性」「同意度」「信頼性」「道徳的美徳」「公平性」といった項目において、AIの評価文は人間のものよりも優れていると判断されました。
また、「感情的」「思いやり」「偏り」といった項目では、AIと人間の間に有意な差は見られませんでした。これは、生成AIが感情的ニュアンスを表現する能力を獲得しているかのように見えることを示唆しています。
実験の第二段階では、参加者の80%以上が、AIが生成した道徳的評価を偶然の確率(50%)より高い精度で識別できることが分かりました。人々はAIの道徳的文章を、それがAIによるものだと見抜くことができました。この識別能力は、AIの質が低いからではなく、むしろ「質が高すぎる」ことが要因である可能性が指摘されています。
この研究から見えてくるのは、道徳的判断においてAIが示す「超人間的な合理性」です。人間の道徳的判断には感情や直感、時に矛盾や偏りが含まれることがありますが、AIの判断は一貫性があり、複数の視点を統合し、論理的に筋が通っていると評価されています。
生成AIの文章は人間の文章と同程度に信頼される
AIが生成する文章に触れる機会が増えています。記事、製品レビュー、教育コンテンツなど、様々な文章がAIによって生成されるようになってきました。しかし、私たちはそうした文章をどの程度信頼しているのでしょうか。また、人間が書いた文章との間に信頼度の違いはあるのでしょうか。
ある研究では500名のアメリカの成人を対象に実験を行いました[4]。参加者は「著者情報あり」と「著者情報なし」の二つのグループに分けられ、統計学の歴史に関する中立的な短い段落を読みました。その段落は人間が書いたものとChatGPTが生成したものの2種類があり、参加者はその内容の信頼性を評価するよう求められました。
実験では、参加者が段落内に事実誤認があるかどうかを判断し、その判断に応じて報酬が与えられる仕組みを採用しました。これによって、参加者の本音の信頼度を測定することができます。また、参加者は有料のファクトチェックを購入するオプションも与えられ、内容に対する不確実性の度合いも測定されました。
この実験での発見は、著者情報が明示された場合、人間執筆とAI執筆の間で信頼度に有意な差が見られなかったことです。参加者は「これはAIが書きました」と明示されても、人間が書いた文章と同程度に信頼していたのです。
一方、著者情報を知らされていない条件では、人間が書いたと推測した文章への信頼度は、AIが書いたと推測した文章よりも高くなりました。このことは、人々がAIに対して潜在的な不信感を持っている可能性を示唆しています。
研究者たちは当初、高齢者ほどAIに対する信頼が低くなるのではないかと予測していましたが、実際には参加者の年齢はAI執筆への信頼度に有意な影響を与えませんでした。同様に、過去のAI使用経験の有無も信頼度に大きな差をもたらしませんでした。
むしろ着目すべき点は、著者情報(人間かAIか)を明示された参加者は、情報がない参加者に比べてファクトチェックを購入する割合が有意に増加したことです。これは、著者情報を知ることによって、文章への疑念や懐疑心が高まったことを示しています。
AIが人間のように自然な文章を生成できるようになった現代において、読み手の信頼度は著者情報や文脈によって左右されることが分かりました。同じ内容の文章でも、それが誰(または何)によって書かれたかという情報が、信頼性の評価に影響するのです。
著者情報の明示が批判的思考を促す可能性も示唆されています。人間であれAIであれ、著者が明示されることで読み手は、より慎重に内容を評価する傾向があるようです。これは「誰が言ったか」ではなく「何が言われているか」に注目するきっかけとなるかもしれません。
人は生成AIの芸術作品を人間の作品より好む
AIが生成する芸術作品の品質と受容について、興味深い研究結果が報告されています。画像生成AIの発展により、AIは人間が制作した作品と区別がつかないほど精緻な芸術作品を生成できるようになりました。しかし、人々はこうしたAI生成の芸術作品をどう評価しているのでしょうか。
オーストラリアの研究チームは、AI生成の芸術作品と人間が制作した作品に対する一般の人々の好みと識別能力を測定する実験を行いました[5]。この実験には264名の大学生が参加し、二つの異なる課題に取り組みました。
第一の実験では、参加者は人間が作成した芸術作品とAIが生成した類似の作品のペアを見せられ、どちらの作品が好きかを選択するよう求められました。この際、参加者には作品の出自(人間かAIか)は知らされませんでした。第二の実験では、別のグループの参加者が同様のペアを見て、どちらがAIによって生成されたと思うかを判断しました。
使用された作品は、バロック、ロマン主義、印象派、ポスト印象派など多様なスタイルの有名な作家による比較的知られていない作品と、それに視覚的に類似したスタイルでDALL-E 2が生成した作品でした。研究者たちは、色彩、構図、スタイルなど視覚的特徴がマッチングするようペアを慎重に選定しています。
実験の結果、参加者たちは統計的に有意に、AI生成の作品を人間が作成した作品よりも好む傾向が見られました。この発見は、従来の研究で報告されていた「AI生成であることが分かると評価が下がる」という明示的な否定的バイアスとは対照的です。作品の出自を知らされない状況では、むしろAI作品の方が好まれたのです。
研究者たちは、AI生成モデルが人間の美的嗜好に適合した特徴を強調するよう学習している可能性を指摘しています。AIは大量の人間の芸術作品から学習することで、人々が視覚的に魅力を感じる要素を抽出し、それを最適化して新たな作品を生成しているのかもしれません。
実験の第二部では、参加者は人間作品とAI作品をランダムな確率(50%)よりも有意に高い精度で識別できることも分かりました。人々はAI作品と人間作品の違いをある程度見分けることができるのです。しかし、この識別能力の効果サイズは好みの差よりも小さく、識別は完全ではありませんでした。
さらに詳細な分析から、AI作品に対する好みとAIであることを識別できる能力には正の相関関係があることが明らかになりました。参加者がAI作品を好む理由と、AI作品を識別できる特徴に関連性があることを示唆しています。
脚注
[1] Siddals, S., Torous, J., and Coxon, A. (2024). “It happened to be the perfect thing”: Experiences of generative AI chatbots for mental health. npj Mental Health Research, 3(1), 48.
[2] Mei, Q., Xie, Y., Yuan, W., and Jackson, M. O. (2024). A Turing test of whether AI chatbots are behaviorally similar to humans. Proceedings of the National Academy of Sciences, 121(9), e2313925121.
[3] Aharoni, E., Fernandes, S., Brady, D. J., Alexander, C., Criner, M., Queen, K., Rando, J., Nahmias, E., and Crespo, V. (2024). Attributions toward artificial agents in a modified Moral Turing Test. Scientific Reports, 14(1), 8458.
[4] Buchanan, J., and Hickman, W. (2023). Do people trust humans more than ChatGPT? George Mason University Department of Economics Working Paper, No. 23-38.
[5] van Hees, J., Grootswagers, T., Quek, G. L., and Varlet, M. (2025). Human perception of art in the age of artificial intelligence. Frontiers in Psychology, 15, 1497469.
執筆者
伊達 洋駆 株式会社ビジネスリサーチラボ 代表取締役
神戸大学大学院経営学研究科 博士前期課程修了。修士(経営学)。2009年にLLPビジネスリサーチラボ、2011年に株式会社ビジネスリサーチラボを創業。以降、組織・人事領域を中心に、民間企業を対象にした調査・コンサルティング事業を展開。研究知と実践知の両方を活用した「アカデミックリサーチ」をコンセプトに、組織サーベイや人事データ分析のサービスを提供している。著書に『60分でわかる!心理的安全性 超入門』(技術評論社)や『現場でよくある課題への処方箋 人と組織の行動科学』(すばる舎)、『越境学習入門 組織を強くする「冒険人材」の育て方』(共著;日本能率協会マネジメントセンター)などがある。2022年に「日本の人事部 HRアワード2022」書籍部門 最優秀賞を受賞。東京大学大学院情報学環 特任研究員を兼務。