ビジネスリサーチラボ

open
読み込み中

コラム

AIアシスタントが問いかけるもの:利用時の注意点と課題

コラム

様々な業務でAIアシスタントの導入が進んでいます。AIアシスタントは大量のデータを高速で処理し、生産性や効率性の向上に寄与すると期待されています。

しかし、AIアシスタントを用いるときには、技術的な課題だけでなく、人間とAIの関係性やコミュニケーションのあり方などの留意点があります。本コラムでは、研究知見をもとに、AIアシスタントを職場に導入するポイントについて考察します。

適度な擬人化は信頼を高める

AIアシスタントについて検討する際、AIをどの程度「擬人化」するかという論点があります。AIの人間らしさ、特に擬人化と知性が、AIに対する信頼にどのような影響を与えるかを探った研究があります[1]

研究では、3つのフォーカス・グループを作ってインタビューを実施し、質的データを分析しています。その結果、擬人化と知性の両方が、AIの信頼に影響を与える要因であることが分かりました。

人は、AIが人間らしい特性を示すことで、AIを社会的な存在として認識しやすくなります。これは、人が社会的な手がかりに敏感であり、無意識のうちに人間関係の規範をAIにも適用するためだと考えられます。

とはいえ、AIが含まれるサービスの文脈が、信頼や使用に対する擬人化と知性の影響を高めたり弱めたりします。例えば、ヘルスケアでは高い擬人化が求められる一方で、金融では高い知性が重視されるかもしれません。

また、プライバシーや安全性への影響が低いと利用者が認識している場合、AIとの相互作用の結果に対する慣れや予測可能性が信頼を強化することが示されました。不確実性を減らすために、一貫性のある予測可能な世界を求めている人間心理が背後にあるものと思われます。

他方で、擬人化と知性のレベルが高くなりすぎると、不快感や不安を感じる「不気味の谷」現象が起こる可能性があります。AIが人間によく似ているが、完全には人間らしくないときに生じる現象です。進化的な説明によれば、そうした存在が病原体を持っている可能性があるため、人間は本能的に回避しようとするようです。

この研究に基づけば、AIアシスタントは、サービスの種類に応じて適切な擬人化と知性のレベルを設定することが求められます。例えば、AIアシスタントに名前やアバターを付与し、親しみやすいキャラクターを作ることができます。ただし、過度に人間らしくなりすぎないように注意しなければなりません。

不確実性に不安を覚えるユーザーに対して、AIアシスタントに対するコントロール感を与えることも重要です。例えば、応答の長さや口調を選べるなど、AIの出力を調整できる機能を付けることができるでしょう。

親密なAIはポジティブな感情を与える

AIアシスタントの擬人化を考える上で、AIとの関係性が人間の感情にどのような影響を与えるかを理解することも重要です。AIとのやりとりにおいて、AIとの関係タイプと性別が、人間の反応にどのように関連するかを調べた研究を紹介します[2]

研究では、AIの関係タイプ(友人と使用人)と性別(男性と女性)を操作した2×2の状況を設計しています。得られたデータを分析したところ、AIの関係タイプは暖かさと喜びの評価に影響するもの、有能さの評価には影響しないことがわかりました。例えば、友人のようなAIは使用人のようなAIよりも暖かく感じられたのです。

人間関係においては、関係の種類によって異なるルールや期待が適用されます。親密な関係では、暖かさや思いやりが重視されるのに対し、親密ではない関係では、有能さや効率性が重視されます。

人はこのような関係性のルールや期待をAIにも適用しているかもしれません。そのため、友人のようなAIには暖かさを、使用人のようなAIには有能さを期待します。

一方で、AIの性別は、参加者の性別を統制しても、有能さ、暖かさ、喜びの評価に有意な影響を与えませんでした。人間関係におけるジェンダーステレオタイプが、AIとの関係にはあまり適用されないことを示唆しています。

この研究を参考にすると、AIアシスタントにおいては、親密さを演出することが有効です。例えば、AIアシスタントが従業員の名前を呼んだり、挨拶をしたりするなど、友人のようなコミュニケーションを取ることで、ポジティブな感情を引き出せる可能性があります。

また、業務に関連した雑談ができる機能を搭載するのも良いでしょう。AIとの親密なコミュニケーションを促進することができます。

AIとやりとりすると性格は変わる

AIアシスタントの利用では、AIとのやりとりが人間の性格に与える影響も考慮に入れる必要があります。そこで、人間とAIのやりとりが、人間同士のやりとりとどう違うかを調査した研究が有益です[3]

研究では、245人の参加者に、6人のターゲットとMicrosoft社のチャットボットLittle Iceとの会話記録を見せ、ターゲットの性格やコミュニケーションの印象を評価してもらいました。

ターゲットはAIよりも人間相手の方が、よりオープンで協調的で外向的、誠実性が高く、そして自己開示的であることがわかりました。一方で、AIとの会話ではより神経質に映りました。

人間がAIを非人間的な存在として認識しているため、AIに対しては社会的な判断をされないと考え、自己呈示への懸念が減るためだと解釈できます。人はAIとわかると、人間関係で求められる社会的に望ましい振る舞いをする必要がないと判断するのです。

一方で、AIに対して神経質になるのは、AIという未知の存在に対する不安や緊張が影響しているのかもしれません。AIの意図や能力を完全には理解できないと感じ、AIとのコミュニケーションに不安を感じやすいのでしょう。

AIとのコミュニケーションが従業員のストレスにつながらないよう、適度な利用を促すガイドラインを作ることが考えられます。また、従業員がAIに感情を表現しやすいよう、AIからの共感的な応答を組み込むことも有効でしょう。

新技術は否定的に評価される

AIアシスタントの利用に際しては、新技術に対する人々の反応にも注意を払わなければなりません。人々の技術に対する評価が、その技術が発明された時期と個人の年齢によって影響を受けることが報告されています[4]

人は世界の状態が一貫していることを好み、これが意思決定に影響することが知られています。この現状維持バイアスは、ある意味で適応的なメカニズムだと考えられています。安定した環境では、現状を維持することが生存に有利に働きます。

このことが背後にあり、研究では、人は自分が生まれる前に発明された技術よりも、生まれた後に発明された技術を否定的に評価する傾向があることがわかりました。より具体的には、発明時に2歳以上だった場合、技術をより否定的に評価するようです。

自分が生まれるより前から受け継がれた技術を当然のものとして受け入れやすいのに対し、新しく導入された技術は現状を脅かすものとして警戒しやすいためです。

年配の従業員が、新技術に対して抵抗を感じやすいことは社会的に議論されているところかと思いますが、この研究は、実は若くても最新の技術には否定的な態度を示す可能性があることを教えてくれます。

新しいAIアシスタントの導入前には、従業員に対する十分な説明と体験の機会を提供することが重要です。AIの目的や機能を丁寧に説明し、実際に使ってみる機会を設けることで、現状維持バイアスによる評価を和らげましょう。

AIによる差別には憤りにくい

最後に、AIによる差別の問題についても触れておきたいと思います。AIは場合によっては差別的な結果を出し、時折、それが報道されることもあります。アルゴリズムによる差別と人間による差別に対する人々の道徳的な反応の違いを体系的に調査した研究が提出されています[5]

研究の結果として、人々は、アルゴリズムが人間よりも偏見に基づいて行動する可能性が低く、より客観的で差別的でないと認識する傾向があることがわかりました。

アルゴリズムによる差別に対する人々の道徳的な憤りは、人間による差別に比べて小さく、この違いは、アルゴリズムに対して認識される偏見に基づく動機づけの低さによって説明されました。

さらに、アルゴリズムによる差別が行われた場合、企業に対する憤りは、人間による差別の場合よりも小さいことも明らかになりました。逆に、アルゴリズムを使用してジェンダー平等を促した企業への肯定的な評価は、人間が同じ行動をとった場合よりも低かったのです。

興味深いことに、テクノロジー業界の専門家でも、アルゴリズムによる差別に対する憤りは人間よりも少ない傾向があり、AIに関する知識は、むしろこの傾向を増幅する可能性があることもわかりました。

この研究から、AIアシスタントを用いる際には、アルゴリズムを定期的にチェックし、差別的な判断が生じていないかを検証する必要があると言えます。AIによる差別的な判断が発覚した場合の報告・是正プロセスを明確化しておくのも良いでしょう。

また、従業員向けにAIリテラシー研修を実施して、アルゴリズムのリスクに関する理解を深めることも有効です。アルゴリズムの公平性は、技術的な観点だけでなく、人々の反応や認識を踏まえて多角的に管理していく必要があります。

AI活用が私たち自身を再定義する

本コラムで紹介した研究からの含意とは何でしょうか。AIアシスタントの登場は、単なる技術革新の話題にとどまりません。私たち人間の根本的なあり方に疑問を投げかける出来事だと考えられます。

AIとの関わりにおいて、私たちはその能力や振る舞いを人間のものさしで測ろうとします。親しみやすさ、信頼性、コミュニケーションの自然さなど、「人間らしさ」が基準となっているのです。しかし、そのことはまた、私たちが人間らしさなるものをどのように捉えているのかを問い直す機会でもあります。

AIの進化は、人間の能力や役割を代替・補完するだけでなく、私たちの行動、思考、感情のパターンにも影響を与えています。AIは単なるツールではなく、人間性を再定義する契機ともなるのです。

本コラムでも挙げた通り、人間とAIの関係性、信頼構築、性格の変容、新技術の受容、差別の認識など、様々な事柄が新しい文脈で捉え直されています。AIとの交流を通じて、私たちは自らの人間らしさについて考え、時には疑問を抱くようになっています。

こうしたことは、AIが外部のツールではなく、私たちの自認識や社会構造に根ざす形で機能し始めていることを意味しているのではないでしょうか。AIアシスタントの利用は、技術的な議論に限定されず、人間性について考えを深める機会を与えてくれます。

脚注

[1] Troshani, I., Rao Hill, S., Sherman, C., and Arthur, D. (2021). Do we trust in AI? Role of anthropomorphism and intelligence. Journal of Computer Information Systems, 61(5), 481-491.

[2] Kim, A., Cho, M., Ahn, J., and Sung, Y. (2019). Effects of gender and relationship type on the response to artificial intelligence. Cyberpsychology, Behavior, and Social Networking, 22(4), 249-253.

[3] Mou, Y., and Xu, K. (2017). The media inequality: Comparing the initial human-human and human-AI social interactions. Computers in Human Behavior, 72, 432-440.

[4] Smiley, A. H., and Fisher, M. (2022). The golden age is behind us: How the status quo impacts the evaluation of technology. Psychological Science, 33(9), 1605-1614.

[5] Bigman, Y. E., Wilson, D., Arnestad, M. N., Waytz, A., and Gray, K. (2022). Algorithmic discrimination causes less moral outrage than human discrimination. Journal of Experimental Psychology: General, 152(1), 4-27.


執筆者

伊達 洋駆 株式会社ビジネスリサーチラボ 代表取締役
神戸大学大学院経営学研究科 博士前期課程修了。修士(経営学)。2009年にLLPビジネスリサーチラボ、2011年に株式会社ビジネスリサーチラボを創業。以降、組織・人事領域を中心に、民間企業を対象にした調査・コンサルティング事業を展開。研究知と実践知の両方を活用した「アカデミックリサーチ」をコンセプトに、組織サーベイや人事データ分析のサービスを提供している。著書に『60分でわかる!心理的安全性 超入門』(技術評論社)や『現場でよくある課題への処方箋 人と組織の行動科学』(すばる舎)、『越境学習入門 組織を強くする「冒険人材」の育て方』(共著;日本能率協会マネジメントセンター)などがある。2022年に「日本の人事部 HRアワード2022」書籍部門 最優秀賞を受賞。

#伊達洋駆

社内研修(統計分析・組織サーベイ等)
の相談も受け付けています