ビジネスリサーチラボ

open
読み込み中

コラム

AIに人事を任せられるか:人間心理との関係から読み解く(セミナーレポート)

コラム

ビジネスリサーチラボは、20244月にセミナー「AIに人事を任せられるか:人間心理との関係から読み解く」を開催しました。

皆さんは、AIは人事業務を行えると思いますか。人事とAIの可能性を探るセミナーを開催します。とはいえ、技術的な内容を解説するものではありません。

AIと協働する人間がどのような心理になるのか。この問いに関連する研究知見が積み上がってきています。

AIと人間心理の関係を理解し、今後、人事業務にAIがどう適用されていくかを考えます。明確な結論が出せるセミナーではありません。様々な可能性を模索する1時間にできればと思います。

※本レポートはセミナーの内容を基に編集・再構成したものです。

AIの失敗を一般化する

近年、AIの技術の進展は目覚ましいものがあり、人事領域でもAIの活用が進んできています。採用、評価、配置など様々な分野でAIを搭載したシステムが次々と市場にリリースされています。

そうした中で、AIがもたらす人間心理に対する光と影について考察したいと思います。AIと人間心理の関係性に目を向けることで、AIがもたらす負の影響を最小化しつつ、その魅力や恩恵を最大限引き出すためのヒントが得られるでしょう。

まず、AIは従来の情報システムと異なり、学習することで精度が高まっていく特徴があります。学習するということは、最初から完璧な解を出せるわけではなく、失敗するプロセスが含まれていることを意味します。

そこで気になるのが、人間はAIの失敗に対してどのような気持ちになるのかということです。例えば、ある研究では、障害者手当の割り当てや失業保険の不正受給の判定についてAIと人間が行った場合の失敗事例を読んでもらい、その失敗が別の地域でも起こりそうかどうかを尋ねました。

その結果、人間の失敗よりもAIの失敗を一般化しやすい傾向が明らかになりました。あるAIの失敗を聞くと、別のAIも失敗するだろうと考えがちであるということです。この現象は「アルゴリズム転移」と呼ばれています。

アルゴリズム転移が生じる理由は、人間がAIを自分たちとは異なる集団(外集団)に属する存在と捉えるからです。人は外集団のメンバーが同質的だと考えがちです。AIは人間と違う存在であり、大体似たようなものだと考えてしまうのです。

アルゴリズム転移を抑制するには、AIの多様性を強調して伝えることが有効です。また、新しい技術に不快感を覚える人ほどアルゴリズム転移が発生しやすいことがわかっています。さらに、AIの判断に人間が関与していることを伝えると、アルゴリズム転移が緩和されます。

人事においてAIを活用する際には、アルゴリズム転移が生じる可能性があります。例えば、採用のAIがうまくいかなかったときに、配置のAIもうまくいかないだろうと不信感を抱いてしまうかもしれません。

そのため、それぞれのAIの特徴やプロセスの違いを説明することが求められます。また、AIに不安を感じている人に寄り添い、どのような対策をとっているのかを説明することも大切です。

AIを用いると寂しい気持ちに

AIがより浸透していくと、AIとやり取りする時間が増えていきます。そうしたときに、人間がどのような心理状態になり、どんな行動をとるのかを明らかにした研究があります。

この研究は、台湾、インドネシア、米国、マレーシアのテクノロジー企業の従業員を対象に実験を行ったものです。具体的には、3日間AIを使ってもらうグループと、AIを使わずに仕事をしてもらうグループの2群に分けて実験を行いました。

実験の結果、AIとのやり取りが多い従業員ほど、集団の一員でいたい気持ちが増えることがわかりました。帰属意識や社会的欲求が高まったのです。その結果、AIでやり取りしている人ほど、同僚を支援しようとする行動が増えました。メンバーシップを大事にしようと考え、人間関係を大切にし始めました。

しかし、興味深いことに、AIとのやり取りが多い従業員ほど孤独感も高まることがわかりました。さらに、仕事が終わった後に飲酒や不眠が増えるという問題行動も見られました。AIとのやり取りが増えると、他者との社会的な繋がりが減って、孤独感が高まるためです。孤独感は望ましくない行動を引き起こすことが、過去の研究でわかっています。

また、人間関係に対して不安を覚えている従業員は、社会的な繋がりに対して敏感になります。そのため、AIとのやり取りが増えることによる所属欲求の高まりや孤独感の増加といった傾向が、より顕著に現れることも見えてきました。

AIとやり取りをすることが増えると、同僚を助ける行動が増えるという喜ばしい面がある一方で、孤独感が高まり、仕事後に好ましくない行動をとってしまう可能性があるということです。

人事担当者がAIを使って仕事をする機会が増えてくると、孤独感が増す可能性があります。そのため、コミュニケーション支援を行うことが重要になります。例えば、定期的な会議を行ったり、仕事以外の雑談の場を設けたりするなどのサポートが必要です。

特に、人間関係に対して不安が強い担当者がAIを用いている場合には、上司が様子を気にかける必要があります。AIとの付き合い方や最近の仕事の状況について、折に触れて声をかけていきましょう。コミュニケーションの頻度や質を高め、悩みを聞いたり相談を受けたりすることが求められます。

AIによって非倫理的になる

AIの普及が進んでいくと、仕事の中でAIを用いながら他者と関わることも増えると思います。そういった状況で考えなければならないのは、AIを用いたときに人がどのような行動をとるのかということです。

この点について検討している研究があるので紹介します。まず、人間同士が交渉を行う場面を想定した実験です。AIアシスタントを用いて交渉を行うグループと、直接人間同士でAIを用いずに交渉を行うグループを比較しました。

その結果、AIアシスタントを用いて交渉しているグループの方が、出し抜くような戦術を使う意思が強いことがわかりました。自分に都合の良い選択をしようとする傾向が、AIを用いることで強まったのです。

もう一つ、人材育成の文脈で行われた実験があります。AIアシスタントが厳しい態度で部下に指導する条件と、人間が直接厳しい態度で指導する条件の二つのグループを設定しました。

そうしたところ、AIが厳しく指導する場合の方が、学習者から非難されにくいことがわかりました。人から言われると反発しがちですが、AIから言われるとまだマシに感じられるようです。

さらに、マネジメントの文脈における実験です。AIアシスタントを通じて部下を監視するグループと、直接人間の上司が部下を監視するグループを設定しました。

すると、AIのアシスタントを通じてモニタリングするグループの方が、上司は部下からの批判を恐れずに済むと考えることがわかりました。上司からすれば、AIが監視してくれる方が、部下から嫌だと思われる心配がなくなるのです。

これらの結果から言えるのは、AIアシスタントを用いると相手に対する共感が薄れる可能性があるということです。人間同士で向き合っている方が、相手の視点や気持ちを考えやすいのですが、AIを介したコミュニケーションではそれが薄れてしまうのです。

結果、倫理的に良くない行動をしても相手から非難されにくいと思えてしまい、道徳的な責任感が弱まる可能性があります。また、問題行動をとってもAIに批判が向けられると思うことで、自分が直接批判されるリスクが下がり、これまで抑制できていた良くない行動をとってしまう可能性が出てきます。

例えば、人事担当者がAIを用いて従業員や求職者とやり取りする状況を考えてみましょう。従来は人間同士でコミュニケーションをとっていたので、共感されるように話したり、批判されるリスクを考慮したりしていました。

しかし、AIを用いると、そうした共感が低下し、批判のリスクを低く見積もってしまうかもしれません。そして、これまでより厳しい物言いや言葉遣いを用いることも考えられます。

人事の業務では、会社の利益だけでなく、従業員や求職者といったステークホルダーの利益も重視すべきです。そういった役割を担っているにもかかわらず、道徳的に緩んで問題のある発言や厳しすぎる態度をとるとすれば問題です。

そのため、AIを用いたコミュニケーションが増えていく以上、今まで以上に倫理的な観点を意識し、自分の言動を振り返って問題がなかったか考える必要があります。

また、AIを用いたコミュニケーションでグレーゾーンの事例を集めてケーススタディを行うのも重要な実践になるでしょう。求職者とのやり取りで適切だったかどうかを人事部内で議論することで、倫理の意識を高めていくことができます。

普段より道徳的に緩みやすい状況にあるからこそ、日ごろから意識を高めておく必要があります。

自分に都合の良い判断をする

AIを用いることが仕事の中で増えてくると、AIの情報を頼りにしながらいろんな判断を下していくことも当然増えていくはずです。AIに基づく意思決定を行うようになったときに、人は、どのような理由でどのような判断をしていくことになるのでしょう。

そうしたことを考えさせられる研究を紹介します。具体的には、自動運転やAIのモラルアドバイザーなど、実際に存在するAIに似たようなシナリオを作り、そのシナリオを読んでいきながら、どちらに判断すればいいのか悩むような道徳的な状況を設定した実験があります。

自分がAIを用いた意思決定を行ったことによってルール違反を起こしたとすると、人はAIに責任があると考えます。その一方で、他の人がAIを用いた意思決定によってルール違反をした場合には、AIよりも本人に責任があると考えました。

これは、人間の持っている基本的なバイアスの一つです。自分にとってうまくいかなかったことは環境のせいにし、他者がうまくいかなかったことは本人のせいにするのです。

この研究の中では、少し恐ろしい結果が得られています。AIが、非倫理的な助言をしてきたとしましょう。その助言が、実は自分もそのように思っていたり、内心ではそのような判断をしようと思っていたりする場合、その判断を下しやすくなります。AIに責任を押し付けることができるからです。

自分にとって有利な判断をAIが助言してきたとすれば、AIの責任にできるので、そういう判断をしてしまいかねません。AIの使い方によっては人のバイアスを助長するような事態もありえます。

例えば、採用の可否を決める状況で、面接を行って「この人、あまり好きじゃない」と思ったとします。本当はそのようなことだけで採否を決めてはいけませんが、AIが候補者の適合度を低く出してきたら、AIに責任を押し付ける形で、「不合格にしよう。AIもそういう判断だったし」となるかもしれません。

AIがいくら中立的で公平な仕組みであっても、人間が関わって使っていくことになると、人間のバイアスを助長する恐れがあるのです。

そうなると、必要になるのはAIを使う人間のバイアスを抑制する努力です。AIを使ったからといってバイアスが除去できるかというと、その逆になる可能性さえあります。

人事の知識が含まれるか

最後に、今までと少し異なる観点を掘り下げましょう。採用AIを開発するプロジェクトを観察し、そのプロセスで何が起こっているのかを事細かに観察した研究があります。採用AIの開発プロセスにおいて、AI技術者と人事専門家の間の相互作用が興味深いので紹介します。

採用AIを作っていく際に、AI技術者は、最初は人事専門家の知識を頼らずに開発しようとしました。専門家の知識には主観や偏見が入っている可能性があり、そのようなものを使いたくなかったからです。

しかし、AI技術者は問題に直面しました。データ選択問題とミスマッチ問題という2つの問題が発生しました。

データ選択問題とは、採用AIにどのようなデータを学習させればよいのかわからないという、インプットの質の問題です。一方、ミスマッチ問題とは、AIが出力する結果が人間の考えと一致せず、おかしな結果を出してしまうという問題です。

このような問題に直面したAI技術者は、人事専門家の知識を取り入れていかないと開発が頓挫してしまうと感じ、知識を取り入れることにしました。

その後、採用AIの開発プロセスを注意深く見ていくと、AI技術者は人事の専門知識をある場面では取り入れ、また別の場面では排除しようとするといった試行錯誤を繰り返しながら、少しずつ採用AIを完成させていきました。

この研究が教えてくれるのは、採用AIをはじめとする人事AIは、AIの技術だけでは良質なものを作りにくいということです。人事のドメイン知識を動員しなければ、適切なシステムを構築することは難しいのです。

皆さんにとっての含意は、AIを搭載したプロダクトが数多く登場している中で、そのプロダクトの開発に人事の専門知識が関わっているかを確認することが大切だということです。特に、開発プロセスにおいて専門知識を取り入れようとする試行錯誤があったかを見極めると良いでしょう。

Q&A

QAIの多様性を社内で伝えるには、具体的にどのようにすればよいですか。

AIの多様性を伝えるには、AIの機能やUIを説明するだけでなく、そのメカニズムを説明していくことが重要です。例えば、どのようなデータをインプットしているのか、どのような計算処理を行っているのか、そしてどのようなアウトプットが得られるのかを説明します。一般的にはアウトプットのみを説明することが多いので、特にインプットとスループットを説明することで、AIの多様性を説明することができるはずです。

Q:人事担当者のAI活用に伴う孤独感への対策として、どのようなコミュニケーション支援が効果的でしょうか。

AI活用に伴う孤独感への対策として、いくつかのコミュニケーション支援が考えられます。まず、対面で話をする機会を設けることです。リアルで人と話をすると、お互いに理解し合えた感覚を得やすいことがわかっています。そうした感覚が得られると孤独感もいくらか和らぐと思われます。もう一つは、仕事の話だけでなく、それ以外の話も含めて話すことです。例えば、ランチを一緒にとりながら話をするなどの支援も効果的だと考えられます。

Q:人事AIへの不安を持つ従業員への説明の仕方について、おすすめの方法はありますか。

人事AIに対して不安を感じる従業員がいるのは自然なことです。新しいものに対して不安に思うのは普通の感情だと理解する必要があります。そのうえで、丁寧に説明していくことが基本的な方略になります。説明の際は、AIが全てを行うわけではなく、人間が関与していることを伝えることで、不安が和らぎやすくなるでしょう。また、AIを活用することで従業員に不利益が生じないのであれば、そのことをきちんと説明します。


登壇者

伊達 洋駆 株式会社ビジネスリサーチラボ 代表取締役
神戸大学大学院経営学研究科 博士前期課程修了。修士(経営学)。2009年にLLPビジネスリサーチラボ、2011年に株式会社ビジネスリサーチラボを創業。以降、組織・人事領域を中心に、民間企業を対象にした調査・コンサルティング事業を展開。研究知と実践知の両方を活用した「アカデミックリサーチ」をコンセプトに、組織サーベイや人事データ分析のサービスを提供している。著書に『60分でわかる!心理的安全性 超入門』(技術評論社)や『現場でよくある課題への処方箋 人と組織の行動科学』(すばる舎)、『越境学習入門 組織を強くする「冒険人材」の育て方』(共著;日本能率協会マネジメントセンター)などがある。2022年に「日本の人事部 HRアワード2022」書籍部門 最優秀賞を受賞。

#伊達洋駆 #セミナーレポート

アーカイブ

社内研修(統計分析・組織サーベイ等)
の相談も受け付けています