ビジネスリサーチラボ

open
読み込み中

コラム

AIが変える人事の可能性:効率化と公平性のジレンマ

コラム

人事領域でもAIの利用が広がっています。採用や評価、従業員の業績分析など、様々な場面でAIが導入され始めており、先進的な企業がその利点を享受し始めています。AIは大量のデータを処理し、人間では気づきにくいパターンを見つけ出すことができるため、意思決定の効率化や客観性の向上に寄与すると期待されています。

しかし、AIの人事業務への導入が進む一方で、その影響については不明な点が多く残されています。特に、AIの利用が応募者や従業員の心理にどのような変化をもたらすのか、組織の魅力や公平性の認識にどのように作用するのかについては、十分な理解が得られていません。

AIは確かに効率化や客観性の向上をもたらしますが、それが必ずしも人々に良い印象を与えるとは限りません。AIによる評価や選考が、応募者や従業員にどのように受け止められるのか、そしてそれが組織全体にどのような変化をもたらすのかを理解することは、AIを活用する上で大切です。

本コラムでは、AIと人事に関する研究結果を参照しながら、AIの利用が組織や個人にもたらす変化について検討します。AIによる選考プロセスの公平性の認識、AIの複雑さが評価に与える変化、AIの倫理的使用と組織の魅力との関係、そしてAIと人間の協働における順序の大切さなど、様々な側面から人事領域におけるAIの影響を探ります。

求職者はアルゴリズムのみの選抜を不公平と感じる

AIを採用プロセスに導入する企業が増えていますが、応募者はこのような選考方法をどう受け止めているのでしょうか。アルゴリズムのみで履歴書を選別する場合と、人間が行う場合、またはアルゴリズムと人間が共同で行う場合の公平感を比較した研究があります[1]

アルゴリズムのみの採用プロセスは、他のプロセスと比較して公平性の認識が低いことが明らかになりました。特に人間のみのプロセスと比べると、応募者は自分が公正に扱われていないと感じる傾向がありました。

この現象は選考結果が良好な場合でも同じでした。アルゴリズムを使った採用プロセスで採用が決まった場合でも、応募者は人間によるプロセスの方が公平だと評価しました。一方で、不採用の場合には、アルゴリズムの介入がさらに公正感を低下させる結果となりました。

こうしたことが起こる背景には、応募者が自分の特別な特性をアルゴリズムが正しく評価できないのではないかという不安があります。応募者は、アルゴリズムが自分の特別なスキルや個性を見落としてしまうのではないかと考え、それがアルゴリズムへの抵抗感を強めているのです。

人間の面接官であれば、応募者の背景や状況を理解し、思いやりを持って対応してくれることを期待できます。しかし、アルゴリズムは「画一的」な基準で判断すると考えられがちで、このことが応募者に「自分の独自性を評価されない」という感覚を生じさせています。

また、アルゴリズムの意思決定プロセスが不透明であることも、公平感の低下につながっています。人間の面接官の場合は、面接中に質問をしたり、フィードバックを得られたりすることでプロセスの透明性が確保されます。しかし、アルゴリズムにはそのようなやり取りがないため、応募者の不安が高まりやすいということです。

複雑なAIは選考の候補者が質の低い評価と認識

AIの複雑さが応募者の評価にどのような変化を与えるかについても研究が行われています。AIの複雑さ、無形性、信頼性が候補者の評価にどのように作用するかが分析されました[2]

大学生を対象に、AIによる選考プロセスのシナリオが提示されました。AIの複雑さ(アルゴリズム、音声解析、ロボットインタビュー)、無形性(スキル評価、性格評価、仕事の成績予測)、信頼性(新規、試行済み、承認済み)の3つの要素が組み合わされた27の異なるシナリオが用意され、参加者はAI評価の品質を回答しました。

その結果、複雑なAI(特にロボットインタビュー)は、候補者にとって知識や長所・短所の評価品質を低く感じさせることがわかりました。AIが複雑になるほど、そのプロセスが理解しにくくなり、候補者にとって不透明さが増すのでしょう。

また、無形性が高い場合(例えば、性格評価や仕事の成績予測など)も、知識や長所・短所の評価に対する評価品質が低下することが明らかになりました。特に性格評価は、スキルや仕事の成績予測に比べて候補者にとって最も質の低い評価とされました。AIによる性格評価が候補者にとっては抽象的で信頼できないと感じられやすいのです。

一方で、予想に反して、AIの信頼性(新規、試行済み、承認済み)は、候補者の評価品質に大きな変化を与えないことが分かりました。候補者がAIの信頼性に対して具体的な情報を持っていない場合、その信頼性が評価に影響を与えにくいことを示唆しています。

ただし、複雑なAIでも信頼性が高い場合、その評価は改善される可能性があるという交互作用が見られました。例えば、ロボットインタビューによる仕事の成績予測であっても、信頼性が高いとされるシステムでは、評価の質が高まることが確認されました。

これらの結果は、AIを利用した選考プロセスに対する候補者の慎重な態度を明らかにしており、とりわけ複雑なAIや無形性の高い評価が質の低い評価として認識されやすいことを指しています。一方で、AIの信頼性を高めることで、複雑なAIを使用する場合でも評価の質を向上させられる可能性があることも示唆されています。

採用AIを倫理的と捉えると組織を魅力的に感じる

AIを採用プロセスに導入する際、その倫理的な側面も大切な考慮事項となります。ある研究では、AIの採用における倫理的な認識が、組織の魅力と革新性にどのような影響を与えるかが調査されました[3]

求職者と採用経験者を対象に、AIが採用に使われるさまざまな段階(応募者の特性評価、ソーシャルメディアの分析、面接のビデオ解析など)に対する倫理的な認識について回答を求めました。

結果としては、AIを採用に使うことを倫理的と認識した人々は、その組織をより魅力的に感じることが分かりました。この関係性は、特に「組織の革新性」を介して間接的に強化されました。要するに、AIの倫理的な使用が組織の革新性を示す指標となり、それが組織の魅力につながるという仕組みが働いていたのです。

しかし、すべての採用方法が同じ影響を与えるわけではありませんでした。例えば、ソーシャルメディアの情報を分析したり、応募者の顔や声の特徴をAIで解析したりするような「プライバシー」に関わる手法が倫理的と認識された場合、組織はより革新的かつ魅力的に見られました。一方で、履歴書や面接テキストの解析のような伝統的な手法では、そのような効果はほとんど見られませんでした。

応募者は、自分の倫理観に合った組織を好む傾向があり、AIを倫理的と捉えることで、その組織と価値観が合致すると感じ、組織に対して高い魅力を感じるのかもしれません。

また、AIが革新性を示す手段と捉えられるため、倫理的であると認識された場合、その組織が革新的であり、その結果として魅力的に見えるという効果もあります。特に、プライバシーに関わるようなデータをAIが扱う際に、それが透明で公正に行われていると認識されると、AIの利用は効率的かつ進歩的だと評価され、組織が最先端の技術を使い、革新的な取り組みを行っていると感じさせるのです。

一方で、AI使用が倫理的でないと認識された場合は、組織は革新的でも魅力的でもないと見なされる可能性が高くなります。応募者にとって、倫理的でない採用プロセスは、将来的に自分の働く環境においても同じように公正さや透明性に欠けるものだと予測させます。

AIの助けを頼ると評価が低くなる

AIが人事部門で活用される中、求職者がAIの助けを借りて応募書類を作成した場合、それがどのように評価されるかについて研究がなされています[4]AIを使って応募書類を作成した場合と、人間の助けを借りた場合、そして助けを借りずに自力で作成した場合の比較が行われました。

研究の結果、AIを使用した求職者は、使用していない求職者と比較して、温かさ、能力、社会的魅力、採用意欲のすべての評価で低い結果を示しました。AIを使うことで応募者が「自力で応募書類を作成できなかった」という悪い印象を与えたのかもしれません。

とりわけ、AIの助けを受けた場合、応募者の温かさに対する評価が他の条件に比べて顕著に低くなったことは注目に値します。AIがしばしば「冷たい」「非人間的」と感じられ、相手との温かい交流や信頼関係を築く能力が欠けているように見られがちなことと関係しているのでしょう。

AIは効率的で正確な道具としてのイメージがある一方、共感や人間らしいコミュニケーションを不得意とするため、社会的な魅力や協調性も低く見積もられた可能性があります。

また、能力、社会的魅力、採用意欲についても、AIまたは人間の助けを受けた応募者は、助けを受けていない応募者よりも低く評価されました。これは、どんな形の助けであっても、応募者が「自分ではなく外部の力に頼った」という印象が悪影響を与えることを意味しています。

求職者が外部の助けを必要としていると、それは「自律的に仕事を遂行できない」という印象を与えることになります。雇用の場では、問題を自分で解決できる能力が求められるため、助けを受けることで応募者が頼りなく見えます。これは、AIであろうと人間であろうと同じ結果をもたらしました。

AIや人間の助けを受けている応募者は、外部の力に頼って自分の能力を補完しているというイメージを与えるため、採用意欲や能力の評価が下がったと考えられます。助けを受けずに自分だけで応募書類を作成した応募者は、自己完結的な能力を示し、その分、高く評価されました。

AI・人間の順で評価される方が公正感を覚える

AIと人間が共同で意思決定を行う場面が増えていますが、その際の順序が公平性の認識にどのような変化を与えるのでしょうか。AIと人間の意思決定の順序が、手続き的公正の認識にどう影響するかが調べられました[5]

研究の結果、AI→人間の順よりも人間→AIの順の方が、AIの能力と与えられた権力の適合度が低く認識されることが分かりました。

人々は通常、最終決定者により大きな権力と責任があると考えます。AIが最終決定者の場合、人々はAIに高い能力を期待しますが、多くの人はAIの能力を人間よりも低く見積もる傾向があります。このずれが、AIの能力と与えられた権力の不適合感につながるのです。

また、AIの能力と与えられた権力の適合度が低いと認識されると、手続き的公正の認識も低下することが明らかになりました。人々は、決定者の能力が役割に見合っていないと感じると、その決定プロセスを不公平だと認識しやすくなります。AIの能力が役割に適していないと思われると、決定プロセス全体の信頼性や公平性が疑問視されます。

AIの能力が低いと認識されている場合、順序の影響がより顕著になりました。AIの能力が低い場合、AIを最終決定者にすることで、能力と権力の不適合感がより目立つようになります。一方、AIの能力が高いと認識されれば、AIが最終決定者であっても、その役割に適していると考えられやすくなります。

多段階の意思決定プロセスでは、AIを初期段階に、人間を後期段階に配置するのが望ましいことを暗示しています。AIが初期スクリーニングを行い、人間が最終判断を下すという流れが、より公平だと認識される傾向があるのです。

この結果は、AIと人間の協働における順序の大切さを示すとともに、AIの能力に対する人々の認識が、意思決定プロセスの公平性の判断に影響を与えることを明らかにしています。

人事への含意を整理する

AIの人事業務への導入は、効率化や客観性の向上などの利点がある一方で、様々な課題も浮き彫りになっています。応募者や従業員の心理に与える変化は複雑で、必ずしも良いものばかりではありません。

人事にとって、これらの研究は示唆を含んでいます。AIの導入に際しては、効率化や客観性の向上を目指すだけでなく、人々の心理的な反応も考慮する必要があります。

例えば、AIによる選考を導入する場合、そのプロセスの透明性を高め、応募者に十分な説明を行うことが大切でしょう。AIが評価する項目や基準を明確にし、人間による最終判断の機会を設けるなど、応募者の公平感を高める工夫が求められます。

また、AIの使用が倫理的であると認識されるよう、データの取り扱いや意思決定プロセスの公正さに注意を払う必要があります。このことは、組織の魅力や革新性の向上にもつながる可能性があります。

一方で、AIの助けを借りることが必ずしも良い評価につながらないという結果は、AIの活用方法に再考を促します。AIをサポートツールとして使いつつも、個人の能力や独自性を十分に発揮できるような仕組み作りが求められるでしょう。

AIと人間の協働における順序の影響も考慮に入れる必要があります。AIを初期段階のスクリーニングに使用し、最終判断は人間が行うという流れが、より公平だと認識される傾向があることを踏まえ、意思決定プロセスを設計することが望ましいでしょう。

AIと人間がそれぞれの長所を活かしながら協働できる環境を整えることが、今後の人事の課題となるでしょう。AIの導入は避けられない流れですが、それをどのように活用し、人々の心理にどう配慮するかが、組織の成功を左右する要素となっていくでしょう。

脚注

[1] Lavanchy, M., Reichert, P., Narayanan, J., and Savani, K. (2023). Applicants’ fairness perceptions of algorithm-driven hiring procedures. Journal of Business Ethics, 188(1), 125-150.

[2] Schick, J., and Fischer, S. (2021). Dear computer on my desk, which candidate fits best? An assessment of candidates’ perception of assessment quality when using AI in personnel selection. Frontiers in Psychology, 12, 739711.

[3] Veiga, S. P. D., Figueroa-Armijos, M., and Clark, B. B. (2023). Seeming ethical makes you attractive: Unraveling how ethical perceptions of AI in hiring impacts organizational innovativeness and attractiveness. Marketing & Entrepreneurship Faculty Publications, 1-40.

[4] Weiss, D., Liu, S. X., Mieczkowski, H., and Hancock, J. T. (2022). Effects of using artificial intelligence on interpersonal perceptions of job applicants. Cyberpsychology, Behavior, and Social Networking, 25(3), 163-168.

[5] Jiang, L., Qin, X., Yam, K. C., Dong, X., Liao, W., and Chen, C. (2023). Who should be first? How and when AI-human order influences procedural justice in a multistage decision-making process. PLoS ONE, 18(7), e0284840.


執筆者

伊達 洋駆 株式会社ビジネスリサーチラボ 代表取締役
神戸大学大学院経営学研究科 博士前期課程修了。修士(経営学)。2009年にLLPビジネスリサーチラボ、2011年に株式会社ビジネスリサーチラボを創業。以降、組織・人事領域を中心に、民間企業を対象にした調査・コンサルティング事業を展開。研究知と実践知の両方を活用した「アカデミックリサーチ」をコンセプトに、組織サーベイや人事データ分析のサービスを提供している。著書に『60分でわかる!心理的安全性 超入門』(技術評論社)や『現場でよくある課題への処方箋 人と組織の行動科学』(すばる舎)、『越境学習入門 組織を強くする「冒険人材」の育て方』(共著;日本能率協会マネジメントセンター)などがある。2022年に「日本の人事部 HRアワード2022」書籍部門 最優秀賞を受賞。東京大学大学院情報学環 特任研究員を兼務。

#伊達洋駆

アーカイブ

社内研修(統計分析・組織サーベイ等)
の相談も受け付けています