2025年5月23日
人間とAIの協働:HR領域における不確実性の壁と倫理的判断の重要性
生成AI等の技術の進展を受け、政府はAI戦略会議を設置し、活用の検討を始めました。AI・メタバースといった最新技術の発展は目覚ましく、今後さらに経済、金融、暮らしや働き方などに大きな影響を与えることが予想されます。
そのような中、厚生労働省は「AI・メタバースのHR領域最前線調査」を実施しました。本調査では、人事・労務(HR)領域における最新技術の活用実態や課題について、国内外の状況を包括的に整理しました。採用・評価・配置・育成などの様々な場面においてAI活用の可能性が広がっていますが、その実態や課題については、これまで十分に把握されていませんでした。
本コラムでは、2025年3月に公表された調査報告書の内容をもとに、私なりの考察を加えながら、HR領域におけるAI活用の現状と課題について述べていきます。特に企業がAI活用に慎重な姿勢を示す背景や、倫理的規範の重要性、そして今後予想される課題について焦点を当てていきたいと思います。
調査の対象と方法
本調査は厚生労働省労働基準局の委託により、PwCコンサルティング合同会社が2024年4月から2025年3月にかけて実施しました[1]。調査の実施にあたっては、ワーキンググループが設置され、学識経験者や実務家とともに調査内容や結果の分析について議論を重ねました。私はワーキンググループの座長を務めました。
調査方法としては、まず約6700社を対象としたプレ調査を実施し、593社から回答を得ました。その中からAI・メタバースを活用している(または活用予定がある)企業を抽出し、アンケート調査を行いました。さらに、AI・メタバースを提供している企業17社、利用している企業10社、活用している省庁・自治体7機関に対して、半構造化インタビューを実施しました。
本調査の特徴は、AI・メタバースの提供企業と利用企業の双方から情報を収集し、多角的な視点からHR領域における活用実態を把握しようとした点にあります。これによって、技術の提供側と利用側の双方の課題や期待を浮き彫りにすることができました。
AI利用を躊躇する様子
本調査で明らかになった興味深い事実の一つは、HR領域におけるAIの活用が、期待されているほど広がっていないという点です。プレ調査で回答のあった593社のうち、AIを活用していると回答した企業はわずか56社でした。技術の可能性が広く議論される一方で、実際の導入はまだ限られた範囲にとどまっています。
ヒアリング調査においても、AI活用は様々なHR領域で見られるものの、特定の業務に限定されている傾向が見られました。とりわけ注目したいのは、人事評価の最終判断をAIに委ねている事例が見られなかったことです。ヒアリングした企業の多くは、AIを意思決定の支援ツールとして活用しているものの、最終的な判断は人間が行うという原則を堅持していました。
例えば、ある採用支援AIを利用する企業では、AIの評点は参考にするものの、評価が低い候補者も含めて、すべての動画データや音声データを人が確認し、最終判断は必ず人が行うという運用をしていました。また、別のAI提供企業は、他社での紛争事例を踏まえ、人の評価そのものを行うAIサービス提供にはリスクがあると判断し、評価機能を組み込むことを控えているという実態もありました。
このように、企業がAI活用に慎重な姿勢を示す背景には、いくつかの要因が考えられます。
第一に、AI活用に伴う法的・倫理的リスクへの懸念です。現時点では、AI活用に関する法規制やガイドラインが発展途上であり、HR領域での活用については明確な指針が確立されていません。個人情報保護法や労働関連法規との関係も不明確な部分があり、企業としてはリスクを取りたくないという心理が働いていると考えられます。
第二に、個人情報の取扱いに関する不確実性です。本調査では、AIに個人データを読み込ませる場合の働く人の同意、働く人への情報開示、情報の公平性、提供企業への情報提供、社内の閲覧権限の範囲といった観点について、各社の対応にばらつきが見られることが分かりました。例えば、ある企業はAI面接の評価を候補者本人にフィードバックしていますが、採用判断にAIを利用していることを候補者に明示するかどうかは各利用企業の判断に委ねている提供企業もあります。
第三に、AIの検証方法に関する課題です。ヒアリングでは、AIによる判断の正確性や効果の検証が難しいという意見が聞かれました。人事評価は評価者によって基準が異なることや、業務の適性は状況により変化することから、AIにデータを入力して分析しても、その判断が適切かどうかの検証は容易ではないとの声も挙げられています。
これらの課題は「不確実性の高さ」という共通点を持っています。不確実性とは、十分な情報が得られておらず、将来の結果や帰結を予測できない未知の状態を指します[2]。意思決定に必要な情報が欠如しているため、確信を持って行動することが困難になります。
今回の文脈では、不確実性は「AIを活用した場合、どのような結果がもたらされるのか」という予測可能性の欠如として現れます。企業は、AIシステムを採用プロセスや人事評価に導入した場合、それが公平な判断をもたらすのか、法的問題を引き起こさないのか、従業員の信頼を損なわないのか、といった点についてそこまで明確な見通しを持てていません。
人間の心理において、不確実性は基本的にストレス要因として作用します[3]。人は予測できない状況に対して警戒心や不安を感じます。そのため、自然と不確実な状況を回避しようとする傾向があります。AIが人事評価や採用判断に与える影響、そのアルゴリズムの公平性、個人データの取扱い方法など、多くの要素が不明確なままです。そのような状況下で、企業がAIの積極的な活用に踏み切れないのは、不確実性を回避するという意味では、自然な反応と言えます。
倫理的規範に基づく慎重な活用
本調査報告書から浮かび上がるもう一つの特徴は、AI活用における倫理的側面への意識です。ヒアリング対象となった企業の多くが、AIの公平性、透明性、説明責任といった倫理的観点から様々な取り組みを行っていることが明らかになりました。
AIの倫理的活用に対するこの意識の高さは、様々な要因によって形成されていると考えられます。一つは、AI技術が人の評価や処遇に直結する領域で活用されることの社会的責任の大きさがあるでしょう。採用、配置、評価、育成など、HR領域の様々な意思決定は、個人のキャリアや人生に関わるものであり、公平性や透明性の確保は社会的にも求められています。
この倫理的規範がAI活用においても表れています。例えば、ある採用支援AIを提供する企業では、評価指標を利用企業ごとに個別設計するのではなく、横断的・統一的な基準を提供していました。これは、AIによる評価においても一貫した基準を適用することで公平性を担保しようとする姿勢の表れかもしれません。
AIアルゴリズムの監査を専門機関に依頼している企業もありました。第三者機関による監査を実施し、その結果を報告書として公開するという取り組みが行われていました。第三者による客観的な評価を通じて信頼性を確保するという考え方です。
バイアス除去の取り組みもあります。企業によっては、モデル構築の際に過去の採用データからバイアスとなり得る要素を除外したり、配置において不適切なバイアスが生じる情報をAIに入力しないようにしたりといった対応を行っていました。さらには、労働組合への加入情報などのセンシティブな情報の活用を避けるなど、差別につながる可能性のある情報の取扱いに細心の注意を払っている実態も見られました。
このような倫理的配慮は、法規制への対応という動機だけでなく、企業の社会的責任や持続可能な事業運営といった視点からも重要視されています。AI技術を活用する企業は、その判断が公平かつ透明であるべきという規範意識を持っていることが推察され、それがAI活用においても反映されているのでしょう。
EU等の海外動向も意識しながら対応している企業もありました。欧州のAI法などのガイドラインをシステム選定時の参考にしたり、自社データが学習データに利用されていないかを確認したり、最終判断をAIに委ねないよう配慮するなど、グローバルな倫理的枠組みを意識した対応も見られました。
しかし、倫理的配慮の実践には課題も存在します。ある企業は、AIが採用可否などの最終決定を行うことは「一線を超える」と表現し、AIの役割をどこまで認めるかについての線引きの難しさを指摘していました。また、AIが高パフォーマンスの人材ばかりを選別すると、組織が同質化するリスクも懸念されています。
今後の課題になりそうなもの
本調査の結果を踏まえ、HR領域におけるAI活用の今後の展望と課題について考えてみたいと思います。現在の日本企業はAIの積極的な利用に進む前の段階にあり、比較的慎重な対応をとっていることが分かります。しかし、今後AI技術の普及が進み、利用が日常化するにつれて、新たな課題が表出する可能性があります。
特に、AIの利用が進むにつれて生じる可能性がある倫理的な問題について取り上げておきましょう。ある研究によれば、人はAIを活用し始めると、非倫理的な行動をとる傾向が強まることが示されています[4]。具体的には、AIが社会において果たす4つの役割(ロールモデル、アドバイザー、パートナー、エージェント)について検討し、これらの役割がいずれも人間の倫理的行動に影響を与えることを明らかにしました。
例えば、AIがアドバイザーとして機能する場合、その提案が権威あるものとして受け止められ、人々が倫理規範を破る原因となることがあります。また、AIがパートナーとして人間と協力する場合、責任の分散により、人間は単独では行わないような非倫理的行動をとることが可能になります。さらに、AIがエージェントとして機能する場合、人々は非倫理的な行動の責任をAIに転嫁し、自らの罪悪感を軽減する傾向があります。
同時に、人々がアルゴリズムの誤った助言を批判的に評価せずに受け入れることを実証した研究もあります[5]。自動車会社の品質管理責任者の選考というシナリオを用いて実験が行われ、参加者にアルゴリズムからの推奨または他の参加者からの推奨が提供されました。結果、アルゴリズムが誤った助言をしても、参加者はそれを否定せず信じる傾向がみられました。この背景には自動化バイアス(機械の判断を過度に信頼する傾向)や、アルゴリズムの判断プロセスを批判的に評価するための認知的負荷の高さがあると考えられます。
さらに、人がAIなどの技術と直接やり取りする場面では、道徳的な行動に変化が見られます。ある研究の中で、消費者は人間のスタッフと比べて、AIやセルフレジに対してより非道徳的な行動をとりやすいことが示されています[6]。レストランやスーパーマーケットにおける支払い場面を想定した実験において、参加者は機械的な存在に対して道徳的な基準を緩め、誤った請求を報告する意欲が低下したり、不正行為に対する罪悪感が薄れたりすることが確認されました。これは、機械が感情を持たないと認識されるため、他者に与える影響への配慮が働きにくくなることが原因と考えられます。
これらの研究結果は、AIの普及が進むにつれて、私たちの倫理観や道徳的行動が変化する可能性を示唆しています。例えば、採用プロセスにおいて、AIが提示した候補者リストを無批判に受け入れたり、AIによる業績評価結果をそのまま処遇に反映させたりすることで、本来人間が担うべき倫理的判断がおろそかになるリスクがあります。また、「AIがそう判断したから」という理由で、個人に不利益な判断が正当化される事態も懸念されます。
こうした課題に対処するために、AI及び人間双方の判断プロセスの透明性確保が重要になるでしょう。どちらもどのようなデータに基づき、どのようなロジックで判断を行ったのかを説明できるようにすることで、評価を受ける側が判断の根拠を理解し、必要に応じて異議を唱えられる環境が必要です。
そのために、倫理的なガイドラインと教育が求められます。企業内でAIと人間が協働する際の原則を明確にし、人事担当者がそれを理解・実践できるよう教育を充実させます。とりわけ、AIの判断と人間の判断をどう組み合わせ、最終決定にどう反映させるかといった指針が大事です。
HR領域におけるAI活用は、その可能性と課題の両面を持ち合わせています。技術の進展とともに新たな活用方法が生まれる一方で、働く人の権利の保護や倫理的配慮の重要性も高まっています。現在の慎重な段階から積極的な活用段階に移行する際にも、倫理的配慮や透明性を確保することで、AIの恩恵を最大化しつつリスクを最小化することができるかもしれません。
脚注
[1] 本報告書は厚生労働省のウェブサイトからダウンロードすることができます。
[2] Berger, C. R., and Calabrese, R. J. (1975). Some explorations in initial interaction and beyond: Toward a developmental theory of interpersonal communication. Human Communication Research, 1(2), 99-112.
[3] Milliken, F. J. (1987). Three types of perceived uncertainty about the environment: State, effect, and response uncertainty. Academy of Management Review, 12(1), 133-143.
[4] Kobis, N., Bonnefon, J. F., and Rahwan, I. (2021). Bad machines corrupt good morals. Nature Human Behaviour, 5(6), 679-685.
[5] Cecil, J., Lermer, E., Hudecek, M. F., Sauer, J., and Gaube, S. (2024). Explainability does not mitigate the negative impact of incorrect AI advice in a personnel selection task. Scientific Reports, 14(1), 9736.
[6] Giroux, M., Kim, J., Lee, J. C., and Park, J. (2022). Artificial intelligence and declined guilt: Retailing morality comparison between human and AI. Journal of Business Ethics, 178(4), 1027-1041.
執筆者
伊達 洋駆 株式会社ビジネスリサーチラボ 代表取締役
神戸大学大学院経営学研究科 博士前期課程修了。修士(経営学)。2009年にLLPビジネスリサーチラボ、2011年に株式会社ビジネスリサーチラボを創業。以降、組織・人事領域を中心に、民間企業を対象にした調査・コンサルティング事業を展開。研究知と実践知の両方を活用した「アカデミックリサーチ」をコンセプトに、組織サーベイや人事データ分析のサービスを提供している。著書に『60分でわかる!心理的安全性 超入門』(技術評論社)や『現場でよくある課題への処方箋 人と組織の行動科学』(すばる舎)、『越境学習入門 組織を強くする「冒険人材」の育て方』(共著;日本能率協会マネジメントセンター)などがある。2022年に「日本の人事部 HRアワード2022」書籍部門 最優秀賞を受賞。東京大学大学院情報学環 特任研究員を兼務。