2026年4月21日、ピー・シー・エー(PCA)は、人事・労務領域における生成AI活用の標準化を目的とした協議会の発足を発表した。8社が連携し、安全で実践的な運用体制の構築を進める。
人事AI活用の課題受け8社協議会発足
ピー・シー・エーは、企業の人事・労務部門における生成AIの安全な活用を目的とした「生成AI人事労務実践研究会<HR AI Lab>推進協議会」に参画し、8社合同で正式に発足した。主体・事務局は総合事務所ブレインが担い、kubellやティースリー、日本実業出版社、エキストラ、DONUTS、エヌ・ジェイ・ハイ・テックが参加する。
本協議会は、2026年10月に発足予定の有料会員制研究会「HR AI Lab」の設立を見据えた準備組織として位置づけられる。参加企業は、集客や運営支援などの役割を担いながら、実務に即した活用指針の整備を進める方針だ。
背景には、生成AIの急速な普及と運用リスクの顕在化がある。WHI総研の調査では、人事部門での利用率は75%に達する一方で、社内ルール未整備や情報漏えい対策の不備が課題として指摘されている。さらに、パーソル総合研究所の分析では約4割の企業が標準手順を持たない「手探り運用」にとどまる状況が明らかとなった。
加えて、総務省の調査でもAIガイドラインの実務活用は46%にとどまり、制度と現場の乖離が浮き彫りとなっている。特に人事・労務領域では、ハルシネーション(※)による誤判断や法令違反リスクへの対応が急務となっており、標準化された運用体制の整備が求められている。
※ハルシネーション:生成AIが事実に基づかない誤情報をあたかも正しいかのように生成する現象。業務利用では意思決定ミスや判断の誤りにつながるリスクがある。
標準化が進む一方で責任設計が焦点に
今回の取り組みは、人事領域における生成AI活用を個別最適から組織最適へ引き上げる契機となる可能性がある。運用指針やレビュー体制が整備されれば、業務効率の向上に加え、判断基準の一貫性確保にもつながると考えられる。特に、属人化しやすい労務判断の平準化という点では、一定の効果が期待される。
一方で、リスクは技術だけでなく運用設計にも大きく依存する。AIの出力をどこまで信頼するのか、最終判断の責任を誰が負うのかといった設計が不十分な場合、誤判断やコンプライアンス違反につながる可能性がある。人事データの機微性を踏まえれば、情報管理と説明責任の両立は重要な論点の一つになる。
また、ガイドラインの整備だけでは現場への定着が進まないケースも想定される。教育や評価制度と連動しなければ、運用が形骸化するリスクも否定できない。今後は、運用ノウハウの共有と継続的なアップデートを通じて、実効性あるモデルを構築できるかが問われる。
人事領域における生成AI活用は、効率化と統制のバランス設計という新たな経営課題として認識されつつある。今回の協議会が、その実践知をどこまで体系化できるかが、今後の普及に影響を与える可能性がある。
関連記事: