2026年、国内企業の採用面接において、生成AI技術を悪用して他人の顔になりすました人物がオンライン面接を受けていた事例が明らかになった。AIによる顔の加工技術が高度化し、リアルタイムでの映像操作が可能になったことで、本人確認の在り方が根本から問われている。
この事件は、リモートワークの普及とともに定着したオンライン面接の脆弱性を浮き彫りにした。従来の本人確認は応募書類と画面上の顔を照合する程度だったが、ディープフェイク技術の進化により、もはやそれだけでは不十分な時代になっている。企業は採用プロセス全体を見直し、多層的な本人確認システムの構築が求められる。
生成AIによるなりすましは、単なる不正行為にとどまらず、企業の信頼性やセキュリティに深刻な影響を及ぼす。なりすまし採用された人物が機密情報にアクセスすれば、情報漏洩や産業スパイのリスクが現実化する。採用は企業のセキュリティ対策の最前線であるという認識を、すべての組織が持つべきである。
対策としては、AIによる本人確認ツールの導入が有効だ。顔認証に加えて、声紋認証、行動バイオメトリクス、さらには物理的な身分証明書のリアルタイム提示など、複数の認証要素を組み合わせることで、なりすましのハードルを上げられる。技術には技術で対抗するアプローチが不可欠となっている。
一方で、過度な監視は応募者のプライバシーを侵害する懸念もある。本人確認の強化と個人情報保護のバランスをどう取るかは、企業倫理の試金石である。透明性のあるプロセスを設計し、応募者に対して確認の目的と方法を明確に説明することが、信頼関係の構築につながる。
この問題は企業だけでなく、求職者側にも影響を与える。正当な応募者が疑われたり、煩雑な確認プロセスを強いられたりする可能性があるからだ。社会全体でAI技術の適切な利用と悪用防止のルールを確立し、健全な労働市場を維持する努力が必要である。
生成AIは便利なツールである一方、悪用されれば社会の信頼基盤を揺るがす。今回の事例は、技術の進化に法整備や社会規範が追いついていない現実を示している。企業、求職者、そして技術開発者が協力し、AI時代にふさわしい新たな信頼の仕組みを構築していくことが、2026年を生きる私たちに課せられた使命である。