AI時代のエンジニア評価が変わる:テスト採用から加点評価へ

田中 慎

田中 慎

CEO / PM / Vibe Coder

12分で読了
シェア:
AI時代のエンジニア評価が変わる:テスト採用から加点評価へ

はじめに:採用と評価の転換点

2025年から2026年にかけて、エンジニアやAI人材の採用・評価方法が大きな転換点を迎えています。

従来の採用では「学歴」「職歴」「スキルセット」が重視されてきました。しかし、AI時代においては「AIをどれだけ使いこなせるか」が、生産性の決定的な差を生み出すようになりました。

この記事では、以下の3つのテーマを深掘りします:

  1. テスト採用の歴史:副業転職という先行モデル
  2. AI時代における採用の変化:AI実績重視への二極化
  3. AI時代における評価の課題:生産性を正しく評価する仕組み

テスト採用の歴史:副業転職という先行モデル

副業転職の概念と背景

「採用前に試す」という考え方は、実は新しいものではありません。

前職で携わったOffersでは、副業転職という仕組みを普及させていました。これは、企業が候補者を正式採用する前に、まず副業として一緒に働いてみる——という採用プロセスです。

この背景には、次のような課題がありました:

  • ミスマッチの防止:履歴書や面接だけでは分からない「働き方の相性」「技術スタックの適合性」を確認したい
  • リスクの最小化:正社員として採用してから「思っていたのと違った」となるリスクを減らしたい
  • 候補者の意思確認:候補者側も「本当にこの会社で働きたいか」を確認したい

Offersでの副業転職機能の詳細

Offersでは、副業転職を実現するための機能を開発・提供していました。

主な特徴:

  • 登録ユーザーの10-15%が即利用:副業転職機能を設定したユーザーの割合が非常に高く、ニーズの強さが証明された
  • スタートアップでの普及:特にスタートアップ企業で副業転職の採用スタイルが普及し、採用成功率が向上
  • ミスマッチ防止効果:副業期間(1-3ヶ月)を経て正式採用に至ったケースでは、早期離職率が大幅に低下

このモデルは、「採用前に試す」という考え方が、現代の人材戦略において非常に有効であることを示していました。

Offersで見てきた企業の評価制度

Offersのプラットフォームを通じて、私は多くの企業の採用・評価制度についてヒアリングする機会がありました。

副業転職だけでなく、正社員採用における評価制度も企業によって多種多様でしたが、共通するパターンが見えてきました。

多くの企業が採用していたのは、次の2つの評価軸を組み合わせた評価制度でした:

  1. コンピテンシー評価:個人の能力とスキルの評価
    • ソフトスキル(行動特性)
    • ハードスキル(専門スキル・スキルラダー)
  2. アウトカム評価:事業成果への貢献度の評価

この2軸の掛け合わせによって、総合的な人材評価を行う——これが、従来の評価制度の基本構造でした。

次のセクションでは、この従来の評価制度について詳しく見ていきます。

従来の評価制度の構造

コンピテンシー評価:個人の能力とスキル

コンピテンシー評価は、個人が持つ能力とスキルを総合的に評価する軸です。

この評価は、大きく分けて2つの要素で構成されています。

ソフトスキル評価(行動特性)

ソフトスキルは、「その人がどのように仕事をするか」を評価します。

主な評価項目:

  • コミュニケーション能力:社内外との円滑なコミュニケーション
  • リーダーシップ:チームを牽引し、方向性を示す力
  • オーナーシップ:自分事として主体的に取り組む姿勢
  • 巻き込み力:他部署や関係者を巻き込んで推進する力
  • チームワーク:協調性を持って協力する姿勢

評価の具体例:

  • 「プロジェクトを主導して完遂した」
  • 「他部署を巻き込んで課題を解決した」
  • 「チームメンバーの成長をサポートした」

このようなソフトスキルは、職種を問わず重要視される評価軸です。

ハードスキル評価(専門スキル・スキルラダー)

ハードスキルは、「その人が何ができるか」を評価します。

プロフェッショナルとしての専門スキルを、各領域(技術、マネジメント、ビジネスなど)ごとにレベル定義したものがスキルラダーです。

エンジニアのスキルラダー例:

  • ジュニア:基本的な実装ができる、指示に従って作業できる
  • ミドル:一人で機能開発ができる、技術選定に参加できる
  • シニア:アーキテクチャ設計ができる、技術的リーダーシップを発揮できる
  • リード:チーム全体の技術方針を決定できる、メンバーを育成できる
  • スタッフ:組織横断的な技術戦略を立案できる、複数チームに影響を与えられる

各レベルに求められる能力や成果が明確に定義され、現在のレベルと次のレベルへの成長の道筋が見えるようになっています。

アウトカム評価(事業成果への貢献)

アウトカム評価は、「その人がどれだけ成果を出したか」を評価する軸です。

主な評価指標:

  • 予算達成率:所属事業部の予算目標に対する達成度
  • 売上貢献度:個人またはチームの売上への直接的な貢献
  • KPI達成度:設定されたKPI(重要業績評価指標)の達成状況
  • プロジェクト成果:担当プロジェクトの成功度や影響度

所属する事業部や組織の目標に対して、個人がどれだけ貢献したかを測定します。

従来の評価制度の全体像

従来の評価制度は、これら2つの評価軸を掛け合わせた総合評価でした:

評価式:

総合評価 = コンピテンシー評価 × アウトカム評価

ここで、コンピテンシー評価は以下の要素を含みます:

  • ソフトスキル:どのように仕事をするか(行動・姿勢)
  • ハードスキル:何ができるか(専門能力・レベル)

そして、アウトカム評価は:

  • 事業成果への貢献:どれだけ成果を出したか(貢献度)

この2軸による評価は、多くの企業で採用されている標準的な評価制度でした。

しかし、AI時代においては、この2軸だけでは不十分になりつつあります。

AI時代における採用の変化

テスト採用 or AI実績重視への二極化

AI時代においても、「採用前に試す」という考え方は引き続き有効です。しかし、新たな要素が加わります。

それが、「AI実績」の重視です。

現在、採用市場では次のような変化が起きています:

  1. AI実績のある人材への需要集中
    • AIワークフロー構築の経験がある
    • Dify、Cursor、Claude Codeなどのツールを業務で活用している
    • 実際にAIで生産性を向上させた実績がある
    • さらに高く評価されるスキル:
      • AIを活用したワークフローや業務効率化の方法を他者に教えられる
      • 教えた相手がAIを使いこなし、さらに成果を出せるようになる
      • チーム全体の生産性を向上させることができる
      • これらの能力を持つ人材は、年収が5倍〜10倍になる可能性がある
  2. テスト採用の継続
    • 副業やプロジェクトベースで「AI活用能力」を確認する
    • 実際の業務でどれだけAIを使いこなせるかを評価する

AIが使える人の圧倒的な生産性差

AIを使いこなせる人材とそうでない人材の間には、生産性に2〜5倍の差が生じています。

具体例:

  • コーディング速度:CursorやClaude Codeを使いこなすエンジニアは、実装速度が3〜5倍に向上
  • ドキュメント作成:AIを活用することで、要件定義書や設計書の作成時間が1/3に短縮
  • データ分析:AIによるデータ分析で、従来1週間かかっていた作業が1日で完了

この生産性の差は、企業にとって採用の意思決定を大きく左右する要素になっています。

AIが使えない人への評価低下

一方で、AIを使いこなせない人材への評価は、残念ながら低下しつつあります。

これは、次のような理由によります:

  • 旧時代の評価基準:従来の「手作業でコードを書く」スキルだけでは、AI時代の生産性要求に追いつかない
  • コスト効率の悪化:AIを使わない場合、同じ成果を出すのに2〜5倍の時間がかかる
  • 市場競争力の低下:AIを使いこなす人材が増える中で、相対的な価値が低下

ただし、これは「AIを使えない人が不要になる」という意味ではありません。AIを学び、使いこなす意欲と行動があるかが重要です。

採用ハードルの急激な上昇(2025-2026)

2025年から2026年にかけて、採用ハードルが一気に高くなっています。

主な要因:

  1. AI活用が「できたら良い」から「必須」へ
    • 従来:AIを使えたらプラス評価
    • 現在:AIを使えないと評価がかなり上がりづらい
  2. 求人票の変化
    • 「AIツールの活用経験」が必須要件に追加される
    • 「業務効率化の実績」が評価基準に含まれる
  3. 業務効率化求人の増加
    • 企業が積極的に「AI活用による業務効率化」を求める求人を出している
    • 特にスタートアップや成長企業で顕著
💡 関連記事: AI時代のキャリア戦略については、AI時代のキャリア戦略で詳しく解説しています。

AI時代における評価の課題:新しい評価軸の必要性

従来の評価制度の限界

前のセクションで見てきた従来の評価制度(コンピテンシー評価・アウトカム評価の2軸)は、これまで有効に機能してきました。

しかし、AI時代においては、この2軸だけでは評価しきれない領域が生まれています。

従来の評価制度が抱える課題:

  • AIを使いこなす能力が既存の枠組みに収まらない
    • ソフトスキル:AI活用は「コミュニケーション能力」や「リーダーシップ」とは異なる能力
    • ハードスキル:従来のスキルラダーにAI活用スキルが体系的に含まれていない
    • アウトカム評価:AI活用による生産性向上が正しく反映されない
  • 生産性の差が評価に反映されない
    • AIを使いこなす人と使わない人で2〜5倍の生産性差が生じている
    • しかし、従来の評価制度ではこの差が見えにくい
    • 結果として、高生産性人材が適切に評価されない
  • 時間ベース・プロセス重視の評価が残る
    • 長時間働く人が高評価される(生産性は評価されない)
    • アウトカム(成果)よりもプロセス(手順)が評価される
    • 同じチーム内での相対的な評価(絶対的な生産性は評価されない)

第3の評価軸:AIパフォーマンス評価

このような課題を解決するために、第3の評価軸が必要になります。

それが、AIパフォーマンス評価です。

新しい評価式:

総合評価 = コンピテンシー評価 × アウトカム評価 × AIパフォーマンス評価

AIパフォーマンス評価の要素:

  1. AIツールの活用度
    • 業務でどれだけAIツール(Cursor、Claude Code、Dify等)を活用しているか
    • 新しいAIツールを積極的に試し、業務に取り入れているか
  1. AI活用による業務効率化の実績
    • AIを活用することで、どれだけ作業時間を短縮したか
    • 従来の方法と比較して、どれだけ生産性を向上させたか
  1. AI活用によるアウトカム創出能力
    • AIを活用することで、従来では不可能だった成果を出せたか
    • AIを使いこなすことで、ビジネス価値を創出できたか

この第4の評価軸を加えることで、AI時代における人材の真の価値を評価できるようになります。

生産性の高低を正しく評価する必要性

2026年において、企業が直面する最大の課題は、「AIで生産性の高い人をどう評価するのか」です。

AI時代においては、生産性の絶対値を評価する必要があります。

Offers MGRでの生産性評価の取り組み

前職では、エンジニアや開発人材の生産性を評価するためのプロダクトとしてOffers MGRを起案し、リリースしていました。

Offers MGRの主な機能:

  • コミット数・PR数の可視化:Gitのコミット履歴やPR(プルリクエスト)を分析し、開発活動を可視化
  • 開発速度の測定:機能開発にかかった時間を測定し、生産性を定量化

このような仕組みにより、エンジニアの生産性を客観的に評価できるようになりました。

アウトカム評価への進化

Offers MGRのような生産性評価ツールは有効ですが、AI時代においてはさらに進化した評価が必要です。

それが、アウトカム(成果)評価です。

アウトカム評価の3つの要素:

  1. 課題発見力
    • ビジネス上の本質的な課題を見つけられるか
    • 顧客やユーザーの真のニーズを理解できるか
  2. アウトカム定義力
    • 課題を解決したときの成果(アウトカム)を明確に定義できるか
    • 測定可能な指標(KPI)を設定できるか
  3. 問題解決・実行力
    • 定義されたアウトカムを実現するための解決策を考案・実行できるか
    • AIを活用して効率的に実装できるか

これらの要素を評価することで、単なる「作業量」ではなく、ビジネス価値への貢献度を評価できるようになります。

特にPM職では、AIで自動化される従来業務から、新しい価値創出とステークホルダーマネジメントへとアウトカムの定義自体が変化しています。

アウトカム定義が評価の要になる

AI時代の評価制度で最も重要なのは、アウトカム(成果)を明確に定義することです。

アウトカム定義の具体的な方法については、AI時代のアウトカム定義:出力2倍≠成果2倍の罠を避ける実践ガイドで、3層フレームワーク(経営層・マネージャー層・実務層)を使った実践的な定義方法を解説しています。

従来の評価では「頑張った」「努力した」といった曖昧な基準が使われがちでしたが、AI時代においては:

  • 測定可能な成果指標(KPI)を設定する
    • 例:商談化率20%向上、開発速度2倍、コスト30%削減
  • ビジネス価値との連動を明確にする
    • 例:売上貢献度、顧客満足度向上、工数削減額
  • 個人の貢献度を定量化する
    • 例:プロジェクトへの貢献率、品質改善度、チーム生産性向上

このアウトカム定義が曖昧なままでは、どれだけAIを活用して生産性を上げても、正当に評価されません。

生産性に応じた評価制度の構築

AI時代において、企業が競争力を維持するためには、生産性に応じた評価制度を構築する必要があります。

評価制度の設計ポイント:

  1. 加点評価の仕組み
    • 基本評価:従来の評価制度で基本給を決定
    • 加点評価:生産性向上の努力と結果を加算評価
  2. 透明性の確保
    • 評価基準を明確にする
    • 評価プロセスをオープンにする
  3. 継続的な改善
    • 3ヶ月〜半年ごとに評価を見直す
    • 成果とフィードバックを繰り返す

重要なポイント: 加点評価の仕組みをうまく作った企業に、優秀な人材が集まります。

アウトカムを昇給・ボーナスに直結させる仕組み

加点評価制度の肝は、アウトカムを昇給・ボーナスに直接反映させる仕組みです。

昇給への反映例:

  • 基本給 + アウトカム加点
    • 基本給:市場相場に基づく基本報酬
    • アウトカム加点:達成した成果に応じて5%〜30%の加算
    • 例:基本給50万円 + アウトカム加点10万円(20%)= 月給60万円

ボーナスへの反映例:

  • 評価期間のアウトカム総和で算定
    • 四半期ごとのアウトカム評価を累積
    • 達成度に応じて基本給の1〜6ヶ月分
    • 例:KPI達成度120% → 基本給の4ヶ月分のボーナス

評価テーブルの例:

アウトカム達成度 昇給率 ボーナス倍率
150%以上 +30% 6ヶ月分
120%〜149% +20% 4ヶ月分
100%〜119% +10% 2ヶ月分
80%〜99% +5% 1ヶ月分
80%未満 据え置き なし

この仕組みにより、「AIを活用して生産性を上げればダイレクトに報酬が上がる」というインセンティブが生まれます。

AI Nativeでの加点評価実験

私たちAI Nativeでは、2025年から加点評価の仕組みを実験的に導入し、試行錯誤を続けています

この取り組みはまだ進行中であり、すべてを理解しているわけではありません。実際に運用しながら学び、改善を重ねている段階です。もしこの評価制度が意味のあるものだと確信できたら、将来的にはプロダクトとして提供することも検討しています。

ジョイン時の評価(従来方式)

新しいメンバーが業務委託としてジョインする際は、まず従来の評価方式で基本報酬を決定します。

  • スキルセット
  • 経験年数
  • 過去の実績
  • 市場相場

この段階では、AIスキルは「あれば良い」程度の評価にとどまります。

1-2ヶ月目の加点評価算定・加算

ジョインから1-2ヶ月経過した時点で、加点評価を算定します。

評価基準:

  • AI活用度:業務でどれだけAIツールを活用したか
  • 生産性向上:従来の方法と比較してどれだけ効率化したか
  • アウトカム創出:ビジネス価値のある成果を出せたか

この評価に基づいて、報酬に加算されます。

3ヶ月単位でのアウトカム評価

その後は、3ヶ月単位でアウトカム評価を実施します。

評価プロセス:

  1. アウトカムの整理
    • この3ヶ月で達成した成果を明確化
    • ビジネスへの貢献度を測定
  2. 加点評価の算定
    • 生産性向上の度合い
    • 課題発見・解決の質
    • チームへの貢献度
  3. フィードバックと次の目標設定
    • 評価結果をフィードバック
    • 次の3ヶ月の目標を設定

アウトカムから報酬への変換プロセス

AI Nativeでは、アウトカムを以下のプロセスで報酬に反映しています。

ステップ1:アウトカムの定量化

  • 達成した成果を具体的な数値で表現
  • 例:「記事執筆の効率化」→「1記事あたりの作成時間を5時間→2時間に短縮(60%改善)」
  • 例:「営業資料の自動生成」→「提案資料作成を10件/月→30件/月に増加(3倍)」

ステップ2:ビジネス価値への換算

  • 時間削減 → 工数削減額に換算
  • 品質向上 → 売上貢献度に換算
  • 例:3時間/記事の削減 × 20記事/月 = 60時間/月の削減 = 約30万円/月の工数削減

ステップ3:報酬への反映

  • 創出した価値の一定割合を報酬に加算
  • 例:30万円/月の価値創出 → 20%の6万円を報酬に加算
  • 半年間継続 → 昇給として基本報酬に組み込み

この明確な連動により、「AI活用で成果を出せば確実に報酬が上がる」という信頼が生まれ、メンバーの自発的なAI活用が促進されます。

評価基準と業務委託停止の基準

加点評価制度では、明確な基準を設けています。

継続基準:

  • 従来の生産性を維持または向上している
  • AIを活用して業務効率化を実現している
  • アウトカムを継続的に創出している

業務委託停止の基準:

  • 従来の生産性と変わらない(改善が見られない)
  • AI活用の意欲や行動が見られない
  • 3ヶ月単位の評価で2回連続で基準を下回る

この基準により、生産性向上に真剣に取り組むメンバーが集まる環境を作っています。

実験の現状と今後の展望

現在、この加点評価制度は運用しながら改善を続けている段階です。

現在取り組んでいること:

  • 評価指標の精緻化:どの指標が本当に重要かを見極める
  • 報酬反映のタイミング調整:最適な評価サイクルを探る
  • メンバーからのフィードバック収集:実際に評価を受ける側の声を反映

今後の展望:

もしこの評価制度が実際に機能し、メンバーの成長と企業の成果の両方に貢献できると確信できたら、他の企業でも活用できるプロダクトとして提供することを検討しています。

AI時代の評価制度は、まだ誰も正解を持っていません。私たちも試行錯誤しながら、より良い仕組みを作り上げていきたいと考えています。

まとめ:評価制度が人材戦略の鍵になる

AI時代における評価制度の重要性

AI時代において、評価制度は単なる「報酬の決め方」ではなく、企業の競争力を左右する戦略的要素です。

  • 優秀な人材を引きつける
  • 生産性向上を促進する
  • 組織全体のパフォーマンスを向上させる

企業の競争力を左右する要因

次の3つの要素が、企業の競争力を左右します:

  1. 加点評価の仕組み
    • 生産性向上の努力と結果を正当に評価する
    • 優秀な人材が集まる環境を作る
  2. 透明性とフェアネス
    • 評価基準を明確にする
    • すべてのメンバーに公平な機会を提供する
  3. 継続的な改善
    • 評価制度を定期的に見直す
    • フィードバックを活かして進化させる

AI戦略・評価制度のご相談はお気軽に

AI時代における採用戦略や評価制度の設計について、より詳しく知りたい方、具体的なご相談がある方は、お気軽にお問い合わせください。

私たちAI Nativeでは、CAIO(最高AI責任者)サービスを通じて、経営層向けにAI戦略・組織設計・評価制度の構築を支援しています。

🚀 まずは相談してみる

現状の課題ヒアリングから最適な進め方まで、無料でご提案します。

お問い合わせはこちら

参考リンク

📊

あなたのAI活用レベルを診断

20問・3分で、あなたのAIスキルレベルを可視化します。
個人・法人社員の方、どなたでも無料で診断いただけます。

執筆者

田中 慎

田中 慎

CEO / PM / Vibe Coder

2011年新卒で受託開発/自社メディア企業にWebデザイナーとして入社。1年半ほど受託案件のディレクション/デザイン/開発に従事。2012年株式会社サイバーエージェントに転職し、約4年間エンジニアとしてポイントプラットフォーム事業、2つのコミュニティ事業の立ち上げ・運用に従事。同時に個人事業主としてWebサービス/メディアの開発をスタートし、年間3,000万円以上の利益を創出。2017年株式会社overflowを共同創業者・代表取締役CPOとして設立。2つのHR SaaS事業をゼロから立ち上げ、累計1,000社以上の企業、エンジニア/PMなど3万人以上が利用するサービスへと成長させた。現在はAI Nativeの創業者として、AIと人間の共創による新しい価値創造を推進。