独自のAIエージェント開発をストップした話

4月中旬に、独自のAIエージェント開発を行い試験運用をスタートした旨をお知らせしました。

上記に記載の通り、一連の試作は完了し、その後約3週間ほどチューニングを行っていましたが、結論、こちらのAIエージェント開発はストップすることにしました。ただ、本件で実現したかったことを断念したわけではなく、独自開発ではなくNotion AIで自分たちでやりたかった内容の多くは代替できると判断したためです。

今回、このプロジェクトをストップするに至った試行錯誤の経緯などを記載しておくことで、同じチャレンジをする皆さんの参考になればと思い、恥をしのんで公開します。

もともと実現したかったこと

当社のような事業を行う会社において、人材データベースから要件に合致する候補者を抽出するという業務は、まさにコアとなる部分です。当社のような副業・フリーランス領域に限らず、人材紹介・人材派遣など広範囲のHRビジネスで同じような業務が日々行われています。各社いろいろな方法で人材DBを保有していますが、従来の条件検索やキーワード検索では意味理解が弱く、最適な候補者抽出を行うのは非常に属人的でした。しかし生成AIの登場によってこの部分の精度は大きく向上しています。

現在当社では100名を超えるBizDev人材の登録があり、日々クライアント企業からオーダーをいただく毎に候補者抽出を行っていますが、今後想定される登録者とクライアント企業からのオーダーの増加に対応すべく、ここの業務効率を上げたいと思ったのが一番のきっかけです。

開発の変遷

最初に検討したのは、当社メンバーのみがアクセス可能なログイン機能を持つ独自の検索システムを構築し、そこにAIエージェント的な機能を持たせることで候補者の抽出や推薦用レジュメの生成、推薦コメントの作成を行う方法でした。しかし、ノンエンジニアの私が開発するには難易度が高く、また個人情報を取り扱うことからセキュリティリスクの払拭も含め厳しいと判断しました。

そこで次に選んだのが、GPT API と Google Apps Script (GAS)を使った構成でした。

GPT+GASはノンエンジニアのAIエージェント開発における「理想的な解」に見えた

GASを使えばGoogleフォーム、スプレッドシート、Google Docs、メールなど、既存の業務フローとの連携性が高い。 そこにGPT APIを組み合わせることで、ノンエンジニアでもセキュアに、実装しやすいAIエージェントを構築できると考えました。

実際の構成は次の通りです。

  1. Googleフォームで人材要件を入力
  2. GASからNotion DBに連携し、同じ条件の候補者を検出
  3. GPTで推薦コメントとレジュメを自動生成
  4. Google Docsに出力し、メールで通知

この方法で実際に動くものを作るところまでは実現し、しばらくはこれをベースにチューニングと検証を繰り返しました。

一定の手ごたえを感じることができた一方、次のような限界に直面しました。

  • GPTの出力が安定せず、フォーマットを常に修正する必要がある
  • 特にレジュメや推薦コメントの内容は手直し前提になる
  • GAS経由のAPI呼び出しによるエラーやタイムアウト問題

思い切ってNotion AIに切り替える

このままチューニングを続けても、納得できるアウトプットを得るまでには非常に時間がかかりそうだと思っていたタイミングで、ある方の助言もあって、Notion AIでどの程度精度の高い候補者抽出ができるか試してみたところ、残念ながらこれまで自分自身で構築していたものよりも余程良い抽出精度になりました。

幸いなことに、当社では人材DBをNotionで構築していたため、Notion AIの自然言語検索と検出+要約文生成がもっともフィットしました。しかももはやAIエージェント開発ですらなく、ただNotion AIに指示を入れるだけです。属性ベースではなく自然言語で条件を指定するだけで、適合候補者を適切に検出し、その理由も含めたコメント生成も自然で、実用に耐えるレベルと判断しました。

意思決定において優先したもの、捨てたもの

今回のプロジェクトにおいて、以下のような軸で最終判断しました。

  • もっとも優先すべきは顧客体験(=候補者抽出から推薦のスピード)
  • レジュメ生成は(少なくとも当面は)完全な自動化は難しいと割り切った(人が介在しチェックする前提)
  • 当社の人材DBは100名超であり、まだ厳密な抽出精度は必要ない

独自開発か、今回のNotionのようなノーコードツールで行くかの線引きをまとめると以下のようになります。結論、まだ事業開始から1年経っていないPMF前の当社の状況においては、ノーコードで十分と判断した次第です。

判断軸ノーコードで十分な場合開発に進むべき場合
DB規模〜数百名数千〜数万人規模
精度要求類推レベルでOK厳密な抽出精度が求められる場合
ユーザー体験の要点スピードと即応性完全自動化・人を介さないUXが求められる場合
人の介在最終判断・調整は人間が行うAIが一次対応〜提案文生成まで完結すべき場合
要件の流動性試行錯誤中・まだ運用が固まっていないワークフローや要件が固定化されている場合
開発リソース/コスト許容度限られている投資できる前提がある(外販によるマネタイズなど)

簡単に言えば、「完璧な自動化」よりも「それっぽい精度の候補者をすぐ出せる」ことのほうが価値が高いと判断し、この構造においては、AIが担うべき機能は“生成”ではなく“抽出”と“即応性”でした。もちろん、DBが大規模化したり、UX上の自動化要件が強くなったりすれば、再び開発に取り組むフェーズが来るかもしれません。でも今は、Notion AI × 運用設計という軽量な構成が、もっともスピーディで効果的な選択肢でした。

学びと教訓

最後に、今回のプロジェクトにおける学びをまとめてみます。AIが進化を続けるなかで、今後もこの「ノーコードで十分」→「一部開発が必要かも?」という“いたちごっこ”は繰り返されるでしょう。だからこそ、以下を意識した設計が重要になると考えています。

  • AIにゆだねる部分と人がやるべき部分の線引きをしっかり行う。はじめから完全自動化するのではなく、もっとも重要な価値をAIにゆだね、周辺部分は人が補完する。
  • 柔軟にフィルタ・抽出しやすい構造でデータを保持しておく。

今回はいろいろな優先順位を踏まえ、いったんストップという判断をしましたが、一通り体験してみて強く感じたのは、「AIエージェントめっちゃ楽しい…!」でした。技術に対する知見だけでなく、事業や業務に対する高い解像度が求められる、非常に面白いテーマです。この件に限らず、オウンドメディア運営など当社内で発生するさまざまな業務をAIエージェントで自動化することについては、研究と試作を重ねていきたいと思います。

関連記事