みなさんこんにちは。 AI開発推進部の田渕です。
あけましておめでとうございます🎍 みなさま、どんな年末年始をお過ごしになったでしょうか? 新年最初のブログということで、今回は保育AIのこれまでを弊社のブログの内容を元にして振り返りつつ、2026年に向けた展望を書いていきたいと思います。 なお、タイトルにも記載ある通り実はこの記事は複数回連載の第一回となっております。 まだまだこの二年の間の取り組みで書けていないことがたくさんあるため、第二回以降にそちらにも触れていきます。

まずは2年前の振り返りから
2023年12月、このブログで「ユニファ生成AIの一年振り返り」という記事を書かせていただきました。
ChatGPTが世に知られるようになり、ユニファでも「たよれるくん」を初めてリリースした年でした。
当時、まだまだ未知の世界だった生成AIを利用した新機能の開発とリリースは、「本当にこれで良いのか?」「現場に受け入れられるのか?」という不安と期待が入り混じってのものでした。 最初のリリースから、もう二年以上も経つということに実はびっくりしています。
振り返ってみると、本当に色々なことがありました。
この2年間で起きたこと
2年間で起きた主な出来事を挙げてみます。
- 2023年6月:生成AI搭載機能「たよれるくん(β版)」提供開始
- 2024年10月:こども家庭庁の生成AI利用実証事業に採択(北上市・横須賀市・狛江市で実証実験開始)
- 2025年1月:AI開発推進部の新設
- 2025年2月:Google「生成AI Innovation Awards」ファイナリスト選出
- 2025年3月:保育AI「すくすくレポート™」を開発、先行利用施設募集開始
- 2025年9月:「日本スタートアップ大賞2025」審査委員会特別賞受賞
- 2025年9月:ユニファが支援した生成AI活用実証事例が、こども家庭庁「生成AIの導入・活用に向けた実践ハンドブック」に掲載
- 2025年10月:AIポリシーの策定・公開
- 2025年10月:「センシティブ写真チェック機能」追加
組織としても、対外的な評価としても、大きな変化があった2年間でした。
こうして並べてみると、2023年は「生成AIへの挑戦が始まった年」、2024年は「社会全体を巻き込み、本格開発の準備をした年」、そして2025年は「新機能への挑戦の年/社外との連携が本格化した年」だったように思います。
技術的な試行錯誤
二年間の間に、本ブログでもたくさんのエンジニアがAIに関する知見を共有してきてくれました。 その中からいくつかを抜粋し、振り返りたいと思います。
プロンプトエンジニアリングの学び
保育AI開発を進める中で、私たちは幾度となくプロンプトの壁にぶつかり、プロンプトエンジニアリングの重要性を痛感しました。
藤塚さんが書いてくれた「画像におけるマルチモーダルLLM活用」の記事にも詳しくありますが、例えば「ジャケットを着ている人を検出してください」のような一見単純そうなタスクでも、そのまま投げると意図しない結果になることがあります。
CoT(Chain of Thought)の考え方を使って、「まず全員の服装を列挙して」「その中からジャケットを着ている人を特定して」「人数を数えて」と段階的に指示することで精度が上がる。こういった知見は、巷でもよく言われていることではあるのですが、実際に自分たちが遭遇し具体例を見ることで知見が深まりました。
また、LLMと向き合う中で人との対話の仕方を改めて考えることもありました。 「若者を検出して」のような曖昧な指示は、LLMが「若者」という言葉を拡大解釈してしまうことがあるため、「年齢の範囲は〇〇、顔の特徴は〇〇」と具体的に指定する必要があります。 これは、対人間のコミュニケーションに於いても言えることでもあります。 そういった意味で、LLMと日々対話する中で、改めて人とのコミュニケーションの仕方について考え直すきっかけともなりました。
LLMは万能ではありません。「LLMでできることは全部LLMでやる」ではなく、「このタスクは何が得意か」を見極めて適材適所で組み合わせる。 一人の知見ではなく組織の共通認識としてこの判断ができるようになってきたのは、2年間の試行錯誤の成果かなと思います。
モデル選定の変遷
VPoEの柿本さんが執筆した「オナラをしたのは誰だ!」記事(タイトルのインパクトが強すぎる……)でも触れられていましたが、LLMはモデルによって得意なことが違います。 これはエンジニアの間では比較的知られたことではありますが、この記事はそういったことをエンジニア以外の方にも親しみを持って読んでいただける内容だったと思います。
論理的な推論が必要なタスクには推論用モデル、壁打ちや文章生成にはGPT系、画像処理にはGemini……などのように、ユースケースに応じた使い分けが必要になってきています。
さらに、モデルによっては1年で特定のバージョンの提供が終了するものもあり、「今使っているバージョンがいつまで使えるか」を常に意識したサービス設計が求められます。時間をかけて検証していたものが、ある日突然意味をなさなくなる。そんなことも日常茶飯事だったりします。
余談ですが、このオナラ問題、今の最新のモデルたちはどう解くのかが気になるのでいつか柿本さんに実験してもらおうと思います。
技術だけでは解決できない問題
AIがこれだけ発展すると人の手はそう遠くない未来(なんなら数年以内)に不要になるのでは?と、生成AIが台頭してきた2023年頃には考えられていましたが、そう簡単ではないことも明らかになってきました。
ハルシネーションとの戦い
保育の現場で使うAIだからこそ、ハルシネーション(AIが事実と異なることを自信満々に言ってしまう現象)は致命的です。
「〇〇ちゃんは今日お昼寝を2時間しました」とAIが言ったとして、それが事実と違っていたら……保護者との信頼関係にも関わります。だからこそ、AIの出力をそのまま見せるのではなく、人間がチェックできる余地を残す設計が重要になります。
人の介入、チェックが必要な部分について、どう作ったら利用者の皆さんにとって使いやすいものになるのか。 AIを利用したプロダクト開発では、これまでのプロダクト開発とは少々異なった工夫が必要になっています。
「作れる」と「作るべき」は違う
技術的な課題以上に難しかったのは、「技術的にできることと、やるべきことの線引き」でした。
こうした問いに向き合う中で、2025年10月にAIポリシーを策定しました。
CPOの山口さんのブログにもありますが、私たちが保育AIを推し進めるのは「こどもに関わる人がこどものことを知るためのコストを下げたい」から。そして「AIで実現できるから何をやってもいい」というスタンスは許されないことです。
開発者として、このポリシーがあることで「作れるけど作らない」「これはやりすぎなのでは?」という判断がしやすくなりました。迷ったときの拠り所があるというのは、思っていた以上に大きなことでした。
2026年に向けて
2年間を振り返ると、技術的な進歩もあれば、組織としての成熟もあり、そして「何のためにAIを使うのか」という問いへの向き合い方も変わってきました。
AIポリシーも、今の技術やサービスに合わせて作ったものなので、1〜2年経てばアップデートが必要になるでしょう。技術も、ポリシーも、常に見直し続けていく必要があります。
「日本スタートアップ大賞」の記事でも書きましたが、答えがない中で試行錯誤することでしか見えてこないことがあり、失敗の中からしか得られない学びがある。何よりも、その答え探しの旅こそが楽しいものだと私は思っています。
2026年も、保育の現場に寄り添いながら、より良いプロダクトの開発に取り組んでまいります。 本年もよろしくお願いいたします!
仲間を募集中!
ユニファでは、我々と一緒に保育AIの未来を作っていく仲間を募集しています。 「答えがない中で試行錯誤するのが好き!」という方、ぜひお話ししましょう。