社内のWiki、チャットログ、マニュアル等の独自データをLLM(大規模言語モデル)に参照させ、社内固有の質問に即答できるAI検索システム(RAG)を構築する施策です。「規定はどうなってる?」「過去の類似案件は?」といった質問に対し、AIがソースを明示して回答します。メリットは、ナレッジ活用の高度化と問い合わせ対応の自動化です。成功のためには、AIに参照させる元データの鮮度と整理状況を向上させることと、ハルシネーション(もっともらしい嘘)のリスクを社員が理解し、出力結果を適切に評価できるリテラシー教育が不可欠です。
職種 |
情報システム | 施策難易度 |
★★★☆☆ |
|---|---|---|---|
業界① |
全業界 | 目的 |
ナレッジ 業務効率化 |
業界② |
対象 |
ヘルプデスク 全従業員 情報システム部門 | |
費用 |
200〜1000万円 | 120 |
主なToDo
- AIに読み込ませる社内Wikiやマニュアルの古いデータを除去し、回答の根拠を明示できるRAGエンジンの構築を行う
- AIの「もっともらしい嘘(ハルシネーション)」のリスクを周知し、回答を一次情報で確認するリテラシー教育を実施する
- 質問ログを毎週分析して回答精度をチューニングし、社内の「人への問い合わせ」が減少しているかを効果測定する
期待できる効果
社内固有の膨大なナレッジをAIに学習させ、質問に即答する環境を整えることで、問い合わせ対応を自動化。ベテランのノウハウをAI経由で瞬時に引き出せるようにし、組織学習のスピードを劇的に高めます。
躓くところ
AIがそれらしい嘘をつく(ハルシネーション)を防止するための、参照元データの精緻な整理と、出力結果を評価する社員のリテラシー向上が困難です。情報の鮮度を保つためのデータ更新体制も課題です。

RAG(検索拡張生成)による社内ナレッジ検索






