「LLMとRAGって何が違うの?」「CursorとChatGPTは同じようなもの?」「MCPって最近よく聞くけど、何のこと?」
生成AIの世界では、新しい用語やツールが次々と登場します。しかも、それぞれが違うレイヤーの話をしているため、同じ土俵で比べると混乱しがちです。
以前の記事では、AI・機械学習・統計・生成AI・AGIという大きな概念の違いを整理しました。
今回はその続きとして、生成AIの中に登場する用語やツールを整理します。この記事では、個別の製品比較よりも「それが何の種類の話なのか」を見分けることを重視します。
なお、生成AIの製品名やモデル名は更新が速いため、本文は陳腐化しにくい分類を主軸にし、固有名詞は2026年3月19日時点の代表例として扱います。
生成AI関連の用語やツールは、大きく4つのレイヤーに分けると整理しやすくなります。
| レイヤー | 何の話か | 例 |
|---|---|---|
| 基盤技術・モデル | AIの「頭脳」そのもの | LLM、推論モデル、エンベディング |
| サービス・アプリ | モデルを利用するための「入口」 | ChatGPT、Claude、Gemini、NotebookLM |
| 開発ツール・アプリ基盤 | AIを組み込んで開発・運用するための道具 | Cursor、GitHub Copilot、Claude Code、Bedrock、Dify |
| 設計パターン・接続規格 | AIをうまく使う方法や連携の共通ルール | RAG、MCP、Tool Use、Structured Outputs |
たとえば「CursorとChatGPTは何が違うの?」という疑問は、そもそもレイヤーが違うと分かれば整理できます。Cursorは開発ツール、ChatGPTはエンドユーザー向けのサービスです。
では、各レイヤーを順に見ていきましょう。
このレイヤーは、生成AIの「頭脳」に関する用語です。
| 用語 | 一言で | 説明 | 公式リンク |
|---|---|---|---|
| LLM(大規模言語モデル) | 言葉を扱うAIの本体 | 大量のテキストで学習し、文章生成、要約、翻訳、分類などを行うモデルの総称 | — |
| 推論モデル(reasoning model) | 段階的な推論が得意なモデル | 数学、コード生成、計画立案のように、複数ステップの推論が必要なタスクに強いモデル群 | — |
| OpenAI GPTシリーズ | OpenAIのモデル群 | ChatGPTやAPIの裏側で使われるモデル群。サービス名とモデル名は区別が必要 | OpenAI Models |
| Claudeモデル群 | Anthropicのモデル群 | ClaudeアプリやAPIで使われるモデル群。用途別に複数のモデルが提供される | Anthropic Models |
| Geminiモデル群 | Googleのモデル群 | GeminiアプリやAPIで使われるモデル群。マルチモーダル処理に対応 | Gemini API Models |
| Llamaモデル群 | Metaの公開モデル群 | Metaが公開しているモデル群。一般に「オープンモデル」と呼ばれるが、厳密にはオープンソースと同義ではない点に注意 | Meta Llama |
| トークン | モデルが扱うテキストの単位 | 文章を分割した最小単位。料金やコンテキスト長の基準にもなる | — |
| エンベディング | テキストを数値に変換した表現 | 文章の意味をベクトルとして表し、検索、分類、クラスタリングなどに使う | — |
| コンテキストウィンドウ | 一度に読める情報量 | モデルが1回のやり取りで処理できるトークン数の上限 | — |
| マルチモーダル | テキスト以外も扱えること | 画像、音声、PDF、動画などを入力や出力として扱える能力 | — |
ポイントは、ChatGPTやClaudeはサービス名であり、LLMそのものの名前ではないということです。サービスの中で、複数のモデルが切り替わったり、用途に応じて使い分けられたりします。
モデルがどのように文章を生成しているかの仕組みについては、以下の記事で詳しく解説しています。
エンベディングの概念と活用方法については、こちらの記事もあわせてご覧ください。
このレイヤーは、LLMを使うための窓口です。モデルそのものではなく、利用者がブラウザやアプリから触る「製品」と考えると分かりやすいです。
| サービス名 | 提供元 | 一言で | 主な用途 | 公式リンク |
|---|---|---|---|---|
| ChatGPT | OpenAI | 汎用対話AIサービス | 文章作成、調査、分析、ファイル操作 | ChatGPT |
| Claude | Anthropic | 対話型AIサービス | 文章作成、要約、分析、コーディング支援 | Claude |
| Gemini | Google系AIサービス | 検索連携、要約、マルチモーダル活用 | Gemini | |
| NotebookLM | 資料特化型AI | アップロードした資料に基づく要約、質問応答、整理 | NotebookLM | |
| Perplexity | Perplexity | AI検索サービス | 出典付きの検索、調査、情報収集 | Perplexity |
ここで重要なのは、サービスは「入口」であって、モデルそのものではないということです。たとえばChatGPTの裏側で使われるモデルは時期やプランによって変わることがあります。
ChatGPTのGPTsやActionsを活用してGoogle Apps Scriptと連携する方法は、以下の記事で解説しています。
Claudeを業務に活かす方法については、こちらの記事で紹介しています。
このレイヤーは、LLMの能力を開発や業務システムに組み込むための道具です。エンドユーザー向けのチャットサービスとは役割が異なります。
| ツール名 | 提供元 | カテゴリ | 一言で | 公式リンク |
|---|---|---|---|---|
| Cursor | Anysphere | AIコードエディタ | エディタ全体にAIを統合した開発環境 | Cursor |
| GitHub Copilot | GitHub / Microsoft | AIコーディング支援 | エディタやCLIでコード補完、編集、提案を行う | GitHub Copilot |
| Codex | OpenAI | AIコーディングエージェント | CLI、IDE、デスクトップアプリをまたいで使えるエージェント型開発環境 | Codex |
| Claude Code | Anthropic | AIコーディングエージェント | ターミナル中心で動作する開発支援エージェント | Claude Code |
| Gemini CLI | AIコーディングエージェント | ターミナルからGeminiを使って調査、編集、実行を進める開発支援ツール | Gemini CLI | |
| Windsurf | Codeium | AIコードエディタ | 補完と対話を統合した開発環境 | Windsurf |
| Google Antigravity | AIコードエディタ | 複数エージェントの計画と実装を統合して扱うAIファーストIDE | Google Antigravity | |
| Devin | Cognition | AIソフトウェアエージェント | タスク単位で実装や調査を進めるエージェント型ツール | Devin |
| Replit Agent | Replit | AIアプリ開発環境 | ブラウザ上でアプリ作成、修正、実行まで進めやすい開発環境 | Replit Agent |
| v0 | Vercel | AIアプリビルダー | プロンプトからUIやWebアプリのたたき台を素早く作るツール | v0 |
| Amazon Bedrock | AWS | AIアプリ開発基盤 | 複数ベンダーのモデルをAWS上で利用できる基盤 | Amazon Bedrock |
| Azure OpenAI Service | Microsoft | AIアプリ開発基盤 | Azure上でOpenAIモデルを利用する企業向け基盤 | Azure OpenAI Service |
| Firebase Studio | AIアプリ開発基盤 | ブラウザ中心でAIアプリの試作と開発を進めやすい基盤 | Firebase Studio | |
| Dify | LangGenius | AIアプリ構築プラットフォーム | GUI中心でチャットボットやRAGアプリを構築できる | Dify |
| LangChain | LangChain | AIアプリ開発フレームワーク | LLMを使うアプリやエージェントを組み立てるためのライブラリ群 | LangChain |
| Genkit | AIアプリ開発フレームワーク | AI機能を持つアプリをコード中心で構築するためのフレームワーク | Genkit |
ここではIDE系ツール、CLI型コーディングエージェント、ブラウザ型アプリビルダー、アプリ基盤/フレームワークが同居していますが、共通しているのは「モデルを業務や開発フローに組み込む」ためのレイヤーだという点です。
たとえばCursor、Codex、Claude Code、Gemini CLI、AntigravityはLLMを開発者が使うためのツールです。一方でAmazon Bedrock、Azure OpenAI Service、Firebase Studio、Dify、Genkit、LangChainはシステムやアプリに組み込むための基盤やフレームワークとして使われます。
また、v0やReplit Agentのように、ブラウザ上でアプリのたたき台を作り、そのまま実装や修正まで進めるタイプも増えています。ChatGPTやGeminiのような「会話サービス」と見た目が少し似ていても、主目的が開発そのものにあるなら、このレイヤーに置くと整理しやすくなります。
このレイヤーは、LLMをうまく使う方法と外部システムにつなぐ共通ルールをまとめたものです。製品名ではなく、やり方や規格の話です。
| 用語 | 一言で | 説明 |
|---|---|---|
| RAG(検索拡張生成) | 外部知識を検索してから答える | 検索で取り出した文書やデータを文脈として与え、回答の根拠を強化する手法 |
| MCP(Model Context Protocol) | AI連携の標準プロトコル | AIアプリケーションがツール、リソース、プロンプトなどを標準化された方法で扱うためのオープンな規格 |
| Function Calling / Tool Use | 外部機能を使わせる仕組み | モデルが「この関数やツールを呼ぶべき」と判断し、APIや計算処理を実行する仕組み |
| Structured Outputs | 出力形式を構造化する | JSON Schemaなどに従って、扱いやすい形式で出力させる方法 |
| ガードレール | AIの入出力を制御する | 危険な入力や不適切な出力を検知し、ブロックや差し戻しを行う設計 |
| ファインチューニング | モデルを追加学習させる | 特定業務に合わせてモデルの振る舞いを調整する方法 |
| エージェント | 複数ステップでタスクを遂行する仕組み | モデルが計画、ツール利用、再試行を組み合わせて仕事を進める構成 |
| ベクターデータベース | 埋め込み検索向けDB | エンベディングを保存し、意味検索を高速に行うためのデータベース |
| 再ランキング(reranking) | 検索結果を並べ替える | 一度取得した候補文書を、関連性の高い順に並べ直して精度を上げる手法 |
| Evals(評価) | AIの品質を測る | 期待する出力に対して、精度、安全性、コスト、レイテンシなどを継続的に評価する考え方 |
| ハルシネーション | もっともらしい誤り | 事実でない内容を、もっともらしく生成してしまう現象 |
ここで特に混同しやすいのがMCPとFunction Calling / Tool Useです。
つまり、MCPは接続の標準化、Function Calling / Tool Use は実行の仕組みです。似て見えますが、同じものではありません。
設計パターンに関しては、過去記事でも多くのテーマを扱っています。
RAGの構築方法と評価指標:
MCPサーバーの構築と活用:
ガードレールの設計:
Structured Outputsの基礎と実践:
プロンプトエンジニアリング:
最後に、特に混同されやすい組み合わせを整理します。
| よくある混同 | Aは… | Bは… | 違いのポイント |
|---|---|---|---|
| LLM vs サービス | 文章や画像を生成するモデル | モデルを利用する製品・アプリ | LLMは頭脳、サービスは利用する窓口 |
| LLM vs RAG | 文章を生成するモデルそのもの | 外部知識を使って精度を高める手法 | RAGはLLMを強化する仕組みであり、別のモデル名ではない |
| ChatGPT vs GPT系モデル | OpenAIのサービス名 | OpenAIのモデル群 | ChatGPTの中で複数のモデルが使われることがある |
| ChatGPT vs Cursor | エンドユーザー向けの対話サービス | 開発者向けのAIツール | 目的も利用者も異なる |
| Gemini vs Gemini CLI | 一般利用者向けのサービス | 開発者向けのCLIツール | 前者は利用の入口、後者は開発フローに組み込む道具 |
| MCP vs Function Calling / Tool Use | 接続方法をそろえる規格 | 実際にツールを呼ぶ仕組み | MCPは標準化、Tool Useは実行 |
| RAG vs ファインチューニング | 外部知識を都度参照する手法 | モデル自体を追加学習する調整方法 | RAGは知識を後から足す、ファインチューニングはモデルを変える |
| プロンプト vs Structured Outputs | 指示の書き方を工夫する | 出力形式を強く制約する | 前者は指示、後者はシステム連携のための形式保証に近い |
この記事では、生成AI関連の用語やツールを4つのレイヤーで整理しました。
新しい用語に出会ったときは、「これはモデルの話か、サービスの話か、開発基盤の話か、それとも設計パターンの話か」を考えるだけで、かなり整理しやすくなります。
生成AIの分野は変化が速いですが、分類の軸を持っておけば、新しい製品名や流行語が出てきても位置づけを見失いにくくなります。
最新情報のキャッチアップ方法については、以下の記事も参考になります。
Tech Funでは、お客様のフェーズに合わせ、生成AI活用に向けた支援を3つのパックでご提供しています。
生成AIに限らず、Web・業務システム開発やインフラ設計など、技術領域を問わずご相談を承っています。「何から始めれば良いか分からない」という段階でも構いませんので、ぜひお気軽にお問い合わせください。