Langfuse
AI開発者ツールオープンソースのLLMオブザーバビリティプラットフォーム。トレーシング、評価、プロンプト管理をセルフホスト可能な形で提供。LangSmithのOSS代替。
Langfuseとは?
Langfuseは、LLMアプリケーション向けのオープンソースのオブザーバビリティ(可観測性)・評価プラットフォームです。LLMアプリケーションのトレーシング、プロンプト管理、評価・テスト、コスト分析を提供し、LangSmithのオープンソース代替として急速に普及しています。セルフホスト(自前のサーバーで運用)が可能な点が最大の差別化ポイントです。\n\nLangfuseのトレーシング機能は、LLMアプリの各ステップ(LLM呼び出し、RAG検索、ツール実行等)を詳細に記録し、レイテンシー、コスト、トークン使用量を可視化します。OpenAI、Anthropic、LangChain、LlamaIndex等の主要フレームワーク・プロバイダーとのインテグレーションが充実しており、数行のコードでトレーシングを開始できます。\n\n完全オープンソース(MITライセンス)でセルフホストが可能なため、データを外部に送信したくない企業でも安心して利用できます。Langfuse Cloudも提供されており、インフラ管理なしに利用することも可能です。プロンプトのバージョン管理、LLM-as-a-Judgeによる自動評価、ユーザーフィードバック収集など、LLMアプリの品質改善に必要な機能を包括的に備えています。

料金プラン
主な機能・特徴
メリット・デメリット
メリット
- ●完全オープンソース(MIT)でセルフホスト可能
- ●主要LLMプロバイダー・フレームワークとの豊富な統合
- ●データを外部に送信せずに利用可能
- ●Cloud版の無料枠が充実
デメリット
- ●セルフホストにはインフラ管理の知識が必要
- ●LangSmithに比べ一部機能が発展途上
- ●日本語ドキュメントがない
よくある質問(FAQ)
Q. Langfuseのセルフホストに必要な環境は?
A. PostgreSQLデータベースとDocker環境があれば、docker-compose一つで起動できます。Vercel、Railway、AWS等へのデプロイガイドも公式に提供されています。小規模なチームであれば最小限のインフラで運用可能です。
Q. LangChainなしでも使えますか?
A. はい、LangfuseはLangChain、LlamaIndex、OpenAI SDK、Anthropic SDK等の主要フレームワーク・プロバイダーと統合できます。Python/TypeScript SDKでカスタム統合も可能で、特定のフレームワークに依存しません。
関連ツール
Groq
独自のLPUチップで世界最速のAI推論を実現するクラウドプラットフォーム。Llama、Mistral、Gemmaなどのオープンソースモデルを超高速で実行可能。
OpenRouter
複数のAIモデルを統一APIで利用できるモデルルーター。GPT-5、Claude、Gemini、Llama等300以上のモデルを1つのAPIキーで切り替え可能。
Together AI
オープンソースAIモデルの高速推論・ファインチューニングプラットフォーム。Llama、Mistral、SDXL等を低コストで利用可能。
Vercel AI SDK
VercelのオープンソースAI開発キット。React/Next.jsでAIアプリケーションを簡単に構築。ストリーミングUI、マルチモデル対応。
Anthropic Console
Anthropicが提供するClaude API管理プラットフォーム。Claude Opus 4.6/Sonnet 4.6/Haiku等の最新モデルをAPI経由で利用し、プロンプト管理・テストを行える。
xAI Grok Console
xAI(イーロン・マスクのAI企業)が提供するGrokモデルのAPI開発プラットフォーム。Grok-3等のモデルをAPI経由で利用可能。