top of page



LangfuseのExperiments Compare ViewのBaseline機能を解説
プロンプトを修正した後、「なんとなく良くなった」という感覚だけでリリースしていませんか?Langfuseの最新機能「Experiments Baseline」を使えば、変更前後の挙動を定量的に比較し、予期せぬ品質低下(デグレ)を即座に可視化できます。本記事では、Python SDK V3を用いた具体的な実装手順と、リグレッションテストの自動化フローを徹底解説します。
2 日前読了時間: 12分


Agent Development Kit (ADK) のエージェント評価を試してみた!
最近話題の Google 製 AI エージェントフレームワーク「Agent Development Kit (ADK)」を触ってみました! Gemini モデルとの連携がしやすく、柔軟なエージェント開発が可能とのことで、期待が高まります。エージェントが自律的にツールを使うの...
2025年4月11日読了時間: 6分


LLMOpsとは? MLOpsとの違いや生成AIの評価について解説
LLMOps とは? LLMOps(Large Language Model Operations)とは、大規模言語モデル(LLM)を利用した生成AIアプリケーションの開発から運用、改善までを一貫して管理するための考え方や仕組み(フレームワーク)です。多くの企業では、自社で...
2025年3月27日読了時間: 9分
![[LLMOps] プロンプト管理の課題](https://static.wixstatic.com/media/89c202_d8d4c113a298446a9930c9159a68f5f3~mv2.png/v1/fill/w_333,h_250,fp_0.50_0.50,q_35,blur_30,enc_avif,quality_auto/89c202_d8d4c113a298446a9930c9159a68f5f3~mv2.webp)
![[LLMOps] プロンプト管理の課題](https://static.wixstatic.com/media/89c202_d8d4c113a298446a9930c9159a68f5f3~mv2.png/v1/fill/w_454,h_341,fp_0.50_0.50,q_95,enc_avif,quality_auto/89c202_d8d4c113a298446a9930c9159a68f5f3~mv2.webp)
[LLMOps] プロンプト管理の課題
はじめに:生成AIが抱える困難とプロンプト 生成AIアプリケーションの開発は、従来のソフトウェア開発とは異なる難しさがあります。 その一つが、 生成AIの出力の不安定さ です。そしてこの不安定さに大きく関わっているのが、 プロンプト...
2025年2月15日読了時間: 5分
bottom of page