Aidemy 10周年

アイデミー、RAGシステムなどのLLMによる出力の品質管理を行うクラウドサービス「LLM品質管理クラウド」を開発へ

〜 RAGシステムの品質評価の煩雑さを大幅に削減 〜

 デジタル変革に伴走する株式会社アイデミー(本社:東京都千代田区、代表取締役 執行役員 社長 石川聡彦、以下「アイデミー」)は、LLM(Large Language Models:大規模言語モデル)が生成する出力結果の品質を評価・管理する新しいクラウドサービス「LLM品質管理クラウド」をリリースすることを決定しました。本サービスは、企業や組織がRAG(Retrieval-Augmented Generation)システムに代表されるLLMを活用したシステムをより安心して活用できる環境を提供するために、生成結果の品質評価の手間とコストを削減することを目指しています。

【サービスが必要とされる背景】
 生成AIの急速な発展により、多くの企業や組織が日常業務や戦略的活動に生成AIを取り入れるようになっています。生成AIは、資料作成、コーディング、カスタマーサポート、マーケティングなど、多岐にわたる分野で革新的なソリューションを提供しています。その中でも社内ドキュメントの検索を組み合わせることで回答精度を向上させることができるRAGシステムの需要は高まっております。

 しかし、RAGシステムであっても、その出力結果が不正確であったり、倫理的・法的なリスクをはらんでいたり、バイアスを含んでいたりする可能性があります。また、LLM による出力は、同一のプロンプトであっても一字一句同じとは限らないため機械的な評価がしづらく、目視でチェックしたりLLMによってチェックをする仕組みを整えたりする必要があり、非常に煩雑です。さらに、一度チェックしたからOKというわけではなく、LLMのアップデートによって出力が変化する可能性があるため、継続的に管理する仕組みが必要になります。

 「LLM品質管理クラウド」は、LLMによる出力の評価を自動で行う仕組みを提供し、評価結果を継続的に蓄積。RAGシステムの改善につなげていくことで、企業が生成AIの活用をさらに推進していける環境の提供を目指します。

 

【サービスの概要】
 「LLM品質管理クラウド」は、LLMの出力結果を評価し、管理することを目的としたクラウドベースのプラットフォームです。そのために必要な以下の機能を搭載予定です。

機能1. テストプロンプト管理機能
 主にRAGシステムで活用されることを想定した機能です。RAGシステムが期待する出力をするかを確認するためのテストプロンプトを登録します。登録されたテストプロンプトは、一括実行され結果が表示されます。結果を確認し、OK/NGを判定します。
 OKに分類されたグループは、以後の実行でも自動実行され、出力結果が変化しないことを継続的に自動確認されます。NGに分類されたグループは、実行されたらOK/NG判定を再度くりかえし、最終的にOKグループのみになるよう、RAGシステムを調整していくことができます。

機能2. CI/CDパイプラインからの呼び出し
 手動で実行するだけでなく、CI/CDパイプライン上からのAPI呼び出しによる自動実行もサポートします。レスポンスとして評価結果を返し、問題があればCI/CDプロセスを中断していただくこともできます。

機能3. 定期実行と結果のレポーティング
 一度テストプロンプトを全部クリアしても、リリース以降ずっと問題がない状態が継続するわけではないのがLLMの難しいところです。LLM自身のアップデートや品質低下などにより、OKだった出力結果が劣化することも十分にありえます。そのような事態をいち早く検知するために、テストプロンプトを定期実行し、結果をレポーティングします。

機能4. セキュリティリスク、倫理的・法的リスクに対応したプロンプト群の提供
 LLMには「プロンプトインジェクション」や「ジェイルブレイク」など固有のセキュリティリスクが存在します。また、LLMの出力が倫理的・法的に問題のある内容になってしまうリスクも存在します。そこで、これらのリスクを洗い出すためのプロンプト群をあらかじめ提供します。このプロンプト群を定期実行することで問題点を継続的に洗い出し管理することができます。
 特に倫理面においては、日本では経済産業省によって「AI事業者ガイドライン」が発表されており、その内容に準拠したプロンプト群を提供します。ガイドラインのアップデートが発表された際には、その内容に即したプロンプトにアップデートしていきます。また、ご利用者様が採用される研究機関や教育機関、先進的な企業などが提言するガイドラインなどに即したプロンプト群のご提供についても個別にご相談可能です。

 

【LLM品質管理クラウドの今後の機能リリース予定】
「LLM品質管理クラウド」のさらなる発展のため、随時、機能を追加し、企業や組織が生成AIを安全かつ効果的に活用できる環境をより一層強化していきます。

1.フィードバックの活用
LLMによる出力に対して、エンドユーザーから「Good」「Bad」のフィードバックを受け付けるためのAPIを用意します。「Good」だったものはテストプロンプトに追加し、「Bad」だったものはまとめてレポートする、といった設定をすることが可能になります。

2.各社にあわせてカスタマイズ可能なポリシー設定
 管理者は企業や組織の方針に応じて、出力結果に対する追加的なチェック基準を設定することができるようになります。この機能により、企業は自身の業務方針や業界特有の規制に適合したLLMの運用を実現することが可能になります。

3.API接続による各種システムとの連携
 他のビジネスツールや開発ツールとの連携を強化するためのAPI連携を強化していきます。これにより、「LLM品質管理クラウド」を企業の既存システムに容易に統合でき、より一層の業務効率化を実現します。

4.国や地域ごとの異なる倫理・法律ガイドラインへの適応
 グローバルで事業を展開されている企業向けに、各国の法規制や倫理ガイドラインに対応する機能を提供します。国や地域ごとに異なる倫理および法律のガイドラインに適応する機能を備えることにより、企業はグローバルな市場で生成AIを活用する際に、各地域の法規制や文化的な基準に従ったコンテンツ生成を実現できます。
例えば、ヨーロッパではGDPR(EU一般データ保護規則)が厳格に適用されており、個人情報の取り扱いに関するガイドラインに従った内容が求められます。一方で、アジアや中東の国々では、宗教や文化的な規範に基づいた倫理ガイドラインが重視されています。こうした多様な要求に対応するため、「LLM品質管理クラウド」は、国や地域ごとの規制やガイドラインに合わせた設定を行い、適切な出力が生成されるよう支援します。

5.入出力のリアルタイムモニタリング
 LLMサービスのAPI呼び出しを「LLM品質管理クラウド」経由で行うことによって、入力と出力を常に監視し、目的外利用であることが明らかな入力に対してはAPIを呼び出す前に警告メッセージを出力します。また、倫理的・法的な観点でリスクがある出力が生成された場合には、それが顧客の目に留まる前に弾いてリトライさせます。また、入出力の履歴から、新たにテストケースとして登録することもできます。

6.瑕疵のある出力を止められなかった場合の補償サービス・損害抑制コンサルの提供
 LLMの出力に倫理的・法的な観点で重大な瑕疵があり、それが原因で発生した損害に対して、一定額までの財務的補償サービスを併せて用意する予定です。こうした生成AIに特化した保険的役割を用意することで、企業の財務リスクをカバーします。さらに、不適切な出力が原因で企業のブランドイメージが損なわれた場合、広報支援やイメージ回復に向けたコンサルティングサービスを提供します。これらのサービスを組み合わせることで、①把握・管理・予防といった事前のリスク対応、②顕在化したリスクの損害抑制・コントロールといった事後のリスク対応、③金銭的な補償といった財務面でのリスク対応という3段階でのリスクの管理とコスト平準化をご提供します。

 

【利用方法】
 本サービスは2025年1月ごろから順次ローンチ予定です。以下のページから事前登録いただけますと、最新の生成AIの動向や倫理面・法律面のガイドラインの変化、内容面の品質評価・管理を行うためのメソッドなどの最新ニュースを無料でお送りいたします。以下のページから詳細をご確認の上、ご登録ください。

https://llm-qualitycloud.v0.build/

 

プレスキットはこちら