AIエージェントのメモリは「信頼できる情報だけを保持する」ことが最も重要です。TrustMemはその問題を根本から解決します。
LLMが書き込み時にhigh/medium/lowの信頼度を評価。低信頼情報が汚染されるのを防ぎます。
CONTRADICT検出でwinner/loserを自動判定し、古い・誤った情報を正しく上書き・整理します。
ベクトル検索・キーワード検索・RRFフュージョンを統合したハイブリッド検索で最適な記憶を取得します。
high / medium / low の3段階でメモリの信頼度をLLMが評価。書き込み段階で品質を担保します。
新しい情報と既存メモリの矛盾を自動検出。winner/loserを判定し、整合性のあるメモリを維持します。
ベクトル検索 + キーワード検索 + RRF(Reciprocal Rank Fusion)で高精度な記憶検索を実現。
エンティティ間の関係をグラフ構造で管理。複雑な知識の構造化と関係性推論を可能にします。
SHA-256コンテンツハッシュにより、メモリデータの整合性と改ざんの有無を保証します。
pip install一発でEmbedded SDKとして即利用可能。HTTPサーバモードにも対応。
インストールから基本操作まで、シンプルなPythonコードで始められます。
pip install trustmem でEmbedded SDKとして即利用。サーバモードは [server] オプションで追加。
会話メッセージをそのままm.add()に渡すだけ。LLMが内容を分析し、信頼度付きで自動保存します。
m.search()でハイブリッド検索。取得したメモリをLLMのコンテキストに加えるだけで高精度なエージェントに。
m.verify()で任意のメモリの信頼度・整合性を確認。エージェントの応答品質を継続的に監視。
小規模な個人利用から大規模エンタープライズまで対応する柔軟なプラン構成。
個人・小規模プロジェクト向け。Embedded SDKとして即利用可能。
業務利用・チーム開発向け。クラウド管理UIと監査ログを提供。
大規模導入・オンプレ対応。SLA・専任サポート付き。