Rememberizer Docs
サインインサインアップお問い合わせ
日本語
日本語
  • なぜ Rememberizer なのか?
  • 背景
    • ベクトル埋め込みとベクトルデータベースとは?
    • 用語集
    • 標準化された用語
  • 個人利用
    • はじめに
      • 知識を検索する
      • メメントフィルターアクセス
      • 一般的な知識
      • 埋め込まれた知識を管理する
  • インテグレーション
    • Rememberizer アプリ
    • Rememberizer Slack インテグレーション
    • Rememberizer Google Drive インテグレーション
    • Rememberizer Dropbox インテグレーション
    • Rememberizer Gmail インテグレーション
    • Rememberizer Memory インテグレーション
    • Rememberizer MCP サーバー
    • サードパーティアプリの管理
  • 開発者リソース
    • 開発者概要
  • 統合オプション
    • APIキーの登録と使用
    • Rememberizerアプリの登録
    • Rememberizerアプリの認証
    • Rememberizer GPTの作成
    • LangChain統合
    • ベクターストア
    • Slackとの対話サンプルWebアプリ
  • エンタープライズ統合
    • エンタープライズ統合パターン
  • APIリファレンス
    • APIドキュメントホーム
    • 認証
  • コアAPI
    • 意味的類似性によるドキュメントの検索
    • ドキュメントの取得
    • ドキュメントの内容を取得
    • Slackコンテンツの取得
    • Rememberizerにコンテンツを記憶する
  • アカウントと設定
    • 現在のユーザーアカウントの詳細を取得
    • 利用可能なデータソース統合の一覧
    • メメント
    • 追加されたすべての公開知識を取得
  • ベクターストアAPI
    • ベクターストアのドキュメント
    • ベクターストア情報を取得する
    • ベクターストア内のドキュメントのリストを取得する
    • ドキュメント情報を取得する
    • ベクターストアに新しいテキストドキュメントを追加する
    • ファイルをベクターストアにアップロードする
    • ベクターストア内のファイルコンテンツを更新する
    • ベクターストア内のドキュメントを削除する
    • 意味的類似性によるベクターストアドキュメントの検索
  • 追加リソース
    • 通知
      • 利用規約
      • プライバシーポリシー
      • B2B
        • Redditエージェントについて
  • リリース
    • リリースノートホーム
  • 2025年のリリース
    • 2025年4月25日
    • 2025年4月18日
    • 2025年4月11日
    • 2025年4月4日
    • 2025年3月28日
    • 2025年3月21日
    • 2025年3月14日
    • 2025年1月17日
  • 2024年のリリース
    • 2024年12月27日
    • 2024年12月20日
    • 2024年12月13日
    • 2024年12月6日
  • 2024年11月29日
  • 2024年11月22日
  • 2024年11月15日
  • 2024年11月8日
  • 2024年11月1日
  • 2024年10月25日
  • 2024年10月18日
  • 2024年10月11日
  • 2024年10月4日
  • 2024年9月27日
  • 2024年9月20日
  • 2024年9月13日
  • 2024年8月16日
  • 2024年8月9日
  • 2024年8月2日
  • 2024年7月26日
  • 2024年7月12日
  • 2024年6月28日
  • 2024年6月14日
  • 2024年5月31日
  • 2024年5月17日
  • 2024年5月10日
  • 2024年4月26日
  • 2024年4月19日
  • 2024年4月12日
  • 2024年4月5日
  • 2024年3月25日
  • 2024年3月18日
  • 2024年3月11日
  • 2024年3月4日
  • 2024年2月26日
  • 2024年2月19日
  • 2024年2月12日
  • 2024年2月5日
  • 2024年1月29日
  • 2024年1月22日
  • 2024年1月15日
  • LLM ドキュメント
    • Rememberizer LLM レディ ドキュメント
Powered by GitBook
On this page
  • Rememberizerがベクトル埋め込みを使用する方法
  • ベクトル埋め込みの理解
  • テキストを超えて:マルチモーダル埋め込み
  • 実世界のアプリケーション
  • Rememberizerのベクター検索がキーワード検索と異なる点
  • 技術リソース
  • 現代AIの基盤
  1. 背景

ベクトル埋め込みとベクトルデータベースとは?

Rememberizerが単なるデータベースやキーワード検索エンジン以上のものである理由

Previous背景Next用語集

Last updated 18 days ago

Rememberizerは、ユーザーの知識ソース内での意味的類似性を検索するために、ベクトルデータベースにおけるベクトル埋め込みを使用しています。これは、従来の検索エンジンやデータベースを通じてコンテンツ内のキーワードを単に探すよりも、情報検索の本質的により高度で微妙な形態です。

Rememberizerがベクトル埋め込みを使用する方法

最も高度な形態(Rememberizerが使用するもの)では、ベクトル埋め込みは、OpenAIのGPTモデルやChatGPTサービスの基盤となるAI LLM(大規模言語モデル)と同様のアーキテクチャを持つ言語モデルによって作成されます。また、Google(Gemini)、Anthropic(Claude)、Meta(LLaMA)などのモデル/サービスも含まれます。

ベクトル埋め込みの理解

ベクトル埋め込みはどのようなものですか?二次元の座標 (x,y) を考えてみましょう。もしそれが原点からこの点までの線を表しているなら、私たちはそれを方向を持つ線として考えることができます。言い換えれば、二次元のベクトル です。

Rememberizer の文脈において、ベクトル埋め込みは通常、数百の数値(しばしば 768、1024、または 1536)からなるリストであり、高次元空間におけるベクトルを表します。この数値のリストは、「青空からの稲妻の一撃」のようなフレーズの意味を定義する Transformer モデルの重みを表すことができます。これは、GPT-4 のようなモデルで使用される意味の根本的に同じ表現です。その結果、良いベクトル埋め込みは、現代の AI 言語モデルで見られるのと同じ洗練された理解を可能にします。

テキストを超えて:マルチモーダル埋め込み

ベクトル埋め込みは、テキストだけでなく、画像や音声などの他のデータタイプも表現できます。適切に訓練されたモデルを使用することで、メディアタイプ間で比較が可能になり、テキストのベクトル埋め込みを画像と比較したり、その逆も可能です。

現在、Rememberizerはユーザー文書と知識のテキストコンポーネント内での検索を可能にしています。テキストから画像への検索および画像からテキストへの検索機能は、Rememberizerの今後の開発ロードマップに含まれています。

実世界のアプリケーション

主要なテクノロジー企業は、製品においてベクトル埋め込みを活用しています:

Rememberizerのベクター検索がキーワード検索と異なる点

キーワード検索は正確な一致や事前に決められた同義語を見つけます。それに対して、Rememberizerのベクター検索は、異なる用語が使用されている場合でも、概念的に関連するコンテンツを見つけます。例えば:

  • 「犬のケア」というキーワード検索は、「犬の健康管理」に関する関連文書を見逃すかもしれません

  • Rememberizerのベクター検索は、これらの概念を意味的に類似していると認識し、両方を返します

この能力により、Rememberizerは多様な知識源から関連情報を取得するために特に強力です。

近日公開:ベクター検索プロセスの視覚化

この図は、Rememberizerにおける完全な意味検索ワークフローを示します:

  • 文書のチャンク化と前処理

  • ベクター埋め込み生成プロセス

  • ベクターデータベースへの保存

  • 検索クエリの埋め込み

  • 類似性マッチング計算

  • 従来のキーワード検索との並行比較

技術リソース

ベクトル埋め込みとベクトルデータベースの仕組みを深く理解するために:

現代AIの基盤

ベクトル埋め込みの背後にある技術は、時間とともに大きく進化しました:

Transformerベースのモデルの注目すべき側面の一つは、そのスケーリング特性です。データが増え、パラメータが増えるにつれて、理解力と能力が劇的に向上します。このスケーリング特性は、GPT-2のようなモデルで観察され、AI能力の急速な進展を促進しました。

これにより、ベクトル埋め込みはAIモデルのプロンプトの文脈に含める関連知識を発見するための自然な選択肢となります。これらの技術は相補的であり、概念的に関連しています。この理由から、LLMをサービスとして提供するほとんどのプロバイダーは、サービスとしてのベクトル埋め込みも提供しています(例えば:や)。

Google は、テキスト検索(テキストからテキスト)と画像検索(テキストから画像)の機能を強化するためにベクトル埋め込みを使用しています()

Meta (Facebook) は、ソーシャルネットワーク検索のために埋め込みを実装しています()

Snapchat は、文脈を理解し、ターゲット広告を提供するためにベクトル埋め込みを利用しています()

から始めましょう

Pinecone(ベクトルデータベースサービス)は、良いを提供しています

MetaのFAISSライブラリ:「FAISS: A Library for Efficient Similarity Search and Clustering of Dense Vectors」by Johnson, Douze, and Jégou (2017)は、効率的なベクトル類似性検索に関する包括的な洞察を提供します()

2017年の論文「Attention Is All You Need」 () は、現代のLLMや高度な埋め込みモデルを支えるTransformerアーキテクチャを紹介しました

「Approximate Nearest Neighbors: Towards Removing the Curse of Dimensionality」 (, ) は、高次元空間における効率的な類似性検索の理論を確立しました

BERT (2018, ) は、言語理解タスクにおける双方向トレーニングの力を示しました

GloVe (2014, ) やWord2Vec (2013, ) のような以前の手法は、ニューラルワード埋め込みの基礎を築きました

Rememberizerを使用したベクトルストアに関する技術的な実装の詳細や開発者向けのガイダンスについては、を参照してください。

Googleの研究者たちは、「Attention Is All You Need」で説明された元のTransformerアーキテクチャの背後にいました () が、その後多くの組織がこの基礎的な作業を基にして拡張しました。

Together AIの埋め込みエンドポイント
OpenAIのテキストとコードの埋め込み
reference
reference
reference
Hugging Faceの概要
ベクトル埋め込みの紹介
GitHubリポジトリ
reference
1998
2010
reference
reference
reference
Vector Stores
patent reference
多次元ベクトル空間の視覚化
多次元ベクトル空間の視覚化