# ベクトル埋め込みとベクトルデータベースとは？

Rememberizerは、ユーザーの知識ソース内での意味的類似性を検索するために、ベクトルデータベースにおけるベクトル埋め込みを使用しています。これは、従来の検索エンジンやデータベースを通じてコンテンツ内のキーワードを単に探すよりも、情報検索の本質的により高度で微妙な形態です。

<figure><img src="https://3282965451-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FK09NlRK7lXZsjqCNQsEe%2Fuploads%2Fgit-blob-a9213fe58e84b790a6531fcbac5c30e1b424f316%2Fmultidimensional_space.png?alt=media" alt="多次元ベクトル空間の視覚化"><figcaption><p>多次元ベクトル空間の視覚化</p></figcaption></figure>

## Rememberizerがベクトル埋め込みを使用する方法

最も高度な形態（Rememberizerが使用するもの）では、ベクトル埋め込みは、OpenAIのGPTモデルやChatGPTサービスの基盤となるAI LLM（大規模言語モデル）と同様のアーキテクチャを持つ言語モデルによって作成されます。また、Google（Gemini）、Anthropic（Claude）、Meta（LLaMA）などのモデル/サービスも含まれます。

これにより、ベクトル埋め込みはAIモデルのプロンプトの文脈に含める関連知識を発見するための自然な選択肢となります。これらの技術は相補的であり、概念的に関連しています。この理由から、LLMをサービスとして提供するほとんどのプロバイダーは、サービスとしてのベクトル埋め込みも提供しています（例えば：[Together AIの埋め込みエンドポイント](https://www.together.ai/blog/embeddings-endpoint-release)や[OpenAIのテキストとコードの埋め込み](https://openai.com/blog/introducing-text-and-code-embeddings)）。

## ベクトル埋め込みの理解

ベクトル埋め込みはどのようなものですか？二次元の座標 (x,y) を考えてみましょう。もしそれが原点からこの点までの線を表しているなら、私たちはそれを方向を持つ線として考えることができます。言い換えれば、*二次元のベクトル* です。

Rememberizer の文脈において、ベクトル埋め込みは通常、数百の数値（しばしば 768、1024、または 1536）からなるリストであり、高次元空間におけるベクトルを表します。この数値のリストは、「青空からの稲妻の一撃」のようなフレーズの意味を定義する Transformer モデルの重みを表すことができます。これは、GPT-4 のようなモデルで使用される意味の根本的に同じ表現です。その結果、良いベクトル埋め込みは、現代の AI 言語モデルで見られるのと同じ洗練された理解を可能にします。

## テキストを超えて：マルチモーダル埋め込み

ベクトル埋め込みは、テキストだけでなく、画像や音声などの他のデータタイプも表現できます。適切に訓練されたモデルを使用することで、メディアタイプ間で比較が可能になり、テキストのベクトル埋め込みを画像と比較したり、その逆も可能です。

現在、Rememberizerはユーザー文書と知識のテキストコンポーネント内での検索を可能にしています。テキストから画像への検索および画像からテキストへの検索機能は、Rememberizerの今後の開発ロードマップに含まれています。

## 実世界のアプリケーション

主要なテクノロジー企業は、製品においてベクトル埋め込みを活用しています：

* **Google** は、テキスト検索（テキストからテキスト）と画像検索（テキストから画像）の機能を強化するためにベクトル埋め込みを使用しています（[reference](https://cloud.google.com/blog/topics/developers-practitioners/meet-ais-multitool-vector-embeddings)）
* **Meta (Facebook)** は、ソーシャルネットワーク検索のために埋め込みを実装しています（[reference](https://research.facebook.com/publications/embedding-based-retrieval-in-facebook-search/)）
* **Snapchat** は、文脈を理解し、ターゲット広告を提供するためにベクトル埋め込みを利用しています（[reference](https://eng.snap.com/machine-learning-snap-ad-ranking)）

## Rememberizerのベクター検索がキーワード検索と異なる点

キーワード検索は正確な一致や事前に決められた同義語を見つけます。それに対して、Rememberizerのベクター検索は、異なる用語が使用されている場合でも、概念的に関連するコンテンツを見つけます。例えば：

* 「犬のケア」というキーワード検索は、「犬の健康管理」に関する関連文書を見逃すかもしれません
* Rememberizerのベクター検索は、これらの概念を意味的に類似していると認識し、両方を返します

この能力により、Rememberizerは多様な知識源から関連情報を取得するために特に強力です。

近日公開：ベクター検索プロセスの視覚化

この図は、Rememberizerにおける完全な意味検索ワークフローを示します：

* 文書のチャンク化と前処理
* ベクター埋め込み生成プロセス
* ベクターデータベースへの保存
* 検索クエリの埋め込み
* 類似性マッチング計算
* 従来のキーワード検索との並行比較

## 技術リソース

ベクトル埋め込みとベクトルデータベースの仕組みを深く理解するために：

* [Hugging Faceの概要](https://huggingface.co/blog/getting-started-with-embeddings)から始めましょう
* Pinecone（ベクトルデータベースサービス）は、良い[ベクトル埋め込みの紹介](https://www.pinecone.io/learn/vector-embeddings/)を提供しています
* MetaのFAISSライブラリ：「FAISS: A Library for Efficient Similarity Search and Clustering of Dense Vectors」by Johnson, Douze, and Jégou (2017)は、効率的なベクトル類似性検索に関する包括的な洞察を提供します（[GitHubリポジトリ](https://github.com/facebookresearch/faiss)）

## 現代AIの基盤

ベクトル埋め込みの背後にある技術は、時間とともに大きく進化しました：

* 2017年の論文「Attention Is All You Need」 ([reference](https://arxiv.org/abs/1706.03762)) は、現代のLLMや高度な埋め込みモデルを支えるTransformerアーキテクチャを紹介しました
* 「Approximate Nearest Neighbors: Towards Removing the Curse of Dimensionality」 ([1998](https://dl.acm.org/doi/10.1145/276698.276876), [2010](https://www.theoryofcomputing.org/articles/v008a014/v008a014.pdf)) は、高次元空間における効率的な類似性検索の理論を確立しました
* BERT (2018, [reference](https://arxiv.org/abs/1810.04805)) は、言語理解タスクにおける双方向トレーニングの力を示しました
* GloVe (2014, [reference](https://nlp.stanford.edu/pubs/glove.pdf)) やWord2Vec (2013, [reference](https://arxiv.org/abs/1301.3781)) のような以前の手法は、ニューラルワード埋め込みの基礎を築きました

Rememberizerを使用したベクトルストアに関する技術的な実装の詳細や開発者向けのガイダンスについては、[Vector Stores](https://docs.rememberizer.ai/ja/rissu/integration-options/vector-stores)を参照してください。

{% hint style="info" %}
Transformerベースのモデルの注目すべき側面の一つは、そのスケーリング特性です。データが増え、パラメータが増えるにつれて、理解力と能力が劇的に向上します。このスケーリング特性は、GPT-2のようなモデルで観察され、AI能力の急速な進展を促進しました。

Googleの研究者たちは、「Attention Is All You Need」で説明された元のTransformerアーキテクチャの背後にいました ([patent reference](https://patents.google.com/patent/US10452978B2/en)) が、その後多くの組織がこの基礎的な作業を基にして拡張しました。
{% endhint %}
