kNN
在统计学中,k-近邻算法 (k-NN) 是一种非参数监督学习方法,最初由
Evelyn Fix和Joseph Hodges于 1951 年开发,后由Thomas Cover扩展。它用于分类和回归。
本 Notebook 将介绍如何使用底层采用 kNN 的检索器。
很大程度上基于 Andrej Karpathy 的代码。
from langchain_community.retrievers import KNNRetriever
from langchain_openai import OpenAIEmbeddings
API Reference:KNNRetriever | OpenAIEmbeddings
创建包含文本的新检索器
retriever = KNNRetriever.from_texts(
["foo", "bar", "world", "hello", "foo bar"], OpenAIEmbeddings()
)
使用检索器
我们现在就可以使用检索器了!
result = retriever.invoke("foo")
result
[Document(page_content='foo', metadata={}),
Document(page_content='foo bar', metadata={}),
Document(page_content='hello', metadata={}),
Document(page_content='bar', metadata={})]
Related
- Retriever conceptual guide
- Retriever how-to guides