Skip to main content
Open on GitHub

Johnsnowlabs

访问 johnsnowlabs 的企业级 NLP 库生态系统 使用开源 johnsnowlabs 库,拥有超过 21,000 个企业级 NLP 模型,支持 200 多种语言。 查看所有 24,000+ 个模型,请访问 John Snow Labs 模型中心

安装与设置

pip install johnsnowlabs

To [安装企业功能](https://nlp.johnsnowlabs.com/docs/en/jsl/install_licensed_quick, 运行:

# for more details see https://nlp.johnsnowlabs.com/docs/en/jsl/install_licensed_quick
nlp.install()

您可以使用基于 gpucpuapple_siliconaarch 优化的二进制文件来嵌入您的查询和文档。 默认情况下使用 CPU 二进制文件。 一旦会话启动,若要切换 GPU 或 CPU,必须重新启动笔记本,否则更改将不会生效。

使用 CPU 嵌入查询:

document = "foo bar"
embedding = JohnSnowLabsEmbeddings('embed_sentence.bert')
output = embedding.embed_query(document)

使用 GPU 嵌入查询:

document = "foo bar"
embedding = JohnSnowLabsEmbeddings('embed_sentence.bert','gpu')
output = embedding.embed_query(document)

使用 Apple Silicon (M1, M2 等) 嵌入查询:

documents = ["foo bar", 'bar foo']
embedding = JohnSnowLabsEmbeddings('embed_sentence.bert','apple_silicon')
output = embedding.embed_query(document)

嵌入查询与 AARCH:

documents = ["foo bar", 'bar foo']
embedding = JohnSnowLabsEmbeddings('embed_sentence.bert','aarch')
output = embedding.embed_query(document)

使用 CPU 嵌入文档:

documents = ["foo bar", 'bar foo']
embedding = JohnSnowLabsEmbeddings('embed_sentence.bert','gpu')
output = embedding.embed_documents(documents)

嵌入文档与 GPU:

documents = ["foo bar", 'bar foo']
embedding = JohnSnowLabsEmbeddings('embed_sentence.bert','gpu')
output = embedding.embed_documents(documents)

使用 Apple Silicon (M1、M2 等) 嵌入文档:


```python
documents = ["foo bar", 'bar foo']
embedding = JohnSnowLabsEmbeddings('embed_sentence.bert','apple_silicon')
output = embedding.embed_documents(documents)

使用 AARCH 嵌入文档:


```python
documents = ["foo bar", 'bar foo']
embedding = JohnSnowLabsEmbeddings('embed_sentence.bert','aarch')
output = embedding.embed_documents(documents)

模型通过 nlp.load 加载,而 Spark 会话则在底层通过 nlp.start() 启动。