本文介绍如何通过模型服务灵积DashScope进行 多模态向量生成 ,并入库至向量检索服务DashVector中进行向量检索。
模型服务灵积DashScope,通过灵活、易用的模型API服务,让各种模态模型的能力,都能方便的为AI开发者所用。通过灵积API,开发者不仅可以直接集成大模型的强大能力,也可以对模型进行训练微调,实现模型定制化。
DashVector:
ONE-PEAC是一个 图文音三模态 通用表征模型,在语义分割、音文检索、音频分类和视觉定位几个任务都达到了新SOTA表现,在视频分类、图像分类、图文检索、以及多模态经典benchmark也都取得了比较领先的结果。
说明
关于灵积ONE-PEACE多模态向量表征更多信息请参考:ONE-PEACE多模态向量表征。
说明
需要进行如下替换代码才能正常运行:
DashVector api-key替换示例中的
DashVector Cluster Endpoint替换示例中的
DashScope api-key替换示例中的
Python
import dashscope
from dashscope import MultiModalEmbedding
from dashvector import Client
dashscope.api_key = '{your-dashscope-api-key}'
# 调用DashScope ONE-PEACE模型,将各种模态素材embedding为向量
def generate_embeddings(text: str = None, image: str = None, audio: str = None):
input = []
if text:
input.append({'text': text})
if image:
input.append({'image': image})
if audio:
input.append({'audio': audio})
result = MultiModalEmbedding.call(
model=MultiModalEmbedding.Models.multimodal_embedding_one_peace_v1,
input=input,
auto_truncation=True
)
if result.status_code != 200:
raise Exception(f"ONE-PEACE failed to generate embedding of {input}, result: {result}")
return result.output["embedding"]
# 创建DashVector Client
client = Client(
api_key='{your-dashvector-api-key}',
endpoint='{your-dashvector-cluster-endpoint}'
)
# 创建DashVector Collection
rsp = client.create('one-peace-embedding', 1536)
assert rsp
collection = client.get('one-peace-embedding')
assert collection
# 向量入库DashVector
collection.insert(
[
('ID1', generate_embeddings(text='阿里云向量检索服务DashVector是性能、性价比具佳的向量数据库之一')),
('ID2', generate_embeddings(image='https://dashscope.oss-cn-beijing.aliyuncs.com/images/256_1.png')),
('ID3', generate_embeddings(audio='https://dashscope.oss-cn-beijing.aliyuncs.com/audios/cow.flac')),
('ID4', generate_embeddings(
text='阿里云向量检索服务DashVector是性能、性价比具佳的向量数据库之一',
image='https://dashscope.oss-cn-beijing.aliyuncs.com/images/256_1.png',
audio='https://dashscope.oss-cn-beijing.aliyuncs.com/audios/cow.flac'
))
]
)
# 向量检索
docs = collection.query(
generate_embeddings(text='The best vector database')
)
print(docs)