OpenSearch-LLM智能问答版不仅内置了高性能的大语言模型(LLM),还支持用户从阿里云的“大模型服务平台百炼”中增加新的外部LLM。用户可以根据自身的业务需求,灵活选择和集成最合适的大语言模型,从而提高系统的多样性和适应性。本文介绍如何查看LLM列表和新增外部LLM。本文介绍如何查看LLM列表。
模型列表
选择模型管理->LLM可以查看LLM列表,包括模型名称、模型类型(内置LLM/外部LLM/定制LLM)、创建时间等信息。您还可以进行问答测试等操作。
|
模型名称 |
模型类型 |
模型简介 |
|
qwen3-235b-a22b |
内置LLM |
新一代Qwen系列大型语言模型,基于广泛的训练,Qwen3在推理、指令跟随、Agent能力和多语言支持方面取得了突破性进展,可支持100多种语言和方言,具备强大的多语言理解、推理和生成能力。 |
|
qwen-vl-max |
内置LLM |
千问超大规模视觉语言模型。可以支持图片、视频多模态RAG能力,在更多复杂任务上提供最佳的性能。 |
|
qwen-vl-plus |
内置LLM |
千问超大规模视觉语言模型。可以支持图片、视频多模态RAG能力,具备最佳的响应速度。 |
|
opensearch-qwen |
内置LLM |
基于Qwen-14b,使用检索增强训练数据微调后的模型。 |
|
opensearch-qwen-plus |
内置LLM |
基于Qwen-72b,使用检索增强训练数据微调后的模型,在相同问题上的效果更加稳定。 |
|
deepseek-r1 |
内置LLM |
deepseek-r1模型,在数学推理等问题上表现更佳。 |
|
deepseek-r1-distill-qwen-7b |
内置LLM |
阿里云百炼平台中的deepseek-r1-distill-qwen-7b模型。 |
|
deepseek-r1-distill-qwen-14b |
内置LLM |
阿里云百炼平台中的deepseek-r1-distill-qwen-14b模型。 |
|
opensearch-llama2-13b |
内置LLM |
基于llama2-13b,使用检索增强训练数据微调后的模型。 |
|
opensearch-llama2-13b-turbo |
内置LLM |
基于llama2-13b,使用检索增强训练数据微调后的升级版模型。 |
|
opensearch-llama2-70b |
内置LLM |
基于llama2-70b,使用检索增强训练数据微调后的模型。 |
|
opensearch-llama3-8b |
内置LLM |
基于llama3-8b,使用检索增强训练数据微调后的模型。 |
|
qwen-turbo |
内置LLM |
千问系列速度最快、成本很低的模型,适合简单任务。 |
|
qwen-plus |
内置LLM |
千问系列能力均衡的模型,推理效果和速度介于qwen-max和qwen-turbo之间,适合中等复杂任务。 |
|
qwen-max |
内置LLM |
千问系列效果最好的模型,适合复杂、多步骤的任务。 |
|
qwen2-72b-instruct |
内置LLM |
千问系列能力均衡的模型,推理效果和速度介于qwen-max和qwen-turbo之间,适合中等复杂任务。本模型是稳定版,后续不会再进行更新。 |
-
内置LLM仅支持问答测试操作。
-
外部LLM支持详情、问答测试、编辑、删除操作。
-
定制LLM支持详情、问答测试、训练模型、删除操作。(仅专业版实例支持定制LLM)