One-Click to get a well-designed cross-platform ChatGPT web UI, with GPT3, GPT4 & Gemini Pro support.
一键免费部署你的跨平台私人 ChatGPT 应用, 支持 GPT3, GPT4 & Gemini Pro 模型。
主要功能
GitHub地址:https://github.com/ChatGPTNextWeb/ChatGPT-Next-Web
SiliconCloud 基于优秀的开源基础模型,提供高性价比的 GenAI 服务。
不同于多数大模型云服务平台只提供自家大模型 API,SiliconCloud上架了包括 Qwen、DeepSeek、GLM、Yi、Mistral、LLaMA 3、SDXL、InstantID 在内的多种开源大语言模型及图片生成模型,用户可自由切换适合不同应用场景的模型。
更重要的是,SiliconCloud 提供开箱即用的大模型推理加速服务,为您的 GenAI 应用带来更高效的用户体验。
对开发者来说,通过 SiliconCloud 即可一键接入顶级开源大模型。拥有更好应用开发速度和体验的同时,显著降低应用开发的试错成本。
官网地址:https://siliconflow.cn/zh-cn/siliconcloud
点击Releases:
选择对应操作系统的安装包:
安装完成,打开界面如下所示:
点击设置,进行如下设置:
由于SiliconCloud提供的API服务已经兼容了OpenAI的格式,因此模型服务商可以不改,就把接口地址改成https://api.siliconflow.cn
,填入API Key,填入模型名称即可。
模型名称可在SiliconCloud的文档中查看怎么写:
地址:https://docs.siliconflow.cn/reference/chat-completions-3
进行对话测试是否配置成功:
配置已经成功。
SiliconCloud的好处就是提供了不同的先进开源大语言模型,针对一个特定的任务,或许收费低的模型与收费高的模型都能很好的完成,这时候换成收费低的模型,这样就可以节省成本了。
接入SiliconCloud的API可以轻松地体验不同的先进开源大语言模型。
比如我想使用meta-llama/Meta-Llama-3.1-405B-Instruct这个先进的开源模型,我只需更改一下模型名:
体验meta-llama/Meta-Llama-3.1-405B-Instruct的回答效果:
通过以上简单的几个步骤,就实现在NextChat中接入SiliconCloud API了,接入之后,就可以开始体验不同的开源先进大语言模型的回答效果了。