codecamp

CodeGeeX本地模式使用指南:高效编码体验

CodeGeeX 本地模式使用指南

CodeGeeX 本地模式可以将本地 API 服务接入智能问答和代码补全中,以实现安全、隐私、高效的编码体验。您可以将任何与 OpenAI 兼容的 RESTful API 接入到 CodeGeeX 的插件中。

本地模式使用帮助

1、打开侧边栏,从菜单中进入 「本地模式」

CodeGeeX侧边栏菜单

2、打开「模型」页面,填写 API 信息

CodeGeeX模型页面

模型地址:可以使用任何与 OpenAI RESTful API 兼容的地址,例如 ​http://localhost:1234/v1/chat/completions

API KEY:如果您的 API 服务需要鉴权,请在此填入密钥。插件会在请求 API 的 HTTP HEADER 中添加以下信息

Authorization: Bearer <token>

模型名称:如果您的 API 支持多个模型,可以在此填入模型名称。插件会在请求 API 的 PAYLOAD 中添加以下信息


{
"model": "<MODEL NAME>"
}


3、验证配置

可以使用「连接」验证配置是否正确,当显示为「已连接」时,您可以开始体验 CodeGeeX 的本地模式。

4、设置高级参数

如果您对 模型的 temperature 或 top_p 等参数有特别需求,可以展开 聊天 和 代码补全 中的「高级配置」进行配置,插件会用以下协议与 API 通信

{
"model": "<MODEL NAME>",
"messages": [
{
"role": "user",
"content": "CodeGeeX is awesome!"
}
],
"temperature": "<TEMPERATURE>",
"top_p": "<TOP_P>",
"max_tokens": "<MAX_TOKENS>",
"presence_penalty": "<PENALTY>",
"stream": true,
"stop": []
}


常用模型推理工具

1、使用 FastChat 提供 API 服务

FastChat 是一个高效的对话系统框架,您可以使用该框架快速部署CodeGeeX4模型。官方文档: https://github.com/lm-sys/FastChat

如需技术协助请通过 CodeGeeX 公众号加入用户群。

2、使用 Ollama 在个人电脑中启动推理服务

Ollama 是一个开源的本地部署大型语言模型的工具,您可以点击链接下载 Ollama:https://ollama.com/download

官方文档见:https://github.com/ollama/ollama

通过Ollama使用插件需要配置跨域,您可以按照以下配置接入:

  1. ollama 版本 > 0.2.0

    1. 您可以通过在终端输入ollama -v检查您安装的ollama版本
  2. 配置跨域所需的环境变量

    1. 在终端输入export OLLAMA_ORIGINS="*"launchctl setenv OLLAMA_ORIGINS "*"来设置环境变量,Windows环境可以在环境变量中手动配置
    2. 设置后需要重启 ollama 服务和 IDE(VSCode 或其他环境) 使环境变量生效
    3. 不同环境配置的方式不同,请参考https://github.com/ollama/ollama/blob/main/docs/faq.md#how-do-i-configure-ollama-server
  3. 启动CodeGeeX4

    1. 在终端输入ollama serve
    2. 打开一个新的终端,在终端输入ollama run codegeex4
  4. 配置接口地址

    1. 在插件的模型配置页填写模型地址:​http://localhost:11434/v1/chat/completions
    2. 打开模型配置的高级模式,在模型名称栏填写:codegeex4

3、使用 LM-Studio 在个人电脑中启动推理服务

LM Studio 是一个用于部署本地和开源大型语言模型的工具,您可以点击链接下载 LM Studio:https://lmstudio.ai/

官方文档:https://lmstudio.ai/docs/welcome

下载后打开LM Studio,搜索CodeGeeX4模型并下载 img
你可以点击侧边栏找到模型部署页,在这里部署本地模型 img
注意:在选择模型前请打开跨域(默认是关闭的,这会导致插件无法连接到本地模型) img
选择并启动服务器,模型就部署成功了。 这时候只需要复制部署链接到模型配置页,就可以使用插件的本地模式啦! [[EMOJI:%F0%9F%8E%89]] img

4、使用 Fastapi 部署本地模型

参考该教程 https://github.com/THUDM/CodeGeeX4/tree/main/local_mode中文地址

  1. 安装依赖项 (python>=3.9)

  1. 启动服务即可开始使用

常见问题

1、API 无法连接

如果您使用 LM STUDIO 提供 API 服务,请打开跨域支持。如下图,开启 ​Cross-Origin-Resource-Sharing


CodeGeeX自动生成Commit Message功能:简化Git提交流程
CodeGeeX配置忽略文件指南:管理不希望被索引的文件
温馨提示
下载编程狮App,免费阅读超1000+编程语言教程
取消
确定
目录

关闭

MIP.setData({ 'pageTheme' : getCookie('pageTheme') || {'day':true, 'night':false}, 'pageFontSize' : getCookie('pageFontSize') || 20 }); MIP.watch('pageTheme', function(newValue){ setCookie('pageTheme', JSON.stringify(newValue)) }); MIP.watch('pageFontSize', function(newValue){ setCookie('pageFontSize', newValue) }); function setCookie(name, value){ var days = 1; var exp = new Date(); exp.setTime(exp.getTime() + days*24*60*60*1000); document.cookie = name + '=' + value + ';expires=' + exp.toUTCString(); } function getCookie(name){ var reg = new RegExp('(^| )' + name + '=([^;]*)(;|$)'); return document.cookie.match(reg) ? JSON.parse(document.cookie.match(reg)[2]) : null; }