Skip to content

xtbwqtq/GLM-Code-cli

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

3 Commits
 
 
 
 

Repository files navigation

GLM-Code-cli

本项目基于对Gemini cli的分支,添加了对于OpenAI格式的兼容,尤其是GLM-4.5。

项目会同时更新Gemini cli的最新特性,目前main分支已到最新的0.1.16,0.1.17虽然已经release,但是还没有合并main分支,我的项目是以官方的main分支为主的。

项目兼容了Gemini cli的所有特性,包括流式输出,工具调用,中断,上下文压缩等等。

有问题欢迎提问。

使用

首先需要node 20以上

打开你的project,启动终端

📢:Gemini默认是开启了遥测的,我们整个场景不需要,因此需要关闭

遥测会请求谷歌的服务。

可以在当前project目录新建.gemini目录,然后设置setting.json文件,telemetry 是遥测相关的:

{
  "theme": "Google Code",
  "usageStatisticsEnabled": false,
  "telemetry": {
    "enabled": false,
    "logPrompts": false
  }
}

命令

1 设置OpenAI的环境变量

linux|Mac:

export OPENAI_API_KEY="xxxx"
export OPENAI_BASE_URL="xxxxx"

Windows power shell:

$env:OPENAI_API_KEY="xxxx"
$env:OPENAI_BASE_URL="xxxxx"

比如:

export OPENAI_API_KEY="bffed1xxxxxxxx"
export OPENAI_BASE_URL="https://open.bigmodel.cn/api/paas/v4/"

运行

node [gemini.js] --model model_name

示例:

node /Users/pan/2022workspace/gemini.js --model glm-4.5-flash

初次运行选择:openai-api-key 的认证方式。 image

运行成功之后: image

About

兼容了OpenAI格式(尤其是GLM4.5)的Gemini cli

Resources

License

Stars

Watchers

Forks

Packages

No packages published