| # Glm-Edge-Chat-1.5B-GGUF | |
| ## 使用ollama 推理 | |
| ### 安装 | |
| 目前针对该模型的适配代码正在积极合入官方llama.cpp中,可通过下述适配版本进行测试: | |
| ``` | |
| git clone https://github.com/piDack/llama.cpp -b support_glm_edge_model | |
| cmake -B build -DGGML_CUDA=ON # 或开启其他加速硬件 | |
| cmake --build build -- -j | |
| ``` | |
| ### 推理 | |
| 安装完成后,您可以通过以下命令启动GLM-Edge Chat模型: | |
| ```shell | |
| llama-cli -m <path>/model.gguf -p "<|user|>\nhi<|assistant|>\n" -ngl 999 | |
| ``` | |
| 在命令行界面,您可以与模型进行交互,输入您的需求,模型将为您提供相应的回复。 | |
| ## 协议 | |
| 本模型的权重的使用则需要遵循 [LICENSE](LICENSE)。 |