一、硬件需求

量化等级最低 GPU 显存(推理)最低 GPU 显存(高效参数微调)
FP16(无量化)13 GB14 GB
INT88 GB9 GB
INT46 GB7 GB

二、博主本机配置:

  • 显卡:4060TI 16G基本满足配置需求
  • 储存:安装模型+一些依赖项大概30多G(一个大型游戏的容量,问题不大)

2024-07-24T07:46:01.png

三、下载模型

  • 模型文件需要在huggingface上进行下载:https://huggingface.co/THUDM/chatglm-6b
  • 点击【Files and versions】即可下载文件。建议下载到一个新建文件夹中,如:创建ChatGLM文件夹,把模型文件放到 model 文件夹里(自己创建),整体结构就是/ChatGLM/model/。
  • huggingface可能下载比较慢,推荐:清华云盘:https://cloud.tsinghua.edu.cn/d/fb9f16d6dc8f482596c2/
  • 【注】清华硬盘只有几个模型文件(其他这个源没有的文件还是需要在 huggingface 上下载)
  • 最终下载完成:

2024-07-24T07:47:57.png

2024-07-24T08:18:17.png

四、配置环境

2024-07-24T08:20:49.png
2024-07-24T08:20:56.png
2024-07-24T08:21:06.png
2024-07-24T08:21:20.png
2024-07-24T08:21:28.png

  • 在ChatGLM目录下打开命令行终端,输入下面命令,按回车后,pip 就自动下载和安装相关依赖库了。

    pip install -r requirements.txt

五、使用

  • cil demo使用:在ChatGLM目录下打开cli_demo.py文件,将原始的 “THUDM/ChatGLM-6B” 替换为 “model” 本地模型即可。如果不修改的话,会下载模型。执行 python 文件即可,可以在命令行终端输入:python cli_demo.py即可启动demo
    2024-07-24T08:22:36.png
    2024-07-24T08:22:45.png
    2024-07-24T08:22:58.png