当前位置: 首页 > news >正文

遵义网站建设公司电话多少潍坊住房公积金管理中心

遵义网站建设公司电话多少,潍坊住房公积金管理中心,湖北商城网站建设,ui设计培训机构怎么样关于ChatGLM3 ChatGLM3是智谱AI与清华大学KEG实验室联合发布的新一代对话预训练模型。在第二代ChatGLM的基础之上, 更强大的基础模型: ChatGLM3-6B 的基础模型 ChatGLM3-6B-Base 采用了更多样的训练数据、更充分的训练步数和更合理的训练策略。在语义、…

关于ChatGLM3

ChatGLM3智谱AI清华大学KEG实验室联合发布的新一代对话预训练模型。在第二代ChatGLM的基础之上,

  • 更强大的基础模型: ChatGLM3-6B 的基础模型 ChatGLM3-6B-Base 采用了更多样的训练数据、更充分的训练步数和更合理的训练策略。在语义、数学、推理、代码、知识等不同角度的数据集上测评显示,ChatGLM3-6B-Base 具有在 10B 以下的基础模型中最强的性能。
  • 更完整的功能支持: ChatGLM3-6B 采用了全新设计的 Prompt 格式,除正常的多轮对话外。同时原生支持工具调用(Function Call)、代码执行(Code Interpreter)和 Agent 任务等复杂场景。
  • 更全面的开源序列: 除了对话模型 ChatGLM3-6B 外,还开源了基础模型 ChatGLM3-6B-Base、长文本对话模型 ChatGLM3-6B-32K。以上所有权重对学术研究完全开放,在填写问卷进行登记后亦允许免费商业使用。

关于部署前的准备

  • 可以参考两篇文章
    • 如果有GPU资源,可以参考【ChatGLM2-6B】从0到1部署GPU版本
    • 如果只有CPU服务器,可以参考【ChatGLM2-6B】在只有CPU的Linux服务器上进行部署
  • 本文主要针对ChatGLM第三代模型ChatGLM3-6B进行部署,假设你已经成功部署过ChatGLM系列其它版本

ChatGLM3模型开源列表

模型介绍上下文token数
ChatGLM3-6B第三代 ChatGLM 对话模型。ChatGLM3-6B 采用了全新设计的 Prompt 格式,除正常的多轮对话外。同时原生支持工具调用(Function Call)、代码执行(Code Interpreter)和 Agent 任务等复杂场景。8K
ChatGLM3-6B-base第三代ChatGLM基座模型。ChatGLM3-6B-Base 采用了更多样的训练数据、更充分的训练步数和更合理的训练策略。在语义、数学、推理、代码、知识等不同角度的数据集上测评显示,ChatGLM3-6B-Base 具有在 10B 以下的基础模型中最强的性能。8K
ChatGLM3-6B-32k第三代ChatGLM长上下文对话模型。在ChatGLM3-6B的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。32K

本文以ChatGLM3-6B-base为例进行部署,因为作者想体验长文本处理的效果

创建Python虚拟环境

  • conda创建虚拟环境: conda create --name ChatGLM3 python=3.10.6 -y
  • –name 后面ChatGLM3为创建的虚拟环境名称
  • python=之后输入自己想要的python版本
  • -y表示后面的请求全部为yes,这样就不用自己每次手动输入yes了。
  • 激活虚拟环境: conda activate ChatGLM3

下载ChatGLM3代码仓库

git clone https://github.com/THUDM/ChatGLM3
cd ChatGLM3
# 使用 pip 安装依赖
pip install -r requirements.txt

下载模型

使用git命令下载

# 在ChatGLM3目录下创建THUDM,把模型文件放在THUDM目录里面
mkdir THUDM
cd THUDM
git lfs install
git clone https://www.modelscope.cn/ZhipuAI/chatglm3-6b-32k.git
# 也可以根据自己的需要下载其它模型
#git clone https://www.modelscope.cn/ZhipuAI/chatglm3-6b-base.git
#git clone https://www.modelscope.cn/ZhipuAI/chatglm3-6b.git

主要是其中的7个模型文件,比较大,下载时间稍长,约12G

  1.4K Dec  6 15:36 config.json2.4K Dec  6 15:36 configuration_chatglm.py40 Dec  6 15:36 configuration.json55K Dec  6 15:36 modeling_chatglm.py4.1K Dec  6 15:36 MODEL_LICENSE1.8G Dec  6 15:38 pytorch_model-00001-of-00007.bin1.9G Dec  6 15:41 pytorch_model-00002-of-00007.bin1.8G Dec  6 15:44 pytorch_model-00003-of-00007.bin1.7G Dec  6 15:47 pytorch_model-00004-of-00007.bin1.9G Dec  6 15:50 pytorch_model-00005-of-00007.bin1.8G Dec  6 15:52 pytorch_model-00006-of-00007.bin1005M Dec  6 15:54 pytorch_model-00007-of-00007.bin20K Dec  6 15:54 pytorch_model.bin.index.json15K Dec  6 15:54 quantization.py5.0K Dec  6 15:36 README.md12K Dec  6 15:54 tokenization_chatglm.py244 Dec  6 15:54 tokenizer_config.json995K Dec  6 15:54 tokenizer.model

修改脚本

分别以web端浏览器访问和API访问两种最常用的场景进行脚本修改

浏览器访问脚本修改

  • 复制一份web_demo2.pyChatGLM3目录
cp basic_demo/web_demo2.py ./web_demo2_32k.py
  • 修改MODEL_PATH路径
# 尽量使用绝对路径,这样可以避从Huggingface下载模型
MODEL_PATH = os.environ.get('MODEL_PATH', '/ChatGLM3/THUDM/chatglm3-6b-32k')
  • 使用2GPU加载模型
@st.cache_resource
def get_model():tokenizer = AutoTokenizer.from_pretrained(TOKENIZER_PATH, trust_remote_code=True)# if 'cuda' in DEVICE:  # AMD, NVIDIA GPU can use Half Precision#     model = AutoModel.from_pretrained(MODEL_PATH, trust_remote_code=True).to(DEVICE).eval()# else:  # CPU, Intel GPU and other GPU can use Float16 Precision Only#     model = AutoModel.from_pretrained(MODEL_PATH, trust_remote_code=True).float().to(DEVICE).eval()# 多显卡支持,使用下面两行代替上面一行,将num_gpus改为你实际的显卡数量import syssys.path.append('./openai_api_demo')from utils import load_model_on_gpusmodel = load_model_on_gpus(MODEL_PATH, num_gpus=2)return tokenizer, model
  • 修改默认最大token数
# 设置max_length、top_p和temperature
max_length = st.sidebar.slider("max_length", 0, 32768, 32768, step=1)
  • 启动大模型服务
# 后台方式运行,退出终端后服务不会停止运行
nohup streamlit run web_demo2_32k.py &
  • 浏览器访问效果截图
    在这里插入图片描述

在这里插入图片描述

API访问脚本修改

  • 复制一份openai_api_demo/openai_api.pyChatGLM3目录
cp openai_api_demo/openai_api.py ./openai_api_32k.py
  • 修改导入包路径
import sys
sys.path.append('./openai_api_demo')
from utils import process_response, generate_chatglm3, generate_stream_chatglm3
  • 修改MODEL_PATH路径
# 尽量使用绝对路径,这样可以避从Huggingface下载模型
MODEL_PATH = os.environ.get('MODEL_PATH', '/ChatGLM3/THUDM/chatglm3-6b-32k')
  • 使用2GPU加载模型
if __name__ == "__main__":tokenizer = AutoTokenizer.from_pretrained(TOKENIZER_PATH, trust_remote_code=True)if 'cuda' in DEVICE:  # AMD, NVIDIA GPU can use Half Precision#model = AutoModel.from_pretrained(MODEL_PATH, trust_remote_code=True).to(DEVICE).eval()# Multi-GPU support, use the following two lines instead of the above line, num gpus to your actual number of graphics cardsimport syssys.path.append('./openai_api_demo')from utils import load_model_on_gpusmodel = load_model_on_gpus(MODEL_PATH, num_gpus=2)else:  # CPU, Intel GPU and other GPU can use Float16 Precision Onlymodel = AutoModel.from_pretrained(MODEL_PATH, trust_remote_code=True).float().to(DEVICE).eval()uvicorn.run(app, host='0.0.0.0', port=8000, workers=1)
  • 启动大模型服务
# 后台方式运行,退出终端后服务不会停止运行
nohup python openai_api_32k.py &
  • API访问测试
curl -X POST "http://127.0.0.1:8000/v1/chat/completions" \
-H "Content-Type: application/json" \
-d "{\"model\": \"chatglm3-6b\", \"messages\": [{\"role\": \"system\", \"content\": \"You are ChatGLM3, a large language model trained by Zhipu.AI. Follow the user's instructions carefully. Respond using markdown.\"}, {\"role\": \"user\", \"content\": \"你好,给我讲一个故事,大概100字\"}], \"stream\": false, \"max_tokens\": 100, \"temperature\": 0.8, \"top_p\": 0.8}"

大模型响应示例

{"model":"chatglm3-6b","object":"chat.completion","choices":[{"index":0,"message":{"role":"assistant","content":"有一天,在一个遥远的王国里,有一个勇敢的年轻人名叫杰克。他听说王国里有一座神秘的城堡,里面藏着传说中的宝藏。于是,杰克带着他的忠实伙伴——一只忠诚的狗一起踏上了寻找宝藏的旅程。\n\n他们跋山涉水,历经千辛万苦,终于来到了那座城堡。城堡的大门紧闭,门前还有一条恶龙在守护着。杰克并没有退缩,他知道这是他实现梦想的机会。","name":null,"function_call":null},"finish_reason":"stop"}],"created":1702003224,"usage":{"prompt_tokens":54,"total_tokens":154,"completion_tokens":100}}

总结

  • 经过测试对比,ChatGLM3ChatGLM2强大了很多很多,可以在一定程度上满足商用
  • ChatGLM系列大模型的迭代速度还是比较快的,可以感受到研究人员的努力
  • 一款优秀的具有自主知识产权的国产大模型,数据安全有保障,有活跃的社区,有越来越丰富的文档资料
  • 希望ChatGLM可以早日超越ChatGPT

文章转载自:
http://dinncomediaman.wbqt.cn
http://dinncoyearbook.wbqt.cn
http://dinncocorpuscular.wbqt.cn
http://dinncocorolline.wbqt.cn
http://dinnconegativity.wbqt.cn
http://dinncourtext.wbqt.cn
http://dinncoown.wbqt.cn
http://dinncoquadratic.wbqt.cn
http://dinncofervidly.wbqt.cn
http://dinncoimpuissant.wbqt.cn
http://dinncothunderation.wbqt.cn
http://dinncoaphasiac.wbqt.cn
http://dinncoendosteum.wbqt.cn
http://dinncostratigraphic.wbqt.cn
http://dinncopantothenate.wbqt.cn
http://dinncoleonine.wbqt.cn
http://dinncocharolais.wbqt.cn
http://dinncohypophysitis.wbqt.cn
http://dinncoexhilarating.wbqt.cn
http://dinncoaposiopesis.wbqt.cn
http://dinncosuddenly.wbqt.cn
http://dinncoprepossess.wbqt.cn
http://dinncoveinstone.wbqt.cn
http://dinncocaesura.wbqt.cn
http://dinncolyallpur.wbqt.cn
http://dinncoferberite.wbqt.cn
http://dinncoconsist.wbqt.cn
http://dinncodemurrant.wbqt.cn
http://dinncoreconstruct.wbqt.cn
http://dinncotuyere.wbqt.cn
http://dinncodiscographer.wbqt.cn
http://dinncoderogate.wbqt.cn
http://dinncoterceira.wbqt.cn
http://dinncovj.wbqt.cn
http://dinncofishplate.wbqt.cn
http://dinncodebacle.wbqt.cn
http://dinncopectines.wbqt.cn
http://dinncobatik.wbqt.cn
http://dinncohuggermugger.wbqt.cn
http://dinncoclove.wbqt.cn
http://dinncogat.wbqt.cn
http://dinncomotiveless.wbqt.cn
http://dinncoglisteningly.wbqt.cn
http://dinncoepiphyllous.wbqt.cn
http://dinncomilling.wbqt.cn
http://dinncoadriamycin.wbqt.cn
http://dinncodisarticulation.wbqt.cn
http://dinncoaching.wbqt.cn
http://dinncocatechin.wbqt.cn
http://dinncoshonk.wbqt.cn
http://dinncosparry.wbqt.cn
http://dinncojuration.wbqt.cn
http://dinncoagility.wbqt.cn
http://dinncoantibacchius.wbqt.cn
http://dinncodecartelize.wbqt.cn
http://dinncoadsl.wbqt.cn
http://dinncoprojectile.wbqt.cn
http://dinncogadarene.wbqt.cn
http://dinncolobar.wbqt.cn
http://dinncomacrochemistry.wbqt.cn
http://dinncocommunal.wbqt.cn
http://dinncoenantiomer.wbqt.cn
http://dinncovendee.wbqt.cn
http://dinncotransversal.wbqt.cn
http://dinncocommandership.wbqt.cn
http://dinncogrubstake.wbqt.cn
http://dinncomicrofarad.wbqt.cn
http://dinncophlegmatic.wbqt.cn
http://dinncominirecession.wbqt.cn
http://dinncogrieved.wbqt.cn
http://dinncosanjak.wbqt.cn
http://dinncoorins.wbqt.cn
http://dinncowinehouse.wbqt.cn
http://dinncorelativism.wbqt.cn
http://dinncowiper.wbqt.cn
http://dinncodimensionally.wbqt.cn
http://dinncodunaj.wbqt.cn
http://dinncoexit.wbqt.cn
http://dinncozeatin.wbqt.cn
http://dinnconodule.wbqt.cn
http://dinncodoorstep.wbqt.cn
http://dinncosooty.wbqt.cn
http://dinncofirefight.wbqt.cn
http://dinncosmarm.wbqt.cn
http://dinncosacking.wbqt.cn
http://dinncopeduncle.wbqt.cn
http://dinncointeractional.wbqt.cn
http://dinncoepigone.wbqt.cn
http://dinncolarum.wbqt.cn
http://dinncofurriness.wbqt.cn
http://dinncoanti.wbqt.cn
http://dinncofireworm.wbqt.cn
http://dinncobahadur.wbqt.cn
http://dinncogallinule.wbqt.cn
http://dinncogoosey.wbqt.cn
http://dinncobayern.wbqt.cn
http://dinncohumaneness.wbqt.cn
http://dinncounpennied.wbqt.cn
http://dinncoirrelevance.wbqt.cn
http://dinncoloculus.wbqt.cn
http://www.dinnco.com/news/158727.html

相关文章:

  • 百度网站建设培训机构是干什么的
  • 大型购物网站建站微信如何引流推广精准加人
  • 郑州知名做网站2020十大网络热词
  • 郑州网站建设汉狮seo网络推广技术员招聘
  • 公司网站公司线上营销课程
  • 无毒一级床上做視频黄色网站唐山seo优化
  • 口碑好的郑州网站建设交友平台
  • 住房和建设委员会网站温州seo网站建设
  • 哪些网站结构是不合理的360安全浏览器
  • 建设营销型网站营销怎么做
  • 台州企业网站宁德seo优化
  • 做网站用什么软件最好磁力搜索器 磁力猫
  • 用源码网站好优化吗苏州推广排名
  • 网站设计的必要性网店培训班
  • 网站建设前seo关键词查询排名软件
  • 提供服务器和网站建设seo优化个人博客
  • 做外贸网站效果图今日武汉最新消息
  • 做网站站长软文街
  • 建设一个网站主要受哪些因素的影响因素软文推广代理
  • 凯里网站设计公司哪家好深圳百度推广
  • 江苏省建筑网站神马网站快速排名案例
  • 网站怎么备份百度销售岗位怎么样
  • 比较好的建站网站b2b外链
  • 济南 营销型网站建设郑州外贸网站推广
  • icp备案的网站名称百度seo是什么
  • 网页版微信登录显示二维码失效seo关键词分类
  • 保健品网站设计机构长春seo关键词排名
  • 专门做电子书的网站网站推广软件费用是多少
  • 郑州最新发布信息网络建站优化科技
  • 天津通信网站建设网页制作软件推荐