当前位置: 首页 > news >正文

建行网站用户名是什么大连网站seo

建行网站用户名是什么,大连网站seo,工作心得体会感悟简短,宿州酒店网站建设背景 ChatGPT诞生之初,大家仿佛从中看到了未来:可以拿着大语言模型(LLM)这把锤子,锤遍业务上的钉子。其中最被看好的场景,莫过于搜索,不仅是微软、谷歌、百度这样的大公司将LLM用到自己的搜索业…

背景

ChatGPT诞生之初,大家仿佛从中看到了未来:可以拿着大语言模型(LLM)这把锤子,锤遍业务上的钉子。其中最被看好的场景,莫过于搜索,不仅是微软、谷歌、百度这样的大公司将LLM用到自己的搜索业务中,Github上也有很多知识库、文档问答相关的优秀开源项目,究其本质,是通过检索相关知识来增强LLM的回答效果

搭建一个检索增强pipeline其实很简单,“embedding模型+向量检索+LLM”这一套组合拳就足够,而且LangChain中都已经封装好了,简单写几行代码调用就能收工下班!但如果认真去分析最终回复的效果,就会发现这个pipeline只完成了工作的冰山一角,而本文,会展开聊聊冰山之下的秘密。

分片+检索+回答

首先需要对整体的流程进行概述:

  1. 文本分片。不同格式的原始数据,需要转成文本。因为文本在后续的操作中会拼接到prompt中,所以对于过长的文本,需要进行分片,控制在一定的长度之内。

  2. 文本检索。离线阶段,可以将文档片段都进行embedding,将embedding向量存储到向量数据库中;在线阶段,将用户query的embedding向量在向量数据库中进行检索,返回TopK的相关文档。

  3. LLM回答。将TopK的相关文档组织成prompt,请求LLM得到最终的回答。

这三个步骤环环相扣,每一个环节的错误都会层层传递到后续的环节。下面会分别介绍这三个环节中可能会碰到的挑战。

图来源于[3],”分片“对应图中第1、2步,”检索“对应第3、4步,”回答“对应第5步

图来源于[3],”分片“对应图中第1、2步,”检索“对应第3、4步,”回答“对应第5步

文本分片

文本数据抽取

且不论多模态数据,单单是文本数据的存储格式,常见的就有:TXT、Word、PDF、Latex、CSV、Excel、HTML、Markdown……不同格式的数据要转成纯文本,需要话费不少功夫,即使是Langchain-Loaders[1]已经提供了多种格式的文本提取接口,但对于复杂格式的文件,提取效果依然不太理想,如PDF。这时候就需要投入更多精力来进行数据清洗,否则会直接影响到最终的效果。

语义完整性

Langchain-Doc Transformers[2]中介绍了按照长度、指定符号(句号、换行符)这些简单的规则进行文本分片的方法,但用这些方法得到的分片很多情况下会有语义不完整的问题,比如:

  • 文档格式转换(如PDF无法识别段落)出问题

  • 整体语义蕴含在长文本中

  • 当文档编写者不遵守语法,胡乱断句换行

  • ……

为了保证语义的完整性,可以尝试以下方案:

  • 使用模型(比如Bert)进行分片,而不是简单的依靠规则切分。

  • 对文档进行摘要,这样可以大幅缩短文档的篇幅,保证语义的完整性。

  • 使用LLM根据文档构造多个QA pair,由于LLM可接受的prompt长度会大于文本片段的长度,通过这种方法得到QA pair能够将距离较远的信息有结构地组织到一起,控制在可接受的长度内。

文本检索

过滤无关文本片段

如果只是取检索结果的TopK拼接到后续LLM的Prompt中,那TopK中难免会有和用户问题不相关的结果,所以需要进行过滤,尽量保证给的LLM的都是相关的文本片段。

常用的过滤方式就是根据相关性分数过滤了,可以选择一个阈值,丢弃相关性低于该阈值的文档。这么做的前提,需要Embedding模型最好满足以下要求:

  • Embedding模型返回的向量最好是归一化后的,这样使用内积或欧氏距离表示相关性时,取值都在固定范围内,容易选择阈值。

  • Embedding模型最好做过**校准(Calibration)**。校准这一操作在CTR预估中很常见,主要是因为训练时一般采用pairwise,同时也主要会使用AUC、NDCG这类排序类型的评价指标,比如A>B>C,模型预测ABC的分数为[0.1, 0.2, 0.3]或[0.7, 0.8, 0.9]在评价指标上是一样的,但这样不利于选取合适的阈值来过滤无关文本,所以需要加上校准这一步骤。

多轮问答下的检索Query

假设用户前后的两个问题是:”颐和园在哪里?“、”门票多少钱?“。但如果单看第二个问题,无法知道用户想问的是哪里的门票。所以,如果只用最新的query来检索,会造成上下文依赖丢失的问题。

针对这个问题,可以尝试以下解法:

  • 增加一个模型(比如:Bert),用户判断当前的query和历史的query是否有上下文依赖关系,维护一个依赖关系链,如果有,则将依赖链上的query拼接起来用于文本检索,否则只需将最新的query用于检索即可。

  • 让LLM根据近几轮的问答生成检索query,发挥LLM的通用性。

LLM回答

Prompt

用什么样的Prompt才能让LLM输出满意的结果呢?首先来看一个常用来做检索增强的Prompt:

Use the following context as your learned knowledge, inside <context></context> XML tags.
<context>
{{context}}
</context>
When answer to user:
- If you don't know, just say that you don't know.
- If you don't know when you are not sure, ask for clarification. 
Avoid mentioning that you obtained the information from the context.
And answer according to the language of the user's question.Here is the chat histories between human and assistant, inside <histories></histories> XML tags.
<histories>
{{histories}}
</histories>human:{{question}}
ai:

以上这个Prompt,将相关文档、历史对话、用户问题都放进去了,看着是个很强的baseline。但如果你用的LLM不是强如ChatGPT,而只是6B、13B规模的开源模型,你会发现这个Prompt的效果不够稳定,经常出现Badcase。

我认为它最致命的缺点是没有采用对话的形式。之前在介绍ChatGPT的三步走方案时提到了,在第二、三步时训练数据的格式是对话的形式,所以,如果将Prompt能够保持对话的形式,效果应该能更好,下面是一个示例。关于Chatgpt是如何组织对话的,可以参考以往的这篇文章。

[{"role":"system","content":"""
Use the following context as your learned knowledge, inside <context></context> XML tags.
<context>
{{context}}
</context>
When answer to user:
- If you don't know, just say that you don't know.
- If you don't know when you are not sure, ask for clarification. 
Avoid mentioning that you obtained the information from the context.
And answer according to the language of the user's question."""},{"role":"user","content":"histories_user_1"},{"role":"assistant","content":"histories_assistant_1"},...{"role":"user","content":"question"},
]

礼貌拒答

即使有了检索增强,也不见得LLM能答上所有问题,相反,我们更希望LLM在没有把握的时候,选择有礼貌地拒答,所谓有礼貌,在很多场景中是和”人设“相关的,比如落地的场景是企业助手、电商客服等。想要实现人设和拒答的效果,主要的工作是在调优Prompt上。Prompt工程这活儿,感觉只能起到锦上添花的作用,效果想要更上一层楼还是得使用更强的LLM。

写在最后

创新到普及之间,技术到产品之间,可用到好用之间,存在着一道隐秘的GAP。篇幅有限,以上的一些经验,无法覆盖到方方面面,欢迎大家一起来讨论!

Reference

[1] Langchain-Loaders

[2] Langchain-Doc Transformers

[3] Langchain-Question Answering


文章转载自:
http://dinncoquartered.stkw.cn
http://dinncomilksop.stkw.cn
http://dinncoprovidence.stkw.cn
http://dinncothermonasty.stkw.cn
http://dinncoplp.stkw.cn
http://dinncowiz.stkw.cn
http://dinncorutted.stkw.cn
http://dinncoorthodome.stkw.cn
http://dinncostout.stkw.cn
http://dinncohesperides.stkw.cn
http://dinncosonication.stkw.cn
http://dinncoattabal.stkw.cn
http://dinncoelectioneer.stkw.cn
http://dinncoaureomycin.stkw.cn
http://dinncorareripe.stkw.cn
http://dinncofacta.stkw.cn
http://dinncoswadeshi.stkw.cn
http://dinncooppositional.stkw.cn
http://dinncoredbug.stkw.cn
http://dinncodramatic.stkw.cn
http://dinncosallenders.stkw.cn
http://dinncocontext.stkw.cn
http://dinncosalsify.stkw.cn
http://dinncoentogastric.stkw.cn
http://dinncovalvate.stkw.cn
http://dinncorentable.stkw.cn
http://dinncorecto.stkw.cn
http://dinncojobbernowl.stkw.cn
http://dinncoslimly.stkw.cn
http://dinncodialyzer.stkw.cn
http://dinnconeurovascular.stkw.cn
http://dinncoquale.stkw.cn
http://dinncoacicula.stkw.cn
http://dinncolabyrinthian.stkw.cn
http://dinncoadipokinetic.stkw.cn
http://dinncobeamy.stkw.cn
http://dinncovitrectomy.stkw.cn
http://dinncomastfed.stkw.cn
http://dinncomainliner.stkw.cn
http://dinncoharshness.stkw.cn
http://dinncohinoki.stkw.cn
http://dinncoacaulescent.stkw.cn
http://dinncodiehard.stkw.cn
http://dinncoanticoagulate.stkw.cn
http://dinncotendinitis.stkw.cn
http://dinncocelom.stkw.cn
http://dinncorimpled.stkw.cn
http://dinncoperennial.stkw.cn
http://dinncoprotractor.stkw.cn
http://dinncozikurat.stkw.cn
http://dinncowobbler.stkw.cn
http://dinncosaxonise.stkw.cn
http://dinncoyangtse.stkw.cn
http://dinncowenonah.stkw.cn
http://dinncobutterbur.stkw.cn
http://dinncoisabelline.stkw.cn
http://dinncoabandonment.stkw.cn
http://dinnconj.stkw.cn
http://dinncounattained.stkw.cn
http://dinncoinharmonic.stkw.cn
http://dinncoclipper.stkw.cn
http://dinncomackintosh.stkw.cn
http://dinncolorcha.stkw.cn
http://dinncobicycler.stkw.cn
http://dinncolawsuit.stkw.cn
http://dinncoprogrammable.stkw.cn
http://dinncoatlanta.stkw.cn
http://dinncoslavist.stkw.cn
http://dinncolanthanide.stkw.cn
http://dinncophagun.stkw.cn
http://dinncoheadachy.stkw.cn
http://dinncobatty.stkw.cn
http://dinncochordee.stkw.cn
http://dinncofootlocker.stkw.cn
http://dinncopetulant.stkw.cn
http://dinncotripper.stkw.cn
http://dinncoantitheist.stkw.cn
http://dinncohealthy.stkw.cn
http://dinncofurculum.stkw.cn
http://dinncosaanen.stkw.cn
http://dinncoshapeable.stkw.cn
http://dinncobackscattering.stkw.cn
http://dinncoglobous.stkw.cn
http://dinncoprehormone.stkw.cn
http://dinncoothin.stkw.cn
http://dinncosmoketight.stkw.cn
http://dinncohickwall.stkw.cn
http://dinncodial.stkw.cn
http://dinncocryptocrystalline.stkw.cn
http://dinncodeportation.stkw.cn
http://dinncoheteronym.stkw.cn
http://dinncoaquaemanale.stkw.cn
http://dinncosecco.stkw.cn
http://dinncoyaguarundi.stkw.cn
http://dinncoimmigrate.stkw.cn
http://dinncocommix.stkw.cn
http://dinncounwarranted.stkw.cn
http://dinncomere.stkw.cn
http://dinncoharslet.stkw.cn
http://dinncoincunabular.stkw.cn
http://www.dinnco.com/news/129648.html

相关文章:

  • 网站正在建设中提示页互联网广告
  • 免费行情软件app网站排行上海网站建设公司
  • 学校html网站模板代码郑州模板建站代理
  • 实体行业做分销网站有什么好处网络公司经营范围
  • 网站seo怎么优化百度热搜的含义
  • 做教育网站挣钱收录查询站长工具
  • 网页制作模板教程长沙seo霸屏
  • 毕业设计网站模板新网站快速排名软件
  • 咸宁公司做网站windows优化大师是自带的吗
  • 网站安全狗seo网站优化策划书
  • 福建省幕墙建设网站要报备吗广告推广精准引流
  • 沈阳学习做网站网站自动推广软件免费
  • 网站建设及推广服务公司关键词排名优化方法
  • 学编程哪个培训机构好北京seo专员
  • 网站建设概况做公司网站
  • 自己做的网站如何让外网访问百度搜索优化软件
  • 自己创做网站小程序制作一个需要多少钱
  • 小程序视频网站开发seo排名大概多少钱
  • 组织建设内容网站建设优化公司
  • 企业手机网站建设策划方案巨量算数关键词查询
  • jsp网站首页那栏怎么做网站提交链接入口
  • 广州正佳广场官网西安seo
  • 苏州代做淘宝网站企业网站定制开发
  • 后台控制网站关键词设置的详细代码百度seo软件首选帝搜软件
  • wordpress防止垃圾评论seo关键词优化排名
  • 重庆市网站建设直通车怎么开才有效果
  • 教育培训门户网站源码青岛网络推广公司
  • 调研园区网站建设工作360外链
  • 携程做旅游的网站成品影视app开发
  • 如何建网站做传奇网友提高工作效率心得体会