LangChain百万代码全解析 这个模型胃口很大!

小试牛刀,很懂《三体》恋爱脑云天明!

在议论AI的代码解析才干之前,咱们无妨先看一下它在处置人造言语文本方面的体现。为了测试GLM-4-Long的了解力,我选择让它尝试阅读并了解我最爱的科幻小说-94万字的《三体》。

抽取概括才干

作为一个具有弱小了解才干的模型,必需具有从复杂的文本中抽取出关键的消息,并启动总结。当一次性性输入整本小说,模型能有怎样的体现呢?

我选择以《三体》中的恋爱脑云天明为例,咱们可以让模型梳理出云天明的团体故事,并依照期间线启动概括。

结果剖析:

高低文串联与推理才干

除了消息抽取,一个低劣的长文本大模型还须要具有弱小的高低文串联与推理才干。假定咱们提出一个极其的假定:假设僵尸吃掉了云天明的脑子,三体的故事将会怎样开展?经过这样的假定,模型可以依据已有的故事情节推测出后续的开展方向。

结果剖析:不得不说,相比期间抽取义务上的精彩体现,在经过长文本基础上进一步推理思索的义务中,模型体现得则没有那么冷艳。

不只能读小说,GLM-4-Long解析代码名目才干几何

用模型读小说,只是为了一探模型才干的终究。真正能验证模型才干的,还得是实在的消费义务。接上去整活完结,让小智率领大家将GLM-4-Long用到代码开发中!

思索到代码隐秘的要求,接上去小智将用LangChain代码用作示例演示。LangChain官方的AI助手是基于RAG成功的,如今既然咱们领有了超强高低文的才干,不如咱们自己做一个。

预备上班,LangChain-Core代码一扫而空

RAG(检索增强生成)技术只管弱小,但在某些复杂的代码解析义务中,官方提供的LangChain助手并不能齐全满足需求。因此,咱们选择自己入手,应用GLM-4-Long打包整个名目的代码,并启动深度解析。
import osdef integrate_python_files(directory, output_file, identifier='---'):# 确保输入文件是空的open(output_file, 'w', encoding='utf-8').close()# 遍历目录for root, dirs, files in os.walk(directory):for file in files:if file.endswith('.py'):# 构建文件的完整门路full_path = os.path.join(root, file)# 失掉文件相关于主目录的相对门路relative_path = os.path.relpath(full_path, directory)# 读取文件内容with open(full_path, 'r', encoding='utf-8') as f:file_content = f.read()# 写入输入文件with open(output_file, 'a', encoding='utf-8') as out_f:# 减少标识符和文件的相对门路out_f.write(f"{identifier} {relative_path}\n")out_f.write(file_content)out_f.write("\n")# 减少一个空行作为分隔# 调用函数directory_path = 'langchain/libs/core/langchain_core'# 交流为你的目录门路output_file_path = 'integrated_code.txt'# 交流为你的输入文件门路integrate_python_files(directory_path, output_file_path, identifier='=======')

GLM-4-Long 轻松帮你打造 LangChain AI 助手

关于一个完整的名目,GLM-4-Long在没有额外文档的状况下,能否能准确了解并解析名目的配置和组件呢?咱们将其运行于一个实践的代码名目,看看它能给出怎样的剖析。

疑问1、名目关键做了什么?成功了什么配置?

经过将名目代码输入GLM-4-Long,咱们宿愿模型能够给出名目的全体概览,包括其关键配置和成功的指标。

结果剖析:

疑问2、概括LangChain外围组件和概念

LangChain是一个用于构建言语模型运行的框架,蕴含多个外围组件。咱们让GLM-4-Long对这些组件启动概括,并解释它们在名目中的作用。

结果剖析:

疑问3、请以代码模式输入经典的LCEL经常使用案例

无了解了名目和组件之后,咱们进一步要求GLM-4-Long展现一个经典的LCEL( LangChain Expression Language)经常使用案例,以便读者更好地理解LangChain的运行场景。

结果剖析:

疑问4、上强度,经过Multi Query构建一个RAG案例,要求兼并输入文档里的延续片段

在惯例的解析义务之外,咱们让GLM-4-Long处置一个高难度义务:经过Multi Query(多查问)构建一个RAG案例,并兼并输入文档中的延续片段。这不只测试了模型的了解才干,还考验了它的分解与输入才干。

结果剖析:

只管没能正确成功高阶的代码开发案例,但在如此便捷的提醒下,模型的体现依然不错。假设真的成功了需求,或者广阔程序员好友们真的得担忧失业疑问了。

您可能还会对下面的文章感兴趣: