LLLMs大模型发展的节奏
作为学习大模型开发的小白,不懂算法,只学应用的程序员,测试过ChatGLM-4、gpt-4模型等。
从今年开始接触到大模型这阵春风,这半年的学习过程有点眼花缭乱,大模型的百花齐放,直到如果出现一个大模型新闻,只是点进去看一眼谁家出的,很难霸榜热搜了。
从最初的大模型会关注他聊天模型、补全模型、Embedding模型、他的支持的上下文token、应用场景等, 这个时候仅使用大模型能力去做一件复杂的事(通过思维链路控制),实际上基于一个prompt提示词工程。最初效果还行,到后面发现效果越来越不好,表现在思维、时效、幻读等。后面通过一些控制逻辑去矫正,效果并不明显。只能归结于大模型本身效果不如以前(chatGLM-4)。
继续新的探索之路
大语言模型开发框架映入眼帘,当然框架也有大大半年了,只是没有发现,对比了langchain、LlamaIndex等,对于大模型通用开发langchain还是毕竟合适的。学习langchain的使用,通过langchain快速构建智能体。学习的过程中更多的了解到了大模型现阶段关注点已转移到智能体。
github项目github.com/liuyanqun08…