大模型应用技术是一项重实操轻理论的技术
“ 做技术很多时候想不明白,这时多做做可能就明白了。” 【AI大模型教程】
现在基于大模型的人工智能技术发展的如火如荼,而且随着今年人工智能进入应用元年,人工智能开始进入各行各业;但由于技术本身的限制,因此很多应用场景大都处于模式阶段。
所以,到底应该怎么学习和使用大模型,特别是随着一些新技术的出现,大家都在摸着石头过河。
但不管怎么说,作为一门新技术其和其它技术没有本质上的区别,都是更加注重实操,理论作为辅助。
大模型技术的实践性
从作者最近一段时间从事大模型应用技术开发以来,最大的感受就是与大模型相关的技术理论真的很有限;但其实际操作又真的很复杂。
我们在学习一门大模型技术的时候,你会发现很多理论都是我们生活中经常用到的,有些即使没遇到过但也都见过;特别是RAG检索增强生成——一直说是一个入门五分钟的技术。
而我们在刚开始学习RAG技术的时候,确实发现其入门特别快,不论是理论和实操都很简单;但等到我们真正深入理解RAG技术时,并真正使用RAG技术打造一个真实可靠的业务场景时才发现,是我们想的太简单了。
作者在之前的文章中曾不止一次的强调过,从应用的角度来看大模型的本质就是一个无所不能的“人”;它会写会画懂设计,又会写代码做产品。但是这个“人”也不是神仙,它也会犯错,也会抽风。
而且为了更好的利用模型的能力,因此提出了Agent智能体的概念,简单来说就是让大模型这个“人”具备了使用工具的能力。而这和我们哲学上所说的人和动物的根本区别是能够制造和使用工具,这两者是多么的类似。
但是让大模型具备使用工具的能力说起来很简单,但做起来就不是那么简单了;比如说怎么让模型使用工具?工具的存在形式是什么样的?如果出现问题了怎么办?等等一系列问题。
然后工具虽然能够帮我们解决问题,但在不同的场景下我们需要使用不同的工具;而这就需要大模型具备任务拆解和规划的能力,把一个复杂的问题拆分成多个具有可行性的子问题,然后再使用工具一个一个解决。
但我们都知道,在真实的环境中,哪怕你做了万全的准备,也很难保证意外的发生;原因可能是当时对问题认识不够深刻导致没有规划好,也可能是因为一些外部原因导致出现问题。
对智能体来说也是一样,模型在对问题进行拆解规划之后,在执行的过程中如果出现问题或者说没有出现问题但结果和预期不同;这时大模型能否根据问题和错误的结果进行动态调整,并重新制定任务,并最终完成任务。
所以说,从根本上来说,大模型应用技术还是从人类的哲学角度出发;把人类解决问题的能力交付给模型,让模型具备人类处理复杂问题的能力。
但这些处理问题的经验,我们很多人在很小的时候就知道了;但可能用了一辈子的时间都没做到。
纸上得来终觉浅,觉知此事要躬行;学习和使用大模型技术要记住一个原则:多实践,少思考;很多想明白的问题可能很难做明白。