看了介绍,internLM确实很厉害,与其他模型有来有回。
大海捞针实验:给一段很长的背景知识,模型是否能定位到这里面的任何位置的任何信息。
比如,直接给本书,这书的内容很多,就是很长的背景知识。模型能在这里找到任何东西。普通的都是RAG,切分一下内容,向量化,再把问题向量化,再去匹配,然后再去问,这样的去跨文档解决问题就可能效果不尽人意。
这是全路线开源
Miner U对pdf提取就效果很好。
mindsearch会将思考的过程在右边展示出来,根据不是抽盲盒这点很强。
茴香豆不仅可以RAG,还可以用知识图谱,有逻辑可解释。