Llama Index提示OllamaModuleNotFoundError错误的解决方法

501 阅读1分钟

运行Llama Index时提示ModuleNotFoundError: No module named 'llama_index.llms.ollama'

在最近的一个程序中使用到了Llama Index中的Ollama库,但在运行时就一直报ModuleNotFoundError: No module named 'llama_index.llms.ollama',首先,怀疑过是虚拟环境的问题,倒腾了很久没有解决,然后问AI回答说重新安装llama_index库,也重新安装了,更新了该库依旧报错。最后查询了一下官网的文档,发现如果通过pip install llama_index这样安装的话,是默认不包含ollama的,这个包只是一个核心入门包,其他的包是需要自己安装的,这个包只包含了:

  • llama-index-core

  • llama-index-llms-openai

  • llama-index-embeddings-openai

  • llama-index-program-openai

  • llama-index-question-gen-openai

  • llama-index-agent-openai

  • llama-index-readers-file

  • llama-index-multi-modal-llms-openai

    如果需要使用到ollama还需要明确使用命令pip install llama-index-llms-ollama来安装,解决。 同理,如果需要使用huggingface的embedding也需要单独安装pip install llama-index-embeddings-huggingface