欢迎来到“魔搭社区”体验LLM模型大开发

795 阅读5分钟

今天来认识一下魔搭社区。在中国,作为国内最大的开源大模型社区,正成为开发者和研究人员探索和应用LLM的重要平台。这让我们可以从外网闭源模型脱离出来。这也成为中国领先的AI模型开发平台,给我们构建了一个开放共享的大型语言模型生态系统。如果是自己电脑使用还得是有英伟达显卡再加几T的内存,但是现在魔搭平台会在线的集成开发环境(IDE),你可以在浏览器中直接编写和运行代码

魔搭社区界面

image.png

功能

  • 开源大模型:魔搭社区汇聚了大量的开源大模型,这些模型覆盖了从基础语言理解到高级文本生成等多个应用场景。
  • 云端AI环境:为开发者提供了一个便捷的云端开发环境,支持多种深度学习框架和工具。
  • 专业文档与教程:社区提供了详尽的技术文档和实践教程,帮助开发者快速上手LLM开发。
  • 活跃的社区交流:通过论坛、在线研讨会等形式,促进了社区成员之间的交流与合作。

先介绍LLM的基本概念与技术特点

大型语言模型是通过大量的文本数据训练而成的神经网络模型,它们能够捕捉语言中的深层语义和上下文信息。主要技术特点包括:

  • 参数规模:现代LLM的参数规模可达数十亿乃至更多,如魔搭社区中的一些模型参数量达到72亿,这使得模型具有更强的表达能力和泛化能力。
  • 训练成本:由于模型复杂度高,训练成本也相应增加。例如,OpenAI等公司的闭源模型虽然性能强大,但使用成本较高。
  • 开源选项:除了商业化的解决方案外,还有许多优秀的开源项目可供选择,比如魔搭社区提供的Qwen、Kimi等模型。
  1. 进入模型库选择一种模型,包括自然语言处理(NLP)模型:如情感分析、文本分类、命名实体识别等; 计算机视觉(CV)模型:如图像分类、目标检测等语音识别和合成模型:如语音转文字、文字转语音等【下面我用情感分析模型进行演示】
1.png 2. 创建一个实例,可以查看模型详情,然后就可以启动实例,魔搭平台会在线的集成开发环境(IDE),你可以在浏览器中直接编写和运行代码。两个CPU环境,选第一个进行演示 2.png 3.进入实例,open一个文件就可以进行大模型情感分析了 image.png image.png

情感分析实例进行开发

可以通过以下步骤实现:

  1. 选择合适的模型:根据具体的业务需求选择合适的预训练模型。例如,对于中文情感分析任务,可以选择damo/nlp_structbert_sentiment-classification_chinese-base模型。
  2. 搭建开发环境:利用魔搭社区提供的云端AI环境,安装必要的库和工具,如transformers库。
  3. 加载模型:使用pipeline函数加载模型,指定任务类型和模型名称。
  4. 应用模型:将模型应用于实际任务,如文本分类、情感分析或摘要生成等。
  5. 评估与优化:对模型的表现进行评估,并根据需要进行微调优化。

示例代码:使用LLM进行情感分析


from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks

# 加载情感分析模型
sentiment_analysis_pipeline = pipeline(task=Tasks.text_classification, model='damo/nlp_structbert_sentiment-classification_chinese-base')

# 进行情感分析
text = "遥遥领先,遥遥领先,遥遥领先"
result = sentiment_analysis_pipeline(text)
print(result)
image.png

从一段文字中提取关键信息并生成摘要

    from transformers import pipeline
    from nodelscope.utils.constant import Tasks
     # 确保 Tasks 类中定义了 extractive_summarization 任务
    class Tasks:
        extractive_summarization = "summarization"
    
    # 创建 Pipeline
     p = pipeline(
        task=Tasks.extractive_summarization,
        model='damo/nlp_ponet_extractive-summarization_doc-level_chinese-base'
    )
    # 测试,result里面是一段很长的文段
    result = p(documents='移动端语音唤醒模型,检测关键词为“小云小云”。模型主体为4层FSMN结构,使用CTC训练准则,参数量750K,适用于移动端设备运行。模型输入为Fbank特征,输出为基于char建模的中文全集token预测,测试工具根据每一帧的预测数据进行后处理得到输入音频的实时检测结果。模型训练采用“basetrain + finetune”的模式,basetrain过程使用大量内部移动端数据,在此基础上,使用1万条设备端录制安静场景“小云小云”数据进行微调,得到最终面向业务的模型。后续用户可在basetrain模型基础上,使用其他关键词数据进行微调,得到新的语音唤醒模型,但暂时未开放模型finetune功能。')
    print(result)

image.png

前后端为什么还学LLM?

未来,LLM将在以下几个方面发挥重要作用:

  • 智能搜索:通过分析用户情感,提供更加个性化的搜索结果。
  • 代码生成:自动生成代码片段,提高开发效率。
  • 自动化办公:自动填写表单、检测日志异常等,简化日常工作流程。
  • 移动设备:小型化模型的发展使得在移动设备上部署复杂的AI应用成为可能,如语音助手和自动驾驶汽车。