首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
Sicchasia
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
2
文章 2
沸点 0
赞
2
返回
|
搜索文章
最新
热门
Open WebUI大模型对话平台:适配Ollama的实践与探索
随着人工智能技术的快速发展,大模型对话平台在各个领域的应用越来越广泛。本文介绍了Open WebUI大模型对话平台如何适配Ollama模型,并提供了实际操作建议,帮助读者更好地理解和应用相关技术。
基于Fluid与JindoCache的大模型训练加速实践
本文介绍了如何使用PaddlePaddle的Fluid框架与JindoCache分布式缓存系统,通过优化数据加载和计算流程,实现大模型训练的加速。
利用预训练模型优化大模型训练
本文介绍了如何利用预训练模型优化大模型的训练过程,包括数据预处理、模型选择、预训练、微调、训练评估以及部署应用等步骤,旨在帮助读者更好地理解和应用预训练模型,提高大模型的训练效率和性能。
利用大模型训练提升AI性能
在人工智能领域,大模型训练已成为提升AI性能的关键。本文将探讨如何利用大模型训练提升AI性能,并介绍一些实用的方法和技巧。
LoRA微调语言大模型的实用技巧与实践
随着人工智能技术的不断发展,大型语言模型在各个领域的应用越来越广泛。然而,大型语言模型的训练成本高昂,且难以适应不同领域的具体需求。
大模型微调方法总结:LoRA, Adapter, Prefix-tuning, P-tuning, Prompt-tuning
随着自然语言处理(NLP)技术的不断发展,大模型微调(finetune)方法成为了提高模型性能的关键手段。本文将对LoRA、Adapter、Prefix-tuning、P-tuning和Prompt-
GLM国产大模型训练加速:高效性能与成本优化的实践
本文将介绍GLM国产大模型在训练过程中的性能优化,通过OneFlow框架实现的高效训练和显存节省,使得模型训练成本大大降低,为深度学习领域的实际应用提供了新的突破。
AI绘图新选择:Fooocus工具发布,小显存助力大模型运行
随着AI技术的快速发展,图像生成软件成为了创作者们的得力助手。即使在仅有4GB显存的设备上,Fooocus也能顺畅运行SDXL大模型,为创作者们带来了全新的绘图体验。
LoRA微调语言大模型的实用技巧
随着人工智能技术的不断发展,语言大模型成为了自然语言处理领域的研究热点。LoRA微调技术作为一种轻量级的微调方法,能够有效提升语言大模型在特定任务上的性能。
大模型微调提升AI应用性能
本文将介绍一种有效的技术手段——大模型微调,通过对其原理、方法和实际应用案例的详细解析,帮助读者深入了解并掌握这一关键技术,提高AI应用的性能。
下一页
个人成就
优秀创作者
文章被点赞
11
文章被阅读
195,412
掘力值
5,537
关注了
1
关注者
7
收藏集
0
关注标签
3
加入于
2023-05-05