首页
首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
LLM
掘金安东尼
创建于2024-02-04
订阅专栏
深入探讨PyTorch、TensorFlow框架在大规模语言模型(LLM)领域的应用与优化,为读者提供前沿的技术洞见和实用的开发经验。
等 26 人订阅
共26篇文章
创建于2024-02-04
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
MCP:大模型落地的关键路径 —— 程序员的新机会
现在的大模型落地不理想,真正的落地,应该是落地到各个企业、各个生产环节,想一想:比如在浏览器中命令大模型处理公司 ERP 系统的内容 —— 帮我总结公司会议关键信息、帮我分析一下系统数据趋势。。。
🚀使用 Trae + SSH “急速开发”一个可以公网访问的 web 社区应用!!
废话背景不多说,直接开冲!本文通过一个实践,详细展示如何利用阿里云ECS、Trae SSH以及AI指令,从零开始快速搭建一个技术社区的Python Web应用。
llm落地困境破局?工作流如何成为程序员的「场景化改造」利器
最近有个感触就是:大模型想要落地,还得是依靠工作流。 众所周知,大模型是通用模型,大小公司要么是卖模型的、要么是买模型的,大家发现在专业场景下,大模型处理还是乏力。 融合大模型的重心似乎没有侧重在
说人话有多重要?大模型中的困惑度
我们常看到「困惑度」。它像一把标尺,衡量着AI生成文本的流畅度,决定着模型能否在手机端运行的生死线。 今天本篇将揭开这个指标的面纱
从BERT到DeepSeek的技术跃迁,关于“认知”的革命
2025年初,大模型生态最火的莫过于 DeepSeek 的出圈了! 这家2023年7月才成立的公司,可以说是以一己之力,扭转了主流大模型竞争的方向与局面。 它靠纯强化学习训练框架,硬是把1750亿参数
总被提示“服务器繁忙”?推荐10个DeepSeek R1平台入口
DeepSeek 自今年1月R1模型发布后,日活用户突破4000万,服务器负载远超预期。官方服务的卡顿问题已成为用户痛点,我们常常都会遇到"服务器繁忙,请稍后重试"提示,尤其在工作日高峰期
大模型编码“吊打“低代码的基本逻辑
低代码平台曾像自助火锅拯救厨房小白一样解救过许多人。。。然而,当低代码还在用乐高积木搭房子时,大模型编码已经掏出3D打印机开始造电梯了。。。
何谓 DeepSeek “蒸馏”?
可以说 DeepSeek通过“大模型强化学习+小模型蒸馏”的技术路径,不仅能与OpenAI的正面竞争,更提供了一个新的大模型研发思路。本篇一起来深入了解一下:何谓 DeepSeek “蒸馏”?
DeepSeek再次引爆大模型,扎克伯格称:非常厉害!
最近这些天被 DeepSeek 刷屏了,简而言之, DeepSeek 用超低的成本实现了和 ChatGPT o1 类似的效果,在多项测评中甚至还能领先,且它还是开源的! 这对于当前大模型来说,简直是爆
RAG BM25 算法和重排,微调以外的手段
许多开发者开始通过定制化的调优提升模型性能。 微调虽然能够提高模型的专门性,但也面临问题。。。。本篇介绍RAG BM25 算法和重排技术。
DSPy,让提示语工程师失业!
大模型技术还在快速发展,不得不让人感到惊叹。 前文提到提示语:《# 从 Prompt 到 RAG,从 RAG 到 DSPy》,这体现出当下的大模型提示语仍然脆弱,就像沙子构筑的城堡,很容易被用户瓦解
能不能通俗易懂翻译翻译“梯度下降法是什么”?
前面文章(通过 AutoGrad 来理解 TextGrad ,反向传播中的自动微分)提到梯度了,那么梯度到底是什么?本篇再深入一点来看看。 梯度下降法对于神经网络来说,真的是太重要了
通过 AutoGrad 来理解 TextGrad ,反向传播中的自动微分
DSPy 很牛,它不同于 RAG 的思路(建立本地知识库,给提示语更专业的背景知识),DSPy 做了两件事情,第一是它将大模型的执行分解成为一个流程,也可以称之为“程序”,然后引入优化器,可以微调
RAG+内容推荐,应该如何实践?
最近业务有需求:结合RAG+内容推荐,针对实践部分,做一点探究。 话不多说,直接开冲! 背景 首先回顾一下 RAG 技术定义,它可以结合信息检索和生成模型的混合。简单来说,RAG = 预训练的语言模型
浅析优化文本提示技术 —— TextGrad
TextGrad 是一种通过文本反馈反向传播优化大模型系统的新范式,DSPy 则专注于通过参数化模块和编译器优化实现LM管道的系统化开发和优化。
实战 Claude3 + GO + AWS,深入构建 AIGC 应用
2023 年是大模型底层技术研发‘百团大战’之年,2024 年则是大模型应用赋能千行百业‘百花齐放’之年,当然借助像扣子这样平台,我们可以做到“傻瓜式”创建 AIGC 应用,但是...
再靠近亿点点,RAG 优化策略
书接上回 # 一脚踹开 RAG 大门,深入它所面临的挑战 本篇来看下 RAG 的架构优化策略。。。。。。。
一脚踹开 RAG 大门,深入它所面临的挑战
最近一直在看大模型 RAG 技术相关,前面写过一篇文章,可以看到 RAG 技术还有很多痛点,本篇再深入一步,思考一些解决方法~ 闲话少说,直接开冲
Pytorch 前反馈:在神经网络训练中降低损失
今天继续来聊聊PyTorch 之神经网络 (≧▽≦*)o 冲就完事了~在 PyTorch 界里,构建神经网络的神器就是 torch.nn 包。这个包是大脑的搭建工坊,提供无限可能
PyTorch 揭秘 :构建MNIST数据集
构建MNIST数据集代码完成了训练循环,包括损失计算、反向传播和网络参数的优化。每100个batch打印一次训练过程中的平均损失,方便我们观察模型学习的情况。
下一页