首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
人工智能
华山风清扬
创建于2024-11-27
订阅专栏
我的人工智能学习笔记
等 5 人订阅
共46篇文章
创建于2024-11-27
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
在 Word 里编写 Visual Basic 调用 DeepSeek API
本文通过分步解析 Visual Basic 代码,展示了如何构造 JSON 请求、使用 MSXML2.XMLHTTP 发送 HTTP POST 请求,并根据响应状态码返回结果。CallDeepSeek
Transformer 的原理解析与人工智能应用
在深度学习的浩瀚图景中,Transformer 是一颗璀璨的明星。自从 Vaswani 等人在《Attention is All You Need》中提出这一架构,它便迅速成为自然语言处理领域的核心
如何解决大模型生成内容的准确性问题?
自动 2022年 ChatGPT 3.5 发布后,人工智能技术飞速演进,AI 技术在生成式模型方面展现出了惊人的潜力。 但在实际应用中,生成内容的准确性常常受到多种因素影响,导致用户体验不佳,也就是很
人工智能领域的 Scaling Law 详解
Scaling law(扩展定律)在人工智能(AI)领域是一个至关重要的概念,尤其在深度学习和大规模语言模型的训练中,这一概念揭示了模型性能与规模之间的关系。Scaling law 通过建立参数、数据
使用 Trae 辅助,将 DeepSeek 集成到 Word 文档里
有朋友问我,他工作的公司不能访问外网,想在 Microsoft Word 里访问公司本地部署的 DeepSeek API,问具体应该如何操作? 将 Word 与 DeepSeek 集成,我想到的一种思
使用 Trae 快速开发能生成二维码的 SAP UI5 应用
笔者昨天收到一个朋友的求助,需求是在 SAP UI5 应用里生成二维码。 这个需求笔者也没做过。但是,现在不是有 Trae 了吗?遇事不决问 Trae. 迅速写好指令: Trae 吭哧吭哧地就开始创建
使用 Trae 辅助开发具有 HTTP 通信功能的微信小程序
作为一个后端开发,我对前端那些语法稀奇古怪的界面源代码是有些畏惧的,Trae 让我不用和前端代码死磕。
使用 Trae 快速上手微信小程序开发
笔者最近需要为孩子班级开发一款小程序,用来统计孩子们每周的操行分数。 笔者只有后端开发经验,对于微信小程序的开发是一窍不通的。但是没关系,有了 Trae 的帮助,我们可以快速打破现有的技术壁垒,快速上
利用 Trae 开发平面直角坐标系的教学动画
最近儿子数学课已经进入平面解析几何的学习了。因为小朋友现在的空间想象能力还处于培养阶段,所以我想尽可能使用一些可视化的工具来辅助他理解一些数学概念。 来看一道 B 卷题目:将点 p(-2,4) 绕点O
使用 Trae 开发一个演示勾股定理的动画演示
笔者儿子最近数学课在学勾股定理。为了帮助他更深刻地理解这个定理,我想让 Trae 帮我开发一个简单的动画效果,演示勾股定理的工作原理。 打开 Trae,使用的指令很简单: Trae 帮我生成了一个 s
不会编程也能开发 Web 应用,小学生都能学会的 AI IDE
2025年2月27日,字节跳动正式宣布,旗下首款 AI 集成开发环境(IDE)——Trae AI IDE,将于近期在中国内地市场正式发布。这款 AI IDE 实际体验如何呢?来看笔者儿子的使用经历。
关于 ollama run deepseek-r1:7b 命令下载模型的 url
在命令行中输入 ollama run deepseek-r1:7b 后,Ollama 会自动检测本地是否已有该模型缓存,若没有则联网下载。关于下载过程的具体服务器地址,其实并不是直接在命令行输出的,而
深度解析 ollama 框架中的 deepseek-r1:7b 模型架构与应用实践
模型命名规范拆解 当我们观察 ollama 框架的模型下拉菜单时,deepseek-r1:7b 这个标识符实际上包含了多个关键信息维度。通过拆解式分析可以发现,该命名遵循了当前大型语言模型领域普遍采用
大语言模型的模型蒸馏:概念、方法与应用
在人工智能领域,大语言模型(LLM)的出现带来了革命性的变革,例如 GPT 系列、BERT、T5 等模型展示了卓越的自然语言处理(NLP)能力。然而,这些模型往往规模庞大,参数量高达数十亿,计算成本极
大语言模型中的 RLHF:强化学习如何优化 AI 交互体验
近年来,大语言模型(Large Language Model, LLM)取得了突破性的进展,GPT-3、GPT-4 以及其他基于 Transformer 架构的模型在自然语言处理(NLP)任务中展现出
Transformer 的原理解析与人工智能应用
在深度学习的浩瀚图景中,Transformer 是一颗璀璨的明星。自从 Vaswani 等人在《Attention is All You Need》中提出这一架构,它便迅速成为自然语言处理领域的核心基
OpenAI o1-preview 模型技术架构与实现原理解析
OpenAI 的 o1-preview 模型是基于最新的人工智能研究成果和技术,设计用于在各种领域表现出色,包括物理、化学、生物、数学以及编程等复杂任务。本文将详细解析 o1-preview 模型的技
深入解析 LangChain 的核心理念与实际应用
LangChain 是一个旨在帮助开发者更高效地构建与大语言模型(LLMs)交互的框架。它的目标是通过提供一系列工具与模块化功能,使得开发者能够更加轻松地在复杂应用场景中管理语言模型的能力。这种框架特
为什么 BERT 仅使用 Transformer 的编码器部分,而不使用解码器部分?
最近笔者在啃 Transformer 的书籍,其中有个结论: 这本书只讲了结论,没有讲原因。于是笔者做了一番功能,去查了一些资料进行学习。 在自然语言处理领域,BERT (Bidirectional
深入探讨特征维度的重要性与实际应用
在机器学习与深度学习中,特征维度是一个非常关键的概念。简单来说,特征维度指的是数据样本中每个输入向量包含的独立信息单元的数量。这些单元是从原始数据中提取出来的特征,用于描述样本的属性或特性。 从数学角
下一页