首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
Paramita
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
1
文章 1
沸点 0
赞
1
返回
|
搜索文章
最新
热门
AI创作新时代:视觉生成模型的技术演进
本文回顾了视觉生成模型的发展历程,从VAE、GAN、DM到DiT,见证了从概率建模、对抗生成到噪声去噪机制的演变。
多模态模型Transformer架构:从视觉到融合
本文探讨了从计算机视觉模型到现代多模态模型(如CLIP、ViLT)的演变过程,重点分析了Transformer架构在其中的关键应用。
LLM的技术底座:Transformer架构
本文深入解析了 Transformer 架构的核心组成与工作流程,重点介绍了其内部机制,包括自注意力、多头机制、位置编码、前馈网络等关键模块,并详细剖析了 Decoder 的结构与运行方式。
LLM的魔法揭秘:神经网络
神经网络的原理:神经元模型、单层神经网络、多层神经网络、深层神经网络; 机器学习:损失函数、梯度下降+反向传播 LLM中的神经网络;
LLM 是怎么练成的:语言模型训练范式
大语言模型的训练过程: 预训练:学习海量文本数据,掌握语言的基本结构与语义; 监督微调(SFT):利用标注数据集使模型理解并执行特定指令; 强化学习(RLHF):让模型懂人类偏好,输出高质量回答
React 18:并发渲染
了解React架构的演变过程,以及React 18并发渲染的机制和新特性,包括useTransition、useDeferredValue和Suspense等。
Koa源码解读
Koa 的源码非常简洁,其核心主要由以下4部分组成:Application、Context、Request、Response。
实战:使用Ollama + Node搭建本地AI问答应用
基于Ollama + Node + socketIO技术栈,搭建一个基于本地大模型服务的简易AI聊天应用。
前端工程化与质量保障:工程质量优化
前端工程质量优化: 构建优化:构建分析,解析优化、并行构建、缓存; 体积优化:体积分析,公共代码提取、TreeShaking等; 性能优化:性能分析,CDN加速,按需加载; 服务端渲染; 预编译优化;
前端工程化与质量保障:资源保障
前端页面资源保障机制: 资源防劫持保障:标记过滤法、CSP配置、使用 HTTPS、防止嵌套; 资源加载异常监控和处理:资源重试、多域名切换容灾方案、资源离线化;
下一页
个人成就
文章被点赞
15
文章被阅读
5,648
掘力值
546
关注了
8
关注者
3
收藏集
0
关注标签
0
加入于
2021-01-25