首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
关注
综合
后端
前端
Android
iOS
人工智能
开发工具
代码人生
阅读
排行榜
综合
后端
排行榜
前端
Android
iOS
人工智能
开发工具
代码人生
阅读
全部
人工智能
AIGC
LLM
AI编程
后端
Agent
OpenAI
算法
前端
展开
全部
人工智能
AIGC
LLM
AI编程
后端
Agent
OpenAI
算法
前端
Python
程序员
Trae
MCP
LangChain
深度学习
暂无数据
推荐
最新
ERNIE-4.5-VL:技术解密+应用实战,解锁多模态新场景!
当人工智能进入深度应用的黄金时代,单一模态的局限正被多模态交互彻底打破。文心 ERNIE-4.5-VL 视觉语言模型( ERNIE-4.5-VL-28B-A3B;ERNIE-4.5-VL-424B-A
Python 实战遗传算法——遗传算法导论
受查尔斯·达尔文自然进化理论的启发,一种用于问题求解的最迷人的技术就是被恰当地命名为“进化计算”的算法家族。在这个家族中,最突出且被广泛使用的分支就是遗传算法。本章将开启你掌握这一极其强大且极其简单技
一文理解提示微调(Prefix Tuning/Prompt Tuning/P Tuning)
随着大语言模型(LLM)规模和能力的提升,传统的全参数微调变得成本高昂且不灵活。 提示微调作为一种新兴的参数高效微调方法,通过调整输入提示(Prompt)而非模型权重,实现了更轻量、高效的模型定制。
应对不平衡数据集:MixUp、CutMix与Focal Loss实战指南
在许多真实的机器学习项目中,数据集往往规模较小且存在类别不平衡的问题。例如,在医学影像任务中,可能只有 5% 的扫描样本属于阳性类别。在这样的数据上训练的模型,只需始终预测多数类,就能轻松达到 95%
AI如何一眼看穿鱼群健康?看改进HRNet模型实现水下健康监测
本文旨在解决水产养殖中鱼类健康监测的关键技术难题——高精度鱼类姿态估计。针对鱼类游动快速、姿态多变所带来的挑战,本研究对主流姿态估计网络HRNet进行了针对性改进,提出了名为HPFPE的新模型。 鱼类
5分钟搞懂大模型微调的原始能力退化问题
大家好啊,我是董董灿。 前段时间在星球弄了个“微调”的小专栏。但是因为一些事情耽误了,整体进度已经过半了,最近时间又充裕了,打算把微调的专栏再丰富完善,把这件事情搞完! 本文节选自星球《微调理论与实战
大模型面试题剖析:大模型微调与训练硬件成本计算
在大模型技术浪潮中,“大模型微调&训练硬件成本评估” 已成面试高频考点。从底层逻辑到工程实践,每一处细节都可能成为面试官考察你技术深度的切入点。本文结合多场景知识,拆解核心考点
无需ReID网络!FastTracker凭借几何与场景认知实现多目标跟踪新SOTA,助力智慧交通更轻更快
无需昂贵ReID网络,FastTracker凭借几何与场景认知在复杂交通场景中实现精准实时追踪。 在MOT等多项基准中实现SOTA,为智慧交通带来更轻、更快的多目标跟踪新方案。>>更多资讯可加入CV技
D‘RespNeT无人机图像分割数据集与YOLOv8-DRN模型,实时识别入口与障碍,助力灾后救援
该研究提出了D‘RespNeT——一个专为震后搜救任务构建的无人机图像实例分割数据集,包含28个精细标注的类别(如建筑入口、碎片、人员)。基于此数据集,团队开发了YOLOv8-DRN模型,该模型在保持
一个AI看懂所有医学影像!MedSAM打造医学图像分割的“全能助手”
你是否想过,当医生需要查看你体内的影像(比如X光、MRI或CT扫描)时,他们得到的其实是一幅复杂的内部景观图?而其中最关键的,往往是从这幅图中精确找出特定区域的过程。 医学图像分割的重要性 想象一下,
MCP — 让AI变得更“百搭”
想象你有一部超级智能的手机(就像LLM大语言模型),它能聊天、写代码、回答问题,但有个缺点——不能直接连WiFi、用蓝牙,也读不了你的相册。这时候,你需要一个“万能转接器”,让手机能连接各种设备和服务
理想汽车智驾方案介绍 2|MindVLA 方案详解
理想汽车智驾方案 MindVLA 主要包括了空间智能模块、语言智能模块、动作策略模块、强化学习模块等
基于视觉的果园无人机导航:一种基于干预模仿学习与VAE控制器的真实世界验证
导读 本文提出并验证了一种基于变分自编码器(VAE)和模仿学习的无人机自主导航方案,旨在解决果园环境中因障碍物复杂和GPS信号缺失导致的导航难题。 近年来,无人机(UAV)技术取得了显著进展,特别是在
大模型面试题剖析:Pre-Norm与Post-Norm的对比及当代大模型选择Pre-Norm的原因
在深度学习面试中,Transformer模型的结构细节和优化技巧是高频考点。其中,归一化技术(Normalization)的位置选择(Pre-Norm vs. Post-Norm)直接影响模型训练
一文弄懂MOE
随着大语言模型(LLM)参数规模从十亿级增长到千亿、万亿级,如何在保持性能的同时节省算力,成为研究的核心问题。MoE(Mixture of Experts, 混合专家) 架构正是在这种背景下应运而生。
一文搞懂微调技术的发展与演进
我们会先用一个现成的强大模型,然后根据自己的需求对它做一些“微调”,让它更懂我们的领域、更符合我们的业务和价值观。微调并不是一开始就有这么多方法,它的技术路线也是一步步发展起来的。
目标检测模型评估金标准:mAP全解读,Coovally助你高效调参!
如果你曾经训练过目标检测模型(如YOLO、Faster R-CNN或SSD),那么mAP(平均精度均值)一定不会陌生。作为评估目标检测器的黄金标准,它背后隐藏着哪些秘密?为什么研究人员对它如此推崇?今
征程 6X | 常用工具介绍
征程 6X 常用工具介绍,包括采集/设置系统信息的工具集,设置开发板 MAC 地址工具,BPU 使用率测试工具等
LLM 中评价指标与训练概要介绍
在【LLM】LLM 中增量解码与模型推理解读一文中对 LLM 常见名词进行了介绍,本文会对 LLM 中评价指标与训练概要进行介绍
huggingface入门:Tokenizer 核心参数与实战指南
在自然语言处理(NLP)工程实践中Tokenizer的作用是将文本变成模型能够读懂的输入,今天我们就从参数视角拆解 Tokenizer,搞懂它的工作逻辑,以及如何根据任务灵活配置。