首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
ai大模型
订阅
Jkwen2024
更多收藏集
微信扫码分享
微信
新浪微博
QQ
4篇文章 · 0订阅
无任何数学公式理解大模型基本原理
前言 为什么我们使用chatgpt问一个问题,回答时,他是一个字或者一个词一个词的蹦出来,感觉是有个人在输入,显得很高级,其实这这一个词一个词蹦不是为了高级感,而是他的实现原理决定的,下面我们看下为什
零基础入门AI:一键本地运行各种开源大语言模型 - Ollama
什么是 Ollama? Ollama 是一个可以在本地部署和管理开源大语言模型的框架,由于它极大的简化了开源大语言模的安装和配置细节,一经推出就广受好评,目前已在github上获得了46k star。
一个实战demo,让你理解"前端+后端+AI"的全栈项目如何实现
在数字时代的浪潮下,前端、后端和人工智能(AI)的融合发展已经成为技术创新和应用的关键驱动力。让我们一同踏上这场全栈之旅,探索从前端走向后端和AI的无限可能
揭秘华为研发代码大模型是如何实现的
本篇文章介绍了RAG方案设计以及某产品线Dopra在真实场景中的应用,并总结了一套可快速复制的方法论。