首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
ZHONGJIAFENG7
掘友等级
Web Developer
React追求者,摄影爱好者,旅游爱好者,热爱专研各种问题,热爱生活,广交朋友
获得徽章 6
动态
文章
专栏
沸点
收藏集
关注
作品
赞
148
文章 148
沸点 0
赞
148
返回
|
搜索文章
赞
文章( 148 )
沸点( 0 )
谷歌今日上线基于TensorFlow的机器学习速成课程(免费中文版)
按照该课程所述,读者可能需要初级代数知识,如变量与系数、线性方程组和函数曲线等以理解基本的机器学习模型。此外,读者也需要一些 Python 编程经验,但一般只需要最基础的函数定义、列表/字典、循环和条件表达式等。本课程的实现是基于 Python 和 TensorFlow,不过读…
大模型参数高效微调技术原理综述(二)-BitFit、Prefix Tuning、Prompt Tuning
随着,ChatGPT 迅速爆火,引发了大模型的时代变革。然而对于普通大众来说,进行大模型的预训练或者全量微调遥不可及。由此,催生了各种参数高效微调技术,让科研人员或者普通开发者有机会尝试微调大模型。
零基础理解为什么是Transformer?什么是Transformer?(深入浅出 通俗理解Transformer及其pytorch源码)
Transformer是2017年发表的论文Attention Is All You Need中提出的一种seq2seq模型,本篇文章是对Transformer框架的深入理解。
LLM探索:GPT类模型的几个常用参数 Top-k, Top-p, Temperature
前言 上一篇文章介绍了几个开源LLM的环境搭建和本地部署,在使用ChatGPT接口或者自己本地部署的LLM大模型的时候,经常会遇到这几个参数,本文简单介绍一下~ temperature top_p t
Mac m2部署llama2
LLaMA(Large Language Model Meta AI)是由Meta AI研究人员发布的一个预训练语言模型。其工作原理是将一连串的单词作为输入,并预测下一个单词递归地生成文本
带你了解更全面的 Monorepo - 优劣、踩坑、选型
带你了解更全面的 Monorepo,本文涵盖了 Monoreo 演进、优劣、踩坑、及全面的方案选型,后续计划补充最佳实践~
Monorepo 的这些坑,我们帮你踩过了!
前言 笔者目前所在团队是使用 Monorepo 的方式管理所有的业务项目,而随着项目的增多,稳定性以及开发体验受到挑战,诸多问题开始暴露,可以明显感受到现有的 Monorepo 架构已经不足以支撑日渐
关于现代包管理器的深度思考——为什么现在我更推荐 pnpm 而不是 npm/yarn?
这篇文章给大家分享一个业内一款出色的包管理器——pnpm。目前 GitHub 已经有 star 9.8k,现在已经相对成熟且稳定了。它由 npm/yarn 衍生而来,但却解决了 npm/yarn 内部潜在的 bug,并且极大了地优化了性能,扩展了使用场景。下面是本文的思维导图:…
Mac m2部署caffe
Caffe是一个兼具表达性、速度和思维模块化的深度学习框架,由伯克利人工智能研究小组和伯克利视觉和学习中心开发
神奇的交叉观察器 - IntersectionObserver
在几年前,出现了一个新的api,就是IntersectionObserver,它可以用来自动监听元素是否进入了设备的可视区域之内,而不需要频繁的计算高度来做这个判断,这个api叫做“交叉观察器”。
下一页
个人成就
文章被点赞
205
文章被阅读
41,474
掘力值
1,210
关注了
22
关注者
34
收藏集
3
关注标签
3
加入于
2018-05-07