首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
猫咪老师
掘友等级
学生
|
北京邮电大学
Coding is all.
获得徽章 10
动态
文章
专栏
沸点
收藏集
关注
作品
赞
125
文章 100
沸点 25
赞
125
返回
|
搜索文章
赞
文章( 100 )
沸点( 25 )
GPT 调教完全指南
想要成为 GPT 调教大师?读本文就够了! 前Mozilla、百度工程师倾力呈现,通过 30+ 个正反例子深入讲解 GPT 所需的各种基本知识和最佳实践
Hugging News #0918: Hub 加入分类整理功能、科普文本生成中的流式传输
每一周,我们的同事都会向社区的成员们发布一些关于 Hugging Face 相关的更新,包括我们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,我们将其称之为「Hugging Ne
使用 FHE 实现加密大语言模型
近来,大语言模型 (LLM) 已被证明是提高编程、内容生成、文本分析、网络搜索及远程学习等诸多领域生产力的可靠工具。 大语言模型对用户隐私的影响 尽管 LLM 很有吸引力,但如何保护好 输入给这些模型
Hugging News #0925: 一览近期的新功能发布
每一周,我们的同事都会向社区的成员们发布一些关于 Hugging Face 相关的更新,包括我们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,我们将其称之为「Hugging Ne
在 SDXL 上用 T2I-Adapter 实现高效可控的文生图
T2I-Adapter 是一种高效的即插即用模型,其能对冻结的预训练大型文生图模型提供额外引导。T2I-Adapter 将 T2I 模型中的内部知识与外部控制信号结合起来。我们可以根据不同的情况训练各
AudioLDM 2,加速!
AudioLDM 2 由刘濠赫等人在 AudioLDM 2: Learning Holistic Audio Generation with Self-supervised Pretraining 一
机器学习即代码的时代已经到来
2021 版的 《人工智能现状报告》 于上周发布。Kaggle 的 机器学习和数据科学现状调查 也于同一周发布了。这两份报告中有很多值得学习和探讨的内容,其中一些要点引起了我的注意。 无可否认,以机器
Hugging Face 分词器新增聊天模板属性
太长不看版 现存的聊天模型使用的训练数据格式各各不同,我们需要用这些格式将对话转换为单个字符串并传给分词器。如果我们在微调或推理时使用的格式与模型训练时使用的格式不同,通常会导致严重的、无声的性能下降
目前地表最大的训练数据量——百川2丨论文解读
📕3.6万亿token!目前地表开源LLM的最大训练数据量,本文介绍了百川2系列多语言LLM,包括百川2-7B和百川2-13B,拥有大规模的参数和训练数据。
RankVicuna,开源LLM Reranking的一大步丨论文解读
📕RankVicuna,能够在zero-shot情况下执行高质量的列表Reranking,通过使用LLM进行Reranking可以利用其强大的语言理解和生成能力,对搜索结果进行更准确和个性化的排序。
下一页
个人成就
文章被点赞
20
文章被阅读
6,674
掘力值
325
关注了
5
关注者
7
收藏集
1
关注标签
12
加入于
2022-12-17