首页
首页
沸点
课程
直播
活动
竞赛
商城
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
天行无忌
掘友等级
全栈开发
|
DevPoint
技术改变生活、研发构建未来、细节铸造品质
获得徽章 18
动态
文章
专栏
沸点
收藏集
关注
赞
340
文章 283
沸点 57
赞
340
返回
|
搜索文章
最新
热门
使用 PyTorch、ONNX 和 TensorRT 将视觉 Transformer 预测速度提升 9 倍
本文介绍了四种策略,通过使用 ONNX、TensorRT 和多线程等工具使视觉转换器以更快的速度进行预测。
使用 html2PDF 将内容导出为 PDF
将 HTML 转换为 PDF 进行下载是一个比较常见的功能。过去要实现这个功能通常是放在服务端来实现,将文件生成好把链接发送给前端,让前端跳转进行下载。现在对于前端来说,使用库并写几行代码就可以简单的
使用 ExLlamaV2 在消费级 GPU 上运行 Llama 2 70B
Llama 2 70B 明显小于 Falcon 180B。 这是个很有挑战性的问题。高端消费类 GPU(例如 NVIDIA RTX 3090 或 4090)具有 24 GB 的显存VRAM。
REST API 的指纹验证机制
前端或者客户端涉及数据相关的请求都是不安全的,从某种意义上只能通过一些手段降低请求不被容易使用。本来来介绍一种基于 JWT 的指纹机制。 关于 JWT 令牌机制就不详细介绍了。在 JWT 令牌中包含系
基于文本嵌入和 CLIP 图像嵌入的多模态检索
基于 Google colab,了解详细的实现后,按照该笔记本中概述的步骤及其许多示例代码片段来实现鸟类 RAG 管道。
稀疏微调:彻底改变大语言模型的推理速度
最近的研究强调了稀疏微调解决这一挑战的潜力。在特定任务的训练期间,稀疏微调有选择地修剪模型中不太重要的连接。这会导致权重稀疏,从而使模型能够以最小的精度损失运行得更快。
使用 CTransformers 运行 Zephyr-7b、Mistral-7b 模型
在本文中将探索一个能够处理所有量化模型的库 CTransformers ,以及使其与任何LLM一起工作的一些技巧,主要运行模型 Mistral-7B 和 Zephyr-7B Mistral-7B
通过 4-bit 量化加载和运行 Mistral 7B AI
Mistral-7B-v0.1 是对 Llama 2 等其他 小型 大型语言模型的进一步改进,可适应许多场景,可以执行各种自然语言处理任务,例如,它非常适合文本摘要、分类、文本补全、代码补全。
Brain.js 的力量:构建多样化的人工智能应用程序
Brain.js 是一个用于神经网络的 JavaScript 库,能够在 Node.js 中运行或直接在浏览器中运行。该库通过提供易于使用的 API 简化了将 ML 模型集成到应用程序中的过程,允许在
使用 Next.js 和 OpenAI 构建旅行助理
AI Travel 是一个紧凑的概念验证,目的是展示人工智能的潜力。通过利用 OpenAI 的 API 功能,实现一个封装了简单而强大的想法的项目。
下一页
个人成就
优秀创作者
文章被点赞
7,375
文章被阅读
1,254,954
掘力值
40,538
关注了
324
关注者
1,308
收藏集
9
关注标签
41
加入于
2016-10-22