首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
天行无忌
掘友等级
全栈开发
|
DevPoint
技术改变生活、研发构建未来、细节铸造品质
获得徽章 27
动态
文章
专栏
沸点
收藏集
关注
作品
赞
361
文章 302
沸点 59
赞
361
返回
|
搜索文章
赞
文章( 302 )
沸点( 59 )
使用 PyTorch、ONNX 和 TensorRT 将视觉 Transformer 预测速度提升 9 倍
本文介绍了四种策略,通过使用 ONNX、TensorRT 和多线程等工具使视觉转换器以更快的速度进行预测。
使用 ExLlamaV2 在消费级 GPU 上运行 Llama 2 70B
Llama 2 70B 明显小于 Falcon 180B。 这是个很有挑战性的问题。高端消费类 GPU(例如 NVIDIA RTX 3090 或 4090)具有 24 GB 的显存VRAM。
REST API 的指纹验证机制
前端或者客户端涉及数据相关的请求都是不安全的,从某种意义上只能通过一些手段降低请求不被容易使用。本来来介绍一种基于 JWT 的指纹机制。 关于 JWT 令牌机制就不详细介绍了。在 JWT 令牌中包含系
写原创好文,瓜分万元现金大奖 💰 |金石计划
金石计划是针对掘金社区创作者等级 lv4-lv8 的优质原创作者发起的奖金瓜分活动,根据要求完成挑战,即可瓜分现金奖池~掘金社区会在活动中挖掘有潜力、闪闪发光的技术创作者,进行重点扶持,携手大步往前走
基于文本嵌入和 CLIP 图像嵌入的多模态检索
基于 Google colab,了解详细的实现后,按照该笔记本中概述的步骤及其许多示例代码片段来实现鸟类 RAG 管道。
稀疏微调:彻底改变大语言模型的推理速度
最近的研究强调了稀疏微调解决这一挑战的潜力。在特定任务的训练期间,稀疏微调有选择地修剪模型中不太重要的连接。这会导致权重稀疏,从而使模型能够以最小的精度损失运行得更快。
使用 CTransformers 运行 Zephyr-7b、Mistral-7b 模型
在本文中将探索一个能够处理所有量化模型的库 CTransformers ,以及使其与任何LLM一起工作的一些技巧,主要运行模型 Mistral-7B 和 Zephyr-7B Mistral-7B
通过 4-bit 量化加载和运行 Mistral 7B AI
Mistral-7B-v0.1 是对 Llama 2 等其他 小型 大型语言模型的进一步改进,可适应许多场景,可以执行各种自然语言处理任务,例如,它非常适合文本摘要、分类、文本补全、代码补全。
Brain.js 的力量:构建多样化的人工智能应用程序
Brain.js 是一个用于神经网络的 JavaScript 库,能够在 Node.js 中运行或直接在浏览器中运行。该库通过提供易于使用的 API 简化了将 ML 模型集成到应用程序中的过程,允许在
Elasticsearch:生成式人工智能带来的社会转变
作者:JEFF VESTAL 了解 Elastic 如何走在大型语言模型革命的最前沿 – 通过提供实时信息并将 LLM 集成到数据分析的搜索、可观察性和安全系统中,帮助用户将 LLM 提升到新的高度。
下一页
个人成就
优秀创作者
文章被点赞
7,902
文章被阅读
1,569,681
掘力值
44,382
关注了
343
关注者
1,534
收藏集
9
关注标签
41
加入于
2016-10-22