首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
用户201708
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
1
文章 1
沸点 0
赞
1
返回
|
搜索文章
最新
热门
相似度作用于监督学习/无监督学习
相似度的概念可以应用于监督学习(supervised learning)和无监督学习(unsupervised learning)中。 在监督学习中,相似度可以帮助我们理解不同数据点之间的关系,并且有
时间序列模型
深度学习主要涉及人工神经网络,它在处理非结构化数据(如图像、文本等)的预测问题中通常优于其他算法或框架。然而,当涉及到结构化数据时,基于决策树的算法如XGBoost表现更佳 XGboos
Flink并行传输的有序性
在Flink CDC中,当设置多并行度时,数据的顺序处理可能会受到影响。多个并行任务并行处理数据,并且数据到达的顺序可能无法保证。因此,如果你需要保证数据的顺序处理,可以尝试以下方法: 使用单并行度:
localai、xinference、ollama框架构建模型
先对比LocalAi,Xinference,Ollama LocalAI LocalAI是一种专门为本地部署设计的工具,它支持多种AI模型和硬件环境。主要优点包括: 灵活性:LocalAI支持多种操作
RAG-文本向量化结合LLM做检索增强生成 nomic-embed-text:v1.5
基于RAG+大模型的应用已经成为当前AI应用领域的一个热门方向。RAG(Retrieval-Augmented Generation)将检索和生成两个步骤相结合,利用外部知识库来增强生成模型的能力(如
win/linux本地构建dify
根据desktop-docker构建环境发现源不可用了,修改setting->Docker-Engin里面的配置增加源registry-mirrors 1.下载代码 2.docker运行 3.更新Di
langchain运行本地llm
解释下langchain中各模块作用 前面文章讲了如何通过ollama运行llama3:8b和qwen2:7b 飞行模式下本机运行结果
CPU安装chatglm3
手册 https://github.com/THUDM/ChatGLM3/blob/main/Intel_device_demo/openvino_demo/README.md
Ollama安装llama3和qwen2
CPU: AMD Ryzen 5 3600X 6-Core Processor 4.10 GHz RAM: 16G GPU: 8G DISK: SSD 100 G Free 基于上述自身条件,装lla
个人成就
文章被阅读
7,329
掘力值
311
关注了
0
关注者
0
收藏集
1
关注标签
10
加入于
2021-09-22