首页
首页
沸点
课程
直播
活动
竞赛
商城
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
QinRoc
掘友等级
Java后端开发
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
2.5K
文章 2.5K
沸点 6
赞
2.5K
返回
|
搜索文章
赞
文章( 2.5K )
沸点( 6 )
一款 Python 神器搞定自动化图表配色
原文链接:https://mp.weixin.qq.com/s/lwvZ1SyhiOiWx2lP-Iou6Q 作者:朱小五 我们在利用Python进行数据可视化时,有着大量的高质量库可以用,比如:
免费AI音乐生成工具Udio来了:音乐界的Sora,Suno的最强对手!体验如何?
程序员X小鹿:AI 音乐黑马 Udio Suno v3 之后,又款 AI 音乐新星 Udio 闪亮登场。 Udio,使用户可以通过输入简单的文字描述,就可以创建一段音乐,然后将其转换为专业品质的曲目。
Matplotlib在图形中添加注释
如果没有注释,我们很难让其他人明白图中的点、线究竟代表着什么,有什么样的含义,Matplotlib提供了大量对图形进行注释的方法,利用这些注释使统计图变得通俗易懂。
只需三步,手把手带你在本地部署运行大模型
在当前的技术环境下,大型语言模型(LLMs)已经成为人工智能领域的一个重要里程碑。这些模型能够在各种任务上展现出人类水平的性能,包括但不限于文本生成、语言理解和问题解答。随着开源项目的发展,个人开发者
自己搭建的AI如何用,你知道吗?
对于开源大语言模型基本通过安装、下载大语言模型、安装图形界面等步骤基本就可以使用了,如果想集成到自己的业务中去可以使用API的方式调用。当然想更进一步让大语言模型更贴切自己的业务的话,就需要微调模型
安装Ollama通过Open-Webui运行访问llama2、GPT大模型
安装Ollama并运行 运行大模型 大模型的models https://ollama.com/library 不同模型有不同版本,比如 llama2 有7b版本 需要3.8G内存 70b 需要39G
Ollama + Openwebui 本地部署大型模型与交互式可视化聊天
Ollama是一个允许用户在本地启动并运行大型语言模型,它提供了一个简单易用的内容生成接口,类似于OpenAI,但无需开发经验即可直接与模型进行交互
本地安装 Ollama 大模型与使用指南
本文是关于Ollama AI模型的简明安装与使用指南。用户可以通过 ollama run 命令启动模型,并在对话模式下使用内置命令进行交互。此外,文章还介绍了 Raycast Ollama 插件,它为
如何搭建一个阿里云+PicGo+Typora图床应用
如何搭建一个阿里云+PicGo+Typora图床应用 由于之前使用gitee做图床来存放平时一些图片,但最近gitee上存放的图片都看不了了,查看官方公告,所有公开的项目都需要重新提交审批后才能再展示
Typora+PicGo+七牛云搭建图床
有关typora就不再多说了,总之就是支持跨平台,好用的Markdown编辑器,是大多数人的选择。好早之前用过typora的小伙伴都知道是不支持云端图床的,只能存在本地。但是,现在经过升级版本后才发现现在支持了,并且还是支持 PicGo,对于经常使用的图床的小伙伴应该不陌生,Pi...
下一页
个人成就
文章被点赞
32
文章被阅读
17,995
掘力值
360
关注了
104
关注者
11
收藏集
3
关注标签
41
加入于
2017-05-11