首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
行初心
Python
·
2年前
关注
屏蔽作者: 行初心
举报
麒麟操作系统运维工程师
收起
查看大图
向左旋转
向右旋转
技术交流圈
赞过
分享
1
1
相关推荐
如果有全栈开发的朋友们建议仔细观看!
以下内容均为个人观点,不喜勿喷!
#人生苦短,我用python#
首先呢,这个沸点只是一个简短的叙述,如果想要更精确更详细的内容请关注我的文章。
作为一个Python全栈开发员,我最近尝试了众多IDE——Visual Studio,Pycharm,Jupyter Notebook。
最终发现,都不好用!
要么,配置复杂;
要么,内存大,性价比不高;
要么,UI烂,侧重点较少。
总之,到最后我终于选定了一个我的唯一IDE——VS Code
作为一个完全免费的多语言IDE,VS Code绝对是行业标杆,虽然与VS同为微软亲儿子,但功能和UI美观性都大大超过VS。
你可能要问,为什么最终是它?
核心就三点:轻量强大、扩展宇宙、高度自由。
它启动快,不吃内存,却能通过海量扩展应对Python、前端、数据库等各种全栈场景。远程开发、内置Git等功能更是锦上添花。
对于绝大多数全栈项目,它的体验已全面超越那些笨重的专业IDE。它把复杂留给了可配置性,把简单和高效留给了开发者。
“人生苦短,我用Python”,而让开发过程变得更愉悦的利器,对我而言,就是VS Code。
1 赞 ·
1 评论
看到一篇介绍浏览器扩展使用本地ollama下载的模型来总结、翻译页面的文章,安装试了下,发现可以直接查看安装了哪些模型,好奇搜了下原来ollama暴露了一些接口,默认情况下服务会运行在localhost:11434,get请求/api/tags会返回本地安装的模型列表,post请求/api/chat可以与模型对话
#每天一个知识点#
0 赞 ·
4 评论
我刚把目前的项目迁移到antd v5上,没想到v6这么快就来了!!
1 赞 ·
8 评论