首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
Azir12138
掘友等级
Java开发工程师
获得徽章 2
动态
文章
专栏
沸点
收藏集
关注
作品
赞
36
文章 36
沸点 0
赞
36
返回
|
搜索文章
赞
文章( 36 )
沸点( 0 )
虚标的WIFI连接速度
在我的上一篇文章中,遇到了一个在局域网下跑不满带宽的问题。我在电脑上部署了一个服务下载服务器,讲道理在局域网下,我用手机下载文件,应该能跑满整个局域网的带宽的。但事实并非如此,下载的带宽只
还在用数据线从电脑传文件到手机?局域网传输快人一步
最近在追美剧纸牌屋,找到的资源都很高清,一集的大小就到了3-4个G。因为主包的手机USB接口还是2.1(这里提一嘴,REDMI K80 Pro居然还是2.1),导致传输速度很慢。 想了想,有什么
Stream和CompletableFuture结合起来引发的问题
最近在弄着一个新的系统,有个接口耗时比较久,要针对它进行优化,优化嘛,多线程先上,多线程不行再上缓存。于是乎,很快啊,我就啪啪啪的写完了多线程的代码了,但是运行后发现,也没快多少啊。 写完
【多图预警】使用Trae快速生成JNI工具类
最近在研究Tomcat吞吐量的计算,有一个功能需要实现:实时打印当前线程所使用的CPU核心。这个功能说难不难,就是需要通过JNI调用C++代码来获取当前线程使用的CPU核心信息。
量化、剪枝、蒸馏,这些大模型黑话到底说了些啥?
扎克伯格说,Llama3-8B还是太大了,不适合放到手机中,有什么办法? 量化、剪枝、蒸馏,如果你经常关注大语言模型,一定会看到这几个词,单看文字,我们很难理解它们都干了些什么,但是它们能让模型更小
慎重!小公司要不要搞低代码?
慎重!小公司到底要不要搞自己的低代码? 同学们好,我想结合自己的亲身经历,谈谈我对低代码开发的看法,讨论下人手和精力本就有限的小公司到底要不要搞低代码(中大厂无论资源还是KPI,并不在讨论范围)。 我
马上卸载这个恶心的软件!
一个多月前,GitLab 停止对中国区域用户提供服务的消息相信大家早就看到了吧。 现在,当中国区域的用户访问 GitLab 官网 gitlab.com 地址时,会被默认自动跳转至 about.gitl
FunctionCallProcessor:自动生成大模型FunctionCall
最近在写一个年度总结的程序,会用到大模型的FunctionCall能力。像下面的JSON格式一样,在调用大模型的时候,将Tool附带上,大模型就会在适当的时候进行Function的调用了。 Fu
2024年度总结-摆脱焦虑砥砺前行
24年初到年中,我的个人压力非常的大,有对职业发展瓶颈无法突破的焦虑,有对生活琐事的烦恼,也有对人生规划的迷茫。但从 6月开始,我不断的调整自己的心态和规划,现在已经摆脱焦虑砥砺前行中,状态非常好。
对,不再手动封装JNI接口,试试JNA吧
JNA - Java Native Access,在不需要`JNI or native code`的情况下更简单的使用本地库,不再手动封装JNI接口,提升效率!
下一页
个人成就
文章被点赞
159
文章被阅读
20,666
掘力值
1,243
关注了
1
关注者
45
收藏集
0
关注标签
3
加入于
2022-03-18