新版frp0.67.0多用户token隔离鉴权 & 点对点穿透
搭建frp服务后默认客户端与服务器都是使用同一个token进行验证,一但token泄漏后就需要服务端及所有客户端都更换token十分麻烦。现在已经有多用户插件可以集成到frp服务器里面来解决这个问题了。
一句话教程,直接使用 fp-multiuser 这个插件即可(这个插件也是frp开发者参与开发的):https://github.com/gofrp/fp-multiuser
它的大致原理是在frp服务器配置文件中添加插件(添加插件前需要配置并启动插件程序),frp服务端口收到请求后会先转到插件进行鉴权通过后再提供后续服务。
如果你看完上面的官方插件教程已经会了[……]
python再封装frpc内网穿透可视化客户端(by:Qoder-AI)
最近重新部署了frp,使用的是最新的0.67.0版本,之前有写过一篇frp部署的文章但是太老了,有需要中文frp介绍的可以去这个地址看下:https://gofrp.org/zh-cn/docs/overview/ 我的程序是在github上的地址下载的 https://github.com/fatedier/frp/tags(注意服务端、客户端版本用同一个版本)
本次借助Qoder直接在windows下写了个frpc的可视化配置客户端,直接看成品吧:
先附上一些所需文件/代码
frpc_manager_gui.py
然后是配置文件frpc_manager.in[……]
i5-10400 集显台式机3步部署本地离线AI大模型(Ollama)
之前搞黑苹果配的台式机一直没有配显卡以为没办法搞本地大模型,没想到现在只要内存够大已经可以用Ollama来部署本地大模型了。在之前遇到过一个小插曲,因为网上有看到《Ollama 英特尔优化版》的教程,根据上面的教程一直跑不起来,后来就直接使用Ollama官方的版本来使用了。
一、下载安装Ollama
直接访问Ollama官网下载 https://ollama.com/download (github下载地址:https://github.com/ollama/ollama/releases/)
安装过程忽略,打开后可以配置下大模型存储路径(Ollama程序 – Set[……]
AI做的python项目让它改成JAVA项目,我经历了什么
前一篇文章【开源我用AI在1个月开发的类禅道“任务管理系统” – 染卷’blog】写到我使用AI实现了一个任务管理系统,因为后端是python的,这几天又花了几天时间熬夜让他改成了java spring项目(java代码已更新到git仓库:https://github.com/joolan/TaskManagementSystem-CodedByAI)。
下面罗列下改造遇到的一些问题,以便备忘。
1、决定改造成java项目的第一个指令:
2、等了很长时间,在构建的时候遇到错误,根据AI的错误信息又让他进行修复
3、构建中遇到的其他问题直接复制错误信息让AI进行修[……]
开源我用AI在1个月开发的类禅道“任务管理系统”
最近半年对AI的焦虑感越来越严重,期间也用AI完成了一些模块性的功能解决一些特定的技术问题。但是一直没有尝试从0-1开发一个相对完善的系统,就决定使用AI开发一个简单的任务看板系统,也算是圆了我入行之初的一个心愿吧(当时自己设计了一个任务进度看板大屏页面,目的是放到电视大屏上给大家看进度,但是后面流产了没有开发)。
源码见文末,代码99%都是Trae写的(vue+python前后端分离),我只负责提需求和沟通。前期搭框架的时候直接发需求过去让AI自己写,我可以继续做自己的事情,到后面需要改动已有功能的进度就慢了下来,印象最深的就是修改一个前端的二级联动菜单修改到凌晨1:30,实在是不知道[……]