新版frp0.67.0多用户token隔离鉴权 & 点对点穿透

搭建frp服务后默认客户端与服务器都是使用同一个token进行验证,一但token泄漏后就需要服务端及所有客户端都更换token十分麻烦。现在已经有多用户插件可以集成到frp服务器里面来解决这个问题了。

一句话教程,直接使用 fp-multiuser 这个插件即可(这个插件也是frp开发者参与开发的):https://github.com/gofrp/fp-multiuser

它的大致原理是在frp服务器配置文件中添加插件(添加插件前需要配置并启动插件程序),frp服务端口收到请求后会先转到插件进行鉴权通过后再提供后续服务。

如果你看完上面的官方插件教程已经会了[……]

python再封装frpc内网穿透可视化客户端(by:Qoder-AI)

最近重新部署了frp,使用的是最新的0.67.0版本,之前有写过一篇frp部署的文章但是太老了,有需要中文frp介绍的可以去这个地址看下:https://gofrp.org/zh-cn/docs/overview/ 我的程序是在github上的地址下载的 https://github.com/fatedier/frp/tags(注意服务端、客户端版本用同一个版本)

本次借助Qoder直接在windows下写了个frpc的可视化配置客户端,直接看成品吧:

先附上一些所需文件/代码

frpc_manager_gui.py

然后是配置文件frpc_manager.in[……]

i5-10400 集显台式机3步部署本地离线AI大模型(Ollama)

之前搞黑苹果配的台式机一直没有配显卡以为没办法搞本地大模型,没想到现在只要内存够大已经可以用Ollama来部署本地大模型了。在之前遇到过一个小插曲,因为网上有看到《Ollama 英特尔优化版》的教程,根据上面的教程一直跑不起来,后来就直接使用Ollama官方的版本来使用了。

一、下载安装Ollama

直接访问Ollama官网下载 https://ollama.com/download (github下载地址:https://github.com/ollama/ollama/releases/

安装过程忽略,打开后可以配置下大模型存储路径(Ollama程序 – Set[……]

AI做的python项目让它改成JAVA项目,我经历了什么

前一篇文章【开源我用AI在1个月开发的类禅道“任务管理系统” – 染卷’blog】写到我使用AI实现了一个任务管理系统,因为后端是python的,这几天又花了几天时间熬夜让他改成了java spring项目(java代码已更新到git仓库:https://github.com/joolan/TaskManagementSystem-CodedByAI)。

下面罗列下改造遇到的一些问题,以便备忘。

1、决定改造成java项目的第一个指令:

2、等了很长时间,在构建的时候遇到错误,根据AI的错误信息又让他进行修复

3、构建中遇到的其他问题直接复制错误信息让AI进行修[……]

开源我用AI在1个月开发的类禅道“任务管理系统”

最近半年对AI的焦虑感越来越严重,期间也用AI完成了一些模块性的功能解决一些特定的技术问题。但是一直没有尝试从0-1开发一个相对完善的系统,就决定使用AI开发一个简单的任务看板系统,也算是圆了我入行之初的一个心愿吧(当时自己设计了一个任务进度看板大屏页面,目的是放到电视大屏上给大家看进度,但是后面流产了没有开发)。

源码见文末,代码99%都是Trae写的(vue+python前后端分离),我只负责提需求和沟通。前期搭框架的时候直接发需求过去让AI自己写,我可以继续做自己的事情,到后面需要改动已有功能的进度就慢了下来,印象最深的就是修改一个前端的二级联动菜单修改到凌晨1:30,实在是不知道[……]

AI助力,首次上线个人支付宝小程序(1天)

确实没想到第一次接触支付宝小程序1天就搞定了(开发者注册 + 小程序申请 + 小程序备案 + 小程序编码&发版)。起因是年后公司新项目模块可能会用到支付宝小程序(之前一直都做的微信小程序),就想着先去熟悉下相关流程,先用个人小程序试下,等年后再注册企业自研开发者小程序。因为是调研用的一开始用支付宝官方的模版示例提交版本被拒了,然后就让Trae帮我想了点子并在solo模式下给我开发了一个支付宝版本(小程序前端 + 几个后端php接口都是AI实现)。

一些前期调研用到的资料先记录如下:

关于AI开发工具Trae使用

1、我用的是国内版的Trae,使用的时候[……]