karminski-牙医 25-06-14 08:00
微博认证:AI博主

终于有人给 llama.cpp 的配置写一个界面了,llama.cpp 的配置已经跟 nginx 等web server 一样复杂了。然后就有了这个项目 llama-server-launcher

简单来讲,这个项目能让你点点鼠标就选择你要运行的模型,要多少线程,上下文大小,温度,要不要GPU卸载,batch size 等等等等,节省查手册的时间

项目地址:github.com/thad0ctor/llama-server-launcher

#ai创造营# #AI生活指南#

发布于 日本