终于有人给 llama.cpp 的配置写一个界面了,llama.cpp 的配置已经跟 nginx 等web server 一样复杂了。然后就有了这个项目 llama-server-launcher
简单来讲,这个项目能让你点点鼠标就选择你要运行的模型,要多少线程,上下文大小,温度,要不要GPU卸载,batch size 等等等等,节省查手册的时间
项目地址:github.com/thad0ctor/llama-server-launcher
#ai创造营# #AI生活指南#
发布于 日本
