|
|
Bafchat (Bafchat)Github |相关wiki |源站链接支持: fabricBringing locally hosted AI to a Minecraft front-end through commands.
介绍
虽然已经有很多模组可以将OpenAI的API引入Minecraft,但至今还没有同样多的模组试图将本地LLMs引入游戏。Bafchat来拯救大家啦!向你的新AI小伙伴提问,或者在忘记命令或合成配方时寻求帮助。如果你的模型可以做到,Bafchat也可以做到(前提是你已经在Bafmod3Config.json中正确配置了提示)。
另外,OpenAI的API并不是无限免费的,一旦用完了信用额度就得付费。Bafchat由你自己电脑(或本地网络)上托管的LLMs驱动,所以你可以无需担心产生费用就进行实验。
默认配置
默认情况下,Bafchat预先配置为与[local.ai的服务器](链接)配合使用,但我相信它应该可以与其他服务器配合使用,比如Kobold和Oobabooga提供的服务器。
截至目前,推荐的模型是[RedPajama-INCITE-Chat-3B-v1](链接),因为它是一个小型模型,在CPU上处理提示相对较快,但作为一种折衷,它的响应还有很大改进的空间。
*注意:*如果你选择了不同的模型,你需要在Bafmod3Config.json中修改提示样式,否则可能会得到意外的结果。
*其他注意:*在编辑Bafmod3Config.json中的提示时,请确保保留占位符{{message}},将其放在模板中你想要的游戏消息的位置。
特点
- 一个基本功能齐全的前端,用于本地托管的大型语言模型的API。
- 使用“/llm”向你的模型发送消息。
- 在游戏内修改Bafmod3Config.json!只需使用“/bafmod set”,或者如果你弄乱了可以使用“/bafmod reset”将其恢复到默认设置。
- 在位于.minecraft/config的Bafmod3Config.json中可以调整提示和API URL。
需求
- 一个本地托管的LLMs API
- Fabric Kotlin
- Fabric API
- Fabric
- Minecraft 1.20及更新版本
轻微问题
如果API托管在与你的Minecraft服务器相同的机器上(包括如果你在单机游戏中玩客户端),并且你的电脑性能不是特别强大,那么在处理提示时你的游戏可能会暂时变慢。使用更小、量化的语言模型可以帮助缓解这个问题。
截图:
来自Modrinth所有游戏版本1.201.20.1所有类型fabricBafchat 23.06.2Bafchat-23.06.2.jar下载23.06.2#ReleaseA winning release which adds and improves on all existing features.* Config can now be edited in-game.* Bafchat\'s name can be adjusted, as well as a whole bunch of other important parameters!* This version also makes the API request happen asynchronously, avoiding a freeze of the Minecraft server.展开版本: 23.06.2支持游戏: 1.20, 1.20.1类型:FabricRelease下载次数: 178全部版本
markdown_parsed
文章类型:收录
layui.use([\'form\'], function(){
var form = layui.form;
});
Bafchat |
楼主
2025-8-10 16:48:26
回复(0)
收起回复
|