以前一直用一个叫Translumo的软件,OCR功能不错,但是默认DeepL翻译,没一会儿就触发API限制了;然后换成谷歌,额度更少;剩下的Yandex和Papago,日翻中基本没法用。今天才发现这个LunaTranslator项目,功能更完备,甚至可以Hook模式直接提取模拟器内的文字翻译。缺点就是配置稍微繁琐一些,上手有一点门槛;如果配置本地LLM模型的话对显存有要求(但是小模型要求也不高)。另外模拟器用Hook模式需要在加载游戏之前就配置好;如果要即时存/读档的话还是只能用OCR模式...地址:https://docs.lunatranslator.org/zh/本地配置个Sakura大模型(见Sakura模型本地部署教程),效果绝赞...下面是PCSX2模拟器运行《东京魔人学园外法帖血风录》的效果:
另外查到还有个叫爱译客的软件,有收费模式,可以在电脑和手机上共享账号使用;不过我没试过...
补充:
上面网页中提到的12G显存是针对14b模型的。可以用小一点的模型,Sakura-1.5B-Qwen2.5-v1.0-fp16.gguf这个1.5b版本应该笔记本都行:https://huggingface.co/SakuraLLM/Sakura-1.5B-Qwen2.5-v1.0-GGUF/tree/main
1.5b版显存要求目测4G以内另外还有Google最近推出的translategemma开源模型(因为Sakura是针对日翻中/二次元特化的模型,其他场合不一定比这个好),也可以配置在这个里面:https://huggingface.co/bullerwins/translategemma-4b-it-GGUFhttps://huggingface.co/bullerwins/translategemma-12b-it-GGUF分别是4b和12b版本,适用于不同显存大小的配置
王小二 我ocr用的是团子翻译器,配的ds的api(这样用起来比较便宜,充个十块能通6,7个游戏的样子?不过它的在线ocr要收费。),这个luna也用,但主要用hook模式,模拟器支持的游戏太少了,而且操作起 ...
看起来也不错啊,DeepSeek的api算很便宜了
hyaden sakura本地显存不能低于12g,要求有点高
12G显存是针对14b模型的。可以用小一点的模型,Sakura-1.5B-Qwen2.5-v1.0-fp16.gguf这个1.5b版本应该笔记本都行:https://huggingface.co/SakuraLLM/Sakura-1.5B-Qwen2.5-v1.0-GGUF/tree/main
这里没写1.5b版,显存要求目测4G以内
真不错,感谢推荐,爱译客我用过,玩文字游戏免费额度根本不够用 机翻也一般,后来用pixpin凑活
pzani1 感谢分享, 这个ocr功能, 可以批量把扫描的书转成文本, 保留书中的段落,格式,输出么?
lxyoo7e 感谢分享,留着得空进行测试银河战士。其实很多游戏都汉化了,还有一点古早游戏没有汉化,大部分流行的都汉化了,国内的民间汉化是真给力