现在本地大模型社区里有一类工具正在快速繁殖:解决真实痛点,用AI批量生成数据,做出看起来很专业的界面,推上去收割星标。在有人认真测试之前,外观和实际精度之间的差距不会自动暴露。 实际上,llama.cpp自带的`llama-fit-params`命令可以做类似的事,而且用的是本地实时测量的数据,不是静态文件里的估算值。在评论区里,提到这个工具的人只有一个。