近段时间hermes agent声名鹊起,大家都强调它对比openclaw的优点,所以就把它也安装起来。刚好qwen3.5也出来了,效果不错,就想着不用买token,用本地的ollama。qwen3.5、gemma4其实都不错,输出效果都可以了,但是发现同样的问题openclaw能够干活,hermes则输出一堆怎么做的提示,却不会具体去执行,就像一个夸夸其谈的人。一开始没发现,因为普通对话没问题,但是后来发现他不落地就去查hermes的设置,似乎也没有对应的设置,知道是因为没有调用tools所致,一开始怀疑是大模型所致,因为以前的deepseek-r1就出现过类似问题,但是openclaw能够调用那就不是大模型的问题了。所以好几天都觉得是hermes的问题,当然也一直找不到为什么,hermes删除了安装几遍都是老样子,所以也没去管了。
昨天差不多准备放弃hermes,放弃前不死心用了一下阿里巴巴的token,发现hermes是能够干活的,所以可以肯定问题就出在ollama。于是,又在百度上询问这个问题,一开始是讲到hermes上关于ollama的配置问题,导致hermes不能调用大模型,https://www.php.cn/faq/2338698.html。所以按照这篇文章去修改hermes的配置,结果15日的文章中提到的配置在当前版本已经不存在了(现在有了人工智能,软件迭代真的是日新月异),所以也没什么效果。
后来又重新调整了搜索词,这次找到了4月14日的文章,https://blog.csdn.net/u011426236/article/details/160147236,据说是ollama默认上下文大小导致的,因为默认只有4k,但是hermes至少需要64k,修改了一下上下文大小,果然如此。这才想起来hermes有个很奇怪的现象,经常回答了一个问题,跟我继续交互的时候,我的回应跟前面的对不上。他根据前一轮的结果,问我要不要执行它的建议,我说要执行,然后他就问我要执行什么,它根本就忘了它的前一句话。估计也是这个上下文大小导致的。hermes为了节约token有上下文压缩机制,openclaw没有这个机制反而在本地ollama上没这个问题。
至此,问题解决,hermes也能够做事了,接下来好好用一下hermes。不过本机token用openclaw也没什么问题。两个一起用!