我最近在使用当前 AI coding 过程中,感受到 AI 的一个最大问题。以及对于通用的陪伴式 Agent 存在核心问题的一点思考。

我觉得现在在 AI 使用上有一个很大的问题,无论是在写代码,还是在和 AI 沟通时,它通常不会对你的要求进行拒绝。而关于这一点,当你对问题本身的处理边界不清楚时,或者你在让他解决你一个完全不懂的领域中寻找解决方案的时候,你可能会提出一些非常离谱的问题,但你自己并不知道。AI 会顺着你的问题去回答,结果导致很多解决方案都很不靠谱。而你也无法判断它的答案是否可靠,只有在实际采纳并尝试之后,才会发现原来这个答案是错的。为了纠正这些错误,你需要付出的努力和时间,往往比最初学习还要多。我觉得这就是现在 AI 作为一个靠谱工具时面临的挑战,也是我在体验过程中感受到的一个很大的难题。

其实,这也是我之前在思考用大模型做陪伴式 AI 时遇到的一个类似的问题。为什么现在用大模型来做 AI 陪伴?排除心理咨询类的 agent(因为我没有体验过),一个很大的问题就是它总是顺着你的话来讲,无论你的话是对还是错。刚开始你会觉得很舒服,因为它不会和你争吵,也不会指出你的思考漏洞或问题。

它总是在旁边,好像一直在给你鼓掌,或者不断地附和你。但时间一长,你会感到腻烦,因为真的很无聊。聊久了之后,你几乎能预判它会怎么回应,这就让人觉得没意思。我自己就很难有持续使用下去的动力。

我不知道大家在用这种陪伴式 agent 时是不是也有类似的感受。刚开始确实有点新鲜感,但用久了就会发现,这个“陪伴的人”好像没有任何价值观,你也无法从它身上获得真正的交流。和它聊天就像吃糖,刚开始很甜,但你不可能一直吃糖,因为那对身体和牙齿都有害。

所以我觉得,真正的交流还是要和人进行,人与人之间的陪伴还是不一样的。现在的陪伴式 agent,如果还是基于现有模型的特点来做,效果确实不太理想。除非能通过一些技术手段,调整出各种各样的具有独特价值观的 agent,让它能对你的问题提出反驳,甚至给你一些启发。 像真实的人一样与你沟通,他既能站在你的角度思考,又能跳出你的立场与你交流。我觉得这一点非常重要。