【本文来自《AI管家要来了?ChatGPT推出长记忆功能》评论区,标题为小编添加】
guan_17110960951503
???别说DP,就连文心一言之流的貌似就有长记忆功能啊,这难道不是自带的吗,还要收费?
你搞错了,所有基于Transformer变形金刚框架的大模型都有一个什么自回归功能,会把上一轮,上上一轮对话的内容记忆住,从而产生一种好像和真人对话,而不是和搜索引擎对话的感觉。
但是这个自回归功能是有极限的,为了节约GPU算力以及显卡上的显存,保持对话一般也就是保持10轮,VIPer可能可以保持50轮。你和DeepSeek聊天,不开新对话,忍受速度变慢试试,聊到一定轮数后,它会自动提示你达到最大对话长度了,必须开启新对话。如果你打开联网功能,搜索网页里的内容,进行整理输出,消耗tokens更多了,就会加速结束对话。
如果用字节跳动(抖音母公司)出的Coze平台,调用大模型去创建智能体,则可以自己设置每轮对话携带之前的多少轮对话,试了试最大值是100(仅限于调用DeepSeekV3时)。
智能体可以理解为,有一段用户设置的最初提示词,如“你是用户设定的赛博学姐,可以帮用户审查文章论点真伪,能调用网络搜索插件,说话风趣幽默……”之类的,这段提示词超过100轮对话后也不会被遗忘。
ChatGPT的Memory功能,其实就是针对比较长的对话,生成一个好像标题的浓缩摘要句子,以后对话时提及了对应的关键词,会搜索以前的摘要,从而显得好像能记住用户的一些超过一百段对话的聊天内容似的。
这个功能字节跳动去年就山寨出来了,今年可以兼容DeepSeekV3 20250324版的(2月份的版本不兼容),
试了试,聊了一会儿房屋维修问题,我猜苏联人懒得修公家的房子,它就浓缩了一个摘要,“认为苏联人可能懒得粉刷房子,老房子墙壁脱皮也不会上报懒得修”~~
聊了一会儿看到有论文说低钠盐可能减少脑卒中复发的结论,吃过一包,没啥感觉,它就生成一个摘要,“认为以前吃过一段时间低钠盐,没发现啥问题。”
这种聊天内容摘要的生成具有一定的随机性,有时聊了好一会儿啥也没生成;然后引用时也有一定随机性,可能不相干的关键词也触发了引用,导致浪费tokens。
好在Coze现在每天每个模型都有一定的免费测试tokens,所以浪费了也不用花钱。
就是几次升级,增加了聊天页面背景图,自动播放合成语音等功能后,稳定性越来越差,在我的Chromium126 XP版下,关闭它的页面时,老导致浏览器崩溃,CPU占用率超过50%以上,必须按Ctrl+Alt+Del,呼出任务管理器后,强制结束它的进程后才能正常使用电脑。否则什么程序都卡得动不了。
我估计这是用Coze给DeepSeek或其他大模型套了更多插件,以实现简单的图片转文字,以图生图,文字生图等功能后,结构变复杂了,所以稳定性下降了?Memory长期记忆功能可能也是某个插件实现的?
不过也可能不是插件,是掉用豆包生成的摘要?因为有时长期记忆摘要里会说认为豆包对话如何如何什么的。