Claude Code vs Cursor:书签分类实战对比

作为一名程序员,浏览器收藏夹是我日常工作中不可或缺的工具。然而时间一长,收藏夹就会变得混乱不堪。我的Chrome浏览器里有1600+条收藏记录,很多分类早已混乱,手动整理实在太费时费力。于是我想,能不能让AI帮我自动完成这项工作?于是便有了今天这篇文章,我想让当前最流行的两个通用Agent工具Claude Code和Cursor来帮我完成这项任务。

从Chrome导出书签后,得到的是一个HTML文件。打开一看,大概是这个样子:

https://cdn.nlark.com/yuque/0/2025/png/1599908/1760801243178-3fcb43eb-f385-40a3-9ff1-5191cd4662d1.png

这里有一个坑:每条书签都有一个ICON字段,存储的是网站图标的base64编码。对于模型来说,这些base64数据不仅没什么用,还会占用大量的token,影响理解效果。我很好奇Claude Code和Cursor在处理这个问题时会有什么不同的思路。

本来想直接用Claude 4.5,但发现会触发风控导致服务不可用。于是我参考了阿里云百炼平台的文档,改用qwen3-coder-plus模型来测试Claude Code。

https://cdn.nlark.com/yuque/0/2025/png/1599908/1760792093990-3d66e20e-ecfb-4871-a423-ce9fd6216536.png

把任务需求发送过去后,Claude Code开始分析文件。它首先尝试用Read工具直接读取,发现文件太大(1.5MB)超过了单次读取限制,于是转而使用Search工具来分段理解文件内容。

https://cdn.nlark.com/yuque/0/2025/png/1599908/1760792116432-3bb77c60-fe40-4f76-ae29-c29c3467b302.png

分析之后,它生成了一组分类目录名:

https://cdn.nlark.com/yuque/0/2025/png/1599908/1760792293950-0d6f514e-0441-4375-9ee7-9444316497cd.png

看起来挺靠谱的。但是接下来在生成最终文件的时候,整个过程变得特别慢,而且我完全不知道它在干什么。等了很久也没什么动静,我决定给它更具体的指令:

1
2
注意生成的目录名需要都是中文
将aliyun或者alibaba或者ali相关的网站单独放到一个分组里

https://cdn.nlark.com/yuque/0/2025/png/1599908/1760792618463-c0235761-7784-4760-b3c7-9afb96e2e5a8.png

这次它总算有了动作,生成了一份新的结构:

https://cdn.nlark.com/yuque/0/2025/png/1599908/1760792705268-d0e1d0ea-294c-4aea-b665-4f568293bfcc.png

https://cdn.nlark.com/yuque/0/2025/png/1599908/1760792741543-327675e5-b7e3-49a3-be55-ad1be318e3c1.png

然后开始请求创建文件:

https://cdn.nlark.com/yuque/0/2025/png/1599908/1760792834303-dd9e3c50-8503-4ab8-be8a-442a3a4e77bd.png

https://cdn.nlark.com/yuque/0/2025/png/1599908/1760792846221-10d6719a-0e9a-4779-9067-0b458e592dbf.png

满心期待地打开文件,却发现只有4KB——里面只有刚才生成的目录结构,没有任何具体的网页链接???

是不是我表达得不够清楚?我重新整理了一份更详细的提示词:

1
2
3
4
5
6
7
8
你现在的任务是帮我对bookmarks_2025_10_18_new.html中的书签根据内容进行重新分类,不需要参考原来的分类目录,最后生成一个新的可以被导入chrome的书签。

注意:
- 生成5-8个一级目录,且生成的目录名需要都是中文,名称尽可能的简洁
- 必须要有一个aliyun的一级目录,目录的内容是原有的aliyun目录下的网站,根据网站的功能,在aliyun这个目录下生成对应的二级目录,不要移出去
- 不要主动去访问网页
- 不要着急生成,先浏览所有的网站后,确定要生成的目录后跟我确认再继续执行
- 对于无法分类的网站,放到 其他 类别里。

https://cdn.nlark.com/yuque/0/2025/png/1599908/1760793270975-d3daaf3f-a1e7-41a0-8b77-d773202530f4.png

https://cdn.nlark.com/yuque/0/2025/png/1599908/1760793283097-00f7a6b3-7843-4fdd-93e9-42376536608e.png

这次它的策略和之前类似:发现文件太大后,先查看一部分书签内容,然后通过grep搜索相关类型的关键字,看看有没有同类内容。

https://cdn.nlark.com/yuque/0/2025/png/1599908/1760793880176-e4f5debd-3264-4447-82c6-4dd378a7b022.png

另外我注意到一个细节:Claude Code并不是边生成边输出,而是把所有内容都保存在内存里,最后一次性写入文件。

https://cdn.nlark.com/yuque/0/2025/png/1599908/1760794471067-ea26ea5b-59a3-4d1a-97e8-f737afd9ecb5.png

https://cdn.nlark.com/yuque/0/2025/png/1599908/1760794493392-4ea36d79-8cb6-4c30-8a0e-363896e44b77.png

这次生成的文件变成了5KB……还是只有目录名,没有具体的书签链接。第二次尝试,再次失败。

会不会是qwen3-coder-plus的能力不够?我改了环境变量,换成通义系列最强的qwen3-max模型:

1
2
# export ANTHROPIC_MODEL="qwen3-coder-plus"
export ANTHROPIC_MODEL="qwen3-max"

用同样的Prompt再试一次:

https://cdn.nlark.com/yuque/0/2025/png/1599908/1760796530500-ca2d597c-d0b2-493e-a71d-5b4faaca41e9.png

这次它生成了一份分类方案,让我确认。我说继续执行。

https://cdn.nlark.com/yuque/0/2025/png/1599908/1760800802542-3ce9f157-33ea-4f20-b322-0b858ff8fb7f.png

这次没有直接生成目录文件,但生成最终文件的等待时间出奇地长。更麻烦的是,它似乎把所有内容都存在了上下文里,导致右下角的剩余空间提示一点点缩小,从100%降到2%。我实在等不下去了,只好宣布放弃。

Claude Code的三次尝试,全部以失败告终。

同样的问题,我又用Cursor试了一遍。Cursor的反应速度明显快得多。

https://cdn.nlark.com/yuque/0/2025/png/1599908/1760799977214-9b2023f3-ef4c-4a99-9137-ce085ecfe0b8.png

关键的区别在于它的处理策略:Cursor直接编写了一个Python脚本,通过关键字匹配来进行分类。这种方式虽然没有真正"理解"书签的语义,但胜在快速且实用。

https://cdn.nlark.com/yuque/0/2025/png/1599908/1760800017597-fad67bb6-7d32-4229-afab-6a32800b402e.png

大概一分钟后,Cursor就完成了分类,还贴心地给我生成了一份清晰的总结报告:

https://cdn.nlark.com/yuque/0/2025/png/1599908/1760800365682-89efb454-01af-4d45-a8fe-4e29d8c8e30a.png

过程中还发现:Cursor已经支持把Agent页面单独拉出来了,看来是有布局通用Agent的打算。

https://cdn.nlark.com/yuque/0/2025/png/1599908/1760800734060-3e9b67b0-69e0-4042-a823-5cb105ff15f5.png?x-oss-process=image%2Fformat%2Cwebp

我又提出了一些修改意见,Cursor很快就重新生成了对应的脚本:

https://cdn.nlark.com/yuque/0/2025/png/1599908/1760800490670-ab050b57-e5c1-47ca-a828-a15a630223c3.png

然后重新生成了分类结果汇总:

https://cdn.nlark.com/yuque/0/2025/png/1599908/1760800884090-4e550d7a-c588-40c0-a94c-2bd51de94340.png

实现过程中,Cursor生成了很多临时文件,这样就不用把所有内容都挤在上下文里:

https://cdn.nlark.com/yuque/0/2025/png/1599908/1760801013169-43044fd5-bd6a-45b8-95cd-f187bd3043de.png

Cursor还特别提到了一个优化点:它自动把文件中的icon字段省略了,大大精简了文件大小。打开生成的文件一看,确实如此:

https://cdn.nlark.com/yuque/0/2025/png/1599908/1760801138870-4185acfb-17f5-4cb7-91cb-6f9bec1ea90f.png

整个过程快速流畅,让人满意。

但事情到这里还没结束,真的是Claude Code不行吗?仔细想一想其实没有完全控制变量,因为两者用到的模型不一样,Cursor用的是Claude 4.5,而给Claude Code用的是Qwen系列的模型。

研究了一下绕过风控的方法,最终成功在Claude Code上用上了Claude 4.5模型。

重新运行,输入之前的Prompt:

https://cdn.nlark.com/yuque/0/2025/png/1599908/1760969069806-e3f1afff-73ad-4347-81ac-fba79d8cebba.png

这次完全不一样了,Claude 4.5选择通过bash脚本去解析HTML,并把结果保存到tmp目录下的文件。这个思路和在Cursor上的表现如出一辙。

https://cdn.nlark.com/yuque/0/2025/png/1599908/1760969092412-db891539-81f4-43f9-9801-280d64e243b5.png

https://cdn.nlark.com/yuque/0/2025/png/1599908/1760969207180-17bb5540-64a1-42bb-860f-a4517ffc533a.png

最后同样是通过Python脚本加关键字的方式进行分类,顺利完成了任务:

https://cdn.nlark.com/yuque/0/2025/png/1599908/1760969599201-6a0ac3aa-18cb-46fc-b77f-bd3ff8fe47c8.png

经过这一轮测试,我发现与其说这是Claude Code和Cursor的对比,不如说是不同模型之间的对比。

在这类开放性问题的场景中,模型的问题分解和规划能力起着决定性的作用。如果一开始就明确告诉qwen:“先用代码解析书签,然后用关键字做粗分类,最后再调整”,qwen肯定也能完成。但它做不到像Claude那样,在你没有明说的情况下,自己就能领悟到这层意思。

Claude也不是一开始就做出了完美规划。它先发现文件很大,然后通过grep查看内容,再决定用代码的方式批量处理。这种探索式的问题解决能力,才体现出了Claude的更胜一筹。

这也有点像人的成长过程。一开始我们只会做局部的、具体的事情,慢慢地才学会从全局视角出发,设计出更优的解决路径。

整理收藏夹的过程中,我突然意识到:很多技术相关的收藏其实已经没有保留的必要了。

以前我们需要收藏各种教程、文档、技术文章,生怕用到的时候找不到。但现在有了大模型,这些知识都已经被"吸收"了。遇到具体问题,直接问AI就能得到针对性的、更全面的答案,比翻收藏夹要高效得多。

那以后收藏夹里会留下什么呢?我想可能是这些:

  • 有趣的Prompt和提示词技巧
  • 有启发性的设计理念和思考方式
  • 值得反复琢磨的哲学观点和方法论
  • 那些独特的、无法被模型复制的个人见解

技术知识会过时,但思维方式和方法论会长久地保留价值。这或许才是我们真正应该收藏的东西。