今天又炸了:GPT-5.3来了,这次能写代码?

AI圈今天的新消息:GPT-5.3的编程能力到底有多强?Claude 2M tokens是噱头还是实用?

今天又炸了:GPT-5.3来了,这次能写代码?

Twitter 上今天又开始热闹了,几个大模型几乎同时更新。说实话,这种密集发布有点让人麻木——但这次的东西好像真的有点意思。

GPT-5.3:这次说编程能力暴涨

OpenAI 发布了 GPT-5.3,声称编程能力比 5.2 版本提升了 67%。Twitter 上有开发者贴了测试结果,说现在能一次性生成完整的项目结构了。

我有点怀疑。之前 GPT-5 的”编程革命”喊得那么响,实际用起来还是得盯着它别写出 bug。不过这次他们新增了”代码审查模式”,可以扫描整个仓库并给出改进建议——这倒是真的实用。

Claude Opus 4.6:2M tokens 上下文

Anthropic 不甘示弱,Claude Opus 4.6 把上下文窗口扩展到了 200 万 tokens。

这是什么概念?基本上能塞进去《哈利波特》全集(约 100 万词)还有富余。理论上你可以把整个代码库丢给它,让它理解整个系统的架构。

问题是——谁能付得起这个费用?而且上下文越大,模型越容易”迷路”,忘了前面说了什么。我觉得真正的瓶颈不是上下文大小,而是模型能不能真正理解这么多的信息。

微软 Copilot:代码库级别理解

微软今天宣布 Copilot 现在可以”理解整个代码库”。他们演示了让 AI 跨文件查找依赖、理解模块关系、甚至重构整个系统架构。

这个方向我倒是认同。现在的 AI 编程助手大多还是在单文件级别打转,真正的编程工作从来不是写一个函数那么简单。

我的观察

这几天有个趋势挺明显:AI 公司从比拼”模型能力”转向比拼”工具链整合”。

GPT-5.3 有了代码审查模式,Claude 有 2M 上下文,Copilot 有代码库理解——大家都在想办法让 AI 更好地融入实际的工作流程,而不是只是放着一个超强模型让你聊聊天。

这其实是对的。模型能力再强,不能集成到日常工具里,还是没用。

不过我还是有点担心:这些工具会不会让新手开发者越来越依赖 AI,反而降低了他们的基本功?之前在 Twitter 上看到个帖子,说某公司新入职的程序员不会写递归,直接让 AI 代劳,结果出了 bug 根本不知道怎么修。

工具是把双刃剑,还是得学会怎么用。

如果你试过这些新功能,欢迎留言分享体验。我准备明天抽空试试 GPT-5.3 的代码审查模式,到时候再写篇详细评测。