全球最臭名昭著的论坛,发现了AI最重要的“思考”能力

日期:2026-04-18 15:55:30 / 人气:5



作者:卷卷兔

今天大清早突然发布的Claude Opus 4.7,还没上线多久,网上就已经骂声一片。

最扎眼的槽点,是token先「通货膨胀」了。新版引入了全新的tokenizer(分词器),同样一段文字,拆出的token数量比以前多出1.0到1.35倍。不少用户反映,还没聊几句,额度就见了底。

后续,Claude Code之父Boris Cherny也表示将提高额度来抵消这部分的影响。

但token膨胀还算小事。更让人哭笑不得的,是Opus 4.7那张嘴。它动不动「我就在这里,不躲,不藏,不绕,不逃,稳稳地接住你、翻译成人话、我太懂你这种感觉了,不是,而是」,一股浓烈的ChatGPT味扑面而来。

平心而论,Opus 4.6也有这个毛病,Sonnet 4.6反而症状更轻。只是到了4.7,这股腔调明显更浓,不懂好好说话的问题愈发突出。

APPSO之前也报道过,过于油腻的说话风格与RLHF(人类反馈强化学习)有关。训练时,人类评审者倾向于给听起来顺耳、令人愉快的回答打高分,模型就学会了这套讨好人的腔调。这是一个关于AI在取悦谁的问题。

但Opus 4.7让人关注的地方不止于此。token越用越多,说明它在「想」得更多。只是那些浮夸的安慰腔调又让人怀疑,它想出来的东西,究竟算不算真的在思考,还是仅仅学会了一套让你感觉它在思考的表演方式。

这个问题,远比局限于Opus 4.7好不好用的命题要更深刻。而答案的线索,最先出现在让人最想不到的论坛:4Chan。

01 改变AI轨迹的算术题

简单科普一下,4chan是互联网上最臭名昭著的地方之一,里面充斥着脏话、阴谋论和各种难以描述的内容。但偏偏就是这里,藏着一个改变了整个AI行业走向的发现。

把时间拨回2020年夏天,距离ChatGPT震撼世界还有两年多。

当时的4chan游戏板块依旧乌烟瘴气,满屏都是离奇的成人幻想和最原始的荷尔蒙冲动。不过那时,这群人集体迷上了一款叫《AI Dungeon》的文字RPG游戏。

这款游戏的底层,接入了当时刚刚问世的OpenAI GPT-3模型。在虚拟世界里,玩家只要敲下「拿起剑」或者「让巨魔滚开」,算法就会顺着往下编故事。毫不意外,到了4chan老哥手里,这个游戏光速沦为满足各种赛博性幻想的试验田。

令人没想到的是,这群特立独行的玩家,做了一件在当时看来极为反直觉的事:
他们开始逼着游戏里的NPC做数学题。

懂行的人都知道,初出茅庐的GPT-3是个纯纯的「文科生」,连最基础的加减乘除都能算得一塌糊涂。

但诡异的事情发生了。

有个玩家偶然发现,如果不去死要答案,而是勒令NPC保持人设、把解题步骤一步步写出来,这个大模型不仅算对了,甚至连语气都贴合了虚拟角色的设定。

那位玩家在论坛里激动地破口大骂:「它不仅解出了数学题,还是用完全符合那个角色性格的语气解出来的!」

意识到了这个发现的含金量后,玩家们也开始将这些带有详细步骤的截图发到了Twitter上。

作者:顺盈注册登录平台




现在致电 8888910 OR 查看更多联系方式 →

顺盈注册登录平台 版权所有