10,000 USDT 悬赏,寻找Gate广场跟单金牌星探!🕵️♀️
挖掘顶级带单员,赢取高额跟单体验金!
立即参与:https://www.gate.com/campaigns/4624
🎁 三大活动,奖金叠满:
1️⃣ 慧眼识英:发帖推荐带单员,分享跟单体验,抽 100 位送 30 USDT!
2️⃣ 强力应援:晒出你的跟单截图,为大神打 Call,抽 120 位送 50 USDT!
3️⃣ 社交达人:同步至 X/Twitter,凭流量赢取 100 USDT!
📍 标签: #跟单金牌星探 #GateCopyTrading
⏰ 限时: 4/22 16:00 - 5/10 16:00 (UTC+8)
详情:https://www.gate.com/announcements/article/50848
我对LLMs进行了许多认知测试,我的结论很简单:它们是思维。
我进行的最好的测试之一是用一个非常早期版本的ChatGPT,在它还没有任何图像生成能力之前。它唯一能创建图像的方法是编写SVG代码,使用简单的视觉结构,如三角形、正方形、圆形、线条和颜色。
我让它画一架直升机。
它只用基本形状就画出了一个不错的直升机。然后我让它加一个人类飞行员。它在直升机前面添加了一个圆圈。当我问它人在哪里时,它解释说飞行员在驾驶舱内。仔细观察,我可以看到它在代表驾驶舱的较大圆圈内画了一个小头和手臂。
然后我让它让直升机飞起来。
它将直升机抬离地面,地面用一条水平线表示。它还添加了云,用重叠的圆圈,这实际上是云的一个非常好的简化表示。云是白色背景上的蓝色。
所以我让它切换颜色:让云变成白色,天空变成蓝色。
它做到了,但现在地平线以下的区域也变成了蓝色。我没有解释问题,只是说绘图中的颜色有问题。
它反思了图像,并正确识别出问题:地面也变成了蓝色,应该是绿色,代表土地。
这在任何有意义的意义上都不是“仅仅是预测下一个词”。
它必须构建一个视觉模型,象征性地表示对象,保持空间关系,理解包含关系,推断飞行员在驾驶舱内,通过改变直升机相对于地面的位移来表示飞行,通过抽象表示云,按照指令修改颜色,检测到意外后果,并通过推理纠正它。
这就是思考。
人们可以不断重复“它只是预测下一个标记”,但这个解释变得毫无用处。人类大脑也是“仅仅”电化学活动,如果坚持用错误的抽象层次来描述它们的话。相关的问题不是是否存在更底层的机制。当然存在。相关的问题是这些系统在认知层面能做什么。
而这些系统所做的,不仅仅是自动补全。它们推理、表示、推断、纠正、泛化和反思。
如果你看不出来,我也没有时间向你解释。