👀 家人们,每天看行情、刷大佬观点,却从来不开口说两句?你的观点可能比你想的更有价值!
广场新人 & 回归福利正式上线!不管你是第一次发帖还是久违回归,我们都直接送你奖励!🎁
每月 $20,000 奖金等你来领!
📅 活动时间: 长期有效(月底结算)
💎 参与方式:
用户需为首次发帖的新用户或一个月未发帖的回归用户。
发帖时必须带上话题标签: #我在广场发首帖 。
内容不限:币圈新闻、行情分析、晒单吐槽、币种推荐皆可。
💰 奖励机制:
必得奖:发帖体验券
每位有效发帖用户都可获得 $50 仓位体验券。(注:每月奖池上限 $20,000,先到先得!如果大家太热情,我们会继续加码!)
进阶奖:发帖双王争霸
月度发帖王: 当月发帖数量最多的用户,额外奖励 50U。
月度互动王: 当月帖子互动量(点赞+评论+转发+分享)最高的用户,额外奖励 50U。
📝 发帖要求:
帖子字数需 大于30字,拒绝纯表情或无意义字符。
内容需积极健康,符合社区规范,严禁广告引流及违规内容。
💡 你的观点可能会启发无数人,你的第一次分享也许就是成为“广场大V”的起点,现在就开始广场创作之旅吧!
吴恩达ChatGPT课爆火:AI放弃了倒写单词,但理解了整个世界
来源:量子位
没想到时至今日,ChatGPT竟还会犯低级错误?
吴恩达大神最新开课就指出来了:
比如让它反转下lollipop这个词,输出是pilollol,完全混乱。
以至于听课网友在Reddit上发帖后,立马引来大量围观,帖子热度火速冲到6k。
甚至包括Bard、Bing、文心一言在内等一众产品都不行。
还有人紧跟着吐槽, ChatGPT在处理这些简单的单词任务就是很糟糕。
比如玩此前曾爆火的文字游戏Wordle简直就是一场灾难,从来没有做对过。
关键在于token
之所以有这样的现象,关键在于token。token是文本中最常见的字符序列,而大模型都是用token来处理文本。
它可以是整个单词,也可以是单词一个片段。大模型了解这些token之间的统计关系,并且擅长生成下一个token。
因此在处理单词反转这个小任务时,它可能只是将每个token翻转过来,而不是字母。
根据经验总结,也就诞生出这样一些不成文法则。
单词如何划分还取决于语言。此前有人统计过,中文要用的token数是英文数量的1.2到2.7倍。
可以这样理解,token是大模型认识理解人类现实世界的方式。它非常简单,还能大大降低内存和时间复杂度。
但将单词token化存在一个问题,就会使模型很难学习到有意义的输入表示,最直观的表示就是不能理解单词的含义。
当时Transformers有做过相应优化,比如一个复杂、不常见的单词分为一个有意义的token和一个独立token。
就像annoyingly就被分成**“annoying”和“ly”**,前者保留了其语义,后者则是频繁出现。
这也成就了如今ChatGPT及其他大模型产品的惊艳效果,能很好地理解人类的语言。
至于无法处理单词反转这样一个小任务,自然也有解决之道。
最简单直接的,就是你先自己把单词给分开喽~
总之,token就是AI理解自然语言的基石。
而作为AI理解人类自然语言的桥梁,token的重要性也越来越明显。
它已经成为AI模型性能优劣的关键决定因素,还是大模型的计费标准。
甚至有了token文学
正如前文所言,token能方便模型捕捉到更细粒度的语义信息,如词义、词序、语法结构等。其顺序、位置在序列建模任务(如语言建模、机器翻译、文本生成等)中至关重要。
模型只有在准确了解每个token在序列中的位置和上下文情况,才能更好正确预测内容,给出合理输出。
因此,token的质量、数量对模型效果有直接影响。
今年开始,越来越多大模型发布时,都会着重强调token数量,比如谷歌PaLM 2曝光细节中提到,它训练用到了3.6万亿个token。
以及很多行业内大佬也纷纷表示,token真的很关键!
今年从特斯拉跳槽到OpenAI的AI科学家安德烈·卡帕斯(Andrej Karpathy)就曾在演讲中表示:
比如LLaMA的参数规模远小于GPT-3(65B vs 175B),但由于它用更多token进行训练(1.4T vs 300B),所以LLaMA更强大。
以OpenAI的定价标准为例,他们以1K个token为单位进行计费,不同模型、不同类型的token价格不同。
嗯,甚至衍生出了token文学……
直译“令牌”总是有点怪怪的。
GPT-4觉得叫“词元”或“标记”比较好,你觉得呢?
[1]
[2]
[3]