张俊林say
2.4万 粉丝
2299 关注
1495 微博
  • 昵称: 张俊林say
  • 简介: 自然语言处理
  • 保存微博:0
本站在持续运行中,《免费无广告》
长期提供查看半年可见微博,请大家帮忙宣传转发!
就是,每个人都有在脑子里用语言思考问题的时刻,只是没有发出声而已//@刘群MT-to-Death:我觉得思考肯定会借助语言的。我知道某些人想事情的时候嘴里就会念念有词,甚至能听清ta在说什么。大部分人可能不能说出来,但脑子里用语言思考应该都会有的。
#自然杂志刊文说语言是交流工具不是思维工具##模型时代#
柏拉图认为语言对思考至关重要,MIT 语言学家乔姆斯基(Noam Chomsky)认为,我们使用语言进行推理和其它形式的思考,“如果语言严重不足,思考也会严重不足。”

MIT认知神经学家Evelina Fedorenko曾选修过乔姆斯基的课她喜欢他的理论,但认为缺 ... 展开
2024年06月23日 09:55 来自 微博网页版
6
13
6
转发微博
我正在跟微博CEO@来去之间 在HDC展区一起体验基于HarmonyOS NEXT开发的微博应用,这条微博也是我的第一条原生鸿蒙微博,值得纪念!感谢微博优秀的开发团队,只用8周时间就快速完成了核心功能的开发。现在的版本已经有一些原生鸿蒙带来的全新体验,大家可以期待一下今年晚些时候发布的商用版。
2024年06月22日 15:49 来自 HUAWEI Mate 60 Pro
0
0
0
第一次被人说洗稿[允悲],您仔细看下知乎高赞是啥,都是说是tokenizer的原因好吗,我第一条就是反驳这个原因的//@-Winnnnnnie:这么明显洗知乎的稿 就综合了一下几个高赞。。//@Degg_GlobalMacroFin:repost//@吴军博士://@马少平THU:转发微博
为啥大模型做不好简单的数学计算?

“LLM能通向AGI”这一观点的反对者经常提这个问题:你们整天吹LLM会达到AGI,可为啥大模型连最简单的“多位数加法”都做不好?
这质疑对很多AGI信奉者来说是很扎心的,不好反驳,因为大模型做多位数加法这种简单数学确实有困难。不过,目前基本已能理清其 ... 展开
2024年06月06日 19:39 来自 微博网页版
18
9
7
对啊,用不用工具不是重点,如果基础运算都不行,复杂逻辑能力何来?这才是重点。AGI支持者来反驳下//@nzinfo:是可以调工具,但是如果不能只借助 scratchpad 模式手算出来,模型能力存疑是合理的质疑。//@Rachel____Zhang:emm…其实这种就是典型的agent场景,最适合调工具,sei说不会写代码的老
为啥大模型做不好简单的数学计算?

“LLM能通向AGI”这一观点的反对者经常提这个问题:你们整天吹LLM会达到AGI,可为啥大模型连最简单的“多位数加法”都做不好?
这质疑对很多AGI信奉者来说是很扎心的,不好反驳,因为大模型做多位数加法这种简单数学确实有困难。不过,目前基本已能理清其 ... 展开
2024年06月06日 19:39 来自 微博网页版
7
5
6
回复@Aspirinrin:Scrachpad其实就是COT,只不过只在解数学题的时候用,这个比COT出现的要早,我感觉COT应该是借鉴了Scrachpad的思路的,只是使用范围比数学计算更宽些//@Aspirinrin:为什么叫scratchpad
为啥大模型做不好简单的数学计算?

“LLM能通向AGI”这一观点的反对者经常提这个问题:你们整天吹LLM会达到AGI,可为啥大模型连最简单的“多位数加法”都做不好?
这质疑对很多AGI信奉者来说是很扎心的,不好反驳,因为大模型做多位数加法这种简单数学确实有困难。不过,目前基本已能理清其 ... 展开
2024年06月06日 19:39 来自 微博网页版
5
7
0
回复@朱天赐ztc:很好的想法,已经用了,一般把这叫scratchpad,就是给些例子把详细计算过程体现出来,效果很好//@朱天赐ztc:张老师,用CoT,把加法的规则很详细的写出来,放到提示词里,感觉是更符合人类的逻辑,不知道大模型能不能做到
为啥大模型做不好简单的数学计算?

“LLM能通向AGI”这一观点的反对者经常提这个问题:你们整天吹LLM会达到AGI,可为啥大模型连最简单的“多位数加法”都做不好?
这质疑对很多AGI信奉者来说是很扎心的,不好反驳,因为大模型做多位数加法这种简单数学确实有困难。不过,目前基本已能理清其 ... 展开
2024年06月06日 19:39 来自 微博网页版
19
17
3
目前很多大模型碰见数学题都是调用的计算器工具,或者写代码啥的,效果很好//@楚轩在上面:回复@黄健楸:就和数学不好的人要用计算器一样,能否让大语言模型碰到数学题直接调用编程功能求解?//@黄健楸:顺带一提,人的多位数加法也不是很好
为啥大模型做不好简单的数学计算?

“LLM能通向AGI”这一观点的反对者经常提这个问题:你们整天吹LLM会达到AGI,可为啥大模型连最简单的“多位数加法”都做不好?
这质疑对很多AGI信奉者来说是很扎心的,不好反驳,因为大模型做多位数加法这种简单数学确实有困难。不过,目前基本已能理清其 ... 展开
2024年06月06日 19:39 来自 微博网页版
8
13
1
张俊林say
2024-06-06 19:39:11 来自 微博网页版
为啥大模型做不好简单的数学计算?

“LLM能通向AGI”这一观点的反对者经常提这个问题:你们整天吹LLM会达到AGI,可为啥大模型连最简单的“多位数加法”都做不好?
这质疑对很多AGI信奉者来说是很扎心的,不好反驳,因为大模型做多位数加法这种简单数学确实有困难。不过,目前基本已能理清其 ... 展开
579
629
50
规模法则?规模定律?规模效应?感觉叫规模法则更好些//@刘群MT-to-Death:#术语翻译太难了#//@raogaoqi:我记得@刘群MT-to-Death 老师有个话题专门标记术语翻译推来着//@马少平THU://@zibuyu9:规模法则。//@马少平THU:简单点:尺度律如何?//@宝玉xp:确实没统一的翻译,我一般翻译成“规模化定律”
以下内容是5月15日甲子光年圆桌论坛讨论内容,涉及Scaling Law、合成数据与“半合成数据”、与Transformer不同的新模型结构、MOE及Long Context等问题。

一、是否相信Scaling Law?

王艺 :围绕Scaling Law有很多的争议,有些人是坚定的信仰者,觉得只要堆数据、堆算力就能带领我们达到AGI;但是也有 ... 展开
2024年05月30日 08:48 来自 微博网页版
1
2
3
好像目前没有统一的公认的翻译,有翻译成“伸缩定律”,“尺度定律”,我之前喜欢叫“伸缩法则”//@桂曙光:Scaling Law是跟Transformer和Token一样不方便翻译成合适的中文吗? //@蒋涛CSDN://@张俊林say://@刘群MT-to-Death:很好的讨论
以下内容是5月15日甲子光年圆桌论坛讨论内容,涉及Scaling Law、合成数据与“半合成数据”、与Transformer不同的新模型结构、MOE及Long Context等问题。

一、是否相信Scaling Law?

王艺 :围绕Scaling Law有很多的争议,有些人是坚定的信仰者,觉得只要堆数据、堆算力就能带领我们达到AGI;但是也有 ... 展开
2024年05月30日 08:48 来自 微博网页版
6
88
4
最近更新
俄罗斯田園猫
美甲店:俄罗斯田园猫 蜂蜜店:总要吃点好的
律律Lyu-Real1ty
若不能随心所欲,那就顺其自然吧 DM会看但不回🎤
網上虛擬交心不宜
我爱我的小猫
香蕉盲盒bo
非酋改命的随便
地偶拍fo爱好者,欢迎互fo,友好交流。讨厌没素质没礼貌的人,不爽会直接拉黑。
炭烤莉莉黑
劈诶丝高手/赛博女同/不吃烧烤之怒/只要你喜欢香菜我们就是好朋友,粉提已关,随缘回fo,请不要求fo,不会单向,单向请私,谢谢~
Xzzzz_xz
小红书:Xzzzz ins:xzzzzz_xz V:Xzzz_xz 222
四字网友
只希望你快乐
今事
只述事实,不谈观点! 大号:@中事
失眠老蟹
FumeKrab 🚫转载。混邪杂食,慎fo. < 不悲不喜,及时行乐。< 头像from@ 鸦二三四
全球文学bot
投稿私信,各个国家的文学名句
薯薯更美味
镇魂家,代表作《ndsl》
他只是个孩子啊
祖国的花朵还是仙人掌? 这是个问题! (欢迎投稿)
不可燃物
目前不接稿,不接推广
追剧追点啥
最热电影电视剧推介,快来看看吧!
摘樱桃_tong
直观看见茴 没茴记得sx我|镇魂
夏弃疾_回乡冲浪版
“在梦里完成人生。”不看私信,课程合作报名咨询xqjstudio7感谢相遇。
W桑是羊驼
如你所见一个破画画的✨❤️【年前不接稿了】
G2电子竞技俱乐部
欧洲电子竞技俱乐部G2 Esports官方微博,涉及LOL、CSGO、R6等多个游戏领域。关注我们第一时间获取G2最新动态。
六十五便士
苟活