首页
论坛
登录
选择收藏夹
选择或创建你想添加的收藏夹
+ 新建收藏夹
确定
新建收藏夹
名称
公开
所有人可见
隐私
仅自己可见
取消
确定
张俊林say
2.4万
粉丝
2299
关注
1495
微博
昵称: 张俊林say
简介: 自然语言处理
保存微博:0
收藏
本站在持续运行中,《免费无广告》
长期提供查看半年可见微博,请大家帮忙宣传转发!
分享桃子圈
张俊林say
2.4万
粉丝
2299
关注
1495
微博
昵称: 张俊林say
简介: 自然语言处理
保存微博:0
收藏
本站在持续运行中,《免费无广告》
长期提供查看半年可见微博,请大家帮忙宣传转发!
分享桃子圈
张俊林say
Sun Jun 23 11:56:16 +0800 2024
来自 vivo X70 Pro+
就是,每个人都有在脑子里用语言思考问题的时刻,只是没有发出声而已//
@刘群MT-to-Death
:我觉得思考肯定会借助语言的。我知道某些人想事情的时候嘴里就会念念有词,甚至能听清ta在说什么。大部分人可能不能说出来,但脑子里用语言思考应该都会有的。
@高飞
#
自然杂志刊文说语言是交流工具不是思维工具
##
模型时代
#
柏拉图认为语言对思考至关重要,MIT 语言学家乔姆斯基(Noam Chomsky)认为,我们使用语言进行推理和其它形式的思考,“如果语言严重不足,思考也会严重不足。”
MIT认知神经学家Evelina Fedorenko曾选修过乔姆斯基的课她喜欢他的理论,但认为缺 ...
展开
2024年06月23日 09:55 来自 微博网页版
6
13
6
张俊林say
Sat Jun 22 17:34:21 +0800 2024
来自 vivo X70 Pro+
转发微博
@余承东
我正在跟微博CEO
@来去之间
在HDC展区一起体验基于HarmonyOS NEXT开发的微博应用,这条微博也是我的第一条原生鸿蒙微博,值得纪念!感谢微博优秀的开发团队,只用8周时间就快速完成了核心功能的开发。现在的版本已经有一些原生鸿蒙带来的全新体验,大家可以期待一下今年晚些时候发布的商用版。
2024年06月22日 15:49 来自 HUAWEI Mate 60 Pro
0
0
0
张俊林say
2024-06-07 19:17:08
来自 vivo X70 Pro+
第一次被人说洗稿[允悲],您仔细看下知乎高赞是啥,都是说是tokenizer的原因好吗,我第一条就是反驳这个原因的//
@-Winnnnnnie
:这么明显洗知乎的稿 就综合了一下几个高赞。。//
@Degg_GlobalMacroFin
:repost//
@吴军博士
://
@马少平THU
:转发微博
@张俊林say
为啥大模型做不好简单的数学计算?
“LLM能通向AGI”这一观点的反对者经常提这个问题:你们整天吹LLM会达到AGI,可为啥大模型连最简单的“多位数加法”都做不好?
这质疑对很多AGI信奉者来说是很扎心的,不好反驳,因为大模型做多位数加法这种简单数学确实有困难。不过,目前基本已能理清其 ...
展开
2024年06月06日 19:39 来自 微博网页版
18
9
7
张俊林say
2024-06-07 18:23:31
来自 vivo X70 Pro+
对啊,用不用工具不是重点,如果基础运算都不行,复杂逻辑能力何来?这才是重点。AGI支持者来反驳下
//
@nzinfo
:是可以调工具,但是如果不能只借助 scratchpad 模式手算出来,模型能力存疑是合理的质疑。//
@Rachel____Zhang
:emm…其实这种就是典型的agent场景,最适合调工具,sei说不会写代码的老
@张俊林say
为啥大模型做不好简单的数学计算?
“LLM能通向AGI”这一观点的反对者经常提这个问题:你们整天吹LLM会达到AGI,可为啥大模型连最简单的“多位数加法”都做不好?
这质疑对很多AGI信奉者来说是很扎心的,不好反驳,因为大模型做多位数加法这种简单数学确实有困难。不过,目前基本已能理清其 ...
展开
2024年06月06日 19:39 来自 微博网页版
7
5
6
张俊林say
2024-06-07 08:09:00
来自 vivo X70 Pro+
回复
@Aspirinrin
:Scrachpad其实就是COT,只不过只在解数学题的时候用,这个比COT出现的要早,我感觉COT应该是借鉴了Scrachpad的思路的,只是使用范围比数学计算更宽些//
@Aspirinrin
:为什么叫scratchpad
@张俊林say
为啥大模型做不好简单的数学计算?
“LLM能通向AGI”这一观点的反对者经常提这个问题:你们整天吹LLM会达到AGI,可为啥大模型连最简单的“多位数加法”都做不好?
这质疑对很多AGI信奉者来说是很扎心的,不好反驳,因为大模型做多位数加法这种简单数学确实有困难。不过,目前基本已能理清其 ...
展开
2024年06月06日 19:39 来自 微博网页版
5
7
0
张俊林say
2024-06-06 21:33:22
来自 vivo X70 Pro+
回复
@朱天赐ztc
:很好的想法,已经用了,一般把这叫scratchpad,就是给些例子把详细计算过程体现出来,效果很好//
@朱天赐ztc
:张老师,用CoT,把加法的规则很详细的写出来,放到提示词里,感觉是更符合人类的逻辑,不知道大模型能不能做到
@张俊林say
为啥大模型做不好简单的数学计算?
“LLM能通向AGI”这一观点的反对者经常提这个问题:你们整天吹LLM会达到AGI,可为啥大模型连最简单的“多位数加法”都做不好?
这质疑对很多AGI信奉者来说是很扎心的,不好反驳,因为大模型做多位数加法这种简单数学确实有困难。不过,目前基本已能理清其 ...
展开
2024年06月06日 19:39 来自 微博网页版
19
17
3
张俊林say
2024-06-06 21:03:41
来自 vivo X70 Pro+
目前很多大模型碰见数学题都是调用的计算器工具,或者写代码啥的,效果很好//
@楚轩在上面
:回复
@黄健楸
:就和数学不好的人要用计算器一样,能否让大语言模型碰到数学题直接调用编程功能求解?//
@黄健楸
:顺带一提,人的多位数加法也不是很好
@张俊林say
为啥大模型做不好简单的数学计算?
“LLM能通向AGI”这一观点的反对者经常提这个问题:你们整天吹LLM会达到AGI,可为啥大模型连最简单的“多位数加法”都做不好?
这质疑对很多AGI信奉者来说是很扎心的,不好反驳,因为大模型做多位数加法这种简单数学确实有困难。不过,目前基本已能理清其 ...
展开
2024年06月06日 19:39 来自 微博网页版
8
13
1
张俊林say
2024-06-06 19:39:11
来自 微博网页版
为啥大模型做不好简单的数学计算?
“LLM能通向AGI”这一观点的反对者经常提这个问题:你们整天吹LLM会达到AGI,可为啥大模型连最简单的“多位数加法”都做不好?
这质疑对很多AGI信奉者来说是很扎心的,不好反驳,因为大模型做多位数加法这种简单数学确实有困难。不过,目前基本已能理清其 ...
展开
579
629
50
张俊林say
2024-06-01 08:45:53
来自 vivo X70 Pro+
规模法则?规模定律?规模效应?感觉叫规模法则更好些//
@刘群MT-to-Death
:#
术语翻译太难了
#//
@raogaoqi
:我记得
@刘群MT-to-Death
老师有个话题专门标记术语翻译推来着//
@马少平THU
://
@zibuyu9
:规模法则。//
@马少平THU
:简单点:尺度律如何?//
@宝玉xp
:确实没统一的翻译,我一般翻译成“规模化定律”
@张俊林say
以下内容是5月15日甲子光年圆桌论坛讨论内容,涉及Scaling Law、合成数据与“半合成数据”、与Transformer不同的新模型结构、MOE及Long Context等问题。
一、是否相信Scaling Law?
王艺 :围绕Scaling Law有很多的争议,有些人是坚定的信仰者,觉得只要堆数据、堆算力就能带领我们达到AGI;但是也有 ...
展开
2024年05月30日 08:48 来自 微博网页版
1
2
3
张俊林say
2024-05-31 07:19:49
来自 vivo X70 Pro+
好像目前没有统一的公认的翻译,有翻译成“伸缩定律”,“尺度定律”,我之前喜欢叫“伸缩法则”//
@桂曙光
:Scaling Law是跟Transformer和Token一样不方便翻译成合适的中文吗?
//
@蒋涛CSDN
://
@张俊林say
:
//
@刘群MT-to-Death
:很好的讨论
@张俊林say
以下内容是5月15日甲子光年圆桌论坛讨论内容,涉及Scaling Law、合成数据与“半合成数据”、与Transformer不同的新模型结构、MOE及Long Context等问题。
一、是否相信Scaling Law?
王艺 :围绕Scaling Law有很多的争议,有些人是坚定的信仰者,觉得只要堆数据、堆算力就能带领我们达到AGI;但是也有 ...
展开
2024年05月30日 08:48 来自 微博网页版
6
88
4
下一页
最近更新
俄罗斯田園猫
美甲店:俄罗斯田园猫 蜂蜜店:总要吃点好的
律律Lyu-Real1ty
若不能随心所欲,那就顺其自然吧 DM会看但不回🎤
網上虛擬交心不宜
我爱我的小猫
香蕉盲盒bo
非酋改命的随便
地偶拍fo爱好者,欢迎互fo,友好交流。讨厌没素质没礼貌的人,不爽会直接拉黑。
炭烤莉莉黑
劈诶丝高手/赛博女同/不吃烧烤之怒/只要你喜欢香菜我们就是好朋友,粉提已关,随缘回fo,请不要求fo,不会单向,单向请私,谢谢~
Xzzzz_xz
小红书:Xzzzz ins:xzzzzz_xz V:Xzzz_xz 222
四字网友
只希望你快乐
今事
只述事实,不谈观点! 大号:@中事
失眠老蟹
FumeKrab 🚫转载。混邪杂食,慎fo. < 不悲不喜,及时行乐。< 头像from@ 鸦二三四
全球文学bot
投稿私信,各个国家的文学名句
薯薯更美味
镇魂家,代表作《ndsl》
他只是个孩子啊
祖国的花朵还是仙人掌? 这是个问题! (欢迎投稿)
不可燃物
目前不接稿,不接推广
追剧追点啥
最热电影电视剧推介,快来看看吧!
摘樱桃_tong
直观看见茴 没茴记得sx我|镇魂
夏弃疾_回乡冲浪版
“在梦里完成人生。”不看私信,课程合作报名咨询xqjstudio7感谢相遇。
W桑是羊驼
如你所见一个破画画的✨❤️【年前不接稿了】
G2电子竞技俱乐部
欧洲电子竞技俱乐部G2 Esports官方微博,涉及LOL、CSGO、R6等多个游戏领域。关注我们第一时间获取G2最新动态。
六十五便士
苟活