分享
大语言模型与智能体:了解你的电子奴隶
输入“/”快速插入内容
👩🎓
大语言模型与智能体:了解你的电子奴隶
用户9835
用户9835
1月16日修改
Author: Cunxi Gong
Vaswani et al. - 2023 - Attention Is All You Need - .pdf
Minaee et al. - 2025 - Large Language Models A Survey.pdf
Gan et al. - 2026 - Beyond the Black Box Theory and Mechanism of Large Language Models.pdf
https://github.com/ansatzX/data_transfer
虽然这些文献已经很好了,但是前沿每个月都有突破,最快跟进的方式是去读新模型的技术报告,比如Gemini3 gpt5.2 claude4.5 deepseekv3.2 qwen3.
前言
Q: 为什么我们要关注AI?为什么要用AI?
A: 人类的精力是有限的,我们需要一个可以不知疲倦的
超天才奴隶
。这样我们就可以做到work-life balance。现在全世界都觉得AI很有用了,技术&资本都在疯狂倾注之。
罗毅
说“人工智能帮不了科学家”。“AI能解决的问题都不是科学问题”。我100%赞同他的话,并奉为圭臬。
同时,
李维唐
说 “你就是导师”。
结合两者的思想,一个新的
方法论
出现了 “让人工智能应用当科学家的奴隶,以此解放科学家的生产力”。
还没毕业的学生很笨,AI也可能没(面试的时候)那么聪明,但是
很勤快
。导师(博士生)只用集中精力做设计和构思,让AI去自动做。我们读周报,指示下一步,如果没有进展,则解决没有进展的原因。
Q: 这次的报告会直接教你怎么用AI(LLM)称霸武林吗?
A: 不会,
各位杨过,欢迎来到全真教
,我这里只会教你内功心法口诀,你自己喜欢什么武功招式,随时ask AI然后修炼之!你今天所了解到的东西是为了
支援未来
!
Q: 为什么要修炼内功?我们不是驾驭奴隶吗?干嘛知道奴隶的知识?直接鞭笞他干活就完了
A:了解博士生的能力边界才能更好的奴役他
LLM到底是什么?
Language Modeling
文本被分解为更小的机器可读单元,称为“词元” token,
LM 就像一台巨大的统计预测机,可以重复
预测序列中的下一个单词
。它们学习文本中的模式,并生成遵循这些模式的语言。
那么第一个L就是指的他的参数量超级超级多,一般以B论之,比如我最近在孙主任的关照下部署了235B的某模型
•
参数量(Parameters):
从 1B 到数百 B,甚至 1T
•
数据量(Tokens):
训练语料规模巨大无比
•
计算量(FLOPs):
训练成本动辄百万至数千万美元