E145 | 对话Meta田渊栋:被Transformer改变的世界与人类AGI的野心

Episode 151 · March 28th, 2024 · 54 mins 10 secs

About this Episode

2017年,谷歌一篇划时代的论文《Attention is all you need》掀开这一轮人工智能的开幕式,这篇论文就是大名鼎鼎的Transformer。7年过去了,我们看到在这篇论文的基础上加入算力、算法开启了AI时代的第三次科技浪潮。

今天我们的嘉宾是来自Meta Fair的研究员田渊栋博士,他最近也发表了两片论文都在都与端侧小模型相关,一片论文是《 MobileLLM: Optimizing Sub-billion Parameter Language Models for On-Device Use Cases》中开始卷 10 亿以下参数小模型,主打在移动设备上运行 LLM;另一片论文是《GaLore: Memory-Efficient LLM Training by Gradient Low-Rank Projection》,由于离应用更近在解决更实际的问题,他的论文被业界很多人问到,而过去五年,他所有的研究都在回答一个问题:神经网络是如何工作的?

今天我们就一起来解读田渊栋最近的两篇论文,也一起聊聊最近大火的Sora、Transformer与AGI。


【老罗直播预告】
北京时间3月31号晚上七点,罗永浩会在直播间卖云产品。之前老罗也带火过很多概念,这次我们来看一看,老罗能不能引领一场企业级IT认知的运动,把云计算这个概念推向大众。他这次的选品涵盖阿里云众多的热门产品,价格也给出了史无前例的优惠,大家感兴趣去淘宝app搜索「罗永浩」,让我们一起围观连续创业者罗永浩卖云产品,以及他如何解决创业者的核心痛点的,直播链接:https://m.tb.cn/h.5BYaoxh


【主播】
泓君,硅谷101创始人,播客主理人
【嘉宾】
田渊栋,Meta人工智能研究院(FAIR)研究员及高级经理

田渊栋博士,Meta AI人工智能研究院(FAIR)研究员及高级经理,2018年围棋开源项目(ELF OpenGo)研究及工程负责人和第一作者。曾获2021年国际机器学习大会(ICML)杰出论文奖提名(Outstanding Paper Honorable Mentions)及2013年国际计算机视觉大会(ICCV)马尔奖提名(Marr Prize Honorable Mentions)。研究方向为深度强化学习,表示学习和优化,历任机器学习国际会议ICML,NeurIPS,AAAI, AIStats领域主席。2013-2014年在Google无人驾驶团队任软件工程师。

【你将听到】
00:05 3月31号晚七点罗永浩直播间卖云
01:34 正片
【“斜杠”AI研究专家】
02:55 从自动驾驶、围棋开源项目到神经网络研究
05:52 写科幻小说:不靠谱的想法放进小说,靠谱的想法用来做科研
07:24 理解神经网络如何工作or 研究大模型,2019年为何拒绝Ilya Sutskever加入OpenAI的邀请
08:44 最新两篇论文的艰难诞生:曾被两次拒稿,三四年后才看到结果
【GaLore和MobileLLM】
11:04 GaLore的主要特点:实现在英伟达RTX 4090上进行模型的从头训练
12:56 算法上改进让4090重获新生,省内存的同时获得高性能
16:56 MobileLLM:降低神经网络参数仍然保持好的效果
【实现AGI的路径】
17:40 Scaling Law带来的增长会越来越小,我们并没有完全理解为什么Transfomer的效果更好
19:17 完全无人驾驶难点:人工干预的频率越低,有效训练数据就越少
23:41 Transformer很难做游戏式的推理:通过理解神经网络的工作原理来改进现有算法
【深度理解Transformer】
24:52 谷歌内部发现算力价格比通信便宜,所以想到要设计一个模型让算力获得更大优势
26:21 Transfomer vs CNN:没有预设立场,并行效果更好
26:44 Transformer的缺点:需要大量算力、速度较慢、延迟高
28:01 强化学习的根本性问题:Exploration(探索)和Exploitation(开采)
【Sora、合成数据与Anthropic】
30:03 Sora的最让人惊艳的地方是所生成的内容一致性非常好,在技术上有根本的创新
33:07 世界模型并不“高大上”,对未来有看法和预测都可以成为称为“世界模型”
40:46 用合成数据训练大模型是趋势,其与真实数据之间的边界会越来越模糊
43:00 合成数据相当于用算力来换数据,但缺乏人类参与的数据会导致学习瓶颈
44:30 Anthropic的长文理解和分析能力远强过GPT-4,但推理能力难以分高下
46:30 大模型缺乏竞争的话,也会出现“偷懒”的问题
48:06 一家独大 or 威慑平衡,Meta开源打破的行业格局
48:18 大模型侵蚀Google的核心业务,训练和推理很难发论文
50:20 从玄幻小说到科幻小说:记录人与人之间的关系和思维的火花


【相关信息拓展】
ELF OpenGo:由Facebook AI Research团队(FAIR)在2018年开源发布的AI围棋项目。其特点是不使用人类棋谱与累积的围棋知识,仅实做围棋规则,使用单一人工神经网络从自我对弈中学习。《ELF OpenGo: An Analysis and Open Reimplementation of AlphaZero》
MobileLLM论文:《 MobileLLM: Optimizing Sub-billion Parameter Language Models for On-Device Use Cases》
GaLore论文:《GaLore: Memory-Efficient LLM Training by Gradient Low-Rank Projection》
田渊栋之前自动驾驶的技术分析帖子
玄幻&科幻作品集


【后期】
AMEI
【BGM】
Interruption - Craft Case
Stillness Within - Roots and Recognition


【在这里找到我们】
公众号:硅谷101
收听渠道:苹果|小宇宙|喜马拉雅|蜻蜓FM|网易云音乐|QQ音乐|荔枝播客
海外用户:Apple Podcast|Spotify|TuneIn|Youtube|Amazon Music
联系我们:[email protected]