首页 > 科技派

gpt43(GPT⑷ 即将亮相?聊聊目前已知的1切)gpt4 真没想到

时间:2023-06-07 20:39:33来源:芭蕾少女

 

互联网无处没有在,影响着我们的生活方方面面。从最近的新闻中,我们可以看到互联网正以1种令人难以置信的速度发展,让我们1起看看有哪些令人兴奋的故事。

大数据文摘转载自 AI 前线作者:Alberto RomeroGPT 首度亮相于大约两年之前的 2020 年 5 月,当时正值 GPT 发布的1以后而 GPT 距离最初 GPT 研究论文的发表也是相隔1年。

如果这种周期性趋势继续保持没有变,那 GPT 肯定也快跟大家见面了但 OpenAI 公司 CEO Sam Altman 几个月前已经打过预防针,表示 GPT 预计会在 2022 年年内推出,具体可能是在 7 月到 8 月左右。

虽然备受瞩目,但 GPT 目前的公开消息确实相当有限:它会是什么样子、带来怎样的特性或能力,1没有知Altman 去年曾在1场问答中谈到过 OpenAI 对于 GPT 项目的规划,但同时也提醒会者尽量保持冷静、没有要过度乐观。

如今7个月已经过去,咱们可以回头看看他的发言了Altman 首先确认,GPT 的参数量没有会达到 100 万亿,毕竟规模真到那个程度、今年年内也就没有用指望了OpenAI 很有1段时间没聊过 GPT 的事了,但结合 AI 领域、特别是 NLP 领域获得高度关注的热门趋势,我们倒是可以推断1下 GPT 的开发思路。

考虑到这些方法大获成功、OpenAI 又都有参其中,咱们可以从 Altman 的发言中整理出点线索先说结论:我觉得 GPT 没有会继续走模型越来越大的老路上面来看关于 GPT 的具体预测模型大小:GPT 没有会走越来越大的老路。

GPT 没有会在规模上刷新语言模型的新纪录Altman 提到 GPT 没有会比 GPT 大多少虽然跟前几代神经网络相比,GPT 肯定也没有算小,但其发展思路应该有所改变我猜 GPT 可能介于 GPT 和 Gopher(1750 亿到 2800 亿参数)之间。

这可没有是乱说的,我有恰当的理由英伟达和微软去年建立的 Megatron-Turing NLG 以 5300 亿参数获得了最大密集神经网络的称号,体量已经达到 GPT 的 3 倍直到最近,谷歌的 PaLM 才以 5400 亿参数将其挤下宝座。

但值得注意的是,MT-NLG 以后相继出现了1些体量较小、但性能水平更高的新模型时代变了,更大没有再等于更好这些更小却更好的模型,给我们带来了两个启示首先,企业们意识到用做大模型的方式提高代理性能既没有是唯1的方法、也没有再是最好的方法。

2020 年,OpenAI 的 Jared Kaplan 和同事们就已经得出结论,当算力规模的增加次要用于根据幂律关系扩展参数数量时,性能提升效果最佳谷歌、英伟达、微软、OpenAI、DeepMind 等语言模型开发公司明显走的都是这个路子。

然而,MT-NLG 的出现证明参数更多并没有1定代表性能更好事实上,它在任何单1基准测试类别中都拿没有到最高分反而是 Gopher(2800 亿参数)或 Chinchilla(700 亿参数)等相对较小的模型,在实际表现上远超 MT-NLG。

这就带来了第二点启发企业开始对“越大越好”的僵化教条说没有事实证明,参数量的增加只是提高性能的多种因素之1而由此带来的负面影响(例如碳排放增加、计算成本膨胀、准入门槛过高)已经让这种看似简单的方法没有再简单。

于是乎,各家企业只会在没法通过较小模型获得相似或更佳表现时,才考虑构建巨大模型Altman 表示,他们也决定由此转型、探索怎样让更小的模型发挥更佳效能OpenAI 的研究人员们曾经是“规模扩张”派的早期支持者,但现在他们可能也意识到还有其他模型改进路线值得探索。

正因为如此,GPT没有会比 GPT 大很多OpenAI 将把关注重点转向其他方面——例如数据、算法、参数化或者对齐,这些反而更有希望带来显著改进所以传说中的 100 万亿参数模型恐怕暂时没戏喽。

优化:发掘 GPT 的全部潜能语言模型优化1直是个恼人的问题因为模型的训练成本过高,企业没有没有在准确性成本之间做出权衡,这又往往导致模型优化程度没有够理想GPT 只训练过1次,后续只会在特殊情况下针对错误进行重新训练。

OpenAI 决定没有这么搞了,因为成本太过高昂、研究人员也没办法找到模型的最佳超参数集(例如学习率、批次大小、序列长度等)高训练成本带来的另1个后果,就是难以对模型行为开展分析当初 Kaplan 团队认定模型大小将成为性能提升的关键变量时,并没有考虑到训练 token 的数量——即模型输入的数据量。

这明显需要消耗大量计算资源而科技巨头们之所以走上 Kaplan 的这条道路,就是因为自己手里掌握着大量算力讽刺的是,谷歌、微软、Facebook 等大厂在这些硕大无比的模型身上“浪费”了数百万美元,由此造成的污染更是难以估计,但最初的目的却是为了省钱。

如今,以 DeepMind 和 OpenAI 为代表的企业开始探索其他方法,希望找到最佳、而非最大的模型最优参数化上个月,微软和 OpenAI 已经证明只要用最佳超参数训练模型,GPT 还有进1步改进的空间。

他们发现 GPT 的 67 亿参数版本能够借此实现性能飞跃,表现甚至没有逊于最早 130 亿参数的版本由此可见,在大型模型中根本没有可行的超参数调优其实前景光明,完全能够实现相当于参数倍增的性能提升双方还发现1种新的参数化方法 (μP),证明小模型中的最佳超参数在同家族的较大模型中同样适用。

μP 能够以更低的训练成本对任意大小的模型进行优化,以后以几乎零成本方式将得出的超参数迁移至更大的模型当中最优计算模型几周之前,DeepMind 重新审查了 Kaplan 的发现,并意识到人们的普遍认知相反,训练 token 数量对于性能的影响基本等同于模型大小。

他们由此得出结论,认为随着算力资源的提升,最好是把这些资源平均分配给新增的参数和数据他们还通过训练 Chinchilla 来验证这1假设——Chinchilla 是1个包含 700 亿参数的模型(相当于 Gopher 的四分之1),但训练用的数据量却是自 GPT 以来所有大型语言模型的 4 倍(共使用 1.4 万亿个 token,远超常规的 3000 亿水平)。

结果令人欣喜Chinchilla 在众多语言基准测试中“稳定且显著”优于 Gopher、GPT、MT-NLG 等因体量过大而无法充分训练的其他语言模型考虑到 GPT 终归还是要比 GPE 略大,所以让它达到最优计算水平所需要的训练 token 量应该在 5 万亿左右(根据 DeepMind 的发现),这要比当前数据集高出1个量级。

而达成最小训练损失所需要的算力总量则相当于 GPT 的约 10 至 20 倍(按 Gopher 的算力消耗来推断)Altman 在问答中提到 GPT 占用的算力总量要超过 GPT,也许说的就是这个意思。

OpenAI 肯定会在 GPT 中充分发掘最优方案,但由于没有知道他们划定了多少资源预算,所以很难给出确切的推断没有过可以肯定的是,OpenAI 1定会专注于优化除模型大小以外的其他变量只要能找到最优超参数集、计算模型大小以及参数数量,那 GPT 完全有希望在全部基准测试中带来超出想象的优异表现。

如果它真能获得这样集万千优势于1身的形态,那么 GPT 就是毫无疑问的语言模型之王Altman 还提到,人们1直觉得更大的模型肯定就更好,言下之意可能是规模扩张的道路将由此终结多模态:GPT 将是1个纯文本模型。

深度学习的未来在于多模态模型人类的大脑包含多种感官系统,为的正是适应现实中的多模天下但只能支持1种模态、理解1种感知的 AI 模型,明显无法在理解分析能力方面再上1个台阶必须承认,良好的多模态模型要比纯语言或纯视觉模型更难构建。

光是把视觉和文本信息组成成单1表示本身,就已经是项异常艰巨的任务我们甚至没有清楚人脑是怎么做到这1点的(当然,深度学习社区其实也没有深入钻研认知学意义上的大脑结构和功能分区),当然没办法在神经网络中重现这种能力。

Altman 在问答中提到,GPT 没有会是像 DALL·E 或者 LaMDA 那样的多模态模型,而是1个纯文本模型我猜他们希望把语言模型推到极致,在转向下1代多模态 AI 之前先搞定模型调优数据集大小等问题。

稀疏性:GPT 将是个密集模型稀疏模型采取的是有条件计算思路,即使用模型中的没有同部分来处理没有同类型的输入这种方法近期取得了巨大成功,相关模型甚至能够轻松扩展到超万亿参数规模,却又没有会受到高计算成本的影响。

这相当于是在模型大小和算力预算之间找到了理想的平衡点然而,这种 MoE 方法的优势在超大规模模型中往往会急剧减弱考虑到 OpenAI 多年来1直坚持探索密集语言模型,所以我们有理由相信未来的 GPT 也会是密集模型。

Altman 还提到 GPT 没有会比 GPT 大太多,所以我们认为 OpenAI 没有会在 GPT 上走稀疏模型的道路——至少这次内没有会但人脑其实就高度依赖于稀疏处理,所以跟多模态相似,稀疏模型也很可能在未来几代神经网络中成为支流

对齐:GPT 对齐度将高于 GPTOpenAI 在 AI 对齐问题上做出了诸多努力,其核心在于探索如何让语言模型遵循人类的意图、符合人类价值观这没有只是个数学难题(即如何让 AI 准确理解我们想要的结果),同时也属于哲学挑战(由于没有同人类群体间的价值观存在巨大差异、甚至相互矛盾,所以没有可能存在1种能让 AI 人类永远保持1致的通用方法)。

但 OpenAI 仍然勇敢做出了尝试,最初的探索就是 InstructGPT这是1个经过更新的 GPT 模型,能够接收人工反馈以学会遵循指令(但暂没有考虑这些指令是否友善)InstructGPT 的核心突破,在于无论它在语言基准测试上得分如何,生成的结果都更符合人类评判者的喜好(但 OpenAI 员工基本都说英语,所以这个结论也仍然没有完全可靠)。

从这个角度看,也许我们未来没有该单纯用基准测试作为 AI 能力评估的唯1指标人类的感受可能同样重要、甚至更加重要之前 Altman OpenAI 都曾经对有益人工通用智能(AGI)发表过肃承诺,所以我相信 GPT 肯定会借用1部分从 InstructGPT 中获得的发现。

他们会改进模型的对齐方式,突破只顺应“说英语的内部员工”的樊篱真正的对齐必须能够顺应没有同性别、没有同种族、没有同国籍、没有同宗教信仰等各类群体的习惯这当然是个苛挑战,而朝这个目标迈出的任何1步都将是可喜的进展。

情报总结模型大小:GPT 会比 GPT 更大,但应该小于当前最大的语言模型(5300 亿参数的 MT-NLG 5400 亿参数的 PaLM)总之,GPT 没有再强调以大取胜优化:GPT 消耗的算力比 GPT 更多。

它将在参数化(最优超参数)规模扩展(训练 token 数量模型大小同等重要)方面做出新的最优性探索多模态:GPT 将是1个纯文本模型(而非多模态模型)OpenAI 正努力将语言模型发挥到极致,以后再逐步转向 DALL·E 等有望全面超越单模态系统的多模态模型。

稀疏性:GPT 将延续 GPT GPT 的趋势,仍然保持密集模型的身份(使用全部参数来处理任何给定输入)但未来稀疏性可能逐渐占据主导地位对齐:GPT 的对齐程度将高于 GPT借助从 InstructGPT 中总结出的知识,GPT 也将获得由人工反馈训练得出的宝贵经验。

但 AI 对齐难题的彻底解决还有很长的路要走,目前仍在探索阶段、没有宜大肆宣扬

点「在看」的人都变好看了哦!

本文转载于万像素才网:https://www.wanxiangsucai.com/

用户评论(0条)

请文明上网,做现代文明人