博客
关于我
1024块TPU在燃烧!BERT训练从3天缩短到76分钟 | 技术头条
阅读量:127 次
发布时间:2019-02-26

本文共 756 字,大约阅读时间需要 2 分钟。

BERT预训练时间大幅缩短:Google与UC Berkeley研究团队提出新算法

近日,Google与UC Berkeley、UCLA的研究团队在大模型训练领域取得重大突破。他们成功将BERT预训练的时间从三天压缩至76分钟,采用LAMB优化器后实现了这一显著进展。

BERT作为当前最耗时的工业界应用之一,其预训练过程一直面临效率瓶颈。特别是在使用大批量数据时,传统的训练方法难以满足需求。UC Berkeley博士尤洋在接受采访时表示:“直接优化传统批处理方法会导致测试集准确性下降,这对模型性能是一个严峻挑战。”

为了应对这一难题,他们提出了一种全新的优化算法LAMB(LARGE batch Matrix Optimization)。该算法不仅支持更大的批量处理(如65536),还能在不降低准确率的情况下显著提升训练效率。具体而言,使用LAMB优化器的BERT-Large模型在批量处理为65536时,仅需8599次迭代完成预训练,而传统方法需要100万次迭代。

尤洋的研究团队还进一步优化了批量处理的内存限制,实现了与TPUv3 pod相匹配的训练效果。最终,他们将BERT的预训练时间从三天压缩至76分钟。

尤洋的研究成果备受关注。他目前专注于大规模深度学习训练算法的分布式优化。值得一提的是,他曾在2017年9月以24分钟完成ImageNet训练,刷新了世界纪录。尤洋的导师是美国科学院与工程院院士、伯克利计算机系主任James Demmel教授,这为他的研究提供了坚实的理论基础。

推荐阅读:

  • 「2019 Python开发者日」演讲议题全揭晓!10余位一线Python技术专家共同打造硬核技术大会。
  • 更有深度培训实操环节,为开发者们带来更多深度实战机会。

点击阅读原文,查看更多历史精彩文章。

转载地址:http://muay.baihongyu.com/

你可能感兴趣的文章
opencv面向对象设计初探
查看>>
OpenCV(1)读写图像
查看>>
OpenCV:不规则形状区域中每种颜色的像素数?
查看>>
OpenCV:概念、历史、应用场景示例、核心模块、安装配置
查看>>
OpenDaylight融合OpenStack架构分析
查看>>
OpenERP ORM 对象方法列表
查看>>
openEuler Summit 2022 成功举行,开启全场景创新新时代
查看>>
openEuler 正式开放:推动计算多样化时代的到来
查看>>
OpenEuler23.03欧拉系统_安装瀚高数据库企业版6.0.4_openeuler切换root用户_su:拒绝权限_passwd: 鉴定令牌操作错误---国产瀚高数据库工作笔记001
查看>>
OpenEuler23.03欧拉系统_安装瀚高数据库企业版6.0.4_踩坑_安装以后系统无法联网_启动ens33网卡---国产瀚高数据库工作笔记002
查看>>
OpenFeign 入门与实战
查看>>
OpenFeign源码学习
查看>>
OpenFeign的使用方式成功解锁
查看>>
OpenFeign组件声明式服务调用
查看>>
openfeign远程调用不起作用解决_使用Spring Boot的spring.factories进行注入---SpringCloud Alibaba_若依微服务框架改造---工作笔记007
查看>>
openfire开发(四)消息拦截器
查看>>
openfire源码解读之将cache和session对象移入redis以提升性能
查看>>
Openfire身份认证绕过漏洞复现+利用(CVE-2023-32315)
查看>>
OpenForest 开源项目安装与使用指南
查看>>
OpenGL glBlendFunc() 设置颜色混合 透明度叠加计算
查看>>