“2018年三位图灵奖获得者 、 和杨立坤打开了深度学习的大门,而打开这扇门的第一个门铃是来自和微软的中国学者邓力。”
“何恺明把神经网络做得更深了,谷歌把神经网络的入口放大了,又深又大,就成了今天的大模型。”
7月6日,商汤科技创始人汤晓鸥在2023世界人工智能大会开幕式上致辞。
7月6日,2023世界人工智能大会在上海开幕。 人工智能科学家、香港中文大学教授、商汤科技创始人汤晓鸥在开幕式上致辞。 他演讲的主题《你好,上海》来自原著电影《你好,李焕英》。 他表示,中国电影人通过原创电影内容创造了54亿票房奇迹,“中国的科技创造者也开始看到曙光”。 “今天我想简单回顾一下,中国学者在大模型领域做出了哪些原创性贡献?”
唐晓鸥介绍了他的三位学生王小刚、何宇明、林大华的工作和成果。 例如,在王小刚领导下开发的系列,使机器的人脸识别首次超越人眼。 何宇明残差网络的论文()解决了深度网络的梯度传递问题。 林大华的计算机视觉开源算法系统成为全球最先进的。 有影响力的视觉算法开源系统。
“当年小刚的对手是谷歌”
唐晓鸥开始回顾几件历史事件。 他表示,2018年三位图灵奖获得者 ()、 ()和Yann LeCun(扬·乐昆)打开了深度学习的大门,而打开这扇门的第一个门铃是由和邓力按下的。微软华人学者。 2011年,他们在深度学习语音识别领域取得了划时代的突破。
“那么,2011年到2013年深度学习领域刚刚起步的时候我们做了什么?” 汤晓鸥介绍了他的学生、商汤科技联合创始人、执行董事兼首席科学家王小刚博士,“2011年到2013年计算机视觉领域最重要的两次会议,计算机视觉与模式识别国际会议(CVPR)”以及计算机视觉国际会议(ICCV),国际上关于深度学习的文章有29篇,其中14篇来自我们实验室,我们有18个项目是国际上首次将深度学习应用于视觉问题,包括人脸识别、人脸检测、人脸重建、物体检测、人体姿态、图像超分辨率、3D形状识别等问题。我们已经在深度学习的大门上敲响了18遍。”
唐晓鸥介绍了其学生王小刚博士的学术成就。
唐晓鸥还表示,王小刚领导的-Net团队开发的系列首次让机器比人眼更好地识别人脸成为可能。 此后,王小刚还获得了中国学者首届大型视觉识别挑战赛的世界冠军。 “在比赛中,小刚的对手是谷歌。”
此外,王小刚领衔的商汤联合团队还获得了今年CVPR最佳论文,并推出了首个感知与决策一体化自动驾驶通用大型模型。 两篇论文入围最佳论文候选名单(奖),其中自动驾驶研究论文《-》(路径规划引导的自动驾驶)荣获今年CVPR最佳论文奖。
GPT系列采用中国学者开发的结构
唐晓鸥介绍的第二个学生是在清华大学读本科的何宇明。 2003年广东高考第一名,获香港中文大学多媒体实验室博士学位。 “何恺明在我实验室攻读硕士学位期间发表了第一篇论文,并于2009年获得了CVPR最佳论文,这是CVPR整个25年历史上第一篇亚洲最佳论文。”
“他的第一篇作品是在微软亚洲研究院发表的关于残差网络()的论文。” 唐晓鸥表示,2015年之前,深度学习最多只能训练20层,而CNN(卷积神经网络)模型在网络的每一层引入直接连接通道,从而解决了深度网络的梯度传递问题,而荣获2016年CVPR最佳论文奖,这是计算机视觉史上被引用次数最多的论文。
“之后,你就可以有效地训练一个100层以上的深度神经网络,并且使网络变得非常深。” 唐晓鸥表示,“在大模型时代,(开发的一种深度学习模型,在此基础上开发的GPT)作为大模型的核心,包括GPT系列,也普遍采用了支持堆叠的结构。几百层。何恺明把神经网络做得更深了,把神经网络的入口放大了,又深又大,就成了今天的大模型。”
唐晓鸥表示,何恺明还有另一份工作——Mask R-CNN算法,是他工作时开发的。 是真正的高性能目标检测算法框架,荣获ICCV 2017最佳论文。“应该是世界上唯一一个在10年内以第一作者身份三次获得CVPR和ICCV最佳论文的人毕业。” 唐晓鸥表示,Mask R-CNN首次采用了基于mask的自编码思想。 视觉领域的无监督学习打开了计算机视觉领域自监督学习的大门,并已扩展到3D、音频领域,甚至AI(用于科学研究的人工智能)领域。
开发大型学者系列模型
”第三位学生是林大华,在香港中文大学攻读硕士学位,2010年在麻省理工学院(MIT)攻读博士期间,获得NIPS(神经信息处理系统会议)最佳学生论文,这是机器学习领域的最高奖项。” 唐晓鸥以顶级成就开始了林大华的介绍,“他的第一个作品是计算机视觉的开源算法系统。他在2018年以一个小团队起步,在没有投入推广的情况下,以口碑的形式成为了全球最具影响力的开源视觉算法系统,在网络上累计星数超过8万,目前用户遍布全球140多个国家和地区,其中60%来自海外。
唐晓鸥说,林大华的另一项工作是参与学者大型模型系统的开发。 唐晓鸥表示,上海人工智能实验室联合商汤科技、香港中文大学、复旦大学、上海交通大学共同研发的千亿级参数大语言模型“学者·普语”是首个千亿级参数上下文长度的语言模型。 8k在中国。 的多语言大语言模型,具体评测详情将于7月6日发布。
此外,林大华参演的大型模特也将于当天正式发布。 唐晓鸥介绍,该模型是全球首个城市级NeRF(神经辐射场)实景3D大型模型,拥有2000亿个参数,可覆盖100平方公里。 2021年12月,林大华团队首次提出City NeRF技术,早于谷歌将NeRF技术从物体层面延伸到城市层面。