龙志中:2024年是人工智能爆发期

2024-09-14 19:41:05 娱乐 admin

专题:2024中国AIGC创新发展论坛

龙志中:2024年是人工智能爆发期

  2024年服贸会专题论坛之一——“2024中国AIGC创新发展论坛”于9月13日-14日在北京举行。曙光云计算集团股份有限公司总裁助理龙志中出席并演讲。

  龙志中表示,2024年是进入到了人工智能的爆发期。今年前8个月,在手机移动端上,人工智能应用收入与去年相比同比增长了51%,预计今年整个收入会达到33亿美元的规模。

  龙志中介绍,曙光一直是一家专注做计算的企业,创立之初到现在,一直围绕着计算的核心部件,主要产品,以及计算的基础设施建设和运营服务,来打造核心竞争力。

  龙志中表示,曙光致力于提供解决方案,以降低使用人工智能大模型在算力方面的门槛。具体来看,曙光能够提供的助力有三个方面:第一是人工智能相关的核心部件,主要产品,还有关键的基础设施,包括PUE在1.04以下的全液冷数据中心。第二是算力中心的建设和运营。目前曙光在全国有二十多个大型的算力中心、智算中心、先进计算中心,以及五十多个城市云中心,能够为企业、区域/城市能够提供澎湃、多样的算力资源。第三是人工智能的生态,在目前主流的大模型跟曙光的核心部件,主要产品还有算力平台基本上都做了适配,并且在算力互联网上能够提供生态合作伙伴的大模型服务。通过接入算力互联网,企业不需要自己去构建算力基础设施的平台,甚至不需要去部署自己的大模型,可以直接采用多样的算力服务和大模型服务。

  以下为演讲实录:

  龙志中:各位专家,各位嘉宾,大家上午好,我是曙光云的龙志中,今天非常荣幸能够跟各位专家学习AIGC大模型、人工智能领域最新的前沿理论和成果,也有机会跟大家一起探讨人工智能AIGC对于我们今天以及未来的生活方式、工作模式、创新范式所带来的深远影响。也想借这个机会跟大家汇报一下曙光云在企业开发大模型、应用大模型的过程当中,能够为大家提供哪些助力。

  曙光跟今天前面分享的嘉宾所在的企业有所不同,前面这些企业更多是在开发大模型或在做大模型应用场景侧的开发,给大家提供的是大模型本身、大模型应用,为我们的生活和工作所带来的便利。曙光相对来讲更偏底层,我们做的是计算基础设施和算力服务,也就是说我们为大模型的开发和大模型应用提供基础设施和算力服务,按照大模型三层架构分类的话,我们是在上游;从技术架构层次来分的话,我们是在底层。

  刚才几位嘉宾都提到,AIGC生成式大模型在这两年,特别是2022年之后成为一个热词,我们看到的多个榜单里面,特别是在2023年度热词榜单里面AIGC都是排在前几位甚至排在首位的。1957年人类就已经用计算机生成了历史上第一首机器创作的音乐作品。直到2022年11月份,有一个标志性的事件就是OpenAI的GPT,从那个时刻开始人类对于人工智能的应用才从传统的“知识的分类器”进化到“内容的生成器”。

  从2023年开始,我们非常明显地可以看到“百模大战”,2023年中国发布的人工智能大模型是300多个,我们也认为从2023年开始AIGC或者人工智能大模型开始渗透到我们的工作、生活的各个方面。我昨天看到一个新闻,谷歌的联合创始人谢尔盖退休两年了,现在被AI广阔的前景所吸引,重新回到一线敲代码,他抱怨自己的员工、程序员用人工智能写代码的比例太低了。人工智能除了可以生成图片、生成文字,现在能够生成音频、视频、影视作品,能够写代码。

  同时,很多人之前查资料,查素材、查数据的时候用搜索引擎。但现在,我相信很多人已经在用Kimi、豆包,取代了以前要借助百度、谷歌所要完全的相关搜索,甚至知识的提炼和知识的整理工作。

  2024年是真正进入到人工智能的爆发期或者叫井喷期。今年前8个月,在手机移动端上人工智能的应用收入跟去年相比同比增长了51%,预计今年整个收入会达到33亿美元的规模。今天我们也听到了很多人工智能头部厂商的专家给我们带来了最新成果,从侧面证明2024年人工智能真正的井喷期已经到来了。

  从未来发展来看,Gartner预测,2027年生成式人工智能市场规模会超1800亿美元,占全球整个AI支出的42%。

  我们一直说算力、算法和算料(或者数据)是人工智能发展的三大要素,从AIGC角度来讲,算力、算法和算料也是AIGC发展的三大要素。现在大家有一个普遍共识,大模型意味着大成本,也就是说大模型是一个非常烧钱的生意,或者说是一个非常烧钱的游戏。大模型厂商的整体运营成本,一般来看分为三部分,第一部分是用于推理的成本,第二部分用于训练的成本,第三部分是人工成本(就是程序员、管理人员、测试人员)。中国工程院院士郑纬民教授的测算结果表明,大模型训练中70%的成本是用在算力上,推理过程当中这个比例就更高,超过了95%。根据OpenAI2024年的财务预测,预计2024年总的运营成本会达到85亿美元,里面15亿美金是人工成本,就是工程师成本,另外70亿中的30亿是训练成本,40亿是推理的成本,绝大部分都是用于采购算力。这个说明,确实做人工智能大模型、做AIGC,算力是我们所有运营成本里面占比最大的一块,也是最重要的一块。所以OpenAI的CEO把OpenAI这家公司定义成了一家硅谷历史上最资金密集型的一个初创公司。

  我们知道现在进入到数字经济的时代。国家数据局的刘烈宏局长认为算力就是数字经济时代的新质生产力。有一个指数就叫“计算力指数”,计算力指数平均每增长一个百分点,所带来的数字经济和GDP的增长会分别增长3.3%和1.8%。目前的算力市场有几个类型:第一类是通用算力或者基础算力,第二类是智能算力,第三类是高级算力,另外一种算力叫量子算力。

  从我们看到的调研机构数据来看,2021年的时候,智能算力在整个中国整体算力规模里的占比已经超过了50%,达到了51%,并且到2030年的时候这个比例还会持续增加,预计会占到整个算力规模的72%。同时,信通院的预测是到2030年的时候,人工智能算力需求跟18年相比会增加390倍。所以我们讲数据、算法和算力是数字经济的关键资源,数据或者算料成为新的生产资料,算力成为了新的生产力,或者按照现在的说法成为新质生产力,算法成为现在新的生产关系。

  刚才我们讲到算力,在整个人工智能的发展过程当中,算力的需求或者算力所占用的成本应该是非常高的,超过的50%以上。同时我们可以看到,随着大模型成为AI领域新的开发范式,AIGC对于训练数据的需求也是呈指数级增加的。从ChatGPT到谷歌的switch transformer,模型规模和数据规模是持续巨量增加的,可以认为是指数级的增加,数据和参数规模在一年之内增长了一百倍之多。同时随着大模型的参数和所需数据量激增,所需要的智能化底座规模也是会越来越大,特别是对于算力的需求更是如此。在小模型时代,更多是用于图像、语音和文本分析的时代,可能很多时候我们单机规模就能满足我们一般的需求。到了以ChatGPT为代表的文本大模型时代,参数规模基本上超过了千亿。所需要的计算集群或者算力底座的规模也进入千机万卡时代。目前做大模型竞争,千机万卡基本成为了门槛或者是标配。到了多模态大模型的时代,比如谷歌的switch Transformer,参数规模达到了1.6万亿,这种规模大模型需要万机十万卡规模的集群来承载。

  现在千机万卡已经成为大模型厂商的一个门槛,一个入门的入场券,但其实并不是所有的企业要用到大模型都需要自己去构建这么大规模的算力底座。AIGC或者人工智能这个领域的三层模型是大家公认的一个分层模式。根据企业在这个领域里的产业分工,分为上游、中游和下游。上游就是基础设施,包括关核心部件、主要产品和基础设施的服务,以及预训练模型和数据的供给。中游就是今天在座很多的AIGC头部企业,在做model as a service,做垂直化、场景化、个性化的大模型落地。下游就是应用层,面向企业、面向个人来做内容生产、设计、分发等大模型场景应用。在AIGC的三个层面,所需要的算力资源规模、类型、获取途径是不一样的。

  曙光一直是一家专注做计算的企业,创立之初到现在,一直围绕着计算的核心部件,主要产品,以及计算的基础设施建设和运营服务,来打造自己的核心竞争力。我们可以看到,目前在人工智能这个领域所面临的挑战或者困境有几个:一个是算力资源获取的便利性、普惠性、技术架构的开放性、算力的融合性以及能耗方面的高开销。

  曙光也希望在这些领域能够给大家提供解决方案,来降低使用人工智能大模型在算力方面的一些门槛。曙光能够提供的助力有三个方面:第一是人工智能相关的核心部件,主要产品,还有关键的基础设施,包括PUE在1.04以下的全液冷数据中心。第二是算力中心的建设和运营。目前我们在全国有二十多个大型的算力中心、智算中心、先进计算中心,以及五十多个城市云中心,能够为我们的企业、为我们的区域/城市能够提供澎湃、多样的算力资源。第三是人工智能的生态,在目前主流的大模型跟曙光的核心部件,主要产品还有算力平台基本上都做了适配,并且在算力互联网上能够提供生态合作伙伴的大模型服务。通过接入算力互联网,企业不需要自己去构建算力基础设施的平台,甚至不需要去部署自己的大模型,可以直接采用多样的算力服务和大模型服务。

  一些城市要打造数字基础设施,来服务于数字化经济发展,为企业数字化转型提供动力。曙光在全国各地建设运营的数据中心有四大类:先进计算中心,云计算中心、智能计算中心、一体化大数据中心节点。这些算力基础设施,符合信创要求和标准来构建,采用了浸没式的液冷技术将能耗降到最低。再结合曙光本地化专业团队和运营服务,可以为我们区域数字经济发展和企业数字化转型提供动力。

  有些企业希望在通用大模型或行业大模型基础之上构建自己企业的大模型应用。曙光也可以提供云数智底座,帮助企业打造私有的大模型基础设施。在云数智底座里面不仅提供AI算力、AI储力的基础设施,还能提供数据平台,数据平台帮助企业进行数据的全生命周期管理,同时为大模型应用提供优质的和充沛的算料。

  人工智能、大模型产业的发展需要上中下游的协同努力,曙光也希望能够通过“中国科学院人工智能产学研创新联盟”和“光合组织”,作为技术创新和成果转化的平台,作为人工智能产业链上下游产业协作和共同发展的平台。我们也希望通过我们提供的可信、开放、绿色和普惠的计算基础设施算力服务,跟在座的企业和业界的同仁一起努力,帮助企业在人工智能大模型领域的技术创新、商业模式创新和应用创新方面提供助力。也希望跟大家共同努力,共创AI产业崭新的未来,谢谢大家。

  新浪声明:所有会议实录均为现场速记整理,未经演讲者审阅,新浪网登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。

发表评论: