网站首页

产品中心

智能终端处理器 智能云服务器 软件开发环境

新闻中心

关于米乐M6

公司概况 核心优势 核心团队 发展历程

联系米乐M6

官方微信 官方微博
主页 > 新闻中心

米乐M6(MiLe)亚洲官方网站- 赔率最高在线投注平台【解读】王飞跃 :我国生成式人工智能的发展现状与趋势

发布时间:2025-04-03 11:17浏览次数:来源于:网络

  

米乐M6(MiLe)亚洲官方网站- 赔率最高在线投注平台【解读】王飞跃 :我国生成式人工智能的发展现状与趋势

  作为信息化、数字化、智能化的新型技术基座,生成式人工智能对于提升国家战略地位与国际竞争力具有重要意义。2022年11月以来,随着以ChatGPT为代表的大语言模型迅速发展,生成式人工智能(Generative Artificial Intelligence, GenAI)推动人工智能从算法智能(Algorithmic Intelligence,AI)进入语言智能(Linguistic Intelligence,LI)时代,正在全面革新社会生产力。当前,大语言模型成为现代人工智能的基石,构筑起连接多模态的桥梁。2024年2月美国OpenAI发布的Sora,以其长达1分钟的高质量视频生成能力,进一步开启了想象智能(Imaginative Intelligence,II)新时代。Sora初步体现出世界模拟器的能力,为探索通用人工智能(Artificial General Intelligence, AGI)迈出了重要一步。我国近年来也在生成式人工智能领域不断取得进展,文心一言、通义千问、盘古、混元、Kimi等大模型在中文应用领域建立优势,呈现出“百模争鸣”的繁荣局面。同时,我国生成式人工智能也面临着算法低效、数据不足、算力紧缺、能耗过高等问题,特别是我国在芯片受限的情况下,算力问题尤为突出。本文将介绍生成式人工智能的发展,重点分析我国生成式人工智能所面临的挑战,进一步讨论对策,并展望未来发展趋势。

  生成式人工智能是指一类能够自主生成新内容的人工智能技术米乐M6(MiLe)亚洲官方网站- 赔率最高在线投注平台,这些内容可以包括文本、图像、音频和视频等多种形式。生成式人工智能通过学习已有数据的模式和结构,创造出全新的、未曾出现过的数据实例。生成式人工智能的核心在于其创造性和创新性,它不仅仅是复制或模仿现实,而是能够基于已有知识进行创新,生成有价值的新内容。生成式人工智能模型的例子包括生成对抗网络(GAN)、变分自编码器(VAE)和生成式预训练Transformer(GPT)等。生成式人工智能应用领域广泛,已经对艺术、设计、娱乐,甚至科学研究带来实质变革。生成式人工智能的发展前景广阔,它不仅能够为人们的日常生活带来便利, 还能够帮助人们提高工作效率,促进产业升级,推进社会发展。

  总体情况。自2022年11月ChatGPT发布以来,国产大模型迅速崛起,形成了“百模争鸣”的繁荣局面。百度的文心1.0通用大模型自2019年首次推出后,已升级至4.0版本。阿里云、华为、腾讯、科大讯飞等公司也推出了各自的通用大模型,如通义千问、盘古、混元和星火等,并向公众开放。在这场竞赛中,初创企业也取得了显著成就,例如“月之暗面”推出的Kimi智能助手大模型,支持高达200万汉字的上下文长度,引起了业界广泛关注。学术界也积极参与国产大模型的研究,例如中科院自动化所发布了全球首个图文音三模态预训练模型——紫东太初大模型,上海人工智能实验室与复旦大学联合发布了书生·浦语通用大模型(InternLM)。为推动技术与市场发展,一些厂商提供了开源版本的大模型,如阿里云的Qwen系列、零一万物的Yi系列、智谱华章的GLM系列、科大讯飞的iFlytekSpark系列、百川智能的Baichuan系列等。这些开源模型为研究和应用提供了便利,进一步促进了国产大模型技术的创新和应用。

  米乐M6(MiLe)亚洲官方网站- 赔率最高在线投注平台(访问: hash.cyou 领取999USDT)

  以英伟达的H100(SXM)和华为的昇腾Ascend 910B为例,作为国际和国内主力AI芯片,H100(SXM)的FP16算力达到1979TFLOPS,是昇腾910B的5.2倍;显存方面,H100(SXM)的80G HBM3是昇腾910B的64GHBM2的1.25倍,且新一代显存带来的性能差距更大。此外,H100(SXM)采用NVLINK技术,具有900GB/s的卡间互联带宽,是昇腾910B的2.25倍。英伟达的CUDA架构和专用库如CuDNN,形成了成熟的软硬件生态,而华为的CANN架构虽在不断完善,但起步较晚,在算子丰富度及算法优化方面仍存在差距。尤其值得注意的是,英伟达等企业的AI芯片快速迭代升级,而我国由于受到芯片制造技术封锁,产品更新速度大大减慢。英伟达在2023年发布了新一代H200芯片,显存容量提升至141G,大模型推理速度翻倍。2024年3月,英伟达又发布了Blackwell计算平台,性能显著提升。例如,训练1.8万亿参数的GPT-4,使用Blackwell平台相比Hopper能耗大幅降低。相比之下,华为的昇腾Ascend 910在2019年就已推出,而升级版Ascend 910B在2023年才小规模投入使用。此外,谷歌基于自研TPU的算力平台已经体现出强大的实力,近期备受关注的Groq公司研发的大语言模型推理芯片LPU,推理速度可达H100的十倍。综合来看,我国与国际算力先进水平的差距短期内进一步拉大。

  在大语言模型方面,谷歌的Bert和OpenAI的GPT最先开启了新时代,特别是OpenAI发布的 ChatGPT成为AI发展路程上的一个里程碑。而后续的GPT-4以其在多数任务指标上的优异表现,在众多语言大模型中仍然占据榜首。Meta开源的Llama大模型虽然稍晚性能稍逊,但是其开源属性,成为世界上众多大模型的源头。在文本生成图像方面,OpenAI的DALL·E和谷歌的Imagen在2022年最先发布,以其高真实度的效果迅速引起了全球范围的注意,人工智能生成内容(AIGC)进入新时代。在文本生成视频方面,OpenAI在2024年2月发布Sora,再次取得历史性突破。在大语言模型领域,国内的百度、智源、中科院等单位具有先发优势,推出文心一言、GLM等大模型。2022年以来在开源力量等因素的推动下,形成“百模大战”的繁荣局面,但整体上的性能没有超过GPT-4等国外模型。而在文本生成视频方面,国内与Sora的差距更为明显。

  第一,鼓励计算架构多元创新,充分利用我国能源优势,建设高能效智能算力网络。在计算芯片方面,应探索发展更适合AI计算的架构,发展多样化技术路线。虽然在短期内Nvidia的GPU系列仍将是AI计算的主要平台,但其也存在设计上的不足,一些新、旧势力正在打破其垄断局面。例如美国初创公司Groq研发的LPU,专门面向大语言模型推理,速度获得显著提升,而老牌Intel最新研发的AI计算芯片Gaudi3,训练性能达到Nvidia H100的1.7倍。我国也应激励研发AI专用体系架构,充分利用RISC-V等开源架构,加快芯片制造技术升级,探索自主可控的计算生态体系。此外,应加快量子计算等新计算形式的研究。量子计算利用量子叠加和量子纠缠原理,其天然的并行处理能力远高于目前的主流处理器。近年来量子计算实现技术快速发展,量子机器学习等领域已经展现出潜力。

  在电力供给方面,随着AI算力的不断提升,对电力的需求也在急剧增长,电力已成为AI算力对决的关键因素。生成式人工智能技术的发展离不开算力的支撑,而算力的提升又离不开电力的供应。我国“百模大战”或将带动智算中心及其配套所需的相关电力、储能基础设施建设和投运速度的大幅提高。对此,除强化国家级超算中心之外,我国可着重从两个方面应对能源算力不断增长的挑战。一是开展算力与能源的结合,参考比特币“矿厂”模式,将算力中心部署在在四川、云南、内蒙古、新疆等电力充足地区,就近利用火电、水电、风能、太阳能,依托自主硬件设备,建设高效能算力中心,助力“东数西算”。二是通过分布式计算调动社会资源,进一步利用社会闲置算力,吸引公众参与科学研究。

  第二,建立联邦数据基础,鼓励开放共享,促进数据提质增量。针对数据存量少、质量低、开放不足、共享机制不完善的问题,我国首要任务是建设智能联邦生态系统,而联邦数据是其中的当务之急。联邦数据为数据安全和隐私问题提供有效解决方案,其运行机理遵循平行智能范式,能够根据Morton定律和平行强化学习等方法探索实现数据最优化,为将大数据转化为智能打下基础。联邦数据的架构包括六个组件,即真实数据/物理对象、虚拟数据/数字孪生、联邦数据实验、联邦融合、联邦安全和可信联邦智慧。前两个组件用于处理来自物理对象的真实数据和安装在特定设备上的数字孪生生成的虚拟数据,以及其他方法生成的虚拟数据。联邦数据实验是探索最优模型的关键过程之一,通过在解决方案空间中搜索,例如,使用强化学习和并行强化学习找到本地模型的最优参数。联邦融合组件负责将本地模型合成全局最优模型,通过使用专门设计的模型融合算法,如动态融合机制。联邦安全组件负责实现数据安全和隐私。数据所有权和使用权是分开的,即对于特定节点,数据存储在其本地地址,而这些数据训练的模型被转移到联邦融合和联邦数据实验组件,类似于联邦学习。此外,安全性还可以通过区块链或其他加密方法进一步提高。从联邦数据实验和联邦融合的结果中,可以获得可信的联邦智能。

  第三,持续算法创新,打造专业大模型,开拓垂直领域应用新场景。在短期内我国AI算力受限、模型算法创新突破难度较大的背景下,应在持续鼓励算法创新的同时,以弥补算力短板、促进产业升级、解决行业痛点为出发点,着力打造专业大模型,开拓垂直领域应用新场景。通过专注于垂直领域的专业大模型,可以更有效地利用现有算力资源,避免在通用AI模型上的重复资源浪费。专业大模型针对特定问题进行优化,能够在有限的算力下实现更高的性能和效率。专业大模型能够针对特定行业的需求提供定制化的智能解决方案,推动传统产业的数字化和智能化转型,从而提升整个产业链的技术水平和价值创造能力。例如,在医疗、金融、交通、教育等关键领域,专业大模型能够解决行业痛点问题,如提高疾病诊断的准确性、优化金融服务的个性化推荐、缓解交通拥堵等,持续增进人民福祉。

  一方面,充分利用区块链、分布式自治组织(DAO),借助目前国际上开始流行的Web3和DeSci浪潮,推进我国AI领域全面发展。区块链是一种分布式账本技术,它通过加密和共识机制确保数据的不可篡改性和透明性。在AI领域,区块链可以用于确保数据的安全性和隐私性,同时为AI模型提供高质量、可追溯的数据源。分布式自治组织(DAO)是一种基于区块链技术的组织形式,它通过智能合约自动执行组织的规则和决策过程,可以为AI项目提供去中心化的管理和资金分配机制,与区块链结合促进AI技术的开放协作和共同治理之TAO(True DAO)。Web3指的是构建在区块链技术之上的下一代互联网,它所强调的数据去中心化存储、用户隐私保护、数据所有权归还给用户等理念,为AI提供了一个更加开放、透明和安全的数据环境。以上技术应用的一个领域范例就是DeSci,利用区块链和智能合约等技术,实现科学研究的去中心化、开放和共享。DeSci鼓励跨学科合作,促进科学数据和研究成果的公开共享,也能够为AI提供丰富的数据资源和创新动力。Web3、分布式自治组织(DAO)、区块链和DeSci在发展人工智能中将共同推动技术进步、促进数据共享、增强系统安全性和推动去中心化治理,为AI的健康发展和广泛应用提供坚实的基础。

  另一方面,应建立联邦数据、联邦控制、联邦管理和联邦服务为一体的联邦生态,推动联邦智能发展为智能系统联邦。联邦控制在联邦生态中扮演核心角色,其主要目标是维护信息安全和保护数据的所有权、控制权、隐私权和使用权。作为一种分布式控制策略,联邦控制为大型复杂系统提供高效、安全和可靠的管理和控制。联邦管理是联邦生态的关键组成部分,负责根据生态目标和要求制定管理决策,并根据系统状态变化动态调整。通过联邦管理,生态系统能够达到最优状态,实现目标,并在保障安全的前提下,实现智能化管理。联邦管理的目的是通过对联邦数据的联邦控制来实现联邦服务。在实现联邦服务的过程中,不断产生大量新的数据,这些数据可以添加到联邦数据中,用于优化联邦管理决策。

下一篇:人工智能技术发展现状分析:由感知智能向认知发展米乐M6(MiLe)亚洲官方网站- 赔率最高在线投注平台
上一篇:米乐M6(MiLe)亚洲官方网站- 赔率最高在线投注平台美国影片人工智能剧情祥细介绍?

咨询我们

输入您的疑问及需求发送邮箱给我们