数字经济核心要素:数据算法和算力信息科技信息科技

数字经济是以数字化的知识和信息为关键生产要素,以现代信息网络为重要载体,以信息通信技术的有效使用为效率提升和经济结构优化的重要推动力的一系列经济活动。它涵盖数字产业化和产业数字化两个方面。数字产业化是指信息通信技术产业,包括电子信息制造业、电信业、软件和信息技术服务业、互联网行业等;产业数字化则指传统产业应用数字技术所带来的变革,通过数字技术改造传统产业,提高生产效率和创新能力。从生产 要素看,数字经济既包括以数据为核心的新型生产要素,也包括支撑数字技术的物质要素如芯片、算力平台、通信基站等;从产业形态看,数字经济既包括数字化的新兴产业,也包括应用数字技术的传统产业;从发展阶段看,数字经济正从起步培育期加速向融合发展期演进。可以说,数字经济代表了新一轮科技革命和产业变革的方向,是全球创新热土和经济增长极。

数字经济具有虚拟性、开放性、集成性、创新性等特征。其虚拟性体现为数据要素的非物质属性,以及经济活动在数字空间的广泛展开;开放性体现为产业协作和创新创造的组织边界日趋模糊,呈现出扁平化、生态化的发展态势;集成性体现为不同领域的技术、业务、数据融合渗透,软硬件协同创新不断深化;创新性则体现为数据驱动、智能主导的创新范式变革,数字化重构传统路径和业态。伴随数字经济的发展,数据主权、隐私保护、网络空间安全等也引发广泛关注。各国纷纷将数字经济作为国家战略,抢占发展制高点。我国把数字经济作为构筑国家竞争新优势的重要抓手,加快数字中国建设,激发数字化发展新动能。

数字经济伴随信息通信技术的演进而发展。上世纪90年代,以互联网为代表的信息通信技术开始商业化应用,标志着数字经济的起步;21世纪初,以移动互联网、社交网络、电子商务为代表的应用创新不断涌现,推动数字经济进入快速发展期;近年来,以人工智能、物联网、区块链为代表的新一代信息技术加速突破,大数据、云计算等新型基础设施建设提速,数字经济进入深化拓展期。

从全球看,2022年数字经济规模达47.6万亿美元,占全球GDP的45.9%。美国、中国是数字经济的引领者,2022年美国数字经济规模达17.8万亿美元,占GDP比重53.6%;中国数字经济规模达7.1万亿美元,占GDP比重39.8%。欧盟、日本、韩国等发达经济体数字化转型也在提速,数字经济占GDP比重均超35%。印度、东南亚等新兴经济体数字经济增速明显,催生出一批独角兽企业。从数字经济的细分领域看,电子商务已成为全球贸易的重要组成部分,全球跨境电商交易额超8万亿美元;移动支付加速普及,2022年全球移动支付用户超6亿,交易规模超5万亿美元;共享经济蓬勃发展,全球平台市值超2万亿美元,重塑了生产组织和消费模式;数字内容产业快速增长,全球数字音乐、网络视频市场规模分别达400亿、2500亿美元。可以预见,随着数字技术与实体经济加速融合,将进一步催生出新产业、新模式、新业态,成为世界经济增长的澎湃动力。

我国高度重视发展数字经济。党的二十大报告指出,加快发展数字经济,促进数字经济和实体经济深度融合,打造具有国际竞争力的数字产业集群。"十四五"规划纲要进一步明确,要加快数字化发展,建设数字中国,以数字经济推动高质量发展。近年来,我国数字经济保持高速增长,2022年规模达45.5万亿元,占GDP比重39.8%,数字经济核心产业增加值同比增长9.2%。电子商务、移动支付、共享经济等新业态新模式蓬勃兴起,催生了阿里巴巴、腾讯、字节跳动等一大批具有全球影响力的数字经济领军企业。工业互联网加速发展,突破了一批面向工业场景应用的数字化转型关键技术。"东数西算"工程加速实施,国家枢纽节点和骨干网络进一步完善。同时,数字治理体系建设不断加强,陆续出台数据安全法、个人信息保护法、平台经济反垄断指南等一系列法律法规。数字经济发展的生态环境更加健康,正成为引领我国高质量发展的强劲引擎。

数字经济的发展,正在从生产、流通、分配、消费等多个环节重塑传统经济形态,并催生出大量的新产业、新业态、新模式。

生产领域,数字化正在从根本上改变生产方式。传统生产以物理空间为载体,以物质要素投入为基础,呈现出刚性化、线性化特征;数字化生产以信息空间为依托,以数据要素驱动为核心,呈现出柔性化、网络化特征。大数据让需求预测、生产计划、库存管理实现精准化;人工智能让产品设计、质量检测、设备维护实现自动化;区块链让供应协同、质量追溯、产权确权实现透明化。通过数字孪生、远程运维、预测性维护等新模式,以及 CNC机床、工业机器人、增材制造等新工艺,实现制造过程的数字化监测、实时分析、智能控制、动态优化,大幅提升生产效率和资源利用率。

流通领域,数字化正在重构商业模式和市场格局。传统商业以线下场景为主,呈现出地域性、分散性特征;数字化商业以线上平台为主,呈现出泛在性、集约化特征。移动支付打通了线上线下场景,让资金流转更加高效便捷;智能供应链利用算法优化物流配送,让商品流通更加敏捷高效;数字营销利用大数据分析消费特征,实现千人千面的精准触达。电商平台、外卖平台、在线旅游平台、电商直播等新型商业形态大量涌现,数字化成为传统企业转型突围的重要路径。数据驱动、平台赋能的新型商业生态加速构建,重塑了市场资源配置方式。

分配领域,数字化带来了新的分配模式和价值尺度。在数字经济时代,除传统的土地、资本、劳动力等生产要素外,数据成为新的生产要素,参与价值创造和分配。数据要素市场不断发育成熟,贵阳大数据交易所、上海数据交易所等相继成立,开展数据资产确权、定价、交易等服务。数据要素的价值不仅体现为企业的生产资料,也体现为个人的数字资产,数据变现、数据银行等新模式逐步兴起。区块链、智能合约为生产要素精准定价、所有权自动确认、利益分配自动执行提供了技术保障。灵活就业、众包劳动等新型劳动参与形式,重塑了传统的劳动力要素配置。

消费领域,数字化带来了新的消费需求和消费模式。移动互联网时代,餐饮、出行、购物、文娱等服务需求正从线下向线上迁移,催生了大量在线服务消费。共享经济模式下,闲置物品、闲置空间等资源实现按需灵活配置,房屋、汽车、充电桩等共享服务广受欢迎。随着虚拟现实、元宇宙等技术发展,在线教育、电子竞技、数字藏品、虚拟旅游等数字内容消费方兴未艾。大数据、云计算等新型基础设施建设提速,为流量红利向数据红利、内容红利转变提供了有力支撑。内容电商、私域流量、网红经济等新消费业态不断涌现,重塑价值供给机制和消费者权益格局。

数字经济不断向纵深发展,与实体经济日益融合,不仅提高了经济运行质量和效率,也带来了发展方式、治理结构的深刻变革。一方面,数据成为新的生产要素和战略资源,数字资本成为重要生产资料,数据、算法、算力成为驱动创新发展的新引擎,深刻改变了经济增长模式;另一方面,平台经济、共享经济等新经济形态大规模涌现,跨界融合、协同创新、开源开放的组织形态不断深化,传统的产业边界、组织边界日益弥散,治理体系面临全新挑战。展望未来,积极把握数字化、网络化、智能化发展机遇,加快传统产业数字化转型,培育发展新动能,构建现代产业体系,成为推动高质量发展的关键举措。

数据是数字经济时代最重要的生产要素之一,被形象地比作"21世纪的石油"。广义的数据泛指一切客观事物的数字化表示,包括文本、图片、音视频、传感器数据等各类信息,能够被计算机识别、存储和处理。狭义的数据特指经过采集、清洗、加工,能用于分析挖掘的信息资源。大数据技术的发展,让海量、多源、异构、时变的数据资源成为推动经济社会发展的新引擎。

数据具有颠覆性的独特属性。一是非竞争性,即数据可以被多次、多方使用而不损耗价值,边际成本几乎为零;二是非排他性,即数据很难排除他人的访问和使用,容易产生"搭便车"行为;三是可复制性,数据可以极低成本地被复制传播,很难控制数据的扩散;四是差异性,不同维度、不同来源的数据价值差异巨大,很难统一定价;五是关联性,单一数据很难产生价值,往往需要与其他数据融合关联才能创造价值。正是由于这些特性,数据要素在确权、定价、交易、监管等方面呈现出与传统要素截然不同的特点。

按照数据的来源可以分为内源数据和外源数据。内源数据主要包括企业内部产生的业务数据、管理数据、财务数据等,外源数据则主要包括通过物联网、互联网采集的用户数据、行为数据、环境数据等,以及从第三方购买的数据资源。从数据形态看,还可分为结构化数据、半结构化数据和非结构化数据。结构化数据一般以二维表形式存在,包括关系型数据库、电子表格等;半结构化数据虽然也有一定结构,但无需遵从固定格式,包括XML、JSON等;非结构化数据则没有预定义的格式,包括文本、图片、音视频等。不同类型的数据在采集、存储、分析、应用中有不同的技术特点。

进入21世纪,特别是智能手机、物联网设备的广泛普及,让数据呈现出爆发式增长态势。据IDC预测,2020年全球数据总量为47ZB(1ZB=1万亿GB),到2025年将突破163ZB。海量数据的产生,为各行各业提供了前所未有的增长机遇。大数据(Big Data)技术应运而生,其核心是利用分布式存储、分布式计算等技术,对海量、多源、异构数据进行采集、管理和分析,快速挖掘数据价值,指导业务优化决策。大数据通过机器学习、深度学习等人工智能技术,极大提升了对海量非结构化数据的理解和预测能力,让数据价值从统计分析向知识发现、策略优化拓展。

大数据的价值主要体现在三个方面:一是业务洞察,即通过数据分析了解用户特征、优化产品设计、指导精准营销等;二是流程优化,即通过数据分析改进业务流程、提高运营效率,如库存管理、物流配送等;三是风险管控,即通过数据分析识别潜在风险隐患,预防欺诈、违规等行为。大数据的应用已经渗透到工业、农业、交通、金融、医疗、教育等各行各业,成为新一轮产业变革的底层逻辑。

高质量的数据是大数据应用的前提,涉及数据全生命周期管理。数据采集是数据管理的起点,需要全面采集和获取结构化、非结构化数据。对内,要采集企业各业务系统、各环节产生的数据;对外,要利用爬虫技术采集互联网开放数据,利用传感器、物联网采集实时数据,并且通过数据交易获取第三方数据。采集数据要兼顾广度、深度和准确性,并对采集行为进行必要的合规审查。

数据存储是为数据的管理和应用奠定基础。传统的关系型数据库在海量数据场景下,面临扩展性差、查询分析效率低等问题。大数据时代,分布式存储、NoSQL数据库、数据湖等新型数据存储架构不断涌现。分布式文件系统如HDFS能够提供高吞吐量的数据访问能力;NoSQL数据库摆脱了关系型数据库的约束,支持灵活的数据模型和弱事务特性;数据湖通过对源数据的无序存储,在成本和性能间达成了平衡。混合架构逐渐成为主流,即面向结构化数据采用关系型数据库,面向海量数据采用HDFS等分布式存储,面向半结构化和非结构化数据采用NoSQL数据库。

数据清洗是提高数据质量的重要环节。由于数据来源的多样性,往往存在不一致、重复、缺失、异常等问题,需要通过一系列处理提升数据的准确性、完整性和一致性。常见的数据清洗方法包括异常值检测、重复值处理、缺失值填充,以及数据格式转换、数据脱敏等。数据清洗可以借助Kettle、Informatica等ETL工具实现工作流式处理,将多源异构数据转换为标准化、关联化的数据,为后续分析挖掘打下基础。

数据管理则贯穿采集、存储、处理、应用的始终。元数据管理通过主数据、数据血缘、数据字典等,对数据资产进行统一编目管理;数据质量管理通过DQC工具,对关键数据的准确性、完整性、一致性进行持续监测和改进;主数据管理通过MDM平台,实现关键业务实体数据的统一视图和集中管控;数据安全与隐私保护通过脱敏、加密、访问控制、审计等手段,确保数据全生命周期的安全合规。建立人人都是数据的使用者和贡献者的数据文化,通过可视化、数据服务等赋能业务人员,是数据管理向数据治理升级的重要方向。

数据挖掘和数据分析是发现数据价值的关键手段。数据挖掘强调从海量数据中发现隐含的、事先未知但又有价值的信息,主要涉及分类、聚类、关联、预测等任务。分类旨在根据样本的特征属性,判断其所属类别,如垃圾邮件识别;聚类则将物理或抽象对象划分为多个类的过程,如客户群划分;关联分析用于发现数据项间的关联模式,如购物篮分析;预测则对某一指标的未来进行估计,如销量预测。数据挖掘一般采用决策树、神经网络、支持向量机等机器学习算法,工具有SAS EM、SPSS Clementine等。

数据分析则强调从各类数据中提取有价值的信息,并基于信息形成对行业情况、业务状况、发展趋势的认识和判断。按照分析的逻辑层次,可分为描述分析、诊断分析、预测分析、规范分析四类。描述分析如各类统计报表,用于总结和展现数据特征;诊断分析如根本原因分析,通过探索事物内在联系发现问题根源;预测分析则对未来情况、趋势作出预判,指导当前决策部署;规范分析则给出应该采取的行动方案,优化资源配置。数据分析采用可视化、OLAP等技术,通过Tableau、PowerBI等工具实现。

大数据时代数据挖掘分析还呈现出新的趋势:一是从静态、历史数据向动态、实时数据分析发展,流数据、时间序列数据分析成为热点;二是从单一结构化数据向多源异构数据融合发展,图数据、文本数据、多模态数据分析成为重点;三是从浅层模式发现向深层关联挖掘发展,图神经网络、因果推理、知识图谱成为前沿;四是从中心化数据汇聚向联邦学习、隐私计算发展,在不泄露隐私的前提下开展数据融合分析。数据科学已成为复合交叉的新兴领域,亟需培养专业复合的数据科学家人才。

数据分析已成为各行各业提质增效、创新发展的利器,催生出大量应用案例:

(1)零售行业:沃尔玛利用销售数据进行商品关联分析,优化货架陈列,实现精准营销;亚马逊利用用户行为数据进行个性化推荐,提高转化率和客单价。

(2)金融行业:花旗银行通过信用卡交易数据分析客户价值,开展差异化服务;京东金融利用大数据构建银行风控模型,显著提升风险识别能力。

(3)制造行业:通用电气利用设备联网数据进行预测性维护,减少非计划性停机时间;格力电器利用生产数据优化车间调度,提高生产效率和良品率。

(4)交通行业:滴滴利用海量出行数据进行实时调度,缓解打车难;航联科技利用机票销售数据预测客流量,优化机票价格和航线网络。

(5)医疗行业:华大基因利用基因测序数据开展精准医疗,支撑个性化诊疗;平安好医生利用患者病历数据进行辅助诊断,提高诊断效率和准确率。

这些案例展现了数据价值变现的广阔前景。未来,随着5G、物联网的建设,数据爆发将进一步加速,也对数据分析能力提出更高要求。打通数据壁垒,充分利用内外部数据,建立敏捷高效的大数据平台,完善数据资产管理和安全防护,培育基于场景的行业数据解决方案,成为各行各业的当务之急。

数据作为新的生产要素,越来越多地参与价值创造、价值交换和价值分配,数据资产化成为必然趋势。数据资产是指数据在应用过程中所体现出的财产价值,能够给数据拥有者带来持续的收益。数据资产化就是将数据转化为可确权、可计量、可流通的资产的过程。一般涉及数据采集、数据清洗、数据加工、数据定价、数据交易等环节。数据采集和清洗是数据资产的基础,数据加工通过分析挖掘、知识提炼,赋予数据以更高价值,数据定价是数据资产化的关键,需要考虑数据的时效性、稀缺性、关联性等因素,数据交易则是数据资产变现的主要方式,可通过数据交易平台实现。

数据资产化的前提是明晰数据权属。数据具有非排他性、易复制等特性,在确权方面与有形资产有本质区别。我国民法典、数据安全法等明确了自然人的个人信息权益,但对企业、政府等主体的数据产权界定仍不明确,难以形成统一的司法保护。建立数据产权制度,厘清不同主体的数据权益边界,是发展数据要素市场的关键举措。比如可以针对不同类型的数据,分别赋予产权、使用权、收益权等权能。同时,还要加强数据确权配套服务,利用区块链、隐私计算、数字水印等技术手段,完善数据资产登记、流通、追溯机制。

数据要素市场是数据资产化的关键载体。目前,我国数据要素市场发展尚处起步阶段,呈现交易模式单一、定价机制不健全、服务体系不完善等特点。亟待加快顶层设计,制定市场准入、交易规则、行为监管等政策措施。比如在准入方面,建立分级分类的数据交易主体资质认证制度;在定价方面,构建统一规范的数据资产评估体系;在交易方面,鼓励培育形式多样的交易场景和交易模式;在服务方面,发展数据资产登记结算、争议仲裁、融资担保等中介服务。引导龙头企业、行业协会、科研机构共建共享数据开放平台,鼓励跨区域、跨部门、跨行业的数据流通共享。

当前,贵阳大数据交易所、上海数据交易中心等10余家数据交易所已经成立,在公共数据、企业数据、个人数据等细分领域率先开展了交易服务。中国信通院等单位编制的数据交易基本规范,为规范数据交易活动提供了参考。下一步,要进一步完善数据全流程生命周期价值管理,打通数据确权、定价、交易、流通等各个环节。推动政府数据开放共享,鼓励企业数据有序流通,保护个人数据合法权益,加快培育数字产业集群,构建万物互联、人机协同、跨界融合、共创分享的数据要素市场新格局。

数据是关系国家安全、企业发展、个人隐私的战略性资源。随着数据规模快速膨胀,跨境数据流动日益频繁,数据泄露、数据滥用等安全事件也频发,数据安全成为各国的重大议题。我国高度重视数据安全保护,陆续出台数据安全法、个人信息保护法等,为维护数据主权提供了法律保障。

数据安全是数字经济健康发展的底线,贯穿数据采集、传输、存储、处理、销毁等各个环节。数据管理者要全面梳理数据资产,围绕敏感数据开展分类分级保护,建立纵深防御体系。采集环节,应当坚持合法、正当、必要原则,不过度采集数据;传输环节,应当通过加密通信、访问控制等技术,防止数据被窃取篡改;存储环节,应当遵循最小化存储原则,及时删除过期数据;处理环节,应当全程记录数据流向,设置访问权限防止内部人员非法调用数据;销毁环节,应当采取物理销毁、多次覆写等措施,确保数据不可恢复。同时,还要开展数据安全风险评估、应急演练,提高数据安全事件发现和处置能力。

作为数据安全的重要内容,个人隐私保护已成为各国立法和执法的重点。我国个人信息保护法对个人信息的合法合规处理提出了明确要求,规定了告知同意、最小必要、公开透明、数据可携等基本原则。企业要严格落实相关规定,加强个人信息全生命周期管理。比如,收集个人信息时应当取得个人同意,保障个人对其个人信息的知情权;使用个人信息时,不得超出约定的处理目的、处理方式和范围;不再需要时,应当及时删除个人信息;发生或可能发生个人信息泄露时,应当立即采取补救措施,并通知个人和有关主管部门。此外,还要强化个人信息主体权利,提供更新、复制、转移等便捷的行权渠道。

在数字全球化浪潮下,数据跨境流动日益频繁。发达国家凭借技术、资本优势,加速向发展中国家转移数据中心,大量汲取数据资源,引发发展中国家对数据主权的担忧。美国出台跨大西洋数据隐私框架,欧盟出台通用数据保护条例,日本出台个人信息保护法等,无不体现维护数据主权的考量。我国也高度重视数据主权保护,数据安全法明确规定"国家主管机关负责组织协调数据跨境移动安全监管工作,可以对影响或可能影响国家安全、社会公共利益的数据实施出口管制"。下一步,还要出台数据跨境流动管理条例,完善数据出口管理清单、重要数据目录,加强对关键信息基础设施、重要数据等的安全审查,确立数据依法有序流动的基本原则。同时,积极参与全球数据治理,推动建立公平合理的国际数据治理规则体系,反对数据霸权主义,维护新兴经济体数字发展权益。

算法是解决特定问题确切而完整的计算过程,是数字经济时代价值创造的关键驱动力。从古代算筹、机械计算,到现代计算机算法,再到人工智能算法,算法推动人类不断突破计算鸿沟。特别是进入人工智能时代,深度学习算法模拟人脑神经元,让计算机具备了感知、决策、推理、预测等智能化能力,成为经济数字化转型的核心引擎。

按照设计思路,算法可分为确定性算法和非确定性算法。确定性算法对相同输入总是产生相同输出,执行路径固定,如排序算法;非确定性算法可能出现多种运行路径,对相同输入可能产生不同输出,如遗传算法。按照时间复杂度,可以分为多项式时间算法和非多项式时间算法。前者能在多项式时间内完成任务,如最短路径算法;后者完成任务所需时间随问题规模呈指数级增长,如旅行商问题的动态规划算法。此外,还可以按照算法的应用领域、解题策略等进行分类。

现代算法经历了三个主要阶段:第一阶段是经典算法时期,强调利用数学方法构造最优解,包括排序算法、查找算法、图论算法等,多为确定性算法;第二阶段是启发式算法时期,面对NP难问题,从问题本身出发寻找满意解,包括模拟退火、遗传算法、蚁群算法等,多为非确定性算法;第三阶段是智能优化时期,利用机器学习算法让计算机自主学习优化策略,代表算法包括神经网络、决策树、支持向量机等。不同时期算法在设计思想、数学基础、应用场景等方面差异显著,但都体现了算法对经济社会发展的重要驱动作用。

机器学习是人工智能的核心,其本质是通过算法让计算机系统从数据中自主学习,不断改进和优化模型,提高对未知数据的预测能力。根据训练数据是否带有标签,机器学习主要分为监督学习、无监督学习和强化学习。

监督学习是利用已知类别的样本训练分类器,对未知类别的样本进行分类。给定一组由输入和预期输出组成的样本,通过训练寻找一个最佳函数,将输入映射到输出。代表算法包括决策树、支持向量机(SVM)、逻辑回归、朴素贝叶斯、K近邻、Adaboost等。监督学习在数字经济领域应用广泛,如垃圾邮件识别、人脸识别、语音识别、信用评分、故障诊断等。

无监督学习则只给定输入样本,而没有预期输出。算法通过对无标签数据的学习,发现数据内在结构和规律。常见任务包括聚类、降维、关联、异常检测等。聚类将物理或抽象对象组织成多个类的过程,代表算法有K-means、DBSCAN等;降维是在保留数据特征的前提下,将高维数据转换为低维数据,代表算法有主成分分析(PCA)、奇异值分解(SVD)等;关联分析用于发现隐藏在大规模数据集中的有趣关联和相关联系,代表算法有Apriori、FP-growth等;异常检测则识别出偏离正常模式的罕见项目、事件或观测值,在欺诈检测、入侵检测等领域应用广泛。

强化学习通过智能体与环境的交互,根据环境反馈的奖励或惩罚,不断调整策略,最大化长期累积奖励。与监督学习和无监督学习相比,强化学习更注重目标导向和探索优化。代表算法包括Q学习、Sarsa学习、蒙特卡洛树搜索等。强化学习在不确定环境下序贯决策能力突出,在自动驾驶、智能游戏、机器人控制等领域崭露头角。如AlphaGo利用深度强化学习,战胜了人类围棋冠军。

机器学习虽然取得了长足进展,但在一些领域其性能和泛化能力仍不及人类。亟需在小样本学习、迁移学习、联邦学习、持续学习等方向加强研究,让机器学习模型更好地适应复杂多变的现实场景。此外,机器学习的可解释性不足,容易产生偏见和歧视等问题,必须强化机器学习的可信、可控、可用,确保其在社会经济活动中安全、公平、有益。

近年来,以深度学习为代表的人工智能新范式蓬勃兴起。相比传统的浅层机器学习,深度学习通过构建多层神经网络,模拟人脑神经连接,可以学习更高层次的数据特征和更抽象的概念。其网络结构一般包括输入层、多个隐含层和输出层,层与层之间通过权重矩阵连接。网络通过前向传播进行预测,通过反向传播校正参数,最终形成end-to-end的映射模型。深度学习在语音识别、图像处理、自然语言理解等领域取得了突破性进展。

卷积神经网络(CNN)是深度学习的代表架构之一。它采用卷积核对输入数据进行卷积操作,提取局部特征,通过池化层逐步降低特征维度,最后通过全连接层实现分类预测。CNN能够很好地利用图像的局部连接性和空间不变性,在图像分类、目标检测、语义分割等任务上表现优异。如2012年AlexNet在ImageNet图像识别大赛上以远超第二名的成绩夺冠,揭开了深度学习的崛起之路。此后,VGGNet、GoogleNet、ResNet等CNN网络层出不穷,不断刷新视觉任务的性能纪录。

循环神经网络(RNN)是另一类重要的深度学习架构。不同于前馈神经网络,RNN引入了状态单元的概念,通过将前一时刻的状态与当前输入进行计算,更新当前状态,从而建模数据的时序关联。理论上,RNN能够处理任意长度的序列数据。但在实际应用中,简单RNN会受到长期依赖问题的困扰。因此,门控循环单元(GRU)、长短时记忆网络(LSTM)等改进型RNN应运而生。RNN广泛应用于语音识别、机器翻译、情感分析等任务。如谷歌的神经机器翻译系统就是基于RNN编码器-解码器架构,实现了端到端的机器翻译。

生成对抗网络(GAN)开创了深度学习的新范式。传统深度学习主要面向判别模型,即给定输入预测输出。而GAN由生成器和判别器两个神经网络构成,通过两个网络的博弈学习,可以从随机噪声生成逼真的样本。其基本思想是,生成器努力生成以假乱真的样本欺骗判别器,判别器则不断提高对真假样本的判别能力。这个过程可以用纳什均衡博弈来刻画。GAN为解决生成问题提供了新思路,在图像合成、风格迁移、语音合成等领域取得了惊艳表现。但GAN的训练也面临模式坍塌、梯度消失等问题,亟需从网络设计、目标函数、评价指标等方面加以改进。

除CNN、RNN和GAN外,变分自编码器、记忆网络、图神经网络、注意力机制、Transormer等网络结构也备受关注。变分自编码器引入了概率图模型,通过最大化变分下界,可以从高维数据恢复隐变量分布;记忆网络引入了外部存储单元,通过寻址读写机制,增强了网络处理长序列的能力;图神经网络通过图卷积、图注意力等操作,可以建模图结构数据的拓扑关系;注意力机制让网络根据任务目标,自适应地分配不同输入分量的权重,提升了模型的解释性;Transformer抛弃了局部卷积和循环连接,通过自注意力机制实现了全局建模,在自然语言处理领域一枝独秀。

深度学习虽已展现出强大的感知学习能力,但与人类智能相比,在可解释性、鲁棒性、泛化能力等方面仍有差距。如何突破深度学习自身的局限,实现从感知智能到认知智能再到通用智能的飞跃,是摆在学界和业界面前的重大课题。融合符号推理与深度学习,探索更类脑的网络架构,研究更高效的学习范式,是人工智能未来的重要方向。

自然语言处理(NLP)是人工智能的核心方向之一。它研究计算机系统如何有效地理解、生成和处理人类语言,赋予计算机处理自然语言的能力。NLP涉及语言学、计算机科学、数学等多个学科,是人机交互的重要桥梁。传统的NLP技术主要包括分词、词性标注、句法分析、语义分析等。这些任务大多基于人工构建的词典、规则,难以应对口语化、不规范的网络语言。

近年来,深度学习为NLP注入了新活力。一方面,词嵌入、字嵌入等语言模型让计算机真正理解文本语义成为可能。词嵌入通过神经网络学习词语间的分布式表示,用低维实值向量刻画词语的语义。Word2Vec、GloVe等经典模型都展现了强大的语义表示能力。在此基础上,ELMo、GPT、BERT等预训练语言模型通过海量语料的无监督学习,进一步增强了语言理解的广度和深度。凭借其强大的特征提取和迁移学习能力,预训练模型在阅读理解、文本分类、机器翻译、对话生成等NLP任务上取得了接近甚至超越人类的表现。

另一方面,知识图谱为NLP领域带来了全新视角。不同于无结构化的自然语言文本,知识图谱以结构化、语义化的形式组织信息,形成概念、实体及其关系的语义网络。其核心是本体和实例,本体定义概念类别及其属性关系,如Person类、subclassOf关系;实例是各类概念的具体对象,如"刘慈欣"是作家的一个实例。知识图谱一般通过知识抽取、知识融合、知识推理等技术构建。知识抽取即从非结构化文本中提取实体、关系和属性三元组;知识融合将多源异构的知识库映射、对齐到统一的本体架构;知识推理则基于图谱已有知识,挖掘隐含关联,生成新的知识。

知识图谱是智能时代的基础设施。一方面,知识图谱通过语义关联让计算机建立起对世界的认知,是从感知智能走向认知智能的基石;另一方面,知识图谱为NLP任务提供了强有力的先验知识和语境理解,大幅提升了任务性能。如在机器翻译中,结合知识图谱能更好地消歧译文中的实体指代;在信息检索中,知识图谱能扩展query understanding,实现查询意图和检索结果的深度匹配;在对话系统中,知识图谱可以让机器根据上下文进行关联回复,让对话更加自然流畅。谷歌、微软、阿里巴巴等科技巨头纷纷构建大规模知识图谱,为其智能服务提供了有力支撑。

但知识图谱也面临稀疏性、异质性等问题。如何突破人工构建的瓶颈,实现知识的自动化、规模化获取;如何建立跨语言、跨领域的一致性表示,实现多源图谱的互联互通;如何在图谱演化、图谱推理等方面取得更大突破,让知识图谱像人脑一样持续学习、不断进化,仍是亟需探索的方向。此外,如何平衡通用知识图谱和行业知识图谱的建设,如何加强知识表示、知识计算、跨模态融合等基础理论研究,也需要学界和业界形成合力。

计算机视觉是人工智能的另一个核心领域。它研究如何让计算机"看懂"图像和视频,获取图像语义信息,理解场景中的对象、事件和行为。模式识别则是从数据中自动分析模式的研究领域,涵盖机器学习、数据挖掘等理论方法。二者是相辅相成的,共同构成了人工智能的感知基础。

传统的计算机视觉主要采用手工设计特征的方式,代表方法包括尺度不变特征(SIFT)、方向梯度直方图(HOG)等,但其鲁棒性和适用性都不够理想。深度学习的兴起,彻底改变了这一格局。卷积神经网络凭借其强大的特征提取和表示学习能力,让视觉模型的性能得到飞跃式提升。在ImageNet图像分类大赛中,从2012年AlexNet的历史性突破,到近年来SENet、EfficientNet等网络的层出不穷,top-5错误率从26%降到2.25%,超越了人类水平。在MS COCO等富含语义的数据集上,目标检测和语义分割的性能也达到空前水平。YOLO、Mask R-CNN、语义FPN等新的网络结构,进一步拓展了CNN在复杂场景理解中的应用。

视觉transformer的提出,开启了计算机视觉的新范式。不同于CNN基于局部卷积,transformer通过自注意力机制实现图像特征的全局建模,并引入多头注意力机制,加强了跨尺度、跨区域的信息交互。在此基础上,DETR、ViT等模型取得了突破性进展,成为业界的研究热点。如何改进transformer在视觉领域的泛化和鲁棒性,平衡模型的性能和效率,是当前函待解决的重要问题。

除静态图像外,视频理解也是计算机视觉的重要分支。视频不仅包含空间信息,还包含丰富的时序信息。如何建模视频的时空依赖,实现连续动作、事件的理解和预测,是视频理解的核心议题。双流网络、C3D、I3D等经典方法,在视频分类、动作识别等任务上取得了良好表现。SlowFast网络通过减慢空间分支、加速时序分支,增强了视频的多尺度建模能力。MViT则将ViT扩展到视频领域,通过时空注意力实现全局建模。视频问答、视频摘要、异常行为检测等更具挑战的任务,则考验着视频理解的深度和广度。

除视觉感知外,如何实现感知结果的可解释、可交互也至关重要。当前,视觉模型更像一个黑盒,缺乏对决策过程和注意力机制的洞察,无法解释其工作原理。因此,研究视觉可解释性,如何让模型输出decision map、visual caption等可解释中间表示,增强人机互信,是大势所趋。同时,视觉交互如visual dialogue、vision-language navigation等,让计算机不仅能看,还能听、能问、能交流,实现更自然的人机协同,也是未来的重要方向。

推荐系统是数字经济时代最重要的基础设施之一。它根据用户的历史行为和兴趣偏好,利用机器学习算法自动为其推荐感兴趣的信息和服务,从海量信息中精准匹配用户需求,成为电商、社交、资讯等互联网应用的标配。从协同过滤到基于内容过滤再到组合推荐,推荐系统经历了三代技术演进,成为学术界和工业界共同关注的热点。

早期的推荐系统主要采用协同过滤(CF)算法。其基本思想是利用用户或物品之间的相似性,为用户推荐那些与其喜好相近的用户喜欢的物品,或者推荐那些与其喜欢的物品相似的物品。基于邻域的协同过滤如UserCF、ItemCF,通过计算用户或物品的k近邻,直接利用邻居的评分加权聚合生成推荐;而基于模型的协同过滤如矩阵分解,通过用户和物品的隐向量建模用户-物品评分矩阵,挖掘用户和物品的潜在联系。协同过滤的优点是简单、直观,缺点是冷启动和稀疏性问题突出,扩展性不佳。

为克服协同过滤的局限,基于内容的推荐(CBF)应运而生。CBF利用物品内容特征如文本、图像等,通过构建用户画像和物品画像实现特征匹配。用户画像是用户属性、兴趣、行为等特征的结构化表示,一般通过统计建模、聚类分析、关联规则等方法自动生成。物品画像则是物品内容的语义表示,一般通过文本挖掘、多媒体分析等技术提取物品特征。将二者匹配,就可实现个性化推荐。CBF的优点是不依赖用户行为历史,缺点是容易陷入同质化推荐。知识图谱、跨域迁移等新技术,为CBF注入了新活力。

深度学习的发展,推动推荐系统进入了组合推荐时代。组合推荐融合了协同过滤、内容过滤、上下文过滤等不同路径的推荐结果,形成最终的推荐列表。其关键是如何建立统一的user embedding和item embedding,以此实现不同路径特征的高效融合。NCF、DeepFM、DIN、DIEN等深度组合模型,通过引入神经网络的强大表示能力,极大增强了推荐系统的非线性建模和跨域学习能力。图神经网络、强化学习、对比学习、因果推断等前沿方法,进一步拓展了组合推荐的新边界。

在推荐系统发展的同时,用户画像作为个性化推荐的基石,其理论和方法也不断演进。从静态画像到动态画像,从粗粒度画像到细粒度画像,从单域画像到跨域画像,用户画像变得越来越立体、越来越精准。用户画像通过机器学习算法,整合用户在不同场景、不同时间的行为数据,挖掘其兴趣分布和演化规律,刻画用户多元动态的偏好,是掌握用户真实需求的钥匙。用户画像不仅为推荐系统建立了高维语义特征,也为精准广告、智能搜索等应用奠定了用户洞察基础。随着数据孤岛逐步打破,全域数据的汇聚融通,必将进一步提升用户画像的广度和深度。

推荐系统作为人工智能商业化的排头兵,为数字经济创新发展提供了源源不断的动力,但也面临着算法bias、隐私安全等问题。推荐系统容易形成"马太效应",加剧信息茧房,损害知识多样性;算法歧视问题引发社会担忧,亟需从机制上保障公平性;个性化推荐可能暴露敏感偏好,须加强隐私保护。提升推荐的包容性,增强用户感知、用户控制,让智能推荐更加透明、更加普惠,是推荐系统健康发展的必由之路。

区块链被誉为继大型机、个人电脑、互联网之后的第四次技术革命浪潮。它通过密码学原理,在无需中心化控制的前提下,实现网络节点的协调与一致,确保数据的可信流通和价值传递,为数字经济提供了新的信任基础设施。区块链采用链式区块结构,每个区块包含多笔交易数据、时间戳和前一区块的哈希值,从而以密码学方式保证了数据的不可篡改。区块链网络采用P2P网络拓扑,网络中每个节点都拥有完整的数据拷贝,互为备份,无需中心服务器。区块链使用共识机制如PoW、PoS实现全网共识,保证了数据在无中心化网络中的一致性。这些特点让区块链成为价值互联网的基石。

智能合约是运行在区块链上的自动执行程序,将合约条款以代码形式事先确定,在满足合约条件时自动执行,从而降低了交易成本,提高了交易效率。智能合约实际是将部分可编程逻辑嵌入区块链,通过事件触发、条件判断、状态转移等实现合约的自动化执行。以太坊EVM是典型的智能合约引擎,支持图灵完备的合约语言Solidity。Hyperledger Fabric也支持多种主流编程语言编写智能合约。智能合约让区块链从单纯的记账系统,升级为可编程的"世界计算机",大幅拓展了其商业应用空间。

当前,区块链和智能合约广泛应用于金融、供应链、医疗、教育、版权等领域。如在供应链领域,区块链可实现商品溯源、真品验证、物流追踪等;在金融领域,区块链可用于跨境支付、贸易融资、资产证券化等;在数字版权领域,区块链可保护知识产权,规范交易流转,激励内容创作。智能合约则在保险理赔、拍卖、众筹、财产分配等场景发挥独特优势。如开放保险平台Inmediate使用智能合约简化车险理赔,提升处理效率;Propy平台利用智能合约简化房屋租赁和转让,降低交易成本。联盟链、许可链等新模式不断涌现,从数字货币向实体经济加速渗透。

尽管区块链和智能合约前景诱人,但在性能、安全等方面尚存短板。区块链目前吞吐量有限,尚不能支撑大规模商用;智能合约的代码漏洞、数据隐私等安全风险不容忽视;跨链互操作、链上链下协同有待加强;法律监管适配亟待完善。此外,区块链在能耗、成本等方面也面临争议。因此,区块链技术创新、架构优化、跨界融合将是大势所趋。联盟链、混合链、云区块链等新架构,侧链、分片、闪电网络等性能优化方案,多方安全计算、可信执行环境等隐私保护方案,有望破解区块链和智能合约面临的发展瓶颈。

算法是数字经济时代的核心引擎,其应用领域广泛、应用场景丰富,几乎渗透到社会经济生活的方方面面。从消费互联网到产业互联网,从数字政府到智慧城市,处处可见算法的身影。

在消费互联网领域,算法驱动着个性化推荐、智能搜索、用户画像等应用创新。如抖音的推荐算法精准捕捉用户兴趣,日均播放量超过2000亿;微博的热搜算法自动发现社会热点,聚合全民关注的焦点话题;京东的智能供应链算法优化库存管理,减少供需错配;美团的智能配送算法通过订单聚合,提高骑手收入水平。算法让互联网平台更懂用户,激发了海量长尾需求。

在产业互联网领域,算法为传统行业数字化转型插上翅膀。如在制造业,算法驱动设备预测性维护、柔性化生产、智能排产等应用,通过对设备状态、工艺参数、物流数据的实时分析优化,实现产能和效益的双提升。海尔COSMOPlat平台通过算法分析用户个性化需求,实现大规模定制生产。在零售业,算法应用于客流分析、智能导购、无人值守等场景,以数据驱动精准营销。盒马会员数据平台通过算法分析消费特征,实现千人千面的个性化服务。在金融业,算法驱动智能投顾、智能风控、智能客服等场景创新。蚂蚁金服通过算法分析海量交易数据,打造了全球领先的智能风控引擎。算法成为产业数字化的"发动机"。

在数字政府领域,算法让政务服务更智能、更高效。如在"互联网+政务服务"中,算法通过对海量政务数据的关联分析,让群众少跑腿、数据多跑路,实现一网通办、一次办成。在"互联网+监管"中,算法通过对企业数据的多维分析,精准刻画企业风险,实现以"数"治"理"。在"互联网+民生"中,算法通过教育、医疗、社保等数据的融合应用,提供个性化的精准服务。浙江"最多跑一次"改革通过算法精简办事流程,让数据"跑"起来、群众少"跑"腿。算法让政府治理更加智能精准。

在智慧城市领域,算法为城市管理和民生服务赋能。如在城市交通领域,算法优化交通信号配时、公交线路规划,缓解城市拥堵;在城市安防领域,算法加强人像识别、行为分析,提升社会治安水平;在城市应急领域,算法强化灾害预警、资源调度,提高城市韧性;在智慧社区领域,算法用于人员通行、车辆管理、环境监测等,提升居民生活品质。杭州城市大脑通过算法实现交通优化、城市管理、产业服务的全栈智能化。算法让城市更聪明、更宜居。

但算法也带来了伦理、安全等风险隐患。算法可能放大数据中的偏见,产生歧视和"马太效应";算法的不透明、不可解释,损害了用户的知情权和选择权;算法对海量数据的"过度提取",侵犯了个人隐私;人工智能的失控风险不容忽视。如何实现负责任、可信赖的人工智能,需要从算法、数据、流程等多维度系统施策。这包括加强算法的可解释性、公平性研究,完善智能系统的可审计机制,建立健全数据治理和隐私保护机制,推动人机协同的混合增强智能等。让智能更透明、更普惠、更可控,实现人工智能造福人类,是应用创新必须坚守的价值理念。

算法发展日新月异,新理论、新框架、新应用不断涌现,总体呈现以下趋势:一是算法从浅层模型走向深层模型,让智能系统突破人类设计的局限,实现端到端学习;二是算法从单一模态走向多模态融合,让智能系统更全面地理解视听觉信息,回答"是什么"和"在哪里"的问题;三是算法从单一任务走向多任务协同,让智能系统具备更强大的常识推理和迁移学习能力;四是算法从数据驱动走向知识引导,让智能系统告别从零学习,积累可复用的结构化知识;五是算法从封闭训练走向开放进化,让智能系统像人类一样持续学习、持续成长。总之,未来的算法将更加复杂、更加自主、更加普适,不断向通用人工智能的目标迈进。

但与此同时,算法研究也面临诸多新的挑战。从理论基础看,当前算法缺乏对因果机制、逻辑推理的建模,亟需从数据关联走向因果发现;从学习范式看,当前算法主要采用监督学习,亟需探索自监督、半监督、主动学习等更高效的范式;从优化方法看,SGD、Adam等优化器面临收敛速度慢、易陷局部最优等问题,函待更高效、更鲁棒的优化算法;从泛化能力看,当前算法容易过拟合,在分布外和对抗样本上表现不佳,亟需增强模型的外推能力;从计算效率看,算法参数高度冗余,模型的存储和推理成本高企,亟需探索模型剪枝、知识蒸馏、参数量化等性能优化技术。

为应对上述挑战,学界和业界正在多个前沿方向开疆拓土:

一是自监督学习。不同于监督学习需要大量标注数据,自监督学习让模型通过自我生成监督信号,从无标注数据中自主学习通用特征。对比学习、生成式预训练等范式,为NLP、CV等领域注入了新动力。二是元学习。传统机器学习依赖大量同分布数据,泛化能力有限。元学习让模型具备跨任务的快速学习能力,更好地适应环境变化。MAML、Prototypical Network等算法,让小样本学习成为可能。三是类脑智能。当前神经网络虽然灵感来源于大脑,但结构上存在巨大差异。类脑计算通过brain-inspired架构,如记忆网络、胶囊网络、脉冲神经网络等,让智能系统向大脑学习,实现更鲁棒、更高效的认知。四是可解释性。当前深度学习模型是一个黑盒,缺乏可解释性。因果建模、反事实推理等方法,让模型决策更加透明,有助于构建可解释、可信赖的人工智能系统。五是隐私计算。当前机器学习普遍需要集中数据,隐私泄露风险突出。联邦学习、多方安全计算等技术,让数据所有者无需共享原始数据,即可协同建模,有望破解大数据时代"数据孤岛"和数据隐私的两难困境。

可以预见,随着大数据、高性能计算、认知科学、脑科学等多学科交叉融合,人工智能领域必将孕育出更多变革性技术。从感知智能、认知智能再到人机协同智能、群体智能,人工智能将助力人类不断突破认知极限,在更广阔的疆域遨游。但与此同时,人工智能的失控风险、失业风险、伦理风险也日益凸显。建立人机共生、和谐可信的智能社会,将是人工智能研究的终极命题。

随着人工智能走向深入应用,其潜在风险日益凸显,引发社会各界对算法伦理的广泛关注。算法伦理是指在人工智能的设计、开发、部署和使用过程中,所应遵循的道德规范和价值标准。其核心是如何确保人工智能造福人类,防范智能系统的失控和滥用。

算法伦理涉及偏见、歧视、隐私、安全、透明等多个维度。偏见问题源于训练数据的局限性和代表性不足,如数据中性别、种族的比例失衡,容易让模型产生对应的偏见。歧视问题则源于模型对个体的不公平对待,如贷款评估模型因性别或肤色的差异,对特定群体采取区别对待。隐私问题源于智能系统对个人信息的大规模采集和"过度提取",对个人隐私构成了严重侵犯。安全问题源于人工智能的脆弱性和不确定性,容易受到对抗攻击、后门投毒等威胁,甚至完全失控。透明问题源于算法的不可解释性,用户无法知晓决策背后的逻辑,损害了用户的知情权和选择权。

为应对算法伦理挑战,各国纷纷制定人工智能伦理规范和指导原则。欧盟通过《通用数据保护条例》,明确赋予用户"不受算法决定约束的权利";美国成立国家人工智能咨询委员会,负责制定人工智能发展的长期战略;日本发布《人工智能研究开发指南》,提出尊重、教育、隐私、安全等基本原则;中国的《新一代人工智能治理原则》,强调人工智能要坚持以人为本,确保可控可信。这些原则为人工智能的有序创新提供了基本遵循。

但原则层面的约束还远远不够,还需从机制层面入手,建立常态化的人工智能治理体系。欧盟提出的建立人工智能监管沙盒,鼓励创新的同时防范风险,为人工智能治理提供了新思路。此外,开展算法伦理审计,既是人工智能行业的应尽之责,也是其健康发展的必由之路。算法审计是对智能系统进行客观、独立的评估,以检查其是否符合伦理道德要求。通过白盒审计、黑盒审计等技术,系统评估算法模型和训练数据的合规性,对智能系统进行全流程、动态化的伦理把控。此外,还要建立算法问责制度,对造成损害的决策追溯责任主体,以问责倒逼尽责。建立人工智能从业者资质认证制度,强化行业自律,培育尊重隐私、保护弱者的行业文化。建立人工智能安全事故的应急处置机制,最大限度降低事故的破坏性影响。

算法伦理不仅事关人工智能行业的健康持续发展,更关乎人类社会的共同命运。如何在效率和公平、创新和规制、发展和安全之间找到恰当平衡,考验着每一个利益相关方的智慧。唯有多方协作、共建共治,在开放、包容、互信的氛围中积极探索,才能实现算法向善、科技向善,让人工智能真正成为驱动可持续发展的正向力量。

算力是支撑数字经济算法模型训练和应用的计算能力,是继土地、资本、劳动力、技术之后的第五大生产要素,是数字经济时代的战略资源。从广义看,算力是数字化时代的算术运算能力,包括CPU、GPU、FPGA、ASIC等处理器的运算速度,也包括内存、存储、网络等信息处理单元的性能指标;从狭义看,算力主要指芯片在单位时间内完成的浮点运算次数,是衡量计算机系统进行科学计算的重要指标。随着人工智能、大数据等新兴技术的快速发展,对算力的要求也从单一浮点峰值性能,逐步走向内存访问带宽、互联带宽、能效比等多维度综合评价。

算力水平的高低,取决于硬件和软件两个层面。在硬件层面,主要考察CPU、GPU等处理器的性能,如时钟频率、运算核心数、缓存容量、总线带宽等;在软件层面,主要考察操作系统、并行编程框架、编程语言等对硬件的调度和优化能力。二者相辅相成、缺一不可。从计算架构看,算力可以分为集中式和分布式两种模式。集中式算力将计算资源集中部署在高性能计算中心或数据中心,通过高速互联实现资源共享和协同,如超级计算机就是典型的集中式算力;分布式算力则将计算资源分散部署在网络边缘节点,通过松耦合方式动态聚合和调度,如云计算、边缘计算就是典型的分布式算力。随着计算任务的复杂化和数据的爆炸式增长,分布式协同成为算力发展的必然趋势。

当前,算力水平主要通过TOP500、Graph500、Green500等权威榜单考核。TOP500根据高性能计算机的Linpack测试结果,评选出全球运算速度最快的500台超级计算机;Graph500则侧重图数据分析能力,评价高性能计算机处理大规模复杂网络的能力;Green500关注超级计算机的能源效率,期望在提升算力的同时降低能耗。此外,还有HPL-AI榜单聚焦人工智能负载性能,HPCG榜单聚焦实际应用性能,反映了算力评价的多样化需求。我国在上述榜单均取得长足进步,超算数量和性能跃居世界前列。但在芯片等核心领域与发达国家还存差距,亟需从基础研究、技术攻关、应用优化等方面系统发力,补齐短板、锻造长板。

当前,算力正成为国家战略科技力量体系的重要组成。我国将算力定位为数字经济时代的关键生产要素,加快布局算力基础设施建设。中央算力枢纽、省级算力枢纽、边缘算力节点加速部署,"东数西算"工程加快实施,国家超算应用创新平台启动建设。到2025年,我国将初步形成国家算力网络,算力规模和算力效率跻身世界前列。算力正成为数字中国、智能社会的底座工程。

CPU和GPU是支撑通用计算和智能计算的核心芯片。CPU即中央处理器,是计算机的运算和控制核心。传统CPU采用冯·诺依曼架构,通过控制器、运算器、存储器等部件协同工作,擅长逻辑控制和串行处理,在通用计算任务上具有灵活高效的特点。从1971年英特尔推出首款商用微处理器4004,到1993年奔腾问世,再到2017年推出24核至强可扩展处理器,CPU经历了指令集扩展、多核化、片上系统等一系列重大变革,成为IT产业创新发展的核心引擎。

GPU即图形处理器,最初主要应用于图形图像渲染加速。2006年,NVIDIA推出CUDA编程框架,开启了GPU通用计算(GPGPU)的新纪元。GPU拥有数千个运算核心,采用单指令多数据(SIMD)流式处理架构,可在一个时钟周期内对大量数据并行处理,在人工智能、科学计算等数据密集型领域优势突出。特别是深度学习兴起后,GPU成为神经网络加速训练和推理的主力芯片。2016年,谷歌发布TPU专用芯片,进一步引领了AI芯片的发展潮流。目前,GPU在人工智能训练市场份额超过97%,成为人工智能产业发展的磐基石。

云计算将分散的IT资源,如服务器、存储、网络等,整合为一个共享的资源池,通过虚拟化、容器化等技术实现资源的弹性供给和按需服务,是IT基础设施的革命性变革。云计算具有海量存储、超强计算、随需应变、按需服务等特点,从基础设施、开发平台到软件应用,全面重塑了IT服务交付模式。经过IaaS、PaaS、SaaS三个阶段演进,云计算已成为数字经济时代的关键基础设施。2006年,亚马逊推出AWS弹性计算云,开启了云计算元年。此后,微软Azure、谷歌云、阿里云等一大批云计算平台如雨后春笋般涌现。目前,全球云计算市场规模超过2000亿美元,预计到2025年将突破5000亿美元。我国云计算产业进入跃升期,阿里云稳居亚太第一,华为云、腾讯云、百度云等民族品牌竞相发力,"中国云"正加速弯道超车。

云计算从资源层到算法层打通数据壁垒,构筑了人工智能发展的底座。一方面,云计算将存储和计算能力下沉至用户端,让数据触手可及、算力唾手可得,极大降低了人工智能的准入门槛;另一方面,云计算的弹性扩展特性,让人工智能应用获得了近乎无限的算力支撑,再庞大的模型、再海量的数据,都能轻松驾驭。预训练模型的快速发展,云原生架构的日趋成熟,标志着云智融合进入新阶段。从云智一体到云网边端协同,将是未来的重要方向。

超级计算机是算力的集大成者,通过海量CPU并行计算,在气候预测、生物制药、材料模拟等关乎国计民生的重大科学工程领域发挥不可替代的作用。追溯超算发展史,从1964年CDC 6600问世,到1976年Cray-1诞生,再到上世纪90年代"地球模拟器"登顶,超算性能经历了百万亿次、千万亿次、万万亿次的跃迁。进入新世纪,中国超算异军突起,从2010年"天河一号"登顶TOP500,到2013年"天河二号"蝉联冠军,再到2016年"神威·太湖之光"以93千万亿次浮点运算的峰值性能刷新纪录,标志着中国超算跃居世界第一梯队。"天河三号"、"神威·exascale"等E级超算的研发也在加速推进,有望继续引领超算的发展潮流。

然而,传统超算正遭遇三大挑战:一是摩尔定律效应减缓,芯片性能和能效提升乏力;二是数据访存墙问题突出,内存带宽和延迟制约系统性能;三是应用负载结构剧变,传统CPU架构难以适应人工智能、大数据等新型工作负载。为此,异构计算、数据中心级片上网络、新型存储介质等技术创新不断涌现,推动超算加速走向智能化、专用化、规模化。如"Summit"超算采用CPU与GPU异构融合架构,在人工智能训练和推理性能上实现百倍提升;"富岳"超算引入PCI Express片上网络,显著提高了内部互联带宽;硅光技术、忆阻器件则有望突破冯·诺依曼瓶颈,为超算插上存算一体的翅膀。未来超算将从单纯追求浮点性能,转向以应用驱动的全方位创新。

量子计算则采用全新的物理机制,有望在复杂优化、密码破译、药物筛选等领域取得重大突破。不同于经典计算基于比特,量子计算基于量子比特,利用量子叠加态、纠缠态等特性,在特定问题上展现出经典计算难以企及的优势。量子计算从理论构想到实际应用,先后经历了量子图灵机、量子线路、通用量子门等重要里程碑。1994年Shor算法的发明,让人们看到了量子计算破译RSA加密的巨大潜力;1998年量子退火机问世,开启了量子计算实用化的先河。进入21世纪,量子计算硬件与算法并驾齐驱,不断刷新纪录。如2019年,谷歌基于53量子比特的Sycamore处理器,实现"量子霸权";2020年,中国的"九章"光量子计算原型机诞生,在高斯玻色取样等特定任务上实现量子优越性。但受限于量子比特的噪声、退相干等问题,通用量子计算机仍遥遥无期,中短期内以特定领域的专用量子芯片为主。NISQ(中等规模噪声量子)设备的研制将是现阶段的重点。

量子计算是后摩尔时代的战略制高点,国内外科技巨头纷纷跑马圈地。IBM发布多款量子芯片,并推出Qiskit开源开发工具包;英特尔发布17量子比特芯片,采用硅自旋量子比特技术;谷歌推出Bristlecone量子处理器,拥有72个量子比特;阿里巴巴发布平头哥量子芯片,具备高精度读取功能。量子软件方面,从语言和编译器,到模拟器和调试器,再到优化和验证框架,一系列研发工具如雨后春笋般涌现。量子算法在组合优化、机器学习、量子化学等领域展现出诱人前景。如量子近似优化算法(QAOA),量子变分特征求解器(VQE)等,为解决NP难问题带来新的希望。量子机器学习通过量子数据编码、量子神经网络等,让经典学习算法的性能大幅跃升。尽管量子计算尚处"婴儿期",但其变革性、颠覆性影响已初现端倪。

随着物联网、人工智能的快速发展,数据正从中心向边缘大规模迁移。Gartner预测,到2025年,超过75%的数据将在边缘侧产生和处理。边缘计算应运而生,其理念是将计算、存储、网络等资源下沉部署到靠近数据源头的网络边缘侧,就近提供智能化服务。通过数据本地化处理,边缘计算在时延、带宽、隐私等方面展现出显著优势:一是就近感知和处理,毫秒级时延满足实时性需求;二是减少数据中心传输,节省网络带宽成本;三是数据在本地存储分析,保护隐私安全;四是分散化自治管理,具备故障隔离和自愈能力。工业互联网、车联网、智慧城市等是边缘计算的典型应用场景。

雾计算与边缘计算理念相近,最早由思科提出,强调利用网络中路由器、接入点等设备,提供靠近物或数据源的计算、存储等服务,形成从云到物的连续计算范式。相比边缘计算,雾计算部署更加分散,强调不同层级节点间的协同,因此往往形成云-雾-边端的分层架构。OpenFog联盟围绕雾计算分层模型、接口规范等方面制定了一系列标准,推动产业互操作与集成创新。

边缘计算具有低时延、广连接、智能化的特点,但也面临资源受限、管理复杂、安全隐患等挑战。边缘芯片、边缘智能、隐私保护等技术创新不断涌现,助力边缘计算生态加速走向成熟。如智能手机基于NPU实现本地化学习,让AI从云端下沉到端侧;联邦学习、隐私计算等新范式,让分散数据不出本地即可协同建模,破解隐私与效用的两难困局;轻量级区块链让分布式账本嵌入边缘,基于智能合约实现可信协同。从感知、决策到执行,从端云协同到端边云融合,边缘计算正成为人工智能落地的关键一环。

未来,5G、物联网的大规模部署将进一步推动边缘侧应用创新,电信运营商、互联网厂商、工业制造商、城市管理者将在MEC、工业边缘、城市大脑等领域展开竞合。从中心云向分布式雾、边缘的迁移,从全栈IT能力向OT领域的渗透,将驱动计算形态走向"云智融合、雾智协同、端智赋能"的泛在智能新格局。中国信通院《泛在智能白皮书》展望,到2025年,全球将部署超过500亿个智能连接和50亿个智能终端,形成云网边端多层次、覆盖室内外的泛在算力新形态。边缘计算、雾计算将在其中扮演日益凸显的角色。

芯片是信息技术产业的基石,是国之重器。从最早的分立元件,到中小规模、大规模、超大规模集成电路,芯片集成度不断提高,功能不断丰富,推动信息社会加速迈向智能时代。然而,随着摩尔定律效应递减,传统的平面工艺、冯·诺依曼架构遇到瓶颈,芯片性能和功耗的改善空间日益有限。亟需从新材料、新器件、新工艺、新架构等方面系统突破,开辟芯片创新发展的新赛道。

芯片制造涉及设计、制造、封装、测试等多个环节,每个环节都对材料和工艺提出了极高要求。以光刻为例,随着芯片制程从10纳米进入7纳米、5纳米,甚至3纳米,深紫外光刻已难以满足微细加工需求,EUV极紫外光刻应运而生。相比193nm深紫外光,EUV光刻采用13.5nm极紫外光,曝光分辨率大幅提高,已成为先进制程的主流工艺。材料创新方面,第三代半导体如氮化镓、碳化硅展现出高频高功率特性,在5G射频、新能源汽车等领域备受青睐。此外,高介电常数绝缘体、超低阻金属等新材料不断突破,助力延续摩尔定律。3D堆叠、Chiplet、FO-WLP等先进封装工艺也为芯片性能突破打开了新的想象空间。

除工艺升级外,架构创新也是打破冯·诺依曼瓶颈的重要手段。众所周知,冯·诺依曼架构采用存储和计算分离的设计,容易导致频繁的数据移动和能量损耗。因此,学界和业界开始探索更高效、更智能的新型计算架构,以适应人工智能、大数据等数据密集型应用的需求。如腾讯研发的申威众智芯片,采用自适应计算存储一体架构,内置高带宽存储阵列,极大减少了数据移动;寒武纪发布的思元芯片,采用基于BANG的软硬件协同架构,支持端到端编程开发;依图科技的求索AI芯片,采用张量流处理器与标量处理器异构融合,实现"软硬协同、云边融合"。类脑计算、存内计算等也成为芯片架构创新的"新宠"。

开源芯片生态的兴起,为多元化计算架构的百花齐放注入了新动力。RISC-V指令集以精简、模块化、可扩展的特点,成为芯片定制化设计的"利器"。围绕RISC-V,Western Digital、阿里平头哥等发布了多款开源核;SiFive、Andes等提供端到端的芯片定制服务;Linux、Android、FreeRTOS等主流操作系统纷纷支持RISC-V。"硬件开源、软件开源、生态开源"的创新格局正在形成。开放指令集架构(OISC)、开放硅知识产权(Open Silicon)等也为芯片创新插上腾飞的翅膀。

异构融合是未来芯片创新的重要方向。一方面,通用计算、人工智能、大数据、安全等领域对芯片提出了差异化需求,单一架构芯片恐难适应未来应用负载的多样性;另一方面,摩尔定律放缓带来芯片性能提升乏力,急需通过软硬件协同、算力集成等方式实现"1+1>2"的能力跃迁。因此,CPU+GPU异构计算、通用芯片+专用加速器协同等成为业界共识。昇腾、寒武纪等国产AI芯片无不遵循这一理念。未来,以应用为牵引,针对垂直行业深度定制XPU,将成为产业竞争的新赛道。

ASIC和FPGA是两类重要的非通用芯片。不同于CPU、GPU等通用处理器,ASIC和FPGA面向特定应用场景,可根据任务特点进行灵活定制,在性能、功耗、成本等方面展现独特优势。

ASIC即专用集成电路,采用定制化设计,针对特定应用实现性能和功耗的极致优化。从设计到流片再到量产,ASIC通常需要昂贵的NRE(非经常性工程)成本和较长的交付周期,但一旦定型即可批量复制,边际成本很低。因此,ASIC主要面向成熟度高、需求量大的应用场景。如在移动终端SoC、AI训练芯片等领域,ASIC往往是不二选择。NVIDIA的GPU、谷歌的TPU无不采用ASIC流片,通过硬件电路的精细调优,最大化发挥其算力潜能。此外,ASIC还广泛应用于通信、物联网、区块链等专用领域。如比特大陆的矿机芯片,嘉楠耘智的AI芯片,都从ASIC的高度定制中受益匪浅。

FPGA则是一种可编程逻辑器件。不同于ASIC在流片前完成设计,FPGA采用现场可编程阵列,硬件逻辑可在出厂后根据需求随时调整。这种"软硬件协同"的特点,赋予FPGA极大的灵活性。用户可根据应用负载特性,在毫秒级动态重构电路,实现性能、功耗、成本的最优平衡。FPGA设计周期短,NRE成本低,特别适合多品种、小批量的定制化应用。如在通信领域,FPGA可针对不同空口协议快速适配;在工业控制领域,FPGA可对接多种总线接口,简化系统设计;在云计算领域,FPGA可作为通用加速器,让数据中心能效比显著提升。此外,FPGA还是构建原型系统验证的"利器",可显著加速算法迭代和产品落地。赛灵思、英特尔等是FPGA领域的领军企业。

近年来,可编程逻辑器件进一步细分为CPLD(复杂可编程逻辑器件)和FPGA两大类。前者规模小、功耗低、单价便宜,多用于简单组合逻辑的实现;后者规模大、灵活性高,可实现复杂系统功能。随着器件集成度的提高,FPGA逐渐成为主流。与此同时,FPGA与其他器件的融合也成为重要趋势。如采用嵌入式FPGA(eFPGA)宏单元,可让ASIC获得一定程度的灵活性;又如,赛灵思的Zynq器件集成了ARM内核与FPGA阵列,英特尔的SoC FPGA将CPU与FPGA集成在单芯片上,形成了更强大的异构计算平台。可以预见,软硬件协同将成为算力创新的重要路径。

从ASIC到FPGA再到eFPGA,专用集成电路正呈现出多样化、异构化、集成化的发展态势。然而,我国在EDA、IP核、制造工艺等方面仍存在短板,关键环节对国外的依赖度较高。培育自主可控的开源EDA工具链,加强开源IP核的研发和共享,突破光刻机、刻蚀机等核心装备,打通设计、制造、封测等产业链各个环节,既是构建自立自强的集成电路产业体系的迫切需要,也是实现科技自强、制造强国的必由之路。

异构计算将不同指令集、不同体系结构的处理器集成在单个计算平台,发挥各自的特长,实现"1+1>2"的综合性能提升。相比传统的CPU同构架构,异构计算通过硬件加速、软件卸载等方式,可显著提升系统能效。特别是随着人工智能、大数据、物联网等新兴应用的崛起,对算力提出了性价比、实时性、灵活性的差异化需求,传统单一架构的通用芯片已难以适应,异构融合大势所趋。

如前所述,CPU+GPU就是典型的异构计算架构。CPU负责通用计算和逻辑控制,GPU则负责图形渲染和深度学习等并行计算。自2010年开始,AMD、英特尔、英伟达等先后推出异构CPU,集成GPU与CPU,大幅提升了芯片能效。高通骁龙、华为麒麟等移动端SoC,无不采用CPU+GPU异构架构。在数据中心,GPU与CPU协同处理AI训练和推理任务,也已成为主流部署模式。此外,CPU+FPGA异构计算平台在云计算、通信等领域也备受青睐。FPGA作为通用加速器,可根据应用负载特点动态构建数据路径,弥补CPU灵活性不足的短板。

随着人工智能的飞速发展,AI专用芯片异军突起,与通用芯片深度融合,形成更强大的"通用+专用"异构计算生态。谷歌TPU、寒武纪思元等就是典型代表。这些芯片在通用芯片基础上,嵌入AI专用计算单元,并辅以高度优化的片上互联网络和存储结构,在算力、能效等方面实现跨越式提升。基于FPGA的AI加速卡如Xilinx Alveo、英特尔Stratix 10 AI等,则进一步拓展了异构计算的想象空间。可以预见,CPU+GPU+FPGA+XPU的"多核异构"将成为未来算力平台的"标配"。

在异构融合的同时,类脑计算作为一种全新的计算范式,也受到学界和业界高度关注。不同于冯·诺依曼架构,类脑计算从生物学角度模拟人脑神经元结构,探索更接近生物智能的"从容计算"。类脑芯片通过构建大规模并行、互联的神经元阵列,具备自学习、自组织、自适应等能力,有望在模式识别、联想记忆、感知计算等方面取得突破,成为通用人工智能的"始祖鸟"。IBM TrueNorth、Intel Loihi、Tianjic等就是代表性的类脑芯片。然而,由于对生物神经机制认知有限,加之受限于器件工艺水平,当前类脑芯片还难以达到人脑的运算效率和功能多样性。

随着脑科学研究的深入和新器件的突破,类脑计算有望从专用神经网络加速,向更通用的类脑架构演进。融合深度学习的类脑计算,探索符号推理与类脑学习的协同,是当前的研究热点。可以预见,未来类脑芯片将与通用芯片深度融合,形成"冯·诺依曼+非冯·诺依曼"的混合增强智能范式,用"硅"思考、用"芯"感知,让万物智联、人机共生的美好图景更早到来。

冯·诺依曼架构采用存储和计算分离的设计,容易导致频繁的数据移动和巨大的能耗开销。随着数据量爆炸式增长和计算复杂度指数级上升,存储墙和功耗墙问题日益突出,亟需突破冯·诺依曼瓶颈,探索全新的计算模式。神经拟态计算和存内计算应运而生,有望在后摩尔时代开创性能和能效的新境界。

神经拟态计算从生物学角度模拟神经系统,通过时间编码、脉冲传输等机制,以事件驱动的方式进行稀疏计算。相比经典数值计算,神经拟态计算无需大量线性代数运算,而是通过神经元的积分发放和突触可塑性机制,自适应地调整系统动态,展现出超低功耗、噪声鲁棒、容错自愈等优势。斯坦福大学的Neurogrid芯片实现了每秒9*10^9次突触运算,能耗仅为传统CPU的千分之一;IBM TrueNorth芯片采用数字化脉冲神经元,实现了每瓦数万亿次的突触运算;Tianjic芯片融合了数字与模拟电路,兼顾神经拟态计算与传统计算。尽管距真正意义上的类脑智能还有很长的路要走,但神经拟态计算为后摩尔时代开辟了新的演进路径。

存内计算则通过打破存储和计算分离的壁垒,在存储单元内直接进行数据处理,消除了冯·诺依曼架构下大量的数据搬运,在功耗和时延上展现出革命性的优势。根据存储介质和计算机理的不同,存内计算可分为忆阻器存算一体、SRAM存算一体、DRAM存算一体等多种技术路线。如基于忆阻器的存内计算,利用忆阻器的多态性存储和可变电阻特性,通过crossbar阵列直接实现矩阵向量乘等关键运算;基于SRAM的存内计算,利用SRAM单元的位线结构,实现逻辑与、异或等简单逻辑运算;基于DRAM的存内计算,利用电荷累积效应,实现模拟域的乘加运算。这些方案无需将数据在存储和计算单元间频繁移动,从而将访存墙问题化于无形。以三星的MRAM为例,其在存储单元内嵌入逻辑运算电路,能效比提升了30倍以上。

然而,存内计算在密度、精度等方面还面临诸多挑战,难以完全替代传统计算范式。因此,异构融合成为必然趋势。存算混合芯片通过将存内计算与传统计算混合集成,取长补短,既保留了冯·诺依曼架构的可编程灵活性,又继承了存内计算的能效优势。如美国斯坦福大学的Tetris芯片,采用ReRAM作为神经网络加速存储,并辅以CMOS数字电路实现灵活控制,在能效比上超越了传统架构2个数量级。存算混合有望成为后摩尔时代的"双引擎",在云端和边缘开启全新的应用空间。

总体看,随着大数据和人工智能的浪潮泛起,通用芯片与专用芯片、前沿器件与CMOS工艺、存内计算与近存计算将加速融合,软硬协同、异构集成的创新范式有望实现算力的新飞跃。从通用计算、智能计算,到类脑计算、量子计算,芯片正成为数字经济时代的制高点。谁掌握了芯片核心技术,谁就掌握了数字化时代的话语权。对标"缺芯少魂"的尴尬现状,我们要立足中国实际,统筹需求牵引和前沿部署,在芯片设计、制造、封测、应用等各环节协同发力,加速推进关键核心技术攻关,补齐短板、锻造长板,构建安全可控、自主可控的现代化芯片产业体系,为数字中国建设打下坚实基础。

算力是数字经济的核心支撑。随着云计算、大数据、人工智能、区块链等技术的快速演进,呈现出硬件异构、软件云化、应用智能、服务化的趋势,从科学计算、商业计算,到消费计算,无处不在、无时不有,推动产业加速向智能化、融合化升级。

在云计算领域,算力是支撑IaaS、PaaS、SaaS三大服务模式创新的基石。一方面,算力规模化部署推动了云基础设施从单一架构向异构融合演进,CPU与GPU、FPGA、AI芯片等协同计算,为大数据、人工智能、高性能计算等应用提供了强劲动力;另一方面,算力云化封装简化了应用开发和部署流程,让用户以更低的成本、更快的速度获得IT资源,加速云原生、云智能时代的到来。从通用算力、AI算力,到边缘算力、专属算力,呈现出多样化、分层化、普惠化的特征,成为企业数字化转型和产业智能升级的"新引擎"。

在大数据领域,算力让企业从"以存储为中心"走向"以计算为中心",将"沉睡"的数据资产盘活,释放数据价值。从数据采集、存储,到数据分析、挖掘,算力无处不在。分布式存储、并行计算框架是大数据平台的算力支柱,为海量数据的高效处理奠定基础;流处理、图计算、内存计算等新型计算范式不断涌现,让大数据分析从批处理走向实时、从结构化走向非结构化。大数据与算力相互促进、互为支撑,共同驱动数据密集型应用创新。如实时风控、智能推荐、设备预测性维护等,无不以算力为中心,让企业从数据中获得洞察、制定决策、优化运营。

在人工智能领域,算力是模型训练和推理的核心驱动力。从语音识别到机器翻译,从图像分类到目标检测,从围棋博弈到通用对话,算法创新与算力进步相辅相成,让人工智能在认知智能、决策智能等方面不断取得新突破。以深度学习为例,算法从最初的浅层神经网络,发展到AlexNet、VGGNet、InceptionNet等深层网络,每一次突破都伴随着算力的跃升。如2012年AlexNet的问世,依赖于GPU算力的飞跃;2017年Transformer的发布,则得益于TPU等专用芯片和分布式训练平台。从云端算力到边缘算力,从通用芯片到专用芯片,从单一模型到多模态融合,算力让人工智能应用从中心走向边缘、从感知走向认知、从单点智能走向通用智能。智能驾驶、智慧医疗、智能金融、智能制造等行业应用蓬勃兴起,数字经济时代的序幕正徐徐拉开。

在物联网领域,算力让海量设备从简单连接走向智能协同。随着5G、边缘计算的发展,轻量化、小型化、低功耗的嵌入式芯片不断突破,让智能从云端下沉到终端,使能IoT设备就地感知、分析、执行,极大节省了数据传输带宽和时延。同时,端云协同、联邦学习等新型计算范式不断涌现,通过端边云纵向协同、跨域数据横向联合,形成覆盖全场景、全链条的分层智能。从智慧工厂的设备联网、数据采集,到智慧城市的物联感知、多维建模,再到数字孪生的映射仿真、实时控制,分布式算力成为物联网价值变现的关键抓手。随着泛在算力从概念走向现实,万物互联、人机物融合的美好愿景指日可待。

此外,在区块链领域,算力是保障系统安全和性能的基石。工作量证明(PoW)机制下,算力竞争是维护区块链账本一致性的核心手段;权益证明(PoS)等新共识机制下,算力也是参与共识、获取奖励的重要筹码。算力能力的高低,决定了记账权的分配、交易速度的上限。从ASIC矿机到GPU矿池,从FPGA矿卡到量子芯片,算力军备竞赛从未停歇。与此同时,联盟链、许可链的兴起,让区块链从单纯记账走向智能合约,算力分布从链外装备走向链上资源,与分布式存储、图数据库深度融合,为供应链溯源、存证确权、资产证券化等提供可信算力支撑,让价值互联网加速走向成熟。

随着产业数字化、数字产业化进程的加速推进,云、数、智、链、端将加速融合,工业互联网、智能制造、智慧城市、数字政府、数字金融等新兴场景对算力提出了更高要求。IDC预测,到2025年,全球算力需求将突破1.15EB,是2020年的4倍。围绕通用算力、智能算力、专用算力,中国信通院提出打造国家算力网络,加快构建"2+8+N"的算力枢纽格局,到2025年将形成"东数西算、云边协同、算网融合"的泛在算力体系。从数据中心向算力中心转型,从单一架构向异构融合演进,从中心计算向泛在智能延伸,随着5G、Wi-Fi6等下一代信息基础设施的加速普及,随着量子芯片、类脑芯片、存内计算、硅光技术等新型算力载体的突破, "云智融合、数算一体"将成为数字经济时代的鲜明特征,引领数字中国建设进入新阶段。

尽管我国算力产业取得了长足进步,在超算、云计算、人工智能等领域跻身世界第一梯队,但产业生态仍不成熟,核心技术受制于人,亟需补齐关键领域短板,打造自立自强的现代化产业体系。当前,我国算力产业面临五大挑战:

一是高端芯片"卡脖子"。制程工艺受制于光刻机,EDA工具对国外依赖度高,高端通用芯片大量依赖进口,核心专利掌握在国外厂商手中,供给安全面临严峻挑战。二是软硬件适配不足。国产芯片与主流开源框架、操作系统的兼容适配仍有差距,生态构建尚待完善,影响了国产替代进程。三是算力基础设施总体不足。与发达国家相比,我国人均算力规模仍有差距,区域发展不平衡,高性能计算、智能计算基础设施亟需加快布局。四是核心算法对外依存度高。在操作系统、数据库、中间件、AI框架等基础软件领域,国外厂商占据了大部分市场份额,存在技术封锁和断供风险。五是行业应用深度不够。算力下沉和智能化改造有待深化,中小企业对算力的可获得性不足,行业算法模型构建尚不成熟,影响了算力价值释放。

破局之道,关键在于统筹需求牵引和前沿部署,在技术、产业、应用、生态等方面多管齐下,加快构建自主可控的现代化算力产业体系。

技术方面,要坚持应用牵引、体系化布局。聚焦通用计算、智能计算、量子计算等重点领域和前沿方向,加强顶层设计和战略规划,强化基础研究、应用基础研究和关键核心技术攻关,突破"卡脖子"难题。在芯片领域,加大EDA、光刻机、高端光刻胶等核心装备和材料的研发投入,加快先进封装测试能力建设,推动开源芯片生态构建,打造自主可控的现代化芯片产业链;在架构领域,面向通用计算和智能计算,加强软硬协同创新,探索类脑计算、存内计算、量子计算等颠覆性技术,抢占未来算力的制高点;在系统和应用领域,加强操作系统、数据库、AI框架等基础软件的自主研发,打通从芯片、框架到系统、应用的创新链条,形成具有竞争力的核心技术体系。

产业方面,要发挥政策引导和市场机制双轮驱动作用,完善产业发展的顶层设计和体制机制,推动关键环节的改革突破。在政策引导方面,制定国家算力发展战略,加大财税、金融等政策支持力度,鼓励社会资本多渠道参与,营造良好的产业生态;在体制机制方面,探索符合算力特点的数据确权、隐私保护、安全监管等机制,推动垂直行业数据共享开放,完善算力市场化交易和定价机制,健全算力绿色低碳发展长效机制;在基础设施方面,超前谋划布局国家算力枢纽节点,加快"东数西算"等重大工程,推进数据中心绿色集约发展,助力云网融合、算网一体的泛在算力体系构建。

应用方面,要坚持需求牵引,聚焦重点行业和区域,深化算力赋能实体经济,打通创新链、产业链、价值链。在工业制造领域,加快工业互联网、CPS系统、数字孪生等新型基础设施建设,释放智能制造场景算力需求;在交通出行领域,加快自动驾驶、车路协同等领域算法突破和算力部署,推进城市智慧交通体系建设;在医疗健康领域,聚焦精准医疗、智慧医院等方向,加快人工智能医疗应用创新和临床数据汇聚;在文旅领域,推进沉浸式体验、虚拟现实等新业态发展,拓展算力融合应用新场景。同时,面向不同区域、不同发展阶段,制定差异化的算力赋能策略,引导东部地区算力向智能化、融合化升级,支持中西部地区承接算力外溢,补齐基础设施短板,助力城乡数字化发展和区域协调发展。

生态方面,要强化创新主体培育,完善产学研用协同创新机制,加快科技成果转化应用,营造开放包容、合作共赢的发展环境。在企业培育方面,实施"芯火"计划,支持具有核心竞争力的"专精特新"中小企业发展,引导龙头企业延伸产业链、完善生态圈,加快形成梯次发展、错位竞争的产业格局;在创新平台方面,以国家算力枢纽为依托,建设国家级算力创新中心、融合应用创新中心,推动科技资源开放共享;在人才培养方面,实施智能计算人才培养专项,鼓励校企合作共建实训基地,引导高校设置相关专业,完善多层次、多类型的人才培养体系;在国际合作方面,积极参与全球算力治理,推动制定数据跨境流动、算法伦理监管等国际规则,在更大范围、更广领域、更高水平上实现互利共赢。

算力是数字经济发展壮大的核心支撑。面对百年未有之大变局和世纪疫情的双重考验,只有心无旁骛推进关键核心技术攻关,加快现代化算力产业体系建设,才能掌握发展主动权,实现高水平科技自立自强。践行新发展理念,构建新发展格局,必须充分发挥算力赋能、数据赋智的巨大潜力,以算力变革催生发展新动能,以算力创新塑造发展新优势,加快建设数字中国、智造强国,在与世界的互联互通中实现共同发展,为人类文明进步贡献中国智慧、中国方案。

数字经济引领新一轮科技革命和产业变革,重塑全球创新版图、重构全球经济结构。纵观全球,新一轮科技革命和产业变革方兴未艾,数字经济发展进入快车道。5G商用步伐加快,算力基础设施加速完善,大数据、人工智能与实体经济加速融合,智能制造、无人驾驶、智慧城市等新应用新场景不断拓展。2022年,全球数字经济规模达到47.6万亿美元,占GDP比重超45%。数字经济成为全球经济恢复发展的关键力量。

展望未来,数字化发展前景广阔。在需求端,后疫情时代,线上生活、智能生产等需求持续旺盛,为数字经济发展提供持久动力;在供给端,新一代信息技术加速突破,数据要素价值有望充分释放,为高质量发展提供有力支撑;在制度端,各国纷纷将发展数字经济提到国家战略高度,营商环境持续优化,为创新创业营造广阔空间。可以预见,未来5-10年,数字经济将成为重塑全球竞争力的决定性力量。IDC预测,到2025年,全球数字经济规模将突破60万亿美元,占GDP比重超55%。数据流、资金流、人才流加速在各产业部门横向渗透,数字产业化、产业数字化进程全面提速,智能化成为经济社会发展的普遍形态。

在数字经济新图景下,发展机遇和挑战并存。一方面,数字经济将为全球经济注入创新活力。数字技术与实体经济加速融合,将推动生产方式、组织模式、商业范式发生革命性重塑,催生智能制造、智慧农业、智慧物流、智慧城市、数字金融等新业态新模式,成为高质量发展的强劲引擎;数据驱动的创新创业更加活跃,平台经济、共享经济蓬勃发展,将极大拓展经济发展空间,提升全要素生产率;数字基础设施、数据要素等加快向欠发达地区延伸,将有力促进区域协调发展,让发展成果更多惠及人民。

另一方面,伴随数字鸿沟加剧,发展失衡风险上升。发达国家数字经济占GDP比重普遍超50%,而发展中国家则普遍不足30%。数字鸿沟恐加剧南北差距,影响包容均衡发展;数字垄断、数据过度采集、个人隐私泄露等乱象丛生,加剧了经济金融风险,损害消费者利益;跨境数据流动、网络空间治理等新议题层出不穷,全球数字治理体系亟待完善;算法黑箱、智能失控等AI伦理问题浮现,对人类社会秩序形成新的冲击。"数字红利"如何惠及每一个人,成为世界各国必须审慎对待的问题。

THE END
0.最新全国青少年机器人技术等级考试模拟题(二级)24.机器人的定义中,突出强调的是?(D模仿人的功能) A. 具有人型。 B. 感知能力强。 C. 像人一样的活着。 D. 模仿人的功能。 25.下列不是凸轮结构的优点是哪个?(C) A. 结构简单。 B. 结构紧凑。 C. 接触点、线不易磨损。 D. 结构设计方便。 26.国际上最具影响力的两大世界杯机器人足球赛是什么jvzquC41o0972mteu0tfv8iqe1kc3<8475?40qyon
1.当前机器人的定义中,突出强调的是。当前机器人的定义中,突出强调的是。A、具有人的形象B、模仿人和生物的功能C、像人一样思维D、感知能力jvzquC41yy}/pnymcq4dqv4ujkzj1A778;809A>6l6hv4p~n5k4ivvq
2.《信息技术》配套练习第8单元22.对机器人进行示数时,作为示教人民必须亚先接受过专门的培训才行。与示教作业人员一起进行作业的监护人员,处在机器人可动范围外时,(),才可进行共同作业。 A. 不需要事先接受过专门的培训B. 必须事先接受过专门的培训C. 没有事先接受过专门的培训也可以D. 具有经验即可 23.机器人的定义中,突出强调的是()jvzquC41yy}/ys}0ep5y|8745;686@=0cuvy
3.本文探讨了嵌入式系统的定义、组成与单片微机的关系、开发工具摘要:从嵌入式系统定义出发,分析嵌入式系统组成,和单片微机的关系,嵌入式系统开发工具,及嵌入式 系统的突出优点,提出了嵌入式系统的嵌入深度ED定义,并讨论了应用,热点,应用实例,配套技术,及未来发展前景。 一、 嵌入式系统定义 嵌入式系统是计算机技术,通信技术,半导体技术,微电子技术,语音图象数据传输技术,甚至传感器jvzquC41o0hmqp3euft/pny1Ji{pors1ctzjeuj1fgzbkux138:9;?;
4.机械及自动化论文通用12篇而能在生产中长期服役的主力生产线很少,像第一汽车制造厂的01线、第二汽车制造厂的BMD线等具有全年开工业绩的线更是凤毛麟角。这种现象不属偶然或局部,而是带有普遍性。据调查,我国引进的弧焊机器人,完全正常运转、充分发挥效益的只占1/3;另外1/3处于负荷不满或不能完全正常运转状态;还有1/3不能正常使用,直接jvzquC41yy}/z~jujw4dqv4jcq}fp8:25;
5.自动化生产线设计通用12篇《自动化生产线安装与调试》是工科类高等职业院校一门重要的、实践性很强的专业课程,要求学生不但能够很好的掌握自动化生产线的理论知识,(包括硬件结构,各元器件的作用,气动回路的构成,气缸的结构、工作原理),而且能够熟练的利用编程软件对PLC进行现场编程,对设备进行联机调试,在设备运行过程中能够自主并且快速的确定并jvzquC41ldgmƒyd0z{fuqz0eqs0jjtygp546:640jznn
6.电气工程学科的内涵范文电气控制技术则主要讨论异步电动机拖动系统和直流电动机调速系统的起动和调速控制技术,以及电气线路的分析和设计,常用电磁式低压电器的作用与分类、结构与工作原理,可编程控制器的基本工作原理等。电力系统调度自动化则以电力系统“四遥”为主线,主要讲述电力系统调度自动化的有关理论,性能和运行特性,涉及电力系统稳态运行jvzquC41yy}/i€~qq0ipo8mcqyko1:<92;
7.副词口诀(及其它词)3、用在形容词或少数表心理活动动词的后面充当补语,引进比较的对象,可译为“比……更……”。 例:苛政猛於虎也。 4、用在被动句的动词后面,引进动作行为的主动者,可译为“被”。 例:劳心者治人,劳力者治於人; 介词“于”在古籍里有时写作“乎”,“乎”作介词的用法与“于(於)”大致相同。 jvzq<84yyy4489iqe0ipo8hqpvkov87212?3;87215;43<79a;9949<8544tj}rn
8.2021高考新宠——标点符号考前练(附破折号双引号使用方法)文中“长跪不起”并非实指,而是虚指,指一些画家对绘画准则的虔诚遵守,这里的引号,有表述特殊含义、需要强调的作用。A项,“之”的引号,有突出强调火把的形状的作用。B项,“厚障壁”并非实指厚厚的墙壁,而是虚指父子之间存在厚厚的隔阂。引号的作用是表述特定含义。C项,“形神兼备,充满生机”,引号是引用话语的jvzq<84yyy4489iqe0ipo8hqpvkov8721372686713894?6:a;:6::795:4tj}rn
9.2024-人工智能基本概念:让学生回顾人工智能的定义、特点及分类; -人工智能发展历程:让学生梳理人工智能的发展阶段、重要事件及代表性成果; -人工智能应用领域:让学生了解人工智能在各领域的应用实例,如自然语言处理、计算机视觉、智能机器人等; -人工智能伦理:让学生思考人工智能发展过程中可能带来的伦理问题,如隐私保护、数jvzquC41oc~/dxtm33>/exr1jvsm1;5461713?4754644:6432725<80ujzn
10.单片机原理范文对于单片机这样的以培养学生的产品设计应用能力为主要教学目标之一的课程来说,编程语言掌握不好,学生对单片机原理的掌握可想而知。究其原因,主要是汇编语言是低级语言,仅是机器指令的简单符号化,寄存器使用相对高级的语言,操作繁杂,并且要求学生具有一定的硬件基础知识,显然学生在短时间内难以完全掌握。jvzquC41yy}/i€~qq0ipo8mcqyko1@52464ivvq
11.下一篇:林木出材率的有关规定课程实施指导意见范文PLC课程内容包括传统的电气控制基础、PLC的原理及编程、网络通信和软件组态四个模块。在理论教学中采用模块化教学,四个模块相互独立,相互联系,构成PLC课程完整的知识体系。在强调课程基本理论的基础上,减少传统继电器控制系统中低压电器原理部分的课程内容,突出电气控制中经典电路、典型环节及其设计思路;重点讲授PLC的工作原jvzquC41yy}/i€~qq0ipo8mcqyko1;=48:=/j}rn
12.电气自动化技术专业人才培养方案本专业培养理想信念坚定,德、智、体、美、劳全面发展,具有一定的科学文化水平,良好的人文素养、职业道德和创新意识,精益求精的工匠精神,较强的就业能力和可持续发展的能力,掌握本专业知识和技术技能,面向通用设备制造业、电气机械和器材制造业的电气工程技术人员、自动控制工程技术人员等职业群,能够从事电气设备生产、安jvzquC41yy}/hshre0kew7hp1l~he87245518991e8:4cA=5785qcpj0jvs
13.机械电子工程的认识范文EDA技术在机械电子工程设计当中发挥了重大的作用,其构成部件主要包括下载器、适配器、编译器、综合器等,每个部件发挥着特定的功能,EDA技术的主要载体是可以进行大规模编程的逻辑器件,硬件描述语言是EDA技术在编辑中的表达方式。EDA技术拥有公开优势和描述范围广的优点,其自动化程度高,同时,在设计方案中有很高的辅助作用jvzquC41yy}/i€~qq0ipo8mcqyko1;96;5>/j}rn
14.演讲的手势都有哪些怎样做手势要注意什么演讲时,“手往哪放”几乎是所有人的第一道坎:有人双手僵硬贴裤缝,像被钉在台上;有人无意识摸头发、插兜,显得随意又紧张;还有人手势乱挥,反而分散听众注意力。其实,手势是演讲的“第二语言”——好的手势能帮你传递情绪、强调重点,甚至比语言更有感染力。这篇文章会带你搞懂:演讲中最实用的手势类型、每个手jvzquC41yy}/srszwg9777hqo1qd|4952?:27mvon