1.1.从“性能指标”到“性能密度指标”,英伟达高端芯片进口受限范围扩大
限制强度加大,新增多款芯片受到新规限制。根据英伟达主要芯片规格,可以计算每种芯片的性能密度指标。在新规发布之前,超过旧规性能指标限制的芯片仅为英伟达A100,但当加入性能密度指标后,新规不仅限制了厂商出略低于性能标准的芯片以规避限制情况,同时针对数据中心芯片与非数据中心芯片进行了不同的限制约定,使更多的英伟达芯片受到禁令限制。
1.2.人工智能大势所趋,各地政策推进实施
“1+N”政策体系全面推动人工智能产业。2017年国务院发布《新一代人工智能发展规划》,部委层面陆续出台相关发展规划、实施方案等落地政策,形成“1+N”政策体系,从相关法律法规和伦理规范、人工智能发展支持政策、标准和产权体系、监管和评估体系以及AI人才培训等五个角度全面推动人工智能健康快速发展。同时,各一二线城市均针对AI产业制定了产业规模目标和企业数量目标,其中北京市于2023年5月30日发布《北京市加快建设具有全球影响力的人工智能创新策源地实施方案(2023-2025年)》与《北京市促进通用人工智能创新发展的若干措施》两项重磅政策,以迅速建设具有全球广泛影响力的人工智能创新策源地。
算力发展目标明确,将带动AI算力的迅速发展。2023年10月,工业和信息化部、中央网信办、教育部、国家卫生健康委、中国人民银行、国务院国资委等六部门联合发布《算力基础设施高质量发展行动计划》,在计算力、运载力、存储力、应用赋能等方面提出了具体目标,以进一步加强算力资源配置,提升国内算力总体水平。智算的快速发展,一方面要求智算中心的建设需要更加合理,要兼顾东西部协同发展和资源的合理利用。另一方面,智能算力更多的采用AI芯片,带来更大带宽的网络传输需求,这些都将显著促进AI芯片和网络技术的研发创新。
2.构建完整的芯片生态系统,“硬件+软件”缺一不可芯片方面,英伟达通过“CPU+GPU+DPU”三芯布局,数据中心正成长为公司最大业务。CPU作为逻辑处理单元,能更好地处理各种需要快速逻辑判断和并行处理能力的计算任务;GPU侧重对图像像素进行大规模的数据矩阵运算处理,与AI算法的并行结构运算匹配,GPU在AI领域有着先天优势;DPU则特别适合处理数据中心和网络设备的需求,能有效处理数据包和协议。英伟达通过将CPU、GPU和DPU集成到同一平台上,可以为客户提供更全面、高效的计算解决方案。公司推出的GraceHopper超级芯片将Grace和Hopper架构相结合,为加速AI和高性能计算(HPC)应用提供CPU+GPU相结合的一致内存模型,并在大型服务器上广泛部署。2021年及以前,游戏业务营收占比最高,但随着AGI引爆算力需求,公司数据中心成长极快。根据公司2022年年报,其数据中心业务营收约150亿美元(占比约56%),已成为公司最大业务。
GPU领域深耕数十年,长期占据市场领导地位。1999年英伟达推出的首个GPU架构,开创了现代显卡的时代,代表产品是GeForce256显卡,此后其架构经历了多次变革迭代,GPU计算能力的不断提升,从2017到2022这五年间,公司先后推出了Volta、Ampere、Hopper等针对高性能计算和AI训练的架构,并以此为基础发布了V100、A100、H100等高端GPU。通过不断的技术革新,英伟达GPU产品向量双精度浮点算力已从7.8TFLOPS增至30TFLOPS。根据JonPeddieResearch(JPR)报告显示,2023年Q1,英伟达GPU市场份额达到84%,Q2达到80%,占据市场领导地位。
2022年3月GTC2022大会上,英伟达正式发布了基于Hopper架构的面向数据中心的新一代顶级计算核心GH100、计算卡H100。在机器学习及人工智能领域开放产业联盟MLCommons公布了最新的MLPerf基准评测中,英伟达H100TensorCoreGPU在每次AI推理测试中都展现出最高性能。得益于软件优化,该GPU的性能比去年9月份首次亮相时提高了54%,,A100则是英伟达于2020年推出的上一代数据中心专用GPU,但依然是目前AI训练的主流芯片产品。根据NewStreetResearch的数据,英伟达占据了可用于机器学习的图形处理器市场的95%。
NVLink是英伟达自研的高速互连技术,解决了多GPU并行计算时内存共享和通信的瓶颈问题,能有效提升数据中心的整体运算能力。PCIe是Intel主导的高速串行计算机扩展总线标准,是当前服务器主流的总线解决方案,PCIe标准迭代周期约为3年/代,是目前消费市场的主流选择,4.0于2017年正式推出,自2021年下半年开始在数据中心逐步应用,并逐渐从企业级市场下沉到消费市场。目前Intel/AMD等主流CPU厂商正快速推出产品,用于AI的高性能企业级服务器通常采用接口。NVLink是英伟达自研的高速接口,可以提供更强大的数据传输能力和更高的吞吐量,能有效缩短数据传输时间,满足当前针对大数据和复杂运算的高带宽需求。随着NVIDIAGPU架构的更新和技术的不断发展,NVLink的版本也在不断演进,以满足不断增长的计算需求和提供更优秀的性能。
CUDA架构搭建英伟达软件生态,是英伟达AI解决方案的核心优势之一。CUDA(ComputeUnifiedDeviceArchitecture)是由英伟达公司推出的GPU加速平台,在推出CUDA之前,程序员想要调用GPU的运算资源必须先编写大量底层代码,在开发和调试上需要花费大量的时间,而CUDA提供了易于使用的编程模型和软件环境,允许开发者使用类似于C/C++的高层语言进行编程,使得开发者可以借助英伟达的图形处理器(GPU)进行更为高效的并行运算。经过多年优化,目前CUDA已成为全球AI基础设施,主流的AI框架、库、工具都以CUDA为基础进行开发。国内第一批大模型厂商使用的基本都是英伟达已经构建完善的CUDA生态。即便竞争对手的GPU性能的硬件参数上比肩英伟达,如果缺乏CUDA的优化,其性能依然无法达到英伟达GPU的水平。
基于其“芯片+NVLink+CUDA”的生态系统,英伟达稳坐行业龙头地位,产品全面覆盖AI场景。公司20多年来始终引领GPU行业的发展,将GPU的主要应用场景从游戏以及画图等图像显示扩展到了以AI、云计算等大数据相关的并行计算领域。根据JonPeddieResearch发布的GPU市场数据统计报告,英伟达2022年全年PCGPU出货量高达3034万块,是AMD的近4.5倍;截至2022年四季度,在独立GPU市场,英伟达占据84%的市场份额,远超同业竞争公司。
3.华为昇腾软硬件全面布局,构建国产AI算力基石3.1.昇腾生态包括全栈的AI计算基础设施、行业应用及服务
昇腾生态包括昇腾系列处理器、系列硬件、CANN异构计算架构、AI计算框架、应用使能、开发工具链、管理运维工具、行业应用及服务等全产业链。其硬件系统包括:基于华为达芬奇内核的昇腾系列处理器等多样化AI算力;给予昇腾处理器的系列硬件产品,比如嵌入式模组、板卡、小站、服务器、集群等。其基础软件体系包括:异构计算架构CANN以及对应的驱动、运行时、加速库、编译器、调试调优工具、开发工具链MindStudio和各种运维管理工具等;AI计算框架,包括开源的MindSpore,以及各种业界流行的框架,作为生态的有机组成部分。同时昇腾计算产业支持各种计算框架的对接。
基于达芬奇架构的昇腾芯片,运算性能优异,可应用于AI训练/推理场景。DaVinci架构是面向AI计算设计的架构,通过独创的16*16*16的3DCube设计,每时钟周期可以进行4096个16位半精度浮点MAC计算。同样是完成4096次运算,2D结构需要64行*64列才能计算,3DCube只需要16*16*16的结构就能算出,因此在核数与频率确定的情况下,每时钟周期进行越多的计算则算力指标越高,而Davinci架构的3D设计实现了这一点。从性能指标上来看,昇腾910半精度FP16的运算性能可达320TFLOPS,整型INT8算力可达640TOPS,英伟达A100的FP16运算性能为312TFLOPS。
计算代价大幅缩小,功耗水平明显降低。Davinci架构的3D设计以最小的计算代价增加矩阵乘的算力,实现更高的AI能效。2018年10月华为联合奥迪展示了L4级无人驾驶的路测,汽车上配备了华为的MDC车载计算单元,但根据第五届世界互联网大会上前华为公司董事兼华为企业BG总裁阎力大披露,支持L4级无人驾驶这样非常复杂的边缘计算场景时,昇腾310芯片组仅消耗共计200瓦的能耗,相比英伟达系列芯片均有大幅缩减。
HCCS是华为自研的高速互连接口,可为内核、设备、集群提供系统内存的一致访问,片间带宽最高可达480Gbps,是业界主流CPU互联速率的2倍多,HCCS单个AI处理器提供3条链路能实现最多4个鲲鹏920处理器互联和最高256个物理核的NUMA架构。相比于英伟达NVLink与,NVLink单条链路双向带宽最大为50GB/s,仅为4GB/s,HCCS单条链路双向带宽可以达到20GB/s,HCCS在单一链路的单向/双向互联带宽上比更具优势,将有效提升多个AI处理器协同训练的能力。
CANN是华为针对AI场景推出的异构计算架构,通过提供多层次的编程接口,支持用户快速构建基于异腾平台的AI应用和业务。CANN支持端边云全场景协同,支持超过10种设备形态、EMUI、Andriod、openEuler、UOS、Ubuntu、Debian、Suse等超过14种操作系统和多种AI计算框架,一套体系支持CPU、NPU等架构;
软件生态建设是华为的一大优势。为了帮助AI开发者更简单、更高效的开发和使用AI技术,华为推出面向全流程开发工具链MindStudio。MindStudio针对算子开发、模型训练、模型推理、应用开发、应用部署的所有全流程工具链进行整合,为开发者提供工程管理、编译、调试、运行、性能分析等全流程开发,提高开发效率。
3.2.基于“自研芯片+自研接口+自研软件生态”,华为推出全系列解决方案
供开发者使用的高性能开发板Atlas200DK,Atlas200DK开发者套件(型号3000)是以Atlas200AI加速模块(型号3000)为核心的开发者板形态终端类产品(其中Atlas200AI加速模块是高性能AI计算模块,集成了昇腾310AI处理器,芯片内置2个AIcore,可支持128位宽的LPDDR4X,最大算力为22TOPS)。
训练卡Atlas300T。Atlas300T训练卡(型号9000)可以配合服务器为数据中心提供AI加速卡,单卡最高可提供220TFLOPSFP16算力。产品具有强算力、高度集成、高速带宽等特点,可满足大量人工智能训练以及高性能计算领域的算力需求。
Atlas800训练服务器,8颗昇腾算力芯片+4颗鲲鹏CPU。Atlas800训练服务器(型号:9000)是基于华为鲲鹏+昇腾处理器的AI训练服务器,具有超强算力密度、超高能效与高速网络带宽等特点。该服务器广泛应用于深度学习模型开发和训练,适用于智慧城市、智慧医疗、天文探索、石油勘探等需要大算力的行业领域。
Atlas800推理服务器,8颗昇腾推理卡+2颗鲲鹏CPU。Atlas800推理服务器(型号:3000)是基于昇腾处理器的推理服务器,最大可支持8个Atlas300I推理卡,提供强大的实时推理能力,广泛应用于中心侧AI推理场景。
由数千颗昇腾处理器构成的Atlas900AI集群。Atlas900AI集群由数千颗昇腾处理器构成,整合HCCS、和100GRoCE三种高速接口。其总算力达到256P~1024PFLOPS@FP16,相当于50万台PC的计算能力。它可以在60秒完成基于Resnet-50模型训练,比第2名快15%,这可以让使用者更快的进行AI训练,高效地推进预测天气、勘探石油、自动驾驶等等商用进程。
4.科技巨头纷纷布局算力芯片,AI浪潮势不可挡4.1.AMD的“MI系列+InfinityFabric+ROCm平台”,成为英伟达全球范围内最强劲的对手
RadeonInstinct系列是AMD专为数据中心和企业市场推出的GPU解决方案,旨在支持深度学习、高性能计算和科学研究等。从2017年发布RadeonInstinctMI6,到如今更新至RadeonInstinctMI300系列,采用高性能的GCN或RDNA架构,支持大规模的并行计算和机器学习任务。同时支持ROCm(RadeonOpenCompute)平台,以提供开发和部署机器学习模型的工具和库。
ROCm是一个开源项目,支持多种加速器厂商和架构,提供了开放的可移植性和互操作性。作为一个开源平台,任何CPU/GPU供应商都可以利用ROCm,这意味着用CUDA或其他平台编写的代码可以移植到供应商中立的HIP格式,用户可以从那里为ROCm平台编译代码。ROCm平台针对AMD的RedeonInstinct系列有优化,并对主流机器学习框架都有所支持。AMD将AI方案部署到RadeonInstinct系列上,使开发者可以使用ROCm平台在RadeonInstinct系列上实现更加高效和稳定的运行。同时,ROCm平台提供了对TensorFlow和PyTorch等主要机器学习框架的原生支持,从优化的MIOpen库到全面的MIVisionX计算机视觉和机器智能库、实用程序和应用程序,AMD与人工智能开放社区广泛合作,以促进和扩展机器和深度学习功能和优化,从而帮助扩大加速计算所适用的工作负载。
但在生态系统和性能上,ROCm还和CUDA有一定差距。相比于NVIDIA的CUDA,ROCm的生态系统相对较弱,且只支持Linux,同时更新速度较慢,生态不够完善。而在性能上,在大部分应用场景中,尽管在测试中MI系列的理论性能高于NVIDIA的加速器,但由于ROCm平台的优化问题,AMD的程序性能普遍低于NVIDIA。
4.2.特斯拉自研Dojo超算服务器,芯片间高带宽互连为其一大特色
特斯拉自研宏、微架构提高运行效率与可编程性,D1芯片在算力、互联带宽具有很强的优势。与Nvidia,Google等厂商的计算集群相比,Dojo在互连、内存访问以及互联和内存访问的IO上是对称的,这就使得其具有独一档的ScaleOut(横向拓展)的能力,从而提高系统运行效率。微架构上,D1芯片内部核心TrainingNode采用了图灵完备的SMT+SIMD设计,其可编程性有可能会强于英伟达的TensorCore架构和华为的Cube架构,并且为每一个Node设计了上下左右各64bit的片上NoC通道,这使得Node之间核心堆叠和数据传输的难度大大降低。D1芯片采用台积电7nm制程,算力达22.6TFLOPS,总互连带宽可达16TB/s,远超英伟达A100的600GB/s、华为昇腾910的90GB/s。其组成的机柜集群DojoExaPOD算力在BF16/FP32精度下可达到1.1ExaFLOPs,相当于约3200片A100的算力,并拥有1.3TB的高速SRAM和13TB的高带宽DRAM。同时,美国时间2023年8月28日,特斯拉上线了由1万片H100组成的超级计算机,将用来训练包括FSD自动驾驶系统在内的各种AI应用。目前,特斯拉的AI训练方向主要为自动驾驶,其硬件已经搭载自研。
自主研发芯片推动更新,助力特斯拉自动驾驶突破。特斯拉在自动驾驶领域多年来不断探索,处于行业前列,其依赖于FSD芯片与HW硬件。2023年2月发布,其搭载了芯片。芯片的ARMCortex-A72CPU内核由12个增加至20个,运行频率在1.37之间,采用7nm工艺,算力预测最多达到216TOPS,仍低于英伟达Orin254TOPS。显存方面,特斯拉成为第一个在车载领域用GDRR的公司。通过芯片更新升级以及架构调整,特斯拉自动驾驶有望突破。
4.3.Intel推出GPU系列芯片和oneAPI开发平台,完善其AI数据中心布局
英特尔在数据中心的布局主要通过优化其至强系列CPU与推出数据中心GPUmax系列和flax系列以及对标DPU的IPU数据接口芯片来实现。在英特尔2022年投资者会议上,英特尔DCAI公布了2022年至2024年下一代英特尔®至强产品的路线图。数据中心GPUmax系列有max1550与max1100两个系列,其专为AI和科学计算领域的数据密集型计算模型提供突破性性能。在2021年6月,英特尔首度提出IPU的产品概念。IPU可以释放CPU的计算资源,以便于解决现代工作负载挑战,帮助提升云服务的性能。英特尔IPU既有基于FPGA的方案,如OakSpringsCanyon,也有基于ASIC的方案,如MountEvans。
在软件生态上,英特尔推出了与英伟达的CUDA和AMD的ROCm对标的oneAPI。oneAPI是由英特尔提出的一种开放的、统一的编程模型,它旨在简化在英特尔芯片上进行并行计算的复杂性。优点是它可以跨CPU、GPU、FPGA和其他硬件架构运行。通过这种方式,一套代码就可以应用于多种硬件平台,实现跨平台的并行计算,大大提高了开发效率和应用性能,其精简程度对标英伟达CUDA架构与AMD的ROCm。
4.4.Google推出CloudTPU解决方案,更专注于机器学习领域
GoogleCloudTPUv5e专为提供大中型训练与推理所需的成本效益和性能而设计。性能上,TPUv5e能够平衡性能、灵活性和效率,允许多达256个芯片互连,聚合带宽超过400Tb/s和100petaOps的INT8性能,更加高的带宽,对于大模型的数据传输非常有利。CloudTPUv5e通过基准测试显示,大模型的训练速度提高了5倍。在推理指标方面,CloudTPUv5e也实现了巨大的提升,能够每秒实时处理1000秒的内部语音到文本和情感预测模型。
和英伟达通用型GPU相比,谷歌TPU更加专注深度学习领域,可加快深度学习运算速度,降低功耗。英伟达的A100和H100属于广义上的通用型GPU,GPU具有通用计算能力,适用于高性能计算、深度学习以及大规模数据分析等多种计算工作负载,而不仅仅是深度学习。谷歌TPU采用低精度计算,在几乎不影响深度学习处理效果的前提下大幅降低了功耗、加快运算速度,尤其对于中型LLM设计者来说完全够用,因此他们可能不需要依赖高性能的英伟达A100/H100。同时,TPU使用了脉动阵列等设计来优化矩阵乘法与卷积运算。
TensorFlow框架的广泛性、泛用性为Google构筑AI护城河。TensorFlow是由Google团队开发的最重要的深度学习框架,也是全世界使用人数最多、社区最为庞大的一个框架。Tensorflow灵活的架构可以部署在一个或多个CPU、GPU的台式及服务器中,支持多家NVIDIA、AMD等多家厂商的GPU加速器,或者使用单一的API应用在移动设备中。
Google以软件优势带动硬件发展,以TensorFlow框架助力CloudTPU。Google的CloudTPU系列加速器经过优化,可加速和扩展使用TensorFlow编程的特定ML工作负载。CloudTPU还简化了对ML计算资源的计算和管理,可使得ML模型加速最优化,并根据需求动态调整容量;CloudTPU的大规模、高集群的ML模型已经过多年优化,无需投入专门的能源、冷却、网络和存储设备等方面的精力、时间和专业知识来进行设计、安装和维护。
4.5.Meta2020年推出第一代MTIA方案,侧重于处理低/中复杂度模型
作为Facebook母公司,META在AR/VR头显全球市场上有明显份额优势,并开发有Llama2、Falcon40B、StableDiffusion等LLM模型;为实现差异化竞争、提高公司核心实力,META在AI、AR芯片生态领域持续探索自研,目前已推出AI推理定制芯片MTIAv1、RSC超算集群与深度学习框架Pytorch、Caffe2go等。2020年Meta推出第一代MTIA全栈解决方案,包括MTIA芯片、PyTorch与推荐模型,目前侧重于处理低/中复杂度的AI模型。其中,加速器采用台积电7nm工艺制造,具备800MHz的运行功率,在INT8、FP16精度下分别能够提供102.4TOPS、51.2TFLOPS算力。MTIA第一代致力于提高推荐模型效率、应用于广告及其他新闻推送,采用开源芯片架构RISC-V,功耗仅有25瓦,远低于英伟达等主流厂商的芯片产品;在基准测试中第一代MTIA芯片处理低/中等复杂度的AI模型效率高于GPU,在这方面相较竞品芯片有明显优势。
根据Facebook官网披露,RSCAI服务器系列由META与PenguinComputing、英伟达、PureStorage合作组装,于2022年1月首次亮相。目前,RSC包含2000个英伟达DGXA100系统和16000个英伟达A100GPU,能实现近5exaflops的混合精度算力,已用于推动包括生成式AI在内的多领域前沿研究。Meta将RSC应用于训练有650亿参数的大语言模型LLaMA并将该模型作为门控版本分享给研究社区,以帮助研究人员在无大量硬件的情况下对特定任务进行研究、微调。
5.AI产业带动国内算力数据中心建设,大规模招标陆续启动AI产业崛起,国产AI芯片和服务器的需求在快速增长。2023年11月29日,在AICC2023中国人工智能算力大会上,国际数据公司(IDC)与浪潮信息联合发布《2023-2024中国人工智能计算力发展评估报告》。根据报告,2023年中国AI服务器市场规模将达91亿美元,同比增长82.5%,智能算力规模预计达到414.1EFLOPS,同比增长59.3%。在GPU、CPU领域,国产厂商如华为、中科曙光、兆芯、海光等纷纷推出自主研发的芯片产品,打破了国外厂商在高端芯片市场的垄断。在算力需求不断增长的大背景下,数据中心的建设也在加速进行。新技术和新应用的快速发展,如工业互联网、云计算、大数据等,加上ChatGPT技术的推广,对数据资源的存储、计算和应用需求提出了更高要求。国内外的数据中心建设有望迎来一个高峰期。根据《新型数据中心发展三年行动计划(2021-2023年)》、《数字中国发展报告(2022年)》以及共研产业咨询数据,到2023年,我国数据中心机架行业市场规模将达到750万架,市场规模预计将达到2470.1亿元人民币。
2023年10月15日,中国电信官网披露,AI算力服务器(2023-2024年)集中采购项目总计4157台,预计采购总额超过80亿元,根据评审结果,超聚变、浪潮、新华三等厂商入围,并显著增加了对训练型服务器的投资。这一采购规模与2021-2022年仅采购1268台GPU型服务器相比,有显著增长。
具体到各标包的分布,标包1和标包2均属于I系列服务器,包括2073台训练型风冷服务器、125台训练型液冷服务器和1182台InfiniBand交换机。而标包3和标包4则为G系列服务器,分别包括1048台训练型风冷服务器和929台训练型液冷服务器。中标厂商主要为国内服务器集成商,为国产芯片导入营造良好的环境。超聚变、浪潮信息、紫光华山、宁畅、中兴通讯、烽火通信和联想在I系列风冷和液冷服务器的投标中各占一席之地,超聚变在风冷服务器和液冷服务器的中标金额和市场份额中均是第一。另一方面,在G系列服务器的标包中,华鲲振宇、昆仑、烽火通信、宝德计算、新华三、湘江鲲鹏、DCN和黄河信产等公司均成为中标候选人。
6.重点公司分析6.1.兴森科技
兴森科技是国内领先的印制电路板(PCB)样板及批量板的设计和制造服务提供商,公司于2012年开始涉足CSP封装基板领域,是国内IC封装基板行业的先行者之一。目前,公司在薄板加工能力和精细路线能力方面居于国内领先地位,并与国内外主流的芯片厂商、封装厂建立了合作关系,积极投入FCBGA封装基板领域。
6.2.新益昌
新益昌是国内领先的LED和半导体固晶机综合解决方案提供商,随近年来3C电子产品需求增加,同时以云计算、大数据、新能源及可穿戴设备等为主的新型应用领域强劲需求下,半导体市场出现巨大需求。根据WSTS预测,2024年全球半导体销售额预计可回升至5760亿美元。其中,半导体封装环节的重点是固晶及焊线环节,固晶环节对设备的超高精度、定位能力具有极高的要求,技术壁垒很高,是公司的核心竞争力所在。根据公司2023半年报披露,公司凭借过硬的产品质量和技术创新能力以及配套服务能力,在半导体封装领域为晶导微、灿瑞科技、扬杰科技、通富微、固锝电子、华天科技等知名公司在内的庞大优质客户群体提供定制化服务。目前,公司半导体固晶设备近年来客户导入顺利,受到业内认可,业务收入快速增长,根据公司12月27日发布的自愿披露订单情况,公司截至12月26日,固晶机板块在手订单共计4.13亿元。
6.3.天承科技
天承科技成立于2010年,主要经营PCB所需要的专用电子化学品的研发、生产和销售(功能湿电子化学品)。PCB专用电子化学品专用性强、品种多,公司经过多年积累,目前技术已经涵盖水平沉铜、电镀、垂直沉铜、化学沉锡、去膜、棕化、粗化、微蚀等多个PCB制作工艺流程,技术指标与应用性能达到行业先进水平,能够满足下游厂商对于生产高频高速PCB、HDI、多层软板及软硬结合板等高端PCB需求,同时公司也解决了触摸屏金属网格沉铜,品牌知名度较高。
6.4.德邦科技
公司以其在高端电子封装材料研发及产业化领域的专业实力,已被认定为国家级的专精特新“小巨人”企业,其业务聚焦于集成电路封装材料、智能终端封装材料、新能源应用材料及高端装备应用材料等四大类别。这些产品广泛用于不同的封装工艺环节和应用场景,如晶圆加工、芯片级封装、功率器件封装、板级封装、模组及系统集成封装等,在国家集成电路产业基金的重点支持下,已在集成电路封装、智能终端封装、动力电池封装、光伏叠瓦封装等领域取得显著的技术突破。
6.5.华海诚科
公司是一家专注于半导体封装材料的研发及产业化的国家级专精特新“小巨人”企业,以其在环氧塑封料领域的显著成就而闻名。在先进封装领域,华海诚科也取得了显著进展。据公司业绩会披露,其应用于QN封装的产品已通过通富微电和长电科技等知名企业的验收,并开始小批量销售。此外,跟据公司招股书,FC底填胶等多款产品也已进入小批量生产和销售阶段,而应用于FCBGA的产品和液态塑封材料(LMC)目前正处于客户验证阶段,2021年,公司成为长电科技、华天科技等多家知名封装企业的主要内资供应商。
6.6.英维克
液冷系统是一种先进的散热技术,它通过利用液体的高导热系数,有效提升了散热效率,尤其在处理高功率、高热量的AI服务器和GPU/CPU等高性能计算设备时表现卓越。2005年创立以来,深圳英维克公司在精密温控节能设备领域持续发展和创新,成为该领域在国内的技术领导者。最初,该公司专注于为信息和通信行业提供温控解决方案,产品范围涵盖了通信基站、户外机柜和数据中心节能空调等,根据公司2020年报披露,公司与华为、中兴等行业巨头建立了深入合作关系。2013年,英维克洞察市场前景,进入储能温控领域,到2020年,已牢固占据行业领先地位。2015年,公司进一步扩张,设立深圳科泰,进军新能源车空调领域,并于2018年收购上海科泰,拓展至轨道交通领域。在不断拓宽温控解决方案的同时,公司通过构建平台化解决方案,发挥了协同效应,增强了市场竞争力。
6.7.飞荣达
自1993年成立以来,公司在电子辅料产品生产领域取得了显著发展。自2000年开始,公司着手开发国际主流品牌的电磁屏蔽和导热材料与相关散热解决方案,逐步扩展其产品线至金属屏蔽器件、导电布衬垫、导热界面器件等,拓展应用至计算机和手机等高端领域。据公司公告与2022年年报,在通信基站领域,通过与中兴通讯的合作,公司成功开发并试制了3DVC技术样机,标志着5G基站首次采用这一先进的散热技术。在服务器领域,飞荣达向包括华为和超聚变在内的多个知名客户提供了一系列散热与电磁屏蔽解决方案和产品。其产品线涵盖单相和两相液冷模组、轴流风扇以及专门设计的散热器等,以满足客户多样化的散热需求。公司不仅拥有华为、中兴、微软等国内外大型企业客户,还成功扩展至Facebook和Google等全球知名企业。这一广泛的客户基础证明了其产品的实力和市场认可度。飞荣达的优势还体现在其完整的散热产业链布局上,公司不仅在散热器件和材料领域具有强劲竞争力,而且上下游一体化的产业链布局进一步增强了公司在整个散热行业的综合竞争优势。随着液冷散热市场的不断扩大及市场潜力逐步释放,飞荣达有望获得显著的市场机遇。
6.8.思泉新材
思泉新材是一家专注于热管理材料的多元化功能性材料提供商,在电子电气产品稳定性及可靠性提升方面表现卓越。其主营业务包括研发、生产和销售热管理材料、磁性材料、纳米防护材料等。作为国内电子电气功能性材料领域的领先高新技术企业,思泉新材在自主研发和技术创新方面具有显著优势。公司在行业内获得了多项殊荣和认可,包括“专精特新‘小巨人’企业”称号和“2021年广东省专精特新中小企业”。此外,思泉新材还拥有“广东省石墨散热复合材料工程技术研究中心”和“广东省博士工作站”,并被认定为“2020年度广东省知识产权示范企业”。至2022年底,公司共拥有73项专利,其中包括22项发明专利,展现了其在知识产权保护方面的重视和成效。
6.9.恒铭达
作为专业从事消费电子产品高附加值精密功能性器件的科技企业,公司具备显著的技术研发优势、丰富的生产经验、创新的生产工艺以及高精密与高品质的产品。公司的能力不仅仅局限于产品供应,而是涵盖了设计研发、材料选型、产品试制和测试、批量生产、及时配送及后续跟踪服务等一系列综合解决方案,提供了全方位的客户支持。作为国家高新技术企业,恒铭达拥有6项发明专利和27项实用新型专利,这些成就反映了其在自主研发和创新方面的扎实实力。
6.10.华丰科技
高速连接器,作为现代电子设备间信号传输的关键组件,其设计和功能的优势日益凸显,其具备的高速传输性、低信号损耗、低串扰性能、高密度设计,能支持高达数百Gbps的传输速度,对于AI服务器、GPUCPU等高带宽需求的设备来说至关重要。公司专注于光电连接器和线缆组件的研发、生产和销售,并向客户提供全面的系统解决方案。华丰科技以技术创新为驱动力,深耕于通讯、防务、工业等多个重要行业。其产品广泛应用于通讯、航空、航天、船舶、电子设备、核电、新能源汽车、轨道交通等关键领域。
6.11.飞荣达
自1993年成立以来,公司在电子辅料产品生产领域取得了显著发展。自2000年开始,公司着手开发国际主流品牌的电磁屏蔽和导热材料与相关散热解决方案,逐步扩展其产品线至金属屏蔽器件、导电布衬垫、导热界面器件等,拓展应用至计算机和手机等高端领域。据公司公告与2022年年报,在通信基站领域,通过与中兴通讯的合作,公司成功开发并试制了3DVC技术样机,标志着5G基站首次采用这一先进的散热技术。在服务器领域,飞荣达向包括华为和超聚变在内的多个知名客户提供了一系列散热与电磁屏蔽解决方案和产品。其产品线涵盖单相和两相液冷模组、轴流风扇以及专门设计的散热器等,以满足客户多样化的散热需求。公司不仅拥有华为、中兴、微软等国内外大型企业客户,还成功扩展至Facebook和Google等全球知名企业。这一广泛的客户基础证明了其产品的实力和市场认可度。飞荣达的优势还体现在其完整的散热产业链布局上,公司不仅在散热器件和材料领域具有强劲竞争力,而且上下游一体化的产业链布局进一步增强了公司在整个散热行业的综合竞争优势。随着液冷散热市场的不断扩大及市场潜力逐步释放,飞荣达有望获得显著的市场机遇。
6.12.世运电路
世运电路作为国内PCB行业的大型先进企业之一,拥有从单面板到24层板、金属基板、高密度互联(HDI)、软板和软硬结合板等多种线路板产品。公司目前正建设“年产300万平方米线路板新建项目”,分三期建设,其中一期项目已于2022年投产。预计该项目全部达产后,公司整体产能将增加至700万平方米,为公司未来在新能源汽车、光伏储能和人工智能等领域的技术市场转型提供强大的产能支持。
6.13.方正科技:
方正科技成立于1993年,目前已经成为国内首屈一指的集PCB产品研发、生产、制造和销售的龙头企业。公司业务涵盖PCB元器件——高速宽带接入——多垂直行业解决方案,致力于利用云计算、大数据分析等前沿技术为智慧城市建设提供从顶层设计到垂直行业软硬件解决方案。公司PCB产品客户主要集中在通信设备、通讯终端、IT产品、工业医疗、汽车电子、消费电子等领域。
(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)