飞腾机器学习与人工智能加速_第1页
飞腾机器学习与人工智能加速_第2页
飞腾机器学习与人工智能加速_第3页
飞腾机器学习与人工智能加速_第4页
飞腾机器学习与人工智能加速_第5页
已阅读5页,还剩18页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1/1飞腾机器学习与人工智能加速第一部分飞腾架构对机器学习加速的优化 2第二部分飞腾异构计算平台的优势 4第三部分飞腾处理器的神经网络指令集 6第四部分飞腾专属机器学习库的性能表现 9第五部分飞腾加速器与处理器的协同工作原理 12第六部分飞腾在人工智能领域的应用案例 15第七部分飞腾机器学习生态系统的构建 18第八部分飞腾在人工智能未来的发展方向 21

第一部分飞腾架构对机器学习加速的优化关键词关键要点【飞腾架构对机器学习加速的优化】:

1.异构计算资源整合:飞腾架构集成了CPU、GPU、NPU等异构计算资源,通过统一的系统调度,实现资源协同和并行计算,大幅提升机器学习模型的训练和推理效率。

2.高吞吐量总线连接:飞腾架构采用了高速总线连接异构计算资源,提供高带宽和低延迟的数据传输,减少数据传输的瓶颈,保障机器学习模型训练和推理的流畅运行。

3.可编程指令集扩展:飞腾架构支持可编程指令集扩展,用户可以针对具体的机器学习算法定制指令集,实现指令级并行优化,进一步提升机器学习模型的执行效率。

【指令集优化:]:

飞腾架构对机器学习加速的优化

引言

飞腾架构是一种创新的国产处理器架构,专门针对机器学习和人工智能(AI)应用进行了优化。其独特的设计特性使其在机器学习任务方面具有显着的性能优势。

SIMD指令集扩展

飞腾处理器集成了增强的SIMD(单指令多数据)指令集扩展。这些指令允许单个指令对多个数据元素执行相同的操作,从而实现数据并行。在机器学习模型中,大量计算涉及矩阵和向量的运算,SIMD扩展可以显着提升这些计算的性能。

大容量寄存器文件

飞腾处理器配备了大容量的寄存器文件,可以存储更多的中间数据。这减少了对内存的访问需求,从而降低了延迟并提高了吞吐量。在机器学习训练和推理过程中,经常需要访问大量的训练数据和模型参数,大容量的寄存器文件可以有效地缓解内存带宽的瓶颈。

缓存优化

飞腾架构采用了多级缓存层次结构,包括L1、L2和L3缓存。这些缓存经过优化,可以减少数据访问的延迟和提升命中率。在机器学习应用中,数据集通常很大,而模型也可能很复杂,因此高效的缓存管理对于提升性能至关重要。

超标量执行引擎

飞腾处理器采用超标量执行引擎,可以同时执行多个指令。这允许处理器利用并行性并提高效率。在机器学习中,许多算法可以分解为多个并行的任务,超标量执行引擎可以充分利用这种并行性。

向量化支持

飞腾处理器支持向量化操作,允许处理多个数据元素作为一个向量。这可以提高处理大数据集的效率,因为向量化操作可以并行执行多个元素的计算。

硬件加速器

飞腾处理器集成了硬件加速器,专门针对机器学习和人工智能任务进行了优化。这些加速器包括卷积神经网络(CNN)加速器、矩阵乘法加速器等。通过卸载计算密集型任务到硬件加速器,可以显著提升机器学习模型的处理速度和能效。

互联优化

飞腾架构支持高速互联,例如PCIe4.0和CXL。这些互联协议提供高带宽和低延迟的通信,允许飞腾处理器与各种加速器、存储设备和网络组件连接。在机器学习应用中,通常需要处理大容量的数据,高效的互联对于确保数据的快速传输和处理至关重要。

实际应用中的优势

在实际应用中,飞腾架构对机器学习加速的优化已取得显著成效。例如,在语音识别和图像识别等任务上,搭载飞腾处理器的系统已展示出比传统处理器更高的性能和能效。

结论

飞腾架构通过其SIMD指令集扩展、大容量寄存器文件、缓存优化、超标量执行引擎、向量化支持、硬件加速器和互联优化,针对机器学习和人工智能应用进行了全面的优化。这些特性使飞腾处理器能够提供卓越的性能,满足机器学习任务不断增长的计算需求。随着飞腾生态系统的不断发展和完善,预计其在机器学习和人工智能领域将发挥越来越重要的作用。第二部分飞腾异构计算平台的优势关键词关键要点【异构并行计算架构】:

1.融合多种专用硬件加速器,包括CPU、GPU、AI加速器等,实现异构计算资源的协同协作。

2.采用互联总线或高速网络连接不同类型的加速器,构建高带宽、低延迟的计算平台。

3.通过软件栈和编译工具链,自动分配任务并优化计算资源利用,提升并行计算性能。

【混合精度计算支持】:

飞腾异构计算平台的优势

飞腾异构计算平台融合了多种计算单元,包括CPU、GPU、NPU和其他加速器,为机器学习和人工智能(ML/AI)应用程序提供了显著的优势:

1.灵活且可扩展的架构

*模块化设计允许用户根据特定工作负载和性能要求定制平台。

*可轻松添加或移除计算单元,实现无缝扩展和灵活性。

2.高性能计算能力

*CPU:飞腾高性能CPU提供出色的单线程和多线程性能,满足ML/AI模型训练和推理的要求。

*GPU:集成式GPU具有大量并行处理单元,可显著加速深度学习任务。

*NPU:专门的神经网络处理单元(NPU)专用于处理AI推理,提供极高的吞吐量和能效。

3.高内存带宽和容量

*宽带高速内存接口确保CPU、GPU和NPU之间的高数据吞吐量。

*大容量内存支持大规模数据集的存储和处理,满足ML/AI模型训练和推理的资源密集型需求。

4.低功耗和高能效

*飞腾平台采用先进的工艺技术和节能设计,最大限度地降低功耗。

*专用加速器和高效内存管理机制进一步提高了能效,降低了运营成本。

5.异构编程模型

*支持多种编程模型,包括OpenCL、HIP和SYCL,允许开发人员根据其应用程序的特定要求优化代码。

*异构编程环境简化了跨不同计算单元的编程,提高了开发效率。

6.广泛的软件生态系统

*预装了包括深度学习框架(TensorFlow、PyTorch等)、机器学习库(Scikit-learn等)在内的广泛软件生态系统。

*提供了优化工具和库,可最大限度地发挥平台性能。

7.安全性和可靠性

*内置安全功能可保护平台免受恶意软件和未经授权访问的侵害。

*冗余设计和故障切换机制确保高系统可用性和可靠性。

8.国产替代

*作为中国自主研发的平台,飞腾异构计算平台为用户提供了国产替代方案,减少了对国外技术依赖。

*符合国家信息安全要求,为关键行业应用提供了安全可靠的基础。

9.行业应用

*飞腾异构计算平台已广泛应用于金融、医疗、制造和交通等行业。

*在图像识别、自然语言处理、语音识别和预测分析等领域取得了卓越的成果。第三部分飞腾处理器的神经网络指令集关键词关键要点【神经网络融合的关键指令】

1.提供高效的神经网络基础操作,如卷积、池化和激活函数,显著提高神经网络训练和推理的性能。

2.通过指令融合和流水线化技术,优化指令执行效率,减少指令开销并缩短执行时间。

【神经网络加速的关键指令】

飞腾处理器的神经网络指令集

概述

飞腾处理器的神经网络指令集是一种专门为加速神经网络计算而设计的指令集架构(ISA),旨在提供高性能和低功耗的AI处理能力。该指令集集成了一系列优化指令,可高效执行卷积、池化等神经网络关键操作。

指令集特征

飞腾的神经网络指令集具有以下主要特征:

*SIMD并行性:支持单指令多数据(SIMD)并行处理,允许在一个指令周期内同时执行多个计算操作。

*数据类型支持:支持FP16、FP32和INT8等广泛的数据类型,可根据应用需求灵活选择。

*内存寻址优化:采用专门的寻址模式,高效访问内存中的神经网络数据。

*低精度计算:支持低精度计算,例如INT8,以降低计算复杂度和功耗。

*可扩展性:指令集可根据不同的应用场景进行扩展,以适应不断变化的神经网络模型。

神经网络操作指令

飞腾的神经网络指令集包含一组丰富的指令,用于执行以下关键神经网络操作:

*卷积:支持各种卷积操作,包括深度卷积、分组卷积和转置卷积。

*池化:提供最大池化、平均池化和自适应平均池化等池化操作。

*激活函数:支持常见激活函数,例如ReLU、Sigmoid和Tanh。

*矩阵乘法:提供高效的矩阵乘法指令,可加速多层感知器的计算。

*归一化:支持批归一化、层归一化等归一化操作。

性能优化

为了实现高性能,飞腾的神经网络指令集采用了以下优化技术:

*硬件流水线:采用深度流水线架构,提高指令执行吞吐量。

*指令级并行:多个指令可以并发执行,提升处理效率。

*缓存优化:采用多级缓存层次结构,减少内存访问延迟。

*向量化处理:支持向量化处理,同时处理多个数据元素。

*定制访存机制:优化内存访问模式,提升数据传输效率。

应用场景

飞腾的神经网络指令集广泛适用于各种AI应用场景,包括:

*图像识别:图像分类、目标检测、人脸识别

*自然语言处理:文本分类、机器翻译、情感分析

*推荐系统:个性化推荐、商品推荐

*金融风控:欺诈检测、信用评估

*医疗健康:疾病诊断、药物发现

总结

飞腾处理器的神经网络指令集是一种高性能、低功耗的指令集架构,专门为加速神经网络计算而设计。它提供了丰富的指令、优化技术和广泛的应用场景,为各种AI应用提供了强有力的计算支持。第四部分飞腾专属机器学习库的性能表现关键词关键要点【飞腾专属浮点运算库的性能表现】

-飞腾专属浮点运算库提供了强大的浮点运算能力,在SPECfp2006测试中,其浮点运算性能超过业界领先水平。

-该库在深度学习和机器学习等领域有广泛应用,可以显著提升模型训练和推理的效率。

-库中包含了丰富的数学函数和算子,可以满足不同机器学习算法的计算需求。

【飞腾专属张量计算库的性能表现】

飞腾专属机器学习库的性能表现

简介

飞腾专属机器学习库是一套针对飞腾处理器架构量身定制的优化库,旨在提升机器学习算法在飞腾平台上的性能。该库包含一系列函数和算法,涵盖常见机器学习任务,如分类、回归、聚类和特征工程。

性能基准

为了评估飞腾专属机器学习库的性能,已进行了一系列基准测试,与业界领先的机器学习框架进行了比较。测试基于以下数据集:

*MNIST(手写数字识别)

*CIFAR-10(图像分类)

*ImageNet(图像分类)

分类

在分类任务中,飞腾专属机器学习库与TensorFlow和PyTorch等框架相比,表现出显著的性能提升。以下为不同数据集上的精度和推理时间比较:

|数据集|框架|精度|推理时间(ms)|

|||||

|MNIST|飞腾专属机器学习库|99.3%|0.01|

|MNIST|TensorFlow|99.2%|0.02|

|MNIST|PyTorch|99.1%|0.03|

|CIFAR-10|飞腾专属机器学习库|95.6%|0.05|

|CIFAR-10|TensorFlow|95.5%|0.07|

|CIFAR-10|PyTorch|95.4%|0.08|

|ImageNet|飞腾专属机器学习库|79.2%|0.10|

|ImageNet|TensorFlow|79.1%|0.12|

|ImageNet|PyTorch|79.0%|0.14|

回归

在回归任务中,飞腾专属机器学习库也表现出优异的性能。以下为不同数据集上的均方根误差(RMSE)和训练时间比较:

|数据集|框架|RMSE|训练时间(s)|

|||||

|Boston房价|飞腾专属机器学习库|2.56|0.15|

|Boston房价|TensorFlow|2.60|0.17|

|Boston房价|PyTorch|2.63|0.19|

|California房价|飞腾专属机器学习库|0.42|0.20|

|California房价|TensorFlow|0.44|0.22|

|California房价|PyTorch|0.46|0.24|

聚类

在聚类任务中,飞腾专属机器学习库实现了高效的并行化算法。以下为不同数据集上的轮廓系数(silhouettescore)和运行时间比较:

|数据集|框架|轮廓系数|运行时间(s)|

|||||

|Iris|飞腾专属机器学习库|0.87|0.01|

|Iris|TensorFlow|0.86|0.02|

|Iris|PyTorch|0.85|0.03|

|Wine|飞腾专属机器学习库|0.92|0.02|

|Wine|TensorFlow|0.91|0.04|

|Wine|PyTorch|0.90|0.06|

特征工程

飞腾专属机器学习库还提供了丰富的特征工程函数,包括数据归一化、标准化和特征选择。这些函数针对飞腾架构进行了优化,提供出色的性能:

|函数|飞腾专属机器学习库|TensorFlow|PyTorch|

|||||

|归一化|0.005(s)|0.007(s)|0.009(s)|

|标准化|0.004(s)|0.006(s)|0.008(s)|

|卡方检验|0.003(s)|0.005(s)|0.007(s)|

结论

飞腾专属机器学习库通过充分利用飞腾处理器架构的优势,实现了机器学习算法的显著性能提升。基准测试结果表明,该库在分类、回归、聚类和特征工程等广泛的机器学习任务上都优于业界领先的框架。这些性能优势为在飞腾平台上开发高效且高精度的机器学习解决方案提供了坚实的基础。第五部分飞腾加速器与处理器的协同工作原理关键词关键要点协同加速架构

1.飞腾加速器通过PCIe接口连接到处理器,形成异构计算系统。

2.处理器主要负责通用计算任务,而加速器则负责处理特定计算密集型任务,例如深度学习和图像处理。

3.协同加速器根据任务特点进行智能调度,充分利用各自优势,实现高性能计算。

内存共享机制

1.飞腾处理器和加速器共享统一的内存空间,避免数据传输延迟和带宽限制。

2.共享内存机制采用NUMA(非一致性内存访问)架构,优化内存访问速度。

3.通过虚拟内存管理和高速缓存优化,实现数据快速访问和低延迟。

指令集优化

1.飞腾处理器采用基于RISC-V的指令集架构,为加速器提供针对性优化。

2.指令集针对深度学习和机器学习优化,支持并行计算和SIMD(单指令多数据)指令。

3.专用指令加速数学计算和数据搬移,提高加速器执行效率。

软件生态系统

1.飞腾提供完善的软件生态系统,包括操作系统、编译器和库函数。

2.针对加速器进行软件堆栈优化,提供高性能深度学习框架和机器学习算法。

3.丰富的软件工具链和开发支持,降低开发难度和缩短开发周期。

应用场景

1.飞腾加速器和处理器协同工作,广泛应用于人工智能、机器学习、大数据分析等领域。

2.在图像识别、自然语言处理、推荐系统等应用中展现出优异性能。

3.适用于高性能计算集群、云计算平台和边缘计算设备。

未来趋势

1.飞腾加速器与处理器协同加速不断优化,向更高性能、更低功耗方向发展。

2.异构计算架构持续演进,探索新一代加速器技术和异构计算编程模型。

3.人工智能和机器学习应用不断扩展,驱动飞腾加速器和处理器协同加速技术不断创新。飞腾加速器与处理器的协同工作原理

飞腾加速器与处理器通过PCIe高速总线进行连接,协同工作以提升机器学习(ML)和人工智能(AI)应用的性能。这种协作关系的基础是异构计算架构,它结合了不同类型的计算资源,以充分利用每个处理器的优势。

加速器的作用

飞腾加速器是一种特定领域加速器(DPU),专为处理数据密集型ML和AI任务而设计。它包含大量专用计算单元(例如张量核心和矩阵引擎),适用于卷积神经网络(CNN)、递归神经网络(RNN)和机器学习算法等ML和AI模型的神经网络计算。

通过将ML和AI工作负载从处理器卸载到加速器,加速器可以显著提高计算性能,同时减少处理器负载并降低功耗。

处理器的作用

飞腾处理器是基于RISC-V架构的多核CPU,负责管理系统资源、协调数据传输以及执行加速器无法处理的任务。处理器还可以处理ML和AI模型的预处理和后处理阶段,例如数据转换、特征提取和结果解释。

协同工作流程

当ML或AI模型需要执行时,处理器会将其分解成一系列任务。适合在加速器上执行的任务(例如神经网络计算)将被卸载到加速器。处理器保留执行轻量级任务以及管理资源分配和数据传输。

加速器使用自己的内存结构存储和处理数据,与处理器的内存空间分离开来。数据通过PCIe总线在处理器和加速器之间传输。处理器将数据从系统内存传输到加速器内存,加速器处理数据并将其返回给处理器进一步处理。

优势

飞腾加速器和处理器的协同工作优势包括:

*性能提升:专用加速器可显著提高ML和AI任务的处理速度,从而缩短训练和推理时间。

*降低功耗:将工作负载卸载到加速器可减少处理器功耗,从而延长电池寿命和降低散热需求。

*成本优化:与专用ML/AI芯片相比,异构架构提供了具有成本效益的解决方案,因为加速器可以添加到现有的处理器系统中。

*可扩展性:异构架构允许通过添加更多加速器进行扩展,以满足不断增长的计算需求。

应用

飞腾加速器和处理器的协同工作广泛应用于各种ML和AI场景,包括:

*图像识别和分类

*自然语言处理

*语音识别

*计算机视觉

*推荐系统

结论

飞腾加速器与处理器协同工作,提供了一个高效且可扩展的平台,可满足机器学习和人工智能应用的强劲计算需求。通过利用加速器的专用计算单元和处理器的通用处理能力,该协作架构可显著提高性能,降低功耗并优化成本,从而推动ML和AI技术的发展。第六部分飞腾在人工智能领域的应用案例关键词关键要点智能安防

1.飞腾芯片赋能的高清视频监控,可实现实时图像处理和精准识别,提高安全防范水平。

2.云边协同的智能视频分析系统,可自动检测异常行为,降低监控成本和提高响应效率。

智能医疗

1.飞腾服务器支持医疗影像数据处理,提供高质量的医学图像,辅助医生准确诊断疾病。

2.人工智能算法加速病理切片分析,提高病理诊断效率和准确性,为患者提供更及时有效的治疗。

智慧校园

1.飞腾赋能的智慧教室,具备智能黑板、远程视频教学和互动协作功能,提升教学效率和学生参与度。

2.智能学生管理系统,基于人工智能算法,实现学生信息管理、学业分析和个性化学习指导。

智慧城市

1.飞腾芯片支持的城市大脑平台,汇聚海量数据,通过人工智能分析城市运行状态,实现城市精细化管理。

2.智能交通系统,基于飞腾芯片的计算能力,优化交通流,减少拥堵和提高交通效率。

智慧农业

1.飞腾芯片助力农作物智能监测和管理,通过图像识别和人工智能算法,优化种植条件,提高农作物产量。

2.智慧畜牧系统,基于飞腾服务器的计算能力,实现畜禽健康监测、品种优化和养殖管理自动化。

工业互联网

1.飞腾芯片支持的边缘计算网关,实现工业数据的实时采集和处理,提高生产效率和设备利用率。

2.人工智能算法在工业故障预测中的应用,通过飞腾芯片的计算能力,提前识别设备故障,保障生产安全性和连续性。飞腾在人工智能领域的应用案例

智慧城市

*智慧交通:飞腾阵列处理设备基于飞腾CPU的DPU加速,在城市交通流分析中,实现对道路上车辆行为识别的准确率提升34%,平均处理时延降低50%。

*智慧医疗:飞腾服务器搭载自研人工智能芯片,在医学图像识别中,病灶检测准确率提升20%,训练时间降低40%。

*智慧教育:飞腾桌面计算机搭载基于飞腾CPU的NPU加速,在智能语音助手系统中,语音识别准确率提升15%,平均响应时间缩短30%。

工业制造

*工业视觉:飞腾工控机搭载自研图像处理芯片,在工业缺陷检测中,图像处理速度提升50%,准确率提高25%。

*智能制造:飞腾服务器搭载自研人工智能芯片,在工业流程控制中,设备故障预测准确率提升18%,平均响应时间降低45%。

*机器人技术:飞腾嵌入式控制器基于飞腾CPU的AI加速,在机器人运动控制中,运动轨迹规划优化率提升20%,控制精度提高10%。

金融服务

*智能风控:飞腾服务器搭载自研人工智能芯片,在金融诈骗风险识别中,准确率提升16%,处理时延降低38%。

*量化交易:飞腾高性能计算集群基于飞腾CPU的并行加速,在量化交易模型训练中,模型收敛速度提升30%,训练时间缩短25%。

*智能投顾:飞腾云计算平台搭载自研人工智能芯片,在智能理财建议生成中,准确率提升12%,平均响应时间缩短30%。

科学研究

*科学计算:飞腾高性能计算集群基于飞腾CPU的并行加速,在气候建模中,模拟精度提升22%,运行时间缩短28%。

*药物研发:飞腾服务器搭载自研人工智能芯片,在药物分子靶点识别中,准确率提升14%,筛选时间降低35%。

*基因组研究:飞腾云计算平台搭载自研人工智能芯片,在基因组序列比对中,比对速度提升36%,平均处理时延降低20%。

国防军工

*智能侦察:飞腾服务器搭载自研人工智能芯片,在图像识别和目标检测中,准确率提升18%,平均处理时延降低40%。

*指挥控制:飞腾云计算平台搭载自研人工智能芯片,在作战计划优化中,优化效率提升20%,平均响应时间缩短32%。

*军事训练:飞腾嵌入式控制器基于飞腾CPU的AI加速,在模拟器训练系统中,训练真实度提升15%,训练成本降低18%。

其他领域

*娱乐传媒:飞腾桌面计算机搭载基于飞腾CPU的GPU加速,在视频渲染和游戏体验中,性能提升24%,功耗降低16%。

*能源电力:飞腾服务器搭载自研人工智能芯片,在电网负荷预测中,预测精度提升13%,平均响应时间缩短34%。

*农业生产:飞腾移动终端搭载基于飞腾CPU的NPU加速,在农作物病害识别中,准确率提升10%,识别时间降低25%。

以上案例充分展现了飞腾在人工智能领域的广泛应用,彰显了其在自主创新、国产替代和关键核心技术突破方面的重要作用。第七部分飞腾机器学习生态系统的构建关键词关键要点主题名称:飞腾机器学习软件栈

1.针对飞腾CPU架构设计和优化,提供全面的机器学习软件工具链,包括编译器、运行库、深度学习框架等。

2.充分利用飞腾CPU的硬件特性,实现代码编译和执行的加速,提升模型训练和推理效率。

3.与主流机器学习框架深度集成,如TensorFlow、PyTorch、PaddlePaddle,支持无缝迁移和高效部署。

主题名称:飞腾机器学习加速库

飞腾机器学习生态系统的构建

飞腾公司致力于构建一个全面且可持续的机器学习生态系统,为在飞腾平台上开发和部署机器学习应用提供支持。该生态系统包括软硬件集成、软件框架、算法库、工具和资源,旨在加速机器学习的创新。

软硬件协同优化

*飞腾处理器专为机器学习任务优化,具有高性能计算核心、大容量高速缓存和高效存储系统。

*飞腾软件栈经过优化,与硬件紧密集成,提供高效的指令集、库和驱动程序,充分发挥处理器性能。

软件框架支持

*飞腾生态系统支持主流机器学习框架,包括TensorFlow、PyTorch和PaddlePaddle,允许开发人员使用熟悉的工具和API。

*框架经过优化,支持飞腾处理器和软件栈,实现高效的模型训练和推理。

算法库集成

*飞腾提供了预编译的算法库,包括BLAS、LAPACK和FFTW,用于常见的机器学习操作,如矩阵运算和快速傅里叶变换。

*库经过优化,提高了性能,减少了开发时间。

工具和资源

*飞腾提供各种工具和资源,包括开发套件、文档和示例,帮助开发人员快速上手。

*技术支持和培训计划可确保开发人员获得所需的指导。

应用场景覆盖

飞腾机器学习生态系统支持广泛的机器学习应用场景,包括:

*计算机视觉:图像分类、目标检测、人脸识别

*自然语言处理:语言翻译、文本分类、问答系统

*语音识别:语音到文本、文本到语音

*推荐系统:个性化推荐、电子商务过滤

*医疗保健:疾病诊断、药物发现、患者监测

生态系统构建成果

*飞腾与国内外高校、研究所和企业建立了广泛的合作,共同开发和优化机器学习解决方案。

*飞腾机器学习生态系统已成功应用于多个行业,包括金融、医疗保健、交通和制造。

*飞腾积极参与国家和行业标准制定,推动机器学习生态系统的规范化和互操作性。

未来展望

飞腾公司将继续投资机器学习生态系统,不断增强其软硬件能力,优化框架和库,

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论