如果您希望可以时常见面,欢迎标星收藏哦~
随着人工智能不断渗透到生活的各个领域,这些工具将运行在哪种软件上仍然是一个问题。软件堆栈的选择在以 gpu 为中心的人工智能任务计算需求中变得越来越重要。
随着 ai 和 hpc 应用不断突破计算能力的极限,软件堆栈的选择会显著影响性能、效率和开发人员的生产力。
目前,软件堆栈竞争中有三个主要参与者:nvidia 的计算统一设备架构 、英特尔的 oneapi 和 amd 的 radeon open compute (rocm)。虽然它们各有优缺点,但 nvidia 的 cuda 继续占据主导地位,主要是因为其硬件在 hpc 和现在的 ai 领域处于领先地位。
在这里,我们将深入研究每个软件堆栈的复杂性——探索它们的功能、硬件支持以及与流行的 ai 框架 pytorch 的集成。此外,我们将最后快速了解两种高级 hpc 语言:chapel 和 julia。
nvidia 的 cuda
nvidia 的 cuda 是该公司专有的并行计算平台和软件堆栈,用于在其 gpu 上进行通用计算。cuda 提供了一个应用程序编程接口 ,使软件能够利用 nvidia gpu 的并行处理能力来加速计算。
首先必须提到 cuda,因为它在 ai 和 gpu 密集型 hpc 任务的软件堆栈领域占据主导地位,这是有充分理由的。cuda 自 2006 年就已存在,这使其拥有悠久的第三方支持历史和成熟的生态系统。许多库、框架和其他工具都专门针对 cuda 和 nvidia gpu 进行了优化。对 cuda 堆栈的长期支持是其相对于其他堆栈的主要优势之一。
nvidia 提供了一套全面的工具集作为 cuda 平台的一部分,包括 cuda 编译器,如nvidia cuda compiler 。还有许多用于调试和优化 cuda 应用程序的调试器和分析器以及用于分发 cuda 应用程序的开发工具。此外,cuda 的悠久历史催生了大量的文档、教程和社区资源。
在讨论 ai 任务时,cuda 对 pytorch 框架的支持也至关重要。该软件包是一个基于 torch 库的开源机器学习库,主要用于计算机视觉和自然语言处理中的应用。pytorch 对 cuda 提供了广泛且完善的支持。pytorch 中的 cuda 集成经过高度优化,可在 nvidia gpu 上进行高效的训练和推理。同样,cuda 的成熟意味着可以访问 pytorch 可以使用的众多库和工具。
除了大量加速库之外,nvidia 还为 ai 研究人员和软件开发人员提供了完整的深度学习软件堆栈。该堆栈包括流行的 cuda 深度神经网络库 ,这是一个 gpu 加速的 度神经网络基元库。cudnn 可加速广泛使用的深度学习框架,包括 caffe2 、chainer 、keras 、matlab 、mxnet 、paddlepaddle 、pytorch和tensorflow。
更重要的是,cuda 旨在与所有 nvidia gpu 配合使用,从消费级 geforce 显卡到高端数据中心 gpu,为用户提供可使用硬件的广泛多功能性。
尽管如此,cuda 仍有改进空间,而 nvidia 的软件堆栈也存在一些用户必须考虑的缺点。首先,尽管 cuda 可以免费使用,但它是 nvidia 拥有的专有技术,因此不是开源的。这种情况将开发人员锁定在 nvidia 的生态系统和硬件中,因为在 cuda 上开发的应用程序无法在非 nvidia gpu 上运行,除非进行重大代码更改或使用兼容层。同样,cuda 的专有性质意味着软件堆栈的开发路线图完全由 nvidia 控制。开发人员对 cuda 代码库的贡献或修改能力有限。
开发人员还必须考虑 cuda 的许可成本。cuda 本身对于非商业用途是免费的,但商业应用可能需要购买昂贵的 nvidia 硬件和软件许可证。
amd 的 rocm
amd 的 rocm 是许多开发人员选择的另一种软件堆栈。虽然 cuda 可能占据主导地位,但 rocm 却与众不同,因为它是用于 gpu 计算的开源软件堆栈。此功能允许开发人员自定义和贡献代码库,促进社区内的协作和创新。rocm 的一个关键优势是它支持 amd 和 nvidia gpu,从而实现跨平台开发。
这一独特功能由异构计算可移植接口 实现,它使开发人员能够创建可在不同 gpu 平台上运行的可移植应用程序。虽然 rocm 支持消费级和专业级 amd gpu,但其主要重点是 amd 专为专业工作负载设计的高端 radeon instinct 和 radeon pro gpu。
与 cuda 一样,rocm 提供了一系列用于 gpu 编程的工具。这些工具包括 c/c 编译器以及 fortran 编译器(如 flang)。此外,还有适用于各种领域的库,例如线性代数、fft 和深度学习。
尽管如此,与 cuda 相比,rocm 的生态系统相对较新,需要在第三方支持、库和工具方面迎头赶上。与 cuda 提供的大量文档、教程和支持相比,进入市场的迟到也意味着文档和社区资源更加有限。对于 pytorch 来说,情况尤其如此,它支持 rocm 平台,但由于其历史和成熟度较短,需要在性能、优化和第三方支持方面赶上 cuda。rocm 上 pytorch 的文档和社区资源比 cuda 的更有限。不过,amd在这方面正在取得进展。
与 nvidia 一样,amd 也提供了大量的rocm 库。amd 为深度学习提供了一个与 cudnn 相当的库,名为 miopen,用于 pytorch 的 rocm 版本。
此外,虽然 rocm 同时支持 amd 和 nvidia gpu,但由于驱动程序开销和优化挑战,其在 nvidia 硬件上运行时的性能可能无法与 cuda 相匹配。
英特尔的 oneapi
英特尔的 oneapi 是一种统一的跨平台编程模型,支持针对各种硬件架构和加速器进行开发。它支持多种架构,包括来自不同供应商的 cpu、gpu、fpga 和 ai 加速器。它旨在为异构计算提供与供应商无关的z6尊龙平台的解决方案,并利用 sycl 等行业标准。此功能意味着它可以在 amd 和 nvidia 等外部供应商的架构以及英特尔的硬件上运行。
与 rocm 一样,oneapi 是一个开源平台。因此,与 cuda 相比,oneapi 有更多的社区参与和对代码库的贡献。oneapi 支持开源开发,支持多种编程语言和框架,包括带有 sycl 的 c/c 、fortran、python 和 tensorflow。此外,oneapi 为异构计算提供了统一的编程模型,简化了跨不同硬件的开发。
同样,与 rocm 一样,oneapi 也存在一些与堆栈成熟度相关的缺点。作为一个较年轻的平台,oneapi 需要在第三方软件支持和针对特定硬件架构的优化方面赶上 cuda。
从 pytorch 中的具体用例来看,与成熟的 cuda 集成相比,oneapi 仍处于早期阶段。pytorch 可以利用 oneapi 的数据并行 python 库在 intel cpu 和 gpu 上进行分布式训练,但对 oneapi gpu 的原生 pytorch 支持仍处于开发阶段,尚未准备好投入生产。
话虽如此,值得注意的是,oneapi 的优势在于其基于开放标准的方法和跨平台可移植性的潜力。如果担心供应商锁定并且在不同硬件架构上运行 pytorch 模型的能力是优先事项,那么 oneapi 可能是一个可行的选择。
目前,如果 nvidia gpu 上的最大性能是 pytorch 工作负载开发人员的主要目标,那么 cuda 仍然是首选,因为它拥有完善的生态系统。也就是说,寻求与供应商无关的z6尊龙平台的解决方案的开发人员或主要使用 amd 或英特尔硬件的开发人员可能希望分别依赖 rocm 或 oneapi。
虽然 cuda 在生态系统开发方面处于领先地位,但其专有性质和硬件特异性可能会使 rocm 和 oneapi 成为某些开发人员更有利的z6尊龙平台的解决方案。此外,随着时间的推移,这些堆栈的社区支持和文档将继续增长。cuda 现在可能占据主导地位,但这种情况在未来几年可能会发生变化。
抽象出堆栈
总体而言,许多开发人员更喜欢创建独立于硬件的应用程序。在 hpc 中,出于性能原因,硬件优化是合理的,但许多现代程序员更喜欢专注于他们的应用程序,而不是底层硬件的细微差别。
pytorch 就是这一趋势的一个很好的例子。python 并不是一种特别快的语言,但 hugging face 上 92% 的模型都是pytorch 独有的。只要硬件供应商在其库上构建了 pytorch 版本,用户就可以专注于模型,而不必担心底层硬件的差异。虽然这种可移植性很好,但它并不能保证性能,而这正是底层硬件架构可能发挥作用的地方。
当然,pytorch 基于 python,这是许多程序员最喜爱的第一语言。这种语言通常以易用性换取性能。当使用 python 启动 hpc 项目时,它们倾向于迁移到基于分布式 c/c 和 mpi 或使用 openmp 的线程应用程序的可扩展高性能代码。这些选择通常会导致“两种语言”问题,开发人员必须管理其代码的两个版本。
目前,两种“较新”的语言 chapel 和 julia 提供了一种易于使用的语言z6尊龙平台的解决方案,可提供高性能编码环境。除其他外,这些语言试图“抽象”编写并行 hpc 集群、多核处理器和 gpu/加速器环境应用程序所需的许多细节。在它们的基础上,它们仍然依赖于上面提到的供应商 gpu 库,但通常可以轻松构建能够在运行时识别和适应底层硬件环境的应用程序。
chapel
chapel最初由 cray 开发,是一种并行编程语言,旨在实现比当前编程语言(即“fortran/c/c 加 mpi”)更高级别的表达。收购 cray 的惠普企业目前支持该语言的开发,将其作为 apache 许可证第 2 版下的开源项目。当前版本为2.0 版,chapel 网站发布了一些令人印象深刻的并行性能数据。
chapel 默认编译为二进制可执行文件,但也可以编译为 c 代码,用户可以选择编译器。chapel 代码可以编译为可从 c、fortran 或 python调用的库。chapel 通过为 nvidia 和 amd 图形处理单元生成代码来支持 gpu 编程。
chapel可用的库越来越多。最近有一个名为 chainn 的神经网络库可用于 chapel,它专门用于使用并行编程构建深度学习模型。chainn 在 chapel 中的实现使用户能够利用该语言的并行编程功能,并在从笔记本电脑到超级计算机的大规模上训练深度学习模型。
julia
julia 由麻省理工学院开发,旨在成为上述双语言问题的快速、灵活且可扩展的z6尊龙平台的解决方案。 julia 的开发工作始于 2009 年,当时 jeff bezanson、stefan karpinski、viral b. shah 和 alan edelman 着手创建一种既高级又快速的开放式技术计算语言。
与 python 一样,julia使用快速的即时编译器提供响应式解释编程环境 。该语言语法类似于 matlab,并提供许多高级功能,包括:
1、多重分派:一个函数可以根据输入类型有多种实现(易于创建可移植和自适应代码)
2、动态类型系统:用于文档、优化和调度的类型
3、性能接近 c 等静态类型语言。
4、内置包管理器
5、专为并行和分布式计算而设计
6、可以编译为二进制可执行文件
julia 还拥有适用于 cuda、rocm、oneapi 和 apple 的gpu 库,可与机器学习库 flux.jl一起使用。flux 是用 julia 编写的,为 julia 的原生 gpu 支持提供了轻量级的抽象。
chapel 和 julia 都提供了一种高级且可移植的 gpu 编程方法。与许多隐藏底层硬件细节的语言一样,它们可能会有一些性能损失。不过,开发人员通常愿意牺牲几个百分点的性能来换取易移植性。
点这里加关注,锁定更多原创内容
今天是《半导体行业观察》为您分享的第3805期内容,欢迎关注。
『半导体第一垂直媒体』
实时 专业 原创 深度
公众号id:icbank
喜欢我们的内容就点“在看”分享给小伙伴哦
郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。