基于NVIDIA RAPIDS和CUDA数据科学AI应用性能优化视频教程

数据科学和机器学习代表了世界上最大的计算领域,分析模型准确性的适度改进可以转化为对利润数十亿的影响。数据科学家不断努力训练、评估、迭代和优化模型,以实现高度准确的结果和卓越的性能。借助 NVIDIA 强大的 RAPIDS 平台,过去需要数天才能完成的工作现在只需几分钟即可完成,从而使高价值模型的构建和部署变得更加轻松、敏捷。在数据科学中,额外的计算能力意味着更快、更有效的洞察。 RAPIDS 利用 NVIDIA CUDA 的强大功能来加速整个数据科学模型训练工作流程,并在图形处理单元 (GPU) 上运行。

在本课程中,您将学习将机器学习应用程序提升到新水平所需的一切!查看下面将讨论的一些主题:

使用 cuDF、cuPy 和 cuML 库代替 Pandas、Numpy 和 scikit-learn;确保在 GPU 上以高性能处理数据并执行机器学习算法。

将经典 Python 库与 RAPIDS 的性能进行比较。在课堂上进行的一些实验中,我们实现了超过 900 倍的加速率。这表明,使用某些数据库和算法,RAPIDS 的速度可以提高 900 倍!

使用 RAPIDS 创建一个完整的、分步的机器学习项目,从数据加载到预测。

使用 DASK 在多个 GPU 或 CPU 上实现任务并行;与 RAPIDS 集成以获得卓越的性能。

在整个课程中,我们将使用 Python 编程语言和在线 Google Colab。这样,您就不需要拥有本地 GPU 来学习课程,因为我们将使用 Google 提供的免费硬件。

Published 2/2024
Created by Jones Granatyr
MP4 | Video: h264, 1280×720 | Audio: AAC, 44.1 KHz, 2 Ch
Genre: eLearning | Language: English | Duration: 46 Lectures ( 6h 21m ) | Size: 2.4 GB

 

你将会学到的

了解使用 CPU 和 GPU 处理数据之间的差异
使用 cuDF 替代 pandas 进行 GPU 加速处理
使用 cuDF 实现代码来操作 DataFrame
使用 cuPy 替代 numpy 进行 GPU 加速处理
使用 cuML 替代 scikit-learn 进行 GPU 加速处理
使用 cuDF 和 cuML 实施完整的机器学习项目
比较在 CPU 上运行的经典 Python 库与在 GPU 上运行的 RAPIDS 库的性能
使用 DASK 实施项目以进行并行和分布式处理
将 DASK 与 cuDF 和 cuML 集成以提高 GPU 性能

要求

编程逻辑
基础Python编程
机器学习:算法训练过程的基本了解,以及分类和回归技术

此课程面向哪些人:

希望提高应用程序性能的数据科学家和人工智能专业人士
目前在或有志于数据科学领域工作的专业人士,特别是那些寻求提高机器学习模型训练和数据分析技能的专业人士
任何有兴趣学习机器学习的人,尤其是关注使用 GPU 的高性能实现的人
参与机器学习模型开发和实施的专业人员
学习人工智能相关学科的本科生和研究生

原文链接:https://vuesite.cn/39598.html,转载请注明出处。
0
显示验证码
没有账号?注册  忘记密码?