基于GPU的人工智能与机器学习运行
如今,在一些令人关注的人工智能和机器学习的运行畛域,图形处置单元(GPU)施展着日益关键的作用。
GPU继续裁减在人工智能和机器学习中的运行
人工智能(AI)无疑将扭转环球消费劲、上班形式和生活形式,并发明渺小的财产。依据调研机构Gartner公司的估量,到2022年,环球人工智能市场规模将从2020年的约1.2万亿美元极速增长到约3.9万亿美元;而麦肯锡公司估量到2030年环球人工智能市场规模将到达约13万亿美元。当然,这种转变是由弱小的机器学习(ML)的工具和技术推进的,例如深度强化学习(DRL)、生成反抗网络(GAN)、梯度优化决策树模型(GBM)、人造言语处置(NLP)等。
现代的人工智能和机器学习系统取得成功关键取决于它们经常使用的义务优化配件以并行形式处置少量原始数据的才干。理想上,人工智能的现代振兴始于2012年的ImageNet比赛,深度学习算法在图像分类精度方面比非深度学习算法有了惊人的提高。但是,随同着奇妙的编程和数学建模,公用配件的经常使用在人工智能的早期成功中起到了关键的作用。
计算机视觉(CV)的提高继续推进着许多人工智能和机器学习系统的开展。计算机视觉(CV)正在更宽泛运行在各行业畛域中,使组织能够彻底扭转机器和业务系统的上班形式,例如制作、智能驾驶、医疗保健等行业畛域。简直一切的计算机视觉(CV)系统都从传统的基于规定的编程形式演化为大规模的、数据驱动的机器学习形式。因此,基于GPU的配件经过协助处置少量训练数据(其规模通常在PB级以上),并在确保高品质预测和分类方面施展着关键作用。
本文将引见一些最受关注的人工智能和机器学习运行畛域,在这些畛域中,这些公用配件(尤其是GPU)将施展着越来越关键的作用。
人工智能和机器学习中一些最受关注的畛域是:
为什么GPU在这些义务中大放异彩?
理想标明,通用的CPU在处置少量数据(例如,对具备数万或数十万浮点数的矩阵执行线性代数运算)时通常会遇到艰巨。而深度神经网络关键由矩阵乘法和向量加法等运算方法组成。
GPU的开发(关键运行在视频游戏畛域中)经常使用数千个微型计算外围处置大规模并行计算。它们还具备大内存带宽来处置极速数据流(处置单元缓存到较慢的主内存并前往),而在神经网络训练数百个历元(Epochs)时须要启动少量计算。这使GPU成为处置计算机视觉义务计算负载的理想配件。
GPU针对许多框架和计算畛域启动了优化
GPU的通用架构实用于作为深度学习算法外围的特定类型的计算义务。但是,一旦这种协同作用被钻研和开发人员充沛应用并获取证明,消费GPU的厂商(例如英伟达公司)为此投入了少量的资金和人力,为各种运行场景开发更多的高性能和高度优化的GPU。
此外还确保他们的运行软件和固件堆栈始终降级,以与现代初级编程框架无缝集成,以便环球各地的数百万开发人员能够更繁难地利用GPU的弱小配置。下图展现了英伟达GPU产品正在优化的各种深度学习框架的生态系统。
此外,依据功耗与性能的掂量,GPU(和相关内存)架构可以针对少量计算畛域启动优化设计,这些产品从学术试验室经常使用的桌面上班站到工业物联网或智能驾驶汽车上经常使用的边缘计算机。来自英伟达公司网站的这张图有助于说明这一点:
智能驾驶畛域中的人工智能和机器学习
智能驾驶关于机器学习系统来说是一个极具应战性和复杂性的行业畛域。智能驾驶汽车使用具备各种配置且数量单一的传感器来搜集无关路线状况、其余车辆、行人、骑行者、路标、进口、高速公路标志、路边商店等许多变量的消息。其中许多消息是基于图像的(经常使用装置在不同中央的多个摄像头)。其余的消息或者是来自LiDAR或其余类型传感器的数据流。
此外,在任何一个智能驾驶系统中,通常驳回多个这样的计算机视觉(CV)的系统/算法。在这些状况下对并行处置的需求很高,这关于处置数据的计算机来说面临更大的压力。假设同时经常使用多个神经网络,它们或者会共享公共系统存储并相互竞争公共资源池。
此外,还有高度专业化和优化的片上系统(SoC)平台用于这一畛域。以下是对英伟达公司的NVIDIA DRIVEAGX的形容:“NVIDIADRIVE™AGX嵌入式超级计算平台处置来自摄像头、雷达和激光雷达传感器的数据,以感知周围环境,将汽车定位到地图,并布局和执行安保的行进门路。这团体工智能平台允许智能驾驶、车内配置、驾驶员监控以及其余安保配置——一切这些都集成在一个紧凑而节能的软件包中。”
医疗保健中的人工智能和机器学习(医学影像)
在医学成像的运行下,计算机视觉系统的性能是依据阅历丰盛的喷射科医师和了解病理图像的临床医生来判别的。此内在大少数状况下,其义务触及识别患病率十分低的稀有疾病。这使得训练数据变得稠密(没有足够的训练图像)。因此,深度学习(DL)架构必定经过参与奇妙的处置和复杂的架构来补偿这一点。当然,这会造成计算复杂度参与。
核磁共振成像(MRI)和其余先进的医学成像系统正在驳回机器学习算法,它们越来越多地成为癌症检测的第一道防线。面对海量的数字化数据,喷射科医师的数量和品质往往难以满足需求,而基于机器学习的系统是协助他们实现决策环节的完美选用。
依据一篇宣布在《人造》杂志的文章,喷射科医师须要在8小时上班期间内每3~4秒解读一张X光片图像才干满足上班量需求。如今,医学成像数据十分丰盛,深度学习(DL)算法可以提供始终裁减的医学图像数据集,以像训练有素的喷射科医生那样发现意外并解释结果。可以训练这种算法对惯例和意外结果启动分类,例如识别皮肤上的可疑斑点、病变、肿瘤和脑出血。但是对数百万个训练示例启动分类并正确识别它们,则须要GPU优化的软件和配件系统的协助。
人工智能和机器学习反抗疾病(药物发现)
行业专家指出,冠状病毒疫情等环球大盛行病大多是由病毒惹起的。在基本结构层面,这些病毒关键由一条或几条DNA/RNA链组成。而确定3D蛋白质结构,即来自基因测试数据的氨基酸分子序列是开发某些类别(亚基和核酸类型)疫苗的关键。
假设尝试驳回传统的蛋白质折叠算法,这项义务在计算方面是无法行的(无论投入多少配件资源)。而经过最新的深度强化学习(DRL)和贝叶斯优化技术,人工智能可以在协助处置这一应战方面施展关键作用。而在这方面,谷歌公司的深度学习钻研部门DeepMind推出了AlphaFold,这是一个基于深度强化学习(DRL)的系统,可以依据蛋白质的基因序列预测蛋白质的3D结构。
2020年3月上旬,该系统关于检测冠状病毒启动了测试,DeepMind的人工智能钻研人员可以依据该系统颁布与SARS-CoV-2相关的几种钻研无余的蛋白质的结构预测,以协助环球临床和病毒学钻研界更好地展开上班,以了解病毒及其对人类动物学的影响。2020年11月,在名为CASP(结构预测的关键评价)的两年一度的蛋白质结构预测应战中,这一系统的体现优于其余100个团队开发的系统。
但取得这些令人印象深入的打破性性能都以部署更多GPU驱动配件为代价。只管很难估量用于训练AlphaFold的计算才干,但是依据行业媒体的报道,其驰名的前身AlphaGo在出名的一场围棋应战赛中同时经常使用了数百个CPU和GPU,并击败围棋环球冠军李世石。
在环境和气候迷信中运行的人工智能和机器学习
气候变动是21世纪人类面临的最深入的生活危机之一。要了解这一划时代变动的环球事情的影响,须要搜集少量的迷信数据、高真切的可视化才干以及强健的预测模型。
因此,天气预告和气候建模处于人类应答气候变动的前沿。但是这种建模并不容易。至少,关于大数据剖析和迷信模拟才干的开展状况,这样规模的疑问关于当今的配件和软件堆栈来说是难以处置的。
在美国,大少数天气预告服务都基于称为天气钻研和预测(WRF)的一个中等规模的综合模型。该模型实用于从数十米到数千公里的范围宽泛的气候运行。因此,这样的综合模型必定处置有数与天气相关的变量及其高度复杂的相互相关。理想证明,用一组一致的解析方程来形容这些复杂的相关也是无法能的。与其同样,迷信家们尝试经常使用一种称为参数化的方法来近似方程,在这种方法中,他们以比实践现象更大的规模对相关启动建模。
深度学习的神奇力气能否处置这个疑问?美国阿贡国度试验室的环境迷信家和计算迷信家正在展开协作,经常使用深度神经网络(DNN)来交流天气钻研和预测(WRF)模型中某些物理方案的参数,宿愿在不影响保真度和预测才干的状况下清楚缩短建模期间。
他们正在充沛应用允许GPU的高性能计算(HPC)节点的力气来启动这种计算密集型钻研。一篇资讯文章引见了Argonne LeadershipComputingFacilit(ALCF)的一些详细消息:“ALCF已开局在ThetaGPU上为已同意的恳求调配期间。ThetaGPU是Theta的裁减,由NVIDIA DGXA100节点组成。每个DGX A100节点装备8个NVIDIA A100 TensorCore GPU和两个AMD RomeCPU,提供320GB(总计7680GB)的GPU内存用于训练人工智能数据集,同时还允许GPU特定和GPU增强的HPC运行程序启动建模和模拟。”
智能制作中的人工智能和机器学习
原资料、货物和整机的移动是任何一个制作系统的外围业务。而在计算和消息技术反派之后,人们看法到这些东西的移动只要在以准确的形式控制时才干到达最佳效率,并由消息处置引擎启动监视。
因此,软配件的翻新联合使传统行业进入了智能制作时代。随着计算和存储的老本和操作复杂性呈指数级降低,由人员、机器、控制器、工厂、仓库和物流机械发生的消息内容的规模和复杂性呈爆炸式增长。
如今,人工智能和机器学习畛域的翻新理念已将许多制作组织从淹没在数据激流中的困境中挽救进去,并协助他们剖析和了解每天必定处置的EB规模数据。深度学习技术被用于多个畛域——设计、品质控制、机器/流程优化、供应链、预测性和预防性保养等等。
鉴于数据生成和处置需求的数量和速度极速增长,这些人工智能/机器学习系统中的大少数经常使用GPU驱动的上班站和云计算资源。
经常使用GPU的人工智能和机器学习运行概述
越来越多的行业畛域在其运营和RandD中驳回弱小的人工智能/机器学习工具敌对台。本文只讨论了其中的一些,并钻研了基于GPU的系统的弱小配置和灵敏性如何允许人工智能在各行业畛域中的运行。从这个趋向来看,可以自信地说,定制人工智能/机器学习配件处置方案(如深度学习上班站)的市场和选用在未来几年将会继续极速增长。