BlueField F5搭载NVIDIA
为服务提供商和大型企业提供集中控制 以减速、包全和简化流入和流出大型
该处置打算应用高性能 NVIDIA BlueField-3 DPU 优化对大型AI部署至关关键的数据中心流量效率。经过对网络、流量治理和安保性的集成视图,客户将能够最大化数据中心资源的应用率,同时成功最佳的AI运行性能。这不只提高了基础设备的效率,且成功了更快、更矫捷的AI推理,并可最终提供增强AI驱动的客户体验。
F5 BIG-IP Next for Kubernetes是专门为Kubernetes环境设计的处置打算, 已在大型电信云和5G基础设备中获取验证。经过BIG-IP Next for Kubernetes,该技术现 ,例如推理、检索增强生成(RAG)以及无缝的数据治理和存储。 与NVIDIA BlueField-3 DPU的集成最小化了配件占用空间,成功了细粒度的多租户,同时成功动力消耗优化,并提供高性能的网络、安保和流量治理。
F5与NVIDIA技术的集成将准许移动和固定线路电信服务提供商能够轻松过渡至云原生Kubernetes基础设备,以满足供应商日益增长的将服务配置顺应至云原生网络配置(CNFs)模型的需求。F5 BIG-IP Next for Kubernetes经过将数据密集型义务卸载至BlueField-3 DPU,以监禁CPU资源用于创收运行。该处置打算关于虚构化RAN(vRAN)或MSO的DAA以及外围网络中的5G尤为有益,并为未来监禁6G通讯后劲奠定基础。
专为高需求服务提供商和大型基础设备设计的F5 BIG-IP Next for Kubernetes可带来以下价值。
F5首席技术官和人工智能官Kunal Anand示意,“AI的遍及催生了对先进半导体和技术的绝后需求。目前各大企业正在构建AI工厂,即为大规模训练AI模型及提供推理所需的弱小处置才干而设计的高度优化环境,其速度惊人且具有最低提前。而F5弱小的运行交付和安保服务与NVIDIA的全栈减速计算构成了弱小的生态系统。该集成处置打算笼罩从配件减速层到运行界面的整个AI上班负载堆栈,为客户提供了增强的可观察性、精细化控制和性能优化。”
NVIDIA人工智能网络和安保协作同伴初级总监Ash Bhalgat示意, 服务提供商和企业须要减速计算,以安保高效地在大规模云上交付高性能的AI运行。NVIDIA正在与F5协作减速AI运行交付,得以更好地确保由BlueField-3 DPU支持的峰值效率和无缝用户体验。
IDC计算系统钻研通常部钻研副总裁Kuba Stolarski示意, 成功AI的后劲须要比行业以往预备更多的数据处置才干。关于许多公司而言,部署尖端的AI须要少量的基础设备树立,但是这些树立往往十分复杂且低廉,使得高效和安保的操作比以往任何时刻都愈减轻要。F5 BIG-IP Next for Kubernetes处置了大型AI基础设备的性能和安保疑问。经过提供优化的流量治理,企业可在AI模型推理环节中取得更大的数据摄取性能和主机应用率,这为AI运行用户带来了极大的客户体验优化。”
WWT人工智能、运行及API安保处置打算世界通常经理Todd Hathaway示意,“随着AI上班负载的爆炸式增长,企业对可裁减、优化以及增强控制的Kubernetes流量治理需求激增。随着F5将BIG-IP Next for Kubernetes间接部署在NVIDIA BlueField-3 DPU上,这使得该项已获取验证的技术现可准许大规模AI部署在现实接入点。WWT客户将能够得益于更大的数据摄取性能和GPU应用率,同时在推理环节中取得更好的用户体验,并取得策略控制点用于安保服务。借助WTT两家最具策略性的协作同伴F5和NVIDIA的先进技术,咱们得以进一步增强咱们的世界网络安保使命,以提供出色的数字安保。”