AI 推断加速

  • 最低时延的 AI 推断
  • 加速您的整体应用
  • 匹配 AI 创新的速度
ml ai interface acceleration

最低时延的 AI 推断

高吞吐量低时延

使用大批量规模实现吞吐量。在处理之前必须等待所有输入就绪,从而导致高时延。

高吞吐量低时延

使用小批量规模实现吞吐量。在每个输入就绪时立即处理,从而降低时延。

加速您的整体应用

通过将自定义加速器紧密耦合在动态架构芯片器件中,优化了 AI 推断及其它性能关键性能的硬件加速。

提供端对端的应用性能,该性能比 GPU 等固定架构 AI 加速器高很多;因为使用 GPU,在没有自定义硬件加速性能或效率的情况下,应用的其它性能关键功能须仍在软件中运行。

匹配 AI 创新的速度

人工智能模型正在迅速发展

灵活应变的芯片允许更新领域特定架构 (DSA),
无需新芯片,便可优化最新人工智能模型

开发周期长,因此固定芯片器件没有针对最新模型进行优化

数据中心 Vitis AI

Xilinx 能以最低时延提供最高吞吐量。在 GoogleNet V1 上进行的标准基准测试中,Xilinx Alveo U250 可为实时推断提供比现有最快 GPU 多 3 倍的吞吐量。如需了解更多,请阅读白皮书使用 Xilinx Alveo 加速器卡加速 DNN(中文版)

边缘 Vitis AI

利用 Vitis AI Optimizer 技术获得 AI 推断性能领导地位。

  • 5 倍至 50 倍的网络性能优化
  • 增加 FPS,降低功耗

优化/加速编译工具

  • 支持 Tensorflow 和 Caffe 网络
  • 针对优化的 Xilinx Vitis 运行时编译网络

实现灵活应变的实时 AI 推断加速 - 使用 VitisTMAI

从边缘到云 AI 的最佳人工智能推断

vitis ai

Xilinx 开发者网站

面向 AI 推断加速的文章、文档、工具和库

及时了解最新信息

注册订阅 AI 推断加速的最新信息。