什么是 OpenVINO?
OpenVINO(Open Visual Inference and Neural Network Optimization)是 Intel 推出的一套用于加速深度学习推理的工具套件,支持在 CPU、GPU、VPU 和 FPGA 等硬件上高效运行计算机视觉和 AI 模型。
主要功能
- 模型优化器(Model Optimizer):将训练好的模型(如 TensorFlow、PyTorch、ONNX)转换为 IR 格式
- 推理引擎(Inference Engine):在多种 Intel 硬件上高效执行推理
- 预训练模型库:提供大量可用于快速开发的 CV 模型
- 跨平台支持:Windows、Linux、macOS 及嵌入式设备
快速开始
- 安装 OpenVINO 开发工具包
- 使用 Model Optimizer 转换模型
- 编写推理代码调用 Inference Engine
- 部署到目标设备并测试性能
详细步骤请参考78TP文档或本手册后续章节。
适用人群
本中文手册适用于 AI 工程师、嵌入式开发者、高校研究人员以及希望利用 Intel 硬件加速 AI 应用的开发者。