摘要
本发明涉及一种基于可配置IP核的卷积神经网络FPGA加速系统及方法,属于人工智能硬件加速技术领域,旨在解决现有CNN加速方案中灵活性不足、资源利用率低及片外存储带宽瓶颈等问题。该系统采用SoC架构,将可配置的卷积批归一化激活IP核与池化IP核集成于FPGA可编程逻辑部分,并由处理系统按网络层顺序动态配置参数,实现硬件资源的时分复用。卷积与池化模块通过AXI4‑Stream直连,减少中间数据回写与重读,降低延迟与带宽压力。该方法通过软硬件协同调度,在提升计算吞吐率的同时兼顾通用性与扩展性,适用于多种CNN模型的高效推理加速。
技术关键词
加速系统
控制数据传输
人工智能硬件加速
同步动态随机存取存储器
高级可扩展接口
总线接口配置
动态配置参数
执行卷积运算
时分复用
IP核
存储器存取
控制模块
输出特征
滑动窗口
逻辑
网络结构
高层次
尺寸
系统为您推荐了相关专利信息
索引策略
索引构建方法
加速系统
压缩算法
分析模块
高通量测序数据
FPGA逻辑单元
加速系统
QSFP28接口
主机模块
离子加速系统
电压补偿方法
子系统
电压驻波比
谐振系统
硬件加速系统
识别神经网络
卷积加速器
归一化模块
输出特征