摘要
本发明提出了一种基于GPU矩阵‑线程协同优化的高速NTT方法和系统,包括:将输入的旋转因子转换为矩阵形式;将更新后的旋转因子矩阵和输入数组传输到图形处理器中;根据输入数组和旋转因子矩阵的大小,设置网格中块的数量和每个块中包括的线程数量,使每个块负责一行乘一列的操作,并且该块内的每个线程完成相应行乘列过程中的其中一对数据相乘的操作以得到一组中间结果,再由该块内的中间结果得到该块对应的输出数据,送入输出矩阵的相应位置,作为乘法的结果。本发明将NTT计算重构为并行矩阵‑向量运算,通过高效线程分配策略与优化内存访问模式的结合,实现了GPU计算资源的最大化利用,在计算效率上展现出显著提升。
技术关键词
矩阵
密码算法
图形处理器
CUDA平台
因子
数据
内存访问模式
转换单元
网格
索引
模块
模数
重构
策略
系统为您推荐了相关专利信息
轨迹预测方法
轨迹预测模型
混合深度学习模型
编码器模块
前馈神经网络
系统故障检测
异常检测方法
预测模型训练
后验概率
检测集群系统
信息解析方法
CRF模型
BERT模型
前馈神经网络
文档分类