您的位置: 专家智库 > >

黄建强

作品数:23 被引量:124H指数:5
供职机构:青海大学计算机技术与应用系更多>>
发文基金:国家自然科学基金青海大学中青年科研基金青海省自然科学基金更多>>
相关领域:自动化与计算机技术文化科学理学更多>>

文献类型

  • 23篇中文期刊文章

领域

  • 21篇自动化与计算...
  • 2篇文化科学
  • 1篇理学

主题

  • 5篇网络
  • 5篇教学
  • 4篇异构
  • 4篇实验教学
  • 3篇链接
  • 3篇链接预测
  • 3篇课程
  • 3篇GPU
  • 3篇超网
  • 3篇超网络
  • 2篇内存
  • 2篇矩阵
  • 2篇架构
  • 2篇教学改革
  • 2篇共轭
  • 2篇CPU
  • 2篇GRAPES
  • 2篇高性能
  • 1篇单指令多数据
  • 1篇动力框架

机构

  • 23篇青海大学
  • 3篇清华大学
  • 1篇北京交通大学
  • 1篇青海省气象台
  • 1篇青海师范大学

作者

  • 23篇黄建强
  • 18篇王晓英
  • 11篇曹腾飞
  • 8篇吴利
  • 4篇孟永伟
  • 2篇刘志强
  • 1篇王瑞
  • 1篇管琴
  • 1篇刘晓静
  • 1篇赵海兴
  • 1篇郜帅
  • 1篇郭文静
  • 1篇张玉安

传媒

  • 4篇计算机工程
  • 4篇实验技术与管...
  • 3篇电子技术应用
  • 3篇计算机应用
  • 2篇实验室研究与...
  • 1篇小型微型计算...
  • 1篇中文信息学报
  • 1篇郑州大学学报...
  • 1篇计算机教育
  • 1篇计算机技术与...
  • 1篇网络与信息安...
  • 1篇青海大学学报

年份

  • 6篇2023
  • 9篇2022
  • 1篇2021
  • 1篇2016
  • 3篇2015
  • 3篇2014
23 条 记 录,以下是 1-10
排序方式:
面向图计算内存系统的实现与拓展
2022年
图计算系统是处理大规模图数据的重要工具,在城市交通规划、社交网络分析、消费统计等领域都具有重要意义。针对传统的图计算算法无法高效处理大规模图数据与普通用户难以实现并行算法等问题,文中实现了多个并行图计算接口,使用push和pull的混合计算模型,拓展了原子操作,并基于Ligra图计算系统实现深度优先搜索及子图匹配算法。拓展后的并行图计算算法比传统的图计算算法提速1000倍左右。
刘令斌任龙黄建强黄东强
关键词:CPU并行计算
西部高校计算机网络实验被引量:14
2015年
针对青海大学计算机网络实验室的发展现状和教学特点,首先对网络实验室的教学拓扑环境进行了介绍,然后以交换机的VLAN配置、静态路由以及动态路由配置等相关实验为背景进行探讨,对每一种实验都给出了详细的设计方法和配置命令,并对实验结果进行了验证和分析。实验证明,通过这三种具体的网络实验的设计和验证,学生能够更好地了解网络设备、理解网络实验原理以及巩固理论教学的内容,该方法在计算机网络课程的实验教学中取得了良好的效果。
曹腾飞孟永伟黄建强王晓英
关键词:西部高校网络实验室实验教学
C语言程序设计课程思政教学探索被引量:14
2022年
针对课程思政教学的重要意义和方向,分析C语言程序设计课程中融合课程思政的难点,提出C语言程序设计课程与课程思政的融合策略,从教师层面、教学目标层面和教学内容层面介绍课程思政教学过程,结合青海省特色探讨高校如何结合自身特点开展课程思政教学。
王蕊黄建强
关键词:C语言程序设计逻辑思维家国情怀
车联网中基于攻防博弈的蜜罐防御及传输策略
2022年
随着车联网的快速发展,服务提供商通过将5G基站型路侧单元(RSU,road side unit)部署在靠近车辆的位置,能够迅速为车辆用户提供缓存服务。然而,由于恶意攻击者的存在,其通过控制基站获取权限使基站变为恶意基站,达到身份伪造攻击的目的,并以恶意基站的名义发送消息干扰车辆与可信基站之间的通信链路,容易造成严重的行车安全问题。提出了车联网中基于攻防博弈的蜜罐防御及传输策略,通过部署蜜罐基站混淆攻击者,从而降低车联网中身份伪造攻击的风险,提高车联网数据传输的可靠性。将车联网场景中可信基站与恶意基站之间的交互问题建模为攻防博弈模型,在此基础上可信基站与蜜罐基站联合作为防守方来抵御恶意攻击。可信基站和恶意基站作为攻防博弈双方选择各自相应的策略,构建双方效益函数模型,并结合车辆时延反馈机制,防守方与恶意基站动态调整各自策略。通过调整蜜罐基站与车辆的交互性和IP随机化程度,使防守方的整体效益得到有效提升,并利用混合策略纳什均衡理论得出最优解。大量的仿真实验结果表明,所提出的策略能够在恶意攻击者存在的情况下,提高车联网服务的安全传输性能,对比无蜜罐防御方案,防守方期望效益提升了48.9%,数据传输时延降低了57.1%。
易杰曹腾飞郜帅黄建强
关键词:车联网博弈论
基于GPU的稀疏深度神经网络性能优化
2023年
随着神经网络层数不断加深,稀疏深度神经网络在计算与存储空间上更具优势,但稀疏深度神经网络的性能仍然有待优化。为此提出基于GPU的稀疏深度神经网络性能优化方法,对于计算顺序进行调整,增强数据重用性,并结合GPU的独特结构与CUDA编程方法,通过预取等方法进一步提升性能。基于GraphChallenge官方提供的数据集,相较于cuSPARSE相关库函数,最高获得了2.5倍的性能加速。
石于诚黄建强边浩东吴利贾金芳王晓英
关键词:稀疏化异构平台
Hadoop集群部署实验的设计与实现被引量:20
2015年
阐述了Hadoop软件框架中的两大核心技术——HDFS分布式文件系统架构和MapReduce分布式处理机制,设计了Hadoop集群部署实验的具体方案,主要包括实验目的、实验区域的划分、节点的规划等,并且以一组实验设备为例,详细说明了配置方法,给出了实现过程。通过该实验能够让学生从理论和实践上掌握Hadoop有关的技术知识。
孟永伟黄建强曹腾飞王晓英
关键词:HADOOP集群部署HDFSMAPREDUCE
青海大学三江源数据分析中心高性能计算集群的构建与设备管理被引量:5
2014年
青海大学三江源数据分析中心的主要设备是由128个节点、采用10GB InfiniBand网络进行互连组成的高性能计算集群系统,峰值计算速度达1.331万亿次/秒。作为校内主要的科技服务平台之一,将为盐湖化工、材料科学、计算机科学与技术、机械电子、生命科学、自动化、农业工程等多个学科以及科研创新平台提供的高性能计算环境。从基础环境的建设、集群的构建、设备管理、开放服务等方面对数据分析中心做了概述,为高性能计算集群的系统管理与维护人员提供有价值的参考。
黄建强孟永伟曹腾飞王晓英
关键词:集群构建
基于CPU与GPU的异构模板计算优化研究被引量:1
2023年
模板计算是一类使用固定模板的算法,被广泛应用于图像处理、计算流体动力学模拟等领域,现有的模板计算存在计算并行度弱、缓存命中率低、无法充分利用计算资源等问题。在消息传递接口(MPI)计算模型和跨平台多线程(OpenMP)计算模型的基础上提出MPI+OpenMP、统一计算设备架构(CUDA)+OpenMP两种混合计算模型。相较于常规的MPI计算模型,MPI+OpenMP计算模型通过使用MPI进行多节点之间的粗粒度通信,使用OpenMP实现进程内部的细粒度并行计算,并结合单指令多数据、非一致内存访问、数据预取、数据分块等技术,提高模板计算过程中的缓存命中率与计算并行能力,加快计算速度。在只采用CUDA进行模板计算时,CPU的计算资源没有得到充分利用,浪费了大量计算资源,CUDA+OpenMP计算模型通过对计算任务的负载划分让CPU也参与到计算中,以减少通信开销及充分利用CPU的多核并行计算能力。实验结果表明,OpenMP+MPI计算模型相较于MPI计算模型的平均加速比为3.67,CUDA+OpenMP计算模型相较于CUDA计算模型的平均加速比为1.26,OpenMP+MPI和CUDA+OpenMP两种计算模型的性能均得到了显著提升。
李博黄东强贾金芳吴利王晓英黄建强
关键词:消息传递接口单指令多数据统一计算设备架构
GRAPES动力框架中大规模稀疏线性系统并行求解及优化被引量:2
2022年
赫姆霍兹方程求解是GRAPES数值天气预报系统动力框架中的核心部分,可转换为大规模稀疏线性系统的求解问题,但受限于硬件资源和数据规模,其求解效率成为限制系统计算性能提升的瓶颈。分别通过MPI、MPI+OpenMP、CUDA三种并行方式实现求解大规模稀疏线性方程组的广义共轭余差法,并利用不完全分解LU预处理子(ILU)优化系数矩阵的条件数,加快迭代法收敛。在CPU并行方案中,MPI负责进程间粗粒度并行和通信,OpenMP结合共享内存实现进程内部的细粒度并行,而在GPU并行方案中,CUDA模型采用数据传输、访存合并及共享存储器方面的优化措施。实验结果表明,通过预处理优化减少迭代次数对计算性能提升明显,MPI+OpenMP混合并行优化较MPI并行优化性能提高约35%,CUDA并行优化较MPI+OpenMP混合并行优化性能提高约50%,优化性能最佳。
张琨贾金芳严文昕黄建强王晓英
关键词:统一计算架构
基于CPU+GPU异构并行的广义共轭余差算法性能优化被引量:2
2022年
为了提高GRAPES数值天气预报模式的计算效率,改善动力框架部分的性能,针对广义共轭余差算法(GCR)求解赫姆霍兹方程在GRAPES模式中耗时较大的问题,提出了一种基于CPU+GPU异构并行的预处理广义共轭余差算法。采用不完全LU分解对系数矩阵进行预处理来减少迭代次数,在此基础上实现了OpenMP的细粒度并行和MPI粗粒度并行,OpenMP并行主要是采用循环展开的方式对程序中无数据依赖的循环体使用编译制导来提高程序的性能;MPI并行主要是将数据划分给各个进程,采用非阻塞通信和优化进程通信数据量的方式来提高并行程序的可拓展性。实现了MPI+CUDA异构并行,MPI负责节点间进程通信以及迭代控制,CUDA负责处理计算密集型任务,将GCR中耗时较大的矩阵计算部分移植到GPU上处理,采用访存优化和数据传输优化来减少CPU和GPU间的数据传输开销。实验结果表明:与串行程序相比,OpenMP并行加速比为2.24,MPI并行加速比为3.32,MPI+CUDA异构并行加速比为4.69,实现了异构平台上的广义共轭余差算法性能优化,提高了程序的计算效率。
黄东强黄建强贾金芳吴利刘令斌王晓英
关键词:GRAPESGPU
共3页<123>
聚类工具0