您的位置: 专家智库 > >

国家重点基础研究发展计划(2012CB316502)

作品数:10 被引量:42H指数:4
相关作者:孙凝晖霍志刚邢晶马捷卜东波更多>>
相关机构:中国科学院中国科学院大学国家互联网应急中心更多>>
发文基金:国家重点基础研究发展计划国家自然科学基金国家高技术研究发展计划更多>>
相关领域:自动化与计算机技术生物学更多>>

文献类型

  • 10篇中文期刊文章

领域

  • 9篇自动化与计算...
  • 1篇生物学

主题

  • 3篇机群
  • 2篇生物信息
  • 2篇生物信息学
  • 2篇数据放置
  • 2篇机群文件系统
  • 2篇海量
  • 2篇高通量
  • 2篇高通量测序
  • 2篇测序
  • 1篇单粒子
  • 1篇蛋白
  • 1篇蛋白质
  • 1篇蛋白质结构
  • 1篇定制
  • 1篇动态规划
  • 1篇多核
  • 1篇多核机群
  • 1篇应用程序
  • 1篇应用程序编程...
  • 1篇阵列

机构

  • 9篇中国科学院
  • 8篇中国科学院大...
  • 1篇北京大学
  • 1篇中国疾病预防...
  • 1篇国家互联网应...

作者

  • 4篇孙凝晖
  • 3篇霍志刚
  • 3篇马捷
  • 3篇邢晶
  • 2篇卜东波
  • 2篇张佩珩
  • 2篇张春明
  • 2篇汤文
  • 2篇谭光明
  • 1篇段勃
  • 1篇赵喜全
  • 1篇王文迪
  • 1篇安学军
  • 1篇熊劲
  • 1篇刘厚贵
  • 1篇郑伟谋
  • 1篇邓明华
  • 1篇吕慧伟
  • 1篇周杨
  • 1篇刘兴武

传媒

  • 5篇计算机研究与...
  • 2篇计算机学报
  • 1篇计算机工程与...
  • 1篇高技术通讯
  • 1篇High T...

年份

  • 2篇2018
  • 1篇2015
  • 2篇2014
  • 5篇2013
10 条 记 录,以下是 1-10
排序方式:
基于定制协处理器的基因重测序加速技术研究
2014年
自2008年1月高通量测序技术应用以来,测序的通量和成本都在不断下降.然而基因数据的爆发式增长速度已经超过了摩尔定律,对海量数据的计算处理能力成为制约基因测序应用推广的瓶颈.以基于Hash索引的重测序算法为目标,对计算和访存行为进行分析,从而提出了一个现场可编程门阵列(field programmable gate array,FPGA)作为协处理器的架构,并在Convey公司的HC-1ex平台上进行了设计与实现.其基本处理单元内部采用全流水的设计及FIFO隔离计算模块和访存模块,可以完整执行重测序算法的核心流程.通过将基本处理单元和访存端口的一对一绑定,在4块Xilinx Virtex-6LX760上实现了64路并行处理流程,总平均读内存带宽可达22.59GBps.与8核Intel Xeon处理器相比,可以提升28.5倍的性能.
汤文张春明谭光明张佩珩孙凝晖
关键词:高通量测序技术现场可编程门阵列
一种支持海量数据备份的可扩展分布式重复数据删除系统被引量:5
2013年
现代信息化社会中,数据的爆炸式增长使得存储和管理数据的成本越来越高,数据备份和恢复的时间越来越长,数据中心的能耗越来越严重.重复数据删除技术在缓解数据的高速增长和节约成本方面有很好的应用前景.然而面对日益增长的海量数据,重复数据删除技术需要在数据路由和指纹查询方面提供高可扩展的支持.对于数据路由,提出了基于分布式布隆过滤器(Bloom Filter)的有状态数据路由技术:拆分Bloom Filter并将其分布于多节点并发管理,可以在提高数据路由的扩展性同时降低其通信开销.对于去重节点内的指纹查询,提出了基于取样机制的指纹查询优化方法:通过可扩展Hash结构组织海量取样指纹信息,并根据取样指纹的时间局部性原理对指纹缓存进行管理.为了对研究工作进行评价,设计并实现了分布式重复数据删除系统3D-deduper(distributed data deduplication system),并进行了数据路由和去重性能相关的测试.实验结果表明,基于分布式布隆过滤器的数据路由技术能够使得分布式重复数据删除系统维持与单节点重复数据删除系统相当的去重率,波动低于5%.在取样查询方面,数据去重率在取样率为1?32时仍能达到非取样重复数据删除系统数据去重率的95%以上.在去重性能方面,单节点去重带宽最高可达到200MBps.在节点扩展时,去重带宽仍能保持近似线性的扩展性.
刘厚贵邢晶霍志刚安学军
关键词:重复数据删除
一种支持EB级存储的可扩展存储空间管理方法被引量:1
2013年
随着海量数据应用的增多,机群文件系统需要具备对PB甚至EB级存储空间进行管理的能力.受数据位置信息维护方法的限制,在面对需要管理的百亿甚至万亿个对象时,对象存储服务器在数据定位、负载均衡和复本维护方面均存在可扩展处理的问题.为了满足日益增长的存储需求,提出了一种可扩展的存储空间管理方法.首先,该方法将存储空间中的对象位置信息通过Extendible Hashing以两级索引结构的方式进行组织,以此来支持对海量对象位置信息的扩展性管理;其次,该方法依靠对象位置信息在多服务器的分布结果来放置对象,文件系统能通过对索引结构的调整以较低开销实现负载均衡;最后,该方法以数据位置信息组织的索引结构为粒度进行复本维护以降低复本位置信息的维护开销.实验评测表明,存储空间管理方法能够支持海量数据的高效管理.在负载均衡方法的作用下,多存储服务器的I/O聚合带宽因负载均衡而能够取得10%的提升.相比Lustre和DCFS3,该系统在多客户端并发访问环境下具有更好的扩展性能.
邢晶熊劲孙凝晖马捷
关键词:机群文件系统海量存储数据放置数据定位
蛋白质三级结构预测算法综述被引量:13
2018年
了解蛋白质的三维结构对于认识蛋白质的功能有着重要意义.由于蛋白质结构测定的速度远远跟不上蛋白质序列测定的速度,因此使用计算技术依据蛋白质序列预测结构成为结构测定的有力补充.该文首先总结了蛋白质结构预测的3类基本方法,包括基于序列-序列联配的同源建模法、基于序列-结构联配的归范法以及基于最小化能量函数的从头预测法,并分析了其中的关键技术;进而总结了有代表性的蛋白质结构预测软件工具,然后通过对蛋白质结构预测CASP比赛结果的分析比较了各种方法的性能,并获得了如下结论:当待预测蛋白质与模板蛋白质序列等同度超过30%时,同源建模法能够产生高质量的预测结果,归范法中的远同源检测以及从头预测法中的能量函数设计是尚待突破的关键点;最后,该文总结分析了未来的发展趋势,并阐释了强序列信号"绑架"蛋白质构象生成的观点,即从整体来说,蛋白质序列与结构的关联关系并不显著,但其中某些特定的局部序列片段具有非常强的结构倾向性,这些强信号区域引导蛋白质的折叠过程,对这些强信号区域的认识将会有助于提升蛋白质结构预测算法的性能.
王超朱建伟朱建伟巩海娥张海仓卜东波
关键词:蛋白质结构同源建模能量函数动态规划线性规划
Single-particle 3D reconstruction on specialized stream architecture and comparison with GPGPUs
2014年
The wide acceptance and data deluge in medical imaging processing require faster and more efficient systems to be built.Due to the advances in heterogeneous architectures recently,there has been a resurgence in the first research aimed at FPGA-based as well as GPGPU-based accelerator design.This paper quantitatively analyzes the workload,computational intensity and memory performance of a single-particle 3D reconstruction application,called EMAN,and parallelizes it on CUDA GPGPU architectures and decouples the memory operations from the computing flow and orchestrates the thread-data mapping to reduce the overhead of off-chip memory operations.Then it exploits the trend towards FPGA-based accelerator design,which is achieved by offloading computingintensive kernels to dedicated hardware modules.Furthermore,a customized memory subsystem is also designed to facilitate the decoupling and optimization of computing dominated data access patterns.This paper evaluates the proposed accelerator design strategies by comparing it with a parallelized program on a 4-cores CPU.The CUDA version on a GTX480 shows a speedup of about 6 times.The performance of the stream architecture implemented on a Xilinx Virtex LX330 FPGA is justified by the reported speedup of 2.54 times.Meanwhile,measured in terms of power efficiency,the FPGA-based accelerator outperforms a 4-cores CPU and a GTX480 by 7.3 times and 3.4 times,respectively.
段勃Wang WendiTan GuangmingMeng Dan
关键词:单粒子三维重建外存储器数据访问模式
KSI:面向TB级别的DNA序列匹配软件库被引量:1
2015年
为了满足对不同物种进行DNA序列分析的需求和适应DNA序列数据的快速增长,针对目前DNA序列分析软件大都各自实现一套序列存储和查询功能,工作重复且没有考虑并行性、扩展性和分布式系统或环境的缺陷,基于DNA序列分析的基本操作k-mer匹配,设计并实现了一个面向TB量级的DNA序列匹配软件库——k-mer查找接口(KSI)。KSI提供了一套分布式环境下的编程接口,并且针对生物计算领域的DNA序列匹配进行优化。实验显示,KSI为DNA序列匹配提供了一个高效的解决方案。
赵喜全李旭吕慧伟谭光明
关键词:生物信息学应用程序编程接口
基于Hash索引的高通量基因序列比对并行加速技术研究被引量:4
2013年
近年来随着高通量基因测序技术的迅速发展,测序成本和周期都得到了大幅降低.然而,新一代测序技术海量数据生成能力以及各类测序算法蕴含的高并发性却对现有计算机的运算能力提出了新挑战.以一个基于Hash索引算法实现的开源重测序程序(PerM)为例,研究了在商用多核CPU上加速该应用程序的关键技术.在一个64核SMP系统上的实验结果证明,提出的优化技术可以使Cache缺失率降低90%,性能提升4~11倍.接下来探讨了在一个包含XilinxLX330FPGA的加速卡上设计实现专用并行加速系统的相关问题.作为原型验证系统,在基于FPGA的PCIe加速卡上设计并实现了包含11个处理单元的脉动陈列并行计算系统.和IntelXeonX75508核CPU相比,提出的并行加速器有30~65倍性能功耗比优势.
王文迪汤文段勃张春明张佩珩孙凝晖
关键词:生物信息学高通量测序FPGA
复杂网络上疾病传播溯源算法综述被引量:16
2018年
流感、肺结核等呼吸道传染病严重威胁人类的健康,因此当疫情爆发时,快速、准确地推断疾病起源,对于疾病防控具有重要的理论意义和应用价值.和社交网络上的谣言传播以及计算机网络上的病毒传播不同,呼吸道疾病依赖于人际物理接触,而且具有更为复杂的疾病传播模型.在该篇综述里,作者首先介绍了人际接触网络、疾病传播模型和疾病传播溯源问题的形式化定义,以及溯源问题在传播时间、快照覆盖程度、传播源数量和传播源候选节点这四个层面上的推广,给出了溯源算法的评价指标(准确率和错误距离)和基于贝叶斯极大似然估计的设计脉络;然后分别分析了现有的溯源算法,包括基于传染源中心性的算法、基于置信传播的算法、基于蒙特卡洛的算法以及基于最小描述长度的算法.在这四类算法中,基于传染源中心性的算法最多,使用了包括传播中心性、Jordan中心性、动态年龄和无偏中介中心性共4种中心性指标,并且基于传播中心性和Jordan中心性的算法被推广到更为一般的情形,如多个传播源、快照信息不完全等.作者分别在四种理想网络和两种真实人际接触网络下,实现并比较了常用溯源算法的性能.评估结果(包括准确率、错误距离、运行时间)表明:(1)溯源算法普遍对网络结构较为敏感;(2)多数算法对疾病传播参数具有鲁棒性;(3)相对于其他算法而言,动态消息传递算法尽管耗时几乎最长,但具有最高的准确度;(4)在耗时较短的算法中,无偏中介中心性具有相对较小的误差距离.根据实验结果,根据不同的使用场景推荐了不同的算法:(1)当运行时间不重要时,推荐动态消息传递算法;(2)相反,当希望快速溯源时,应该考虑基于无偏中介中心性的算法,当网络是随机树时,Jordan中心估计算法更优;(3)反向贪心算法和动态年龄算法分别在随机网络和无标度网络上兼�
黄春林刘兴武邓明华周杨周杨
关键词:复杂网络极大似然
面向海量数据存储的Erasure-Code分布式文件系统I/O优化方法
2013年
随着海量数据的快速膨胀,机群文件系统的存储方式正在逐步从复本向Erasure Code过渡。Erasure Code存储能够以更低的存储开销提供更高的可靠性。然而,由于Erasure Code存储需要通过编码生成编码数据,在存储原始数据和编码数据过程中更容易产生磁盘争用和不均衡负载,从而影响整个存储系统的I/O性能;同时,Erasure Code存储写回编码数据时,数据一致性和数据缓存之间存在冲突,传统处理数据的无缓存方式和全缓存方式在机群文件系统中都存在很大的局限性。针对这两个问题,提出了一种包括均衡负载的数据放置策略和编码缓存的一致性维护策略的Erasure Code机群文件系统I/O优化方法。通过在开发的Erasure Code分布式文件系统ECFS的实验测试表明,使用这种优化方法后机群文件系统的聚合带宽能够提高95.53%。
严林邢晶霍志刚马捷
关键词:机群文件系统数据放置
MPI Alltoall通信在多核机群中的优化被引量:2
2013年
MPI Alltoall是一种重要的集合通信.在多核机群中,一个节点内的多个进程同时参与Alltoall通信.一方面,这些进程可以利用共享内存优化通信性能.虽然当前基于首进程的方法利用共享内存提高了Alltoall小消息通信的性能,但由于采用固定数目的首进程,这些方法不能使所有不同长度的小消息都获得最优性能.另一方面,这些进程需要竞争节点内有限的网络资源.在Alltoall大消息的通信中存在许多个同步消息.然而竞争导致同步消息的延迟增大了数十倍,同步开销不可忽略.针对这些问题,提出了两种不同的优化方法.对于Alltoall小消息通信,PLP方法根据小消息的长度采用不同数目的首进程;对于Alltoall大消息通信,LSS方法将同步消息的总数从3N减少到2N(1/2).相关实验结果验证了这两种方法.对于小消息,PLP方法总是可以获得最优的性能.对于大消息,LSS方法获得的性能提升比例几乎为常数,并且与系统的规模无关;其中32KB和64KB消息的性能提高了25%.
李强孙凝晖霍志刚马捷
关键词:共享
共1页<1>
聚类工具0