AET主站

" 高性能计算"的相关文章

《电子技术应用》编辑部 聚合所有相关的文章

摘要:采用标准0.18 μm工艺,设计了一种能改变抽取率并且适应不同信号带宽的应用于Sigma-Delta模数转换器的数字抽取滤波器。该滤波器采用多级抽取,由级联积分梳状滤波器、补偿滤波器和半带滤波器组成。实现的数字滤波器抽取率可以在64、128、256、512中变化,并且补偿滤波器和半带滤波器的带宽可调整。滤波器版图尺寸0.6 mm×0.6 mm。在1.98 V工作电压下,最大总功耗约为2 mW,最高信噪比达到110.5 dB。当补偿滤波器和半带滤波器的通带截止频率根据带宽选择从最高降到最低时,可分别节省56%和39%的功耗;当滤波器功耗降至最小69.63 μW时,所能处理的带宽为390.6 Hz,信噪比为107.8 dB。

摘要:针对缺乏支撑区域多能源系统数字孪生动态规划、运行优化等上层应用接入、管理和运行的高性能平台的现状,考虑到数字孪生应用对通信效率、数据安全的要求,借助CloudPSS云仿真平台设计了包含基础层、应用层、业务层的安全、灵活、可扩展的数字孪生应用平台的软硬件;并以贵州红枫湖区域多能源系统为试点区域,介绍了包括建模仿真、数据通信和应用集成功能的区域多能源系统数字孪生应用平台的构建过程。所构建的区域多能源系统数字孪生应用平台作为数字孪生从概念到应用的理想实现工具,其架构设计方案与具体构建经验可为数字孪生技术的广泛落地提供理论和实践参考。

摘要:准确的宽频带阻抗测量是发现和解决未来双高电力系统稳定性问题的重要基础,但直接向电力系统注入谐波进行测量可能会带来失稳的风险,而基于半实物仿真技术可以以较低的成本与风险实现较为准确的宽频带阻抗测量。实时仿真器的计算性能和仿真规模取决于目标计算机的计算能力,仿真精度与规模顾此失彼,难以兼顾,并且随着电力系统仿真规模要求的不断提高,单一的实时仿真系统越来越难以满足大规模仿真的要求。使用多个实时仿真器协同进行联合仿真,是提高仿真规模的有效途径。首先构建了基于CloudPSS-RT和RT-Lab联合实时仿真平台的在线阻抗分析装置,并通过构建光伏与双馈风力发电系统,验证了在线阻抗分析装置的准确性和有效性。

摘要:Redis是一个基于内存存储的非结构化数据库,以高I/O(Input/Output)性能和高响应速度著称,在数据缓冲、消息队列、Key-Value存储等场景都发挥着重要的作用。在其支持的众多客户端中,C/C++客户端Hiredis的应用尤为广泛。对Hiredis库做了深入分析,发现了其管道功能存在高开销、指令存储不当以及内存混淆问题。基于此,在32逻辑核的X86架构处理器以及64 GB内存的Linux服务器上,设计并实现了一个面向C/C++的高性能高可用Redis客户端,通过内存预分配以及内存隔离的方法提高了大量指令批处理时的性能并解决了复杂场景下的内存混淆问题。经测试,新客户端提高了3~7倍的指令执行效率,同时也保证了复杂场景下的内存安全以及数据准确性。

摘要:新一代全球/区域多尺度统一的同化与数值预报系统Global/Regional Assimilation and PreEdiction System(GRAPES)是中国气象局(China Meteorological Administration,CMA)自主研发的数值天气预报软件。随着对模式分辨率和预测时效性要求的提高,GRAPES的输入输出(I/O)性能成为了一个重要的瓶颈。分析了GRAPES区域模式的I/O行为,提出并设计实现了一个高性能I/O框架。该框架采用二进制编码以及多I/O通道技术实现了灵活可配置的输出方式。同时,通过非堵塞通信的方式实现了异步I/O,隐藏了I/O与通信的开销。工作在曙光“派”超级计算机上进行了测试,结果显示该框架不仅可以提高I/O性能达到10倍以上,也可以减少性能抖动带来的性能不确定性问题。

摘要:区域气候模式CWRF(Climate-Weather Research and Forecasting model)是国家气候中心区域气候预测系统的重要组成部分,也是系统最耗时的程序。高性能计算是提高CWRF数值预报计算性能的关键技术,开展CWRF模式在国产神威众核架构上的移植和优化,提高模式的模拟效率,对模式的扩展、开发能力和可持续发展具有重要意义。基于国产众核SW26010处理器,完成了CWRF区域气候模式的移植、性能分析和深入性能优化,采用访存优化、Cache命中率优化及众核加速优化等方法,对CWRF模式动力过程、物理过程和I/O过程计算代码进行重构及众核加速。结果表明:优化技术可使CWRF动力过程平均加速2倍,最高加速6.4倍,物理过程平均加速1.7倍,最高加速5.4倍,I/O过程加速1.2倍,程序整体最高加速1.4倍,计算误差在合理范围内。

摘要:通用地球系统模式(Community Earth System Model,CESM)是一种定量描述气候系统模式变化的数值模式,庞大的科学计算体量已使其成为高性能计算领域的重要研究对象之一。CESM各个气象子模块及组件之间的负载不均衡问题使其计算性能一直不理想,且由于其可用的进程布局方案本身的多样性会导致的巨大检索量,因此通过人工调参用枚举寻找最优布局本身并不现实。为解决这个问题,提出并实践了一种基于矩阵嵌套思想的负载平衡优化方案检索策略帮助完成进程布局优化过程,并介入基于模式并行要求的筛查保证检索结果具有可行性,最终通过实验证明通过这种检索策略搜索获得的最优布局与默认布局相比平均计算性能提升达到47.3%,并在5个节点上实现了1.419的加速比。

摘要:传统的排序方法主要以软件串行的方式实现,包括冒泡排序、选择排序等。这些算法往往采用顺序比较,运算的时间复杂度较高。近年来已经提出了一些并行度较高的排序算法,但是由于CPU的硬件特点,不能很好地利用这些算法的并行性。而FPGA具有良好的灵活性、并行性和集成性等特点,因此在FPGA上可以更好地发挥这些并行算法的优势,从而大大提高数据排序的实时性。基于此设计了一个CPU-FPGA异构系统,将一些排序算法移植到FPGA上,并进行功能验证和理论性能评估。结果显示,该系统对于并行性高的排序算法具有良好的加速效果,但逻辑资源消耗巨大,适用于实时性要求高的算法加速场景。

摘要:传统的CORDIC(坐标旋转计算机)算法进行高精度反正切求解时存在迭代次数多、收敛速度慢、资源消耗大等问题,提出一种改进的高精度CORDIC 算法。该方法利用传统的CORDIC算法迭代数次后得到正弦信息,并利用角度和正弦值近似的原理,对迭代后的结果进行误差补偿,有效提高了相同迭代步数下的计算精度。实验数据表明:32位改进的CORDIC算法,保证绝对误差小于5×10-9情况下,查找表资源消耗降低了64.8%,触发器资源消耗降低了35.3%,输出时延降低了53.3%。在分子动力学应用场景下,触发器资源消耗可降低63.2%,输出时延可降低60%。改进的CORDIC算法在资源消耗、输出时延方面优于传统CORDIC算法,适用于高精度计算的场景。

摘要:数模混合仿真是理解真实电网运行情况,支撑电网安全保障的重要手段。复杂的电网拓扑与硬实时的仿真需求对其计算性能提出了很高的要求。目前数模混合仿真多采用并行计算技术提高计算性能。随着处理器和集群技术的发展,异构集群系统逐渐成为高性能计算系统的主要构建方式。针对多层次的系统架构,已有的电网划分方式无法充分利用集群计算能力。如何应对多层次核间通信延迟变化问题,及引入设备交互导致的节点资源不对称问题是数模混合仿真任务划分与映射的新挑战。针对中国电力科学研究院自研电磁暂态仿真系统ADPSS,基于最小割划分设计了两阶段的电网划分与进程映射一体化优化算法,在计算负载均衡和最小化通信上取得更好的平衡,进一步降低了电磁暂态仿真的通信时间。同时,该算法有效解决了集群节点资源不对称情况下的任务优化映射问题。通过在西北和华东真实电网算例上的模拟测试,所提出算法较ADPSS默认划分与映射算法取得了平均40%和50%的通信性能提升,平均10%和12%的总体计算性能提升。