GPU平台下Cache模拟器加速的研究与实现

[复制链接]
查看: 340|回复: 0

2万

主题

3万

帖子

7万

积分

管理员

Rank: 9Rank: 9Rank: 9

积分
72345
发表于 2022-9-23 13:15:50 | 显示全部楼层 |阅读模式
目:


雅宝题库答案
****此区域为收费内容****    需支付 1 知识币后可查看,1币=0.01元查看答案


雅宝题库解析:
高速缓存Cache技术在当前的计算机系统中发挥着越来越重要的作用,Cache设计的优劣直接影响着计算机系统的整体性能。由于在开发成本、开发周期和扩展性方面的优势,软件Cache模拟器已经成为评估Cache设计优劣的重要手段,其中基于踪迹驱动(Trace-driven)的Cache模拟器应用最为广泛。传统的Trace-driven Cache模拟器通常是由CPU串行完成模拟操作,但随着Cache技术研究的深入,这种Cache串行模拟器已经不能满足科学研究和实际应用的要求。因此,通过改变传统的串行模拟方式来提高Trace-driven Cache模拟器的执行效率,对Cache体系结构的研究和应用具有重大意义。本文通过对Trace-driven Cache模拟中的并行性以及GPU并行模型的特性进行研究,实现了一个基于GPU-CUDA平台的单核单层Cache并行模拟器,相比于传统的CPU串行模拟器,实现了较好的加速效果。论文的主要工作包括:1.        CUDA并行模型与时间并行算法的映射方案设计:对CUDA平台中的计算模型和存储模型进行分析,并结合时间并行算法,提出了CUDA并行模拟与时间并行算法的映射设计方案,并基于映射方案设计和实现了基于GPU-CUDA的时间并行Cache模拟器。2.        时间并行算法的修正:通过对时间并行算法的核心思想和执行流程进行分析,发现时间并行算法在Cache模拟中存在无法得到正确的Tag末态,且存在Dirty状态丢失的题目,通过对题目产生原因进行研究,对时间并行算法进行修正,提出时间并行Tag末态修正算法和时间并行Dirty状态丢失修正算法,保证统计结果的正确性,并对时间并行Tag末态修正算法进行优化,提高了算法执行效率。3.        GPU-CUDA平台下Cache模拟器的优化:结合CUDA并行模型的特点,对时间并行模拟器设计方案的并行能力进行分析,找到影响模拟器性能的因素,并分别从存储空间、计算能力和函数并行角度对模拟器进行优化,提高模拟器的性能。4.        单核双层Cache时间并行模拟的预研:对双层Cache模拟的特点进行分析,给出了时间并行算法无法应用于双层Cache模拟的原因,提出了双层Cache分层独立模拟算法,并基于此模拟算法给出双层Cache模拟的解决方案。





上一篇:合金元素对金属Nb力学性质影响的第一性原理研究
下一篇:雨水积聚及侵蚀效果的实时绘制方法研究与实现
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

精彩课程推荐
|网站地图|网站地图