说明:双击或选中下面任意单词,将显示该词的音标、读音、翻译等;选中中文或多个词,将显示翻译。
您的位置:首页 -> 词典 -> 缓存机制
1)  cache mechanism
缓存机制
1.
Query optimization technology is analyzed and at the same time an idea is presented that cache mechanism is introduced in ROLAP designing and applying,enhancing ROLAP query performance much more.
给出ROLAP的体系结构,研究了改进ROLAP系统性能的若干方法,如实视图技术、索引技术以及并行处理技术,重点分析了如何在SQL生成器中处理查询优化,并提出在ROLAP设计和应用中引入缓存机制,进一步提高ROLAP系统的查询性能。
2.
Effective cache mechanism can avoid round trip time to database, avoid calculations which occupying much time, save server resource, as well as improving the response time and waiting time.
利用有效的缓存机制,可以避免到数据库的网络往返时间,绕过占用很多资源的计算,并节省服务器资源,同时改善响应时间和等待时间。
3.
The cache mechanism based on XML improves the response efficiency,implements the optimization of query.
设计了一个基于XML的缓存机制,有效地实现了查询优化,提高了系统的响应效率。
2)  Caching Mechanism
缓存机制
1.
Design and Implementation of Key Modules and Caching Mechanism for VAP;
语音增值业务平台中关键模块及缓存机制的设计与实现
2.
Methods From three respects: topology construction,scheduling mechanism and caching mechanism,the key techniques of P2P streaming media systems are summarized,including peer selection algorithm,peer location algorithm,data scheduling algorithm,cache replacement algorithm,relaying and pre-fetching algorithm.
从拓扑构建、调度策略、缓存机制三个方面总结P2P流媒体系统涉及的节点选择算法、节点定位方法、数据调度算法、缓存的替换和中继算法等关键技术,分析其存在的问题,指出P2P流媒体关键技术的未来研究方向。
3.
The system manages user access infor-mation centrally for multiple business systems and realizes the function of Single Sign-on and takes advantage of caching mechanism to reduce interaction with the database to significantly improve the performance of the system.
该认证授权系统对多个业务系统的用户的权限信息进行统一管理,实现了单一登录,并利用缓存机制,减少了在系统认证鉴权过程中对数据库的频繁访问,从而显著的改善了系统的性能。
3)  Cache [英][kæʃ]  [美][kæʃ]
缓存机制
1.
Application of Map Cache Mechanism Based on the Distributed WebGIS;
0-IMS搜索引擎版,针对面向公众电子地图应用的分布式WebGIS的地图缓存机制展开了相应的研究,并通过实验进行验证。
4)  dual-cache mechanism
双缓存机制
1.
This paper gives an integrated strategy to access distributed spatial data sets based on the dual-cache mechanism,and presents the corresponding data structure.
针对此问题,本文提出了一种基于双缓存机制的分布式空间数据集成访问策略,给出了双缓存机制的控制数据结构,讨论了空间数据集成访问策略和针对WebGIS数据特点的缓存替换策略。
5)  distributed cache mechanism
分布式缓存机制
1.
because traditional logistics decision support system(LDSS) is hard to meet with the vast logistics data,logistics decision support system for multimodal transportation based on distributed cache mechanism and data warehouse is proposed,the process flow and effective cache replacing algorithm are designed.
为解决业务数据量的不断增加导致传统物流决策支持系统很难满足企业要求的问题,提出了基于分布式缓存机制与数据仓库的多式联运物流决策支持系统结构,给出了系统的工作流程,并且设计了高效缓存替换算法。
6)  multilevel memorizer
多级缓存机制
补充资料:CPU缓存
CPU缓存(CacheMemory)是位于CPU与内存之间的临时存储器,它的容量比内存小的多但是交换速度却比内存要快得多。缓存的出现主要是为了解决CPU运算速度与内存读写速度不匹配的矛盾,因为CPU运算速度要比内存读写速度快很多,这样会使CPU花费很长时间等待数据到来或把数据写入内存。在缓存中的数据是内存中的一小部分,但这一小部分是短时间内CPU即将访问的,当CPU调用大量数据时,就可避开内存直接从缓存中调用,从而加快读取速度。由此可见,在CPU中加入缓存是一种高效的解决方案,这样整个内存储器(缓存内存)就变成了既有缓存的高速度,又有内存的大容量的存储系统了。缓存对CPU的性能影响很大,主要是因为CPU的数据交换顺序和CPU与缓存间的带宽引起的。

缓存的工作原理是当CPU要读取一个数据时,首先从缓存中查找,如果找到就立即读取并送给CPU处理;如果没有找到,就用相对慢的速度从内存中读取并送给CPU处理,同时把这个数据所在的数据块调入缓存中,可以使得以后对整块数据的读取都从缓存中进行,不必再调用内存。

正是这样的读取机制使CPU读取缓存的命中率非常高(大多数CPU可达90左右),也就是说CPU下一次要读取的数据90都在缓存中,只有大约10需要从内存读取。这大大节省了CPU直接读取内存的时间,也使CPU读取数据时基本无需等待。总的来说,CPU读取数据的顺序是先缓存后内存。

目前缓存基本上都是采用SRAM存储器,SRAM是英文StaticRAM的缩写,它是一种具有静志存取功能的存储器,不需要刷新电路即能保存它内部存储的数据。不像DRAM内存那样需要刷新电路,每隔一段时间,固定要对DRAM刷新充电一次,否则内部的数据即会消失,因此SRAM具有较高的性能,但是SRAM也有它的缺点,即它的集成度较低,相同容量的DRAM内存可以设计为较小的体积,但是SRAM却需要很大的体积,这也是目前不能将缓存容量做得太大的重要原因。它的特点归纳如下:优点是节能、速度快、不必配合内存刷新电路、可提高整体的工作效率,缺点是集成度低、相同的容量体积较大、而且价格较高,只能少量用于关键性系统以提高效率。

按照数据读取顺序和与CPU结合的紧密程度,CPU缓存可以分为一级缓存,二级缓存,部分高端CPU还具有三级缓存,每一级缓存中所储存的全部数据都是下一级缓存的一部分,这三种缓存的技术难度和制造成本是相对递减的,所以其容量也是相对递增的。当CPU要读取一个数据时,首先从一级缓存中查找,如果没有找到再从二级缓存中查找,如果还是没有就从三级缓存或内存中查找。一般来说,每级缓存的命中率大概都在80左右,也就是说全部数据量的80都可以在一级缓存中找到,只剩下20的总数据量才需要从二级缓存、三级缓存或内存中读取,由此可见一级缓存是整个CPU缓存架构中最为重要的部分。

一级缓存(Level1Cache)简称L1Cache,位于CPU内核的旁边,是与CPU结合最为紧密的CPU缓存,也是历史上最早出现的CPU缓存。由于一级缓存的技术难度和制造成本最高,提高容量所带来的技术难度增加和成本增加非常大,所带来的性能提升却不明显,性价比很低,而且现有的一级缓存的命中率已经很高,所以一级缓存是所有缓存中容量最小的,比二级缓存要小得多。

一般来说,一级缓存可以分为一级数据缓存(DataCache,D-Cache)和一级指令缓存(InstructionCache,I-Cache)。二者分别用来存放数据以及对执行这些数据的指令进行即时解码,而且两者可以同时被CPU访问,减少了争用Cache所造成的冲突,提高了处理器效能。目前大多数CPU的一级数据缓存和一级指令缓存具有相同的容量,例如AMD的AthlonXP就具有64KB的一级数据缓存和64KB的一级指令缓存,其一级缓存就以64KB64KB来表示,其余的CPU的一级缓存表示方法以此类推。
说明:补充资料仅用于学习参考,请勿用于其它任何用途。
参考词条