导航:首页 > 源码编译 > lru淘汰算法

lru淘汰算法

发布时间:2023-07-21 02:32:05

A. lru算法是什么

lru算法是一种常用的页面置换算法,选择最近最久未使用的页面予以淘汰。

该算法赋予每个页面一个访问字段,用来记录一个页面自上次被访问以来所经历的时间 t,当须淘汰一个页面时,选择现有页面中其 t 值最大的,即最近最少使用的页面予以淘汰。

特点:

LRU 置换算法虽然是一种比较好的算法,但要求系统有较多的支持硬件。为了了解一个进程在内存中的各个页面各有多少时间未被进程访问,以及如何快速地知道哪一页是最近最久未使用的页面,须有两类硬件之一的支持:寄存器或栈。

在进程运行过程中,若其所要访问的页面不在内存而需把它们调入内存,但内存已无空闲空间时,为了保证该进程能正常运行,系统必须从内存中调出一页程序或数据送磁盘的对换区中。

B. lru算法是什么呢

LRU算法是最少使用页面置换算法(Least Recently Used),首先置换近期最长时间以来没被访问的页面,是为虚拟页式存储管理服务的。

LRU算法的设计原则是:如果一个数据在最近一段时间没有被访问到,那么在将来它被访问的可能性也很小。也就是说,当限定的空间已存满数据时,应当把最久没有被访问到的数据淘汰。

LRU原理

该思想最初用于计算机操作系统中,内存中的容量较有限,为了能更加合理的利用内存中的性能,对用户的使用作出假设,最近最少使用的越不重要,最近使用的越有可能使用到,使得该元素更容易获取到。

如果元素当前容量超过了内存最大容量,则需要删除掉最近最少使用的元素。在其之后,许多缓存及许多分布式系统都采用才思想。

C. LRU 缓存淘汰算法

当要缓存某个数据的时候,先在链表中查找这个数据。如果没有找到,则直接将数据放到链表的尾部;如果找到了,我们就把它移动到链表的尾部,然后淘汰头部数据。

因为查找数据需要遍历链表,所以单纯用链表实现的 LRU 缓存淘汰算法的时间复杂很高,是 O(n)。如果我们将散列表和双向链表两种数据结构组合使用,可以将这三个操作的时间复杂度都降低到 O(1)。

因为我们的散列表是通过链表法解决散列冲突的,所以每个结点会在两条链中。一个链是刚刚我们提到的双向链表,另一个链是散列表中的拉链。前驱和后继指针是为了将结点串在双向链表中,hnext 指针是为了将结点串在散列表的拉链中。

这整个过程涉及的查找操作都可以通过散列表来完成。其他的操作,比如删除头结点、链表尾部插入数据等,通过双向链表都可以在 O(1) 的时间复杂度内完成。所以,这三个操作的时间复杂度都是 O(1)。

至此,我们就通过散列表和双向链表的组合使用,实现了一个高效的、支持 LRU 缓存淘汰算法的缓存系统原型。

散列表中数据是经过散列函数打乱之后无规律存储的,但是 LinkedHashMap可以 做到按照数据的插入顺序来存储。

每次调用 put() 函数,往 LinkedHashMap 中添加数据的时候,都会将数据添加到链表的尾部,再次将键值为 3 的数据放入到 LinkedHashMap 的时候,会先查找这个键值是否已经有了,然后,再将已经存在的 (3,11) 删除,并且将新的 (3,26) 放到链表的尾部,访问到 key 为 5 的数据的时候,我们将被访问到的数据移动到链表的尾部。

所以按照访问时间排序的 LinkedHashMap 本身就是一个支持 LRU 缓存淘汰策略的缓存系统。

散列表这种数据结构虽然支持非常高效的数据插入、删除、查找操作,但是散列表中的数据都是通过散列函数打乱之后无规律存储的。也就说,它无法支持按照某种顺序快速地遍历数据。如果希望按照顺序遍历散列表中的数据,那我们需要将散列表中的数据拷贝到数组中,然后排序,再遍历。

因为散列表是动态数据结构,不停地有数据的插入、删除,所以每当我们希望按顺序遍历散列表中的数据的时候,都需要先排序,那效率势必会很低。为了解决这个问题,我们将散列表和链表(或者跳表)结合在一起使用。

D. lru 淘汰算法

最佳算法(OPT算法)

当需要淘汰一个内存页面时,这种算法力图选择该进程内存各个页面中永远不再需要的页,若找不到,则选择最久以后才会用到的页。这种算法有最小的缺页率。问题是它需要知道运行进程今后的整个访问踪迹,这往往难以做到,因而它只有理论上的意义。

先进先出算法(FIFO算法)

FIFO算法维护一个先进先出队列,队列长度为分配给这个进程的页面数M。开始时队列是空的,装入进程的第一页即可启动运行,当访问到某个不在内存的页面时,把它从辅存调入,加入FIFO队列的尾部。

最久未使用淘汰算法(LRU算法)

LRU(least recently used)算法维护一个后进先出栈,栈大小为分配给这个进程的页面数M。开始时栈是空的,装入进程的第一页即可启动运行,当访问到某个不在内存的页面时,把它从辅存调入,加入栈顶。

FIFO和LRU算法的例子:http://osjx.8100988.net/LWR/RAM/HLM/FIFOsf.HTM

CLOCK算法

又叫NRU(Not Recently Used)算法,NRU又名近似的LRU置换算法。
当一存储块中的页面访问时,其相应的“页面访问”位由硬件自动置“1”,而由页面管理体制软件周期性地(设周期为T,其值通常为几百毫秒),把所有的页面访问位重新置为“0”。这样,在时间T内,某些被访问的页面,其对应的访问位为“1”而未访问的页面,其对应的访问位为“0”。查寻页面访问位为“0”的页面。在查找过程中,那些被访问的页所对应的访问位被重新置为“0”。由此可见,实际上这种近似LRU算法,已经退化成一种“最近不用”的算法NRU(Not Recently Used)。

CLOCK算法的例子:http://www.cskaoyan.com/thread-4898-1-1.html

其实这个问题我也不太会,去临时查的资料,第一个例子是我自己算的,不知道我理解得对不对;如果有错误的地方还请指正,共同进步~其他的算法的例子我都给了链接,你自己去看吧。

E. 描述几个常用的页面转换(淘汰)算法基本原理

某虚拟存储系统采用最近最少使用(LRU)页面淘汰算法,假定系统为每个作业分配3个页面的主存空间,其中一个页面用用来存放程序。现有某作业的部分语句如下:
Var A:Array[1...150,1...100] of integer;
i,j:interger;
for i=1 to 150 do
for j=1to 100 do a [i,,j]=0;
设每个页面可存放150个证书变量,变量i,j放在程序页中。初始时,程序及变量i,j已经在内存,其余两页为空,举证A按行序存放。在上述程序片段执行过程中,公产生( )次缺页中断。

每页可以放150变量,而二维数组按行存储,所以数组三行可以存入两页中,150行存入100页中。循环也是按行操作,也就是每页中的变量依次处理,各页都在全处理完成后转入下一页处理(缺页中断),每页只会发生一次缺页中断,所以缺页中断数为100。
程序段所在页一直使用,所以在LRU算法中不会被淘汰。另外两个页面在一段时间内只会使用一个页面,直到它里面的变量全处理完成,所以淘汰算法会淘汰另外一页用以装入新页,故不会造成额外的缺页。

F. lru算法是什么

LRU是Least Recently Used的缩写,是一种常用的页面置换算法,选择最近最久未使用的页面予以淘汰。

该算法赋予每个页面一个访问字段,用来记录一个页面自上次被访问以来所经历的时间t,当须淘汰一个页面时,选择现有页面中其t值最大的,即最近培樱旦最少使用的页面予以淘汰。

特点:

LRU 算法弊端是存在偶发性、周期性的批量操会降低缓配扰存的命中率,对缓存造成污染,下面几个就是改进算法。

LRU-K会记录每条数据的访问历史,当达到 k 时,才将数据存放到缓存,在缓存内存回收时,缓存中越接近 k 的数据被优先删除。

Two queues(2Q)相当于 LRU-2,区别是访问历颂隐史(首次访问)数据缓存于 FIFO 队列,二次及以上的数据存放LRU缓存,FIFO 队列数据遵循该缓存的内存回收机制,LRU缓存数据遵循该缓存的内存回收机制。

G. 页面置换算法之LRU算法

三种常见的页面置换算法:FIFO、LFU、LRU
参考:
缓存算法(页面置换算法)-FIFO、LFU、LRU

LRU(Least Recently Used,最近最少使用)算法根据数据的历史访问记录来进行淘汰数据,其核心思想是: 如果一个数据在最近一段时间没有被访问到,那么在将来它被访问的可能性也很小 。也就是说,当限定的空间已存满数据时,应当把最久没有被访问到的数据淘汰。

假设 序列为 4 3 4 2 3 1 4 2
物理块有3个 则
首轮 4调入内存 4
次轮 3调入内存 3 4
之后 4调入内存 4 3
之后 2调入内存 2 4 3
之后 3调入内存 3 2 4
之后 1调入内存 1 3 2(因为最少使用的是4,所以丢弃4)
之后 4调入内存 4 1 3(原理同上)
最后 2调入内存 2 4 1

如果让我们设计一个LRU Cache的数据结构,它应该支持两个操作:

一种是采用数组来存储每个数据项,再对每个key关联一个时间戳,在cache中维护一个最大时间戳,其设计要点如下:

另一种是采用hashmap+双向链表的数据结构,其设计要点如下:

对比上一节的两种设计思路,不难发现,设计1需要为每个key维护一个时间戳,而且set和get操作的时间复杂度都是O(n)。显而易见,随着数据量的增大,set和get操作的速度越来越慢。而设计2通过采用hashmap+双向链表,set和get操作的时间复杂度只需O(1),下面给出设计2的具体实现。

运行结果为:

参考:
LRU Cache
LRU原理和Redis实现——一个今日头条的面试题

阅读全文

与lru淘汰算法相关的资料

热点内容
dvd光盘存储汉子算法 浏览:757
苹果邮件无法连接服务器地址 浏览:962
phpffmpeg转码 浏览:671
长沙好玩的解压项目 浏览:142
专属学情分析报告是什么app 浏览:564
php工程部署 浏览:833
android全屏透明 浏览:732
阿里云服务器已开通怎么办 浏览:803
光遇为什么登录时服务器已满 浏览:301
PDF分析 浏览:484
h3c光纤全工半全工设置命令 浏览:141
公司法pdf下载 浏览:381
linuxmarkdown 浏览:350
华为手机怎么多选文件夹 浏览:683
如何取消命令方块指令 浏览:349
风翼app为什么进不去了 浏览:778
im4java压缩图片 浏览:362
数据查询网站源码 浏览:150
伊克塞尔文档怎么进行加密 浏览:890
app转账是什么 浏览:163