① lru演算法提出者是誰其基本思想是什麼其基於什麼假設希望好心的高手給予解答。
LRU是Least Recently Used的縮寫,即最近最少使用頁面置換演算法,是為虛擬頁式存儲管理服務的。
LRU演算法的提出,是基於這樣一個事實:在前面幾條指令中使用頻繁的頁面很可能在後面的幾條指令中頻繁使用。反過來說,已經很久沒有使用的頁面很可能在未來較長的一段時間內不會被用到。這個,就是著名的局部性原理 ——比內存速度還要快的cache,也是基於同樣的原理運行的。因此,我們只需要在每次調換時,找到最近最少使用的那個頁面調出內存。這就是LRU演算法的全部內容。
② lru演算法是什麼
lru演算法是一種常用的頁面置換演算法,選擇最近最久未使用的頁面予以淘汰。
該演算法賦予每個頁面一個訪問欄位,用來記錄一個頁面自上次被訪問以來所經歷的時間 t,當須淘汰一個頁面時,選擇現有頁面中其 t 值最大的,即最近最少使用的頁面予以淘汰。
特點:
LRU 置換演算法雖然是一種比較好的演算法,但要求系統有較多的支持硬體。為了了解一個進程在內存中的各個頁面各有多少時間未被進程訪問,以及如何快速地知道哪一頁是最近最久未使用的頁面,須有兩類硬體之一的支持:寄存器或棧。
在進程運行過程中,若其所要訪問的頁面不在內存而需把它們調入內存,但內存已無空閑空間時,為了保證該進程能正常運行,系統必須從內存中調出一頁程序或數據送磁碟的對換區中。
③ lru演算法是什麼
是一種緩存淘汰策略。計算機的緩存容量有限,如果緩存滿了就要刪除一些內容,給新內容騰位置。大家肯定希望刪掉哪些沒什麼用的緩存,而把有用的數據繼續留在緩存里,方便之後繼續使用。
LRU緩存淘汰演算法就是一種常用策略,也就是說認為最近使用過的數據應該是是「有用的」,很久都沒用過的數據應該是無用的,內存滿了就優先刪那些很久沒用過的數據。
LRU-K原理
LRU-K中的K代表最近使用的次數,因此LRU可以認為是LRU-1。LRU-K的主要目的是為了解決LRU演算法「緩存污染」的問題,其核心思想是將「最近使用過1次」的判斷標准擴展為「最近使用過K次」。
相比LRU,LRU-K需要多維護一個隊列,用於記錄所有緩存數據被訪問的歷史。只有當數據的訪問次數達到K次的時候,才將數據放入緩存。當需要淘汰數據時,LRU-K會淘汰第K次訪問時間距當前時間最大的數據。
④ lru演算法是什麼
lru演算法是一種頁面置換演算法,在對於內存中但是又不用的數據塊,叫做LRU,操作系統會根據那些數據屬於LRU而將其移出內存而騰出空間來載入另外的數據。
LRU演算法:最近最少使用,簡單來說就是將數據塊中,每次使用過的數據放在數據塊的最前端,然後將存在的時間最長的,也就是數據塊的末端的數據剔除掉這就是LRU演算法。
如果進程被調度,該進程需要使用的外存頁(數據)不存在於數據塊中,這個現象就叫做缺頁。如果這個數據此時不在,就會將這個數據從加入到數據塊首部。
數據塊插入與剔除:每次有新數據到來時,會將其放入數據塊首部,當數據每次被訪問時,將這個數據插入數據塊的首部如果數據塊滿了,每次新進的數據都會將數據塊尾部的數據擠出數據塊。
差距:
為了盡量減少與理想演算法的差距,產生了各種精妙的演算法,最少使用頁面置換演算法便是其中一個。LRU演算法的提出,是基於這樣一個事實:在前面幾條指令中使用頻繁的頁面很可能在後面的幾條指令中頻繁使用。
反過來說,已經很久沒有使用的頁面很可能在未來較長的一段時間內不會被用到。這個,就是著名的局部性原理——比內存速度還要快的cache,也是基於同樣的原理運行的。因此,我們只需要在每次調換時,找到最少使用的那個頁面調出內存。這就是LRU演算法的全部內容。
⑤ 頁面置換演算法之LRU演算法
三種常見的頁面置換演算法:FIFO、LFU、LRU
參考:
緩存演算法(頁面置換演算法)-FIFO、LFU、LRU
LRU(Least Recently Used,最近最少使用)演算法根據數據的歷史訪問記錄來進行淘汰數據,其核心思想是: 如果一個數據在最近一段時間沒有被訪問到,那麼在將來它被訪問的可能性也很小 。也就是說,當限定的空間已存滿數據時,應當把最久沒有被訪問到的數據淘汰。
假設 序列為 4 3 4 2 3 1 4 2
物理塊有3個 則
首輪 4調入內存 4
次輪 3調入內存 3 4
之後 4調入內存 4 3
之後 2調入內存 2 4 3
之後 3調入內存 3 2 4
之後 1調入內存 1 3 2(因為最少使用的是4,所以丟棄4)
之後 4調入內存 4 1 3(原理同上)
最後 2調入內存 2 4 1
如果讓我們設計一個LRU Cache的數據結構,它應該支持兩個操作:
一種是採用數組來存儲每個數據項,再對每個key關聯一個時間戳,在cache中維護一個最大時間戳,其設計要點如下:
另一種是採用hashmap+雙向鏈表的數據結構,其設計要點如下:
對比上一節的兩種設計思路,不難發現,設計1需要為每個key維護一個時間戳,而且set和get操作的時間復雜度都是O(n)。顯而易見,隨著數據量的增大,set和get操作的速度越來越慢。而設計2通過採用hashmap+雙向鏈表,set和get操作的時間復雜度只需O(1),下面給出設計2的具體實現。
運行結果為:
參考:
LRU Cache
LRU原理和Redis實現——一個今日頭條的面試題
⑥ lru演算法是什麼呢
LRU演算法是最少使用頁面置換演算法(Least Recently Used),首先置換近期最長時間以來沒被訪問的頁面,是為虛擬頁式存儲管理服務的。
LRU演算法的設計原則是:如果一個數據在最近一段時間沒有被訪問到,那麼在將來它被訪問的可能性也很小。也就是說,當限定的空間已存滿數據時,應當把最久沒有被訪問到的數據淘汰。
LRU原理
該思想最初用於計算機操作系統中,內存中的容量較有限,為了能更加合理的利用內存中的性能,對用戶的使用作出假設,最近最少使用的越不重要,最近使用的越有可能使用到,使得該元素更容易獲取到。
如果元素當前容量超過了內存最大容量,則需要刪除掉最近最少使用的元素。在其之後,許多緩存及許多分布式系統都採用才思想。
⑦ lru演算法是什麼
最近最少使用頁面置換演算法,是為虛擬頁式存儲管理服務的。
LRU演算法的建議基於以下事實:在前幾條指令中經常使用的頁面很可能在後幾條指令中經常使用。
相反,長時間未使用的頁面將來可能會長時間不使用。 這是眾所周知的局部性原則-緩存比內存快,它也以相同的原理運行。 因此,每次交換時,我們只需要找到使用最少的頁面來調出內存即可。
(7)LRU演算法產生的擴展閱讀:
LRU演算法是大多數操作系統廣泛使用以最大化頁面命中率的頁面替換演算法。該演算法的思想是,當發生頁面錯誤時,將選擇並替換未使用時間最長的頁面。
從程序操作原理的觀點來看,最近最少使用的演算法是相對接近理想的頁面替換演算法。該演算法不僅充分利用了內存中頁面調用的歷史信息,而且可以正確反映程序的局部問題。