CPU體系結構之cache小結

嵌入式開發胖哥 發佈 2022-08-10T09:24:36.733537+00:00

What is cache?CPU緩存(Cache Memory)位於CPU與內存之間的臨時存儲器,它的容量比內存小但交換速度快。在緩存中的數據是內存中的一小部分,但這一小部分是短時間內CPU即將訪問的,當CPU調用大量數據時,就可避開內存直接從緩存中調用,從而加快讀取速度。



What is cache?

CPU緩存(Cache Memory)位於CPU與內存之間的臨時存儲器,它的容量比內存小但交換速度快。在緩存中的數據是內存中的一小部分,但這一小部分是短時間內CPU即將訪問的,當CPU調用大量數據時,就可避開內存直接從緩存中調用,從而加快讀取速度。

在CPU中加入緩存是一種高效的解決方案,這樣整個內存儲器(緩存+內存)就變成了既有緩存的高速度,又有內存的大容量的存儲系統了。緩存對CPU的性能影響很大,主要是因為CPU的數據交換順序和CPU與緩存間的帶寬引起的。

下圖是一個典型的存儲器層次結構,我們可以看到一共使用了三級緩存:

Why should I care about cache?

從延遲上看,做一次乘法一般只要三個周期,而做一次CPU的內存訪問需要167個cycle,如果需要提升程序性能,減少CPU的memory訪問至關重要。因此,需要採用容量小但是更快的存儲器(cache)。

為什麼要有多級CPU Cache

隨著科技發展,熱點數據的體積越來越大,單純的增加一級緩存大小的性價比已經很低了二級緩存就是一級緩存的緩衝器:一級緩存製造成本很高因此它的容量有限,二級緩存的作用就是存儲那些CPU處理時需要用到、一級緩存又無法存儲的數據。

同樣道理,三級緩存和內存可以看作是二級緩存的緩衝器,它們的容量遞增,但單位製造成本卻遞減。另外需要注意的是,L3 Cache和L1,L2 Cache有著本質的區別。,L1和L2 Cache都是每個CPU core獨立擁有一個,而L3 Cache是幾個Cores共享的,可以認為是一個更小但是更快的內存。

使用dmidecode命令查看cache size:

cpu與cache 內存交互的過程

CPU接收到指令後,它會最先向CPU中的一級緩存(L1 Cache)去尋找相關的數據,然一級緩存是與CPU同頻運行的,但是由於容量較小,所以不可能每次都命中。這時CPU會繼續向下一級的二級緩存(L2 Cache)尋找,同樣的道理,當所需要的數據在二級緩存中也沒有的話,會繼續轉向L3 Cache、內存(主存)和硬碟。

程序運行時可以使用perf工具觀察cache-miss的rate。

什麼是cache line

嵌入式物聯網需要學的東西真的非常多,千萬不要學錯了路線和內容,導致工資要不上去!

無償分享大家一個資料包,差不多150多G。裡面學習內容、面經、項目都比較新也比較全!某魚上買估計至少要好幾十。

點擊這裡找小助理0元領取:https://s.pdb2.com/l/cnklSITCGo24eIn





Cache Line可以簡單的理解為CPU Cache中的最小緩存單位。內存和高速緩存之間或高速緩存之間的數據移動不是以單個字節或甚至word完成的。相反,移動的最小數據單位稱為緩存行,有時稱為緩存塊。目前主流的CPU Cache的Cache Line大小都是64Bytes。假設我們有一個512位元組的一級緩存,那麼按照64B的緩存單位大小來算,這個一級緩存所能存放的緩存個數就是512/64 = 8個。

查看cache line大小:

cat /sys/devices/system/cpu/cpu1/cache/index0/coherency_line_size

cache line的影響:

for (int i = 0; i < N; i+=k) 
    arr[i] *= 3;

注意當步長在1到16範圍內,循環運行時間幾乎不變。但從16開始,每次步長加倍,運行時間減半。由於16個整型數占用64位元組(一個緩存行),for循環步長在1到16之間必定接觸到相同數目的緩存行:即數組中所有的緩存行。當步長為32,我們只有大約每兩個緩存行接觸一次,當步長為64,只有每四個接觸一次。

cache寫機制

Cache寫機制分為write through和write back兩種。

  • Write-through- Write is done synchronously both to the cache and to the backing store.
  • Write-back (or Write-behind) - Writing is done only to the cache. A modified cache block is written back to the store, just before it is replaced.

Write-through(直寫模式)在數據更新時,同時寫入緩存Cache和後端存儲。此模式的優點是操作簡單;缺點是因為數據修改需要同時寫入存儲,數據寫入速度較慢。

Write-back(回寫模式)在數據更新時只寫入緩存Cache。只在數據被替換出緩存時,被修改的緩存數據才會被寫到後端存儲。此模式的優點是數據寫入速度快,因為不需要寫存儲;缺點是一旦更新後的數據未被寫入存儲時出現系統掉電的情況,數據將無法找回。

cache 一致性

多個處理器對某個內存塊同時讀寫,會引起衝突的問題,這也被稱為Cache一致性問題。

Cache一致性問題出現的原因是在一個多處理器系統中,多個處理器核心都能夠獨立地執行計算機指令,從而有可能同時對某個內存塊進行讀寫操作,並且由於我們之前提到的回寫和直寫的Cache策略,導致一個內存塊同時可能有多個備份,有的已經寫回到內存中,有的在不同的處理器核心的一級、二級Cache中。由於Cache緩存的原因,我們不知道數據寫入的時序性,因而也不知道哪個備份是最新的。還有另外一個一種可能,假設有兩個線程A和B共享一個變量,當線程A處理完一個數據之後,通過這個變量通知線程B,然後線程B對這個數據接著進行處理,如果兩個線程運行在不同的處理器核心上,那麼運行線程B的處理器就會不停地檢查這個變量,而這個變量存儲在本地的Cache中,因此就會發現這個值總也不會發生變化。

為了正確性,一旦一個核心更新了內存中的內容,硬體就必須要保證其他的核心能夠讀到更新後的數據。目前大多數硬體採用的策略或協議是MESI或基於MESI的變種:

  • M代表更改(modified),表示緩存中的數據已經更改,在未來的某個時刻將會寫入內存;
  • E代表排除(exclusive),表示緩存的數據只被當前的核心所緩存;
  • S代表共享(shared),表示緩存的數據還被其他核心緩存;
  • I代表無效(invalid),表示緩存中的數據已經失效,即其他核心更改了數據。

cache的局部性

程序在一段時間內訪問的數據通常具有局部性,比如對一維數組來說,訪問了地址x上的元素,那麼以後訪問地址x+1、x+2上元素的可能性就比較高;現在訪問的數據,在不久之後再次被訪問的可能性也比較高。局部性分為「時間局部性」和「空間局部性」,時間局部性是指當前被訪問的數據隨後有可能訪問到;空間局部性是指當前訪問地址附近的地址可能隨後被訪問。處理器通過在內存和核心之間增加緩存以利用局部性增強程序性能,這樣可以用遠低於緩存的價格換取接近緩存的速度。

  • 時間局部性:

代碼1:

for (loop=0; loop<10; loop++) {
    for (i=0; i<N; i++) {
        ... = ... x[i] ...
    }
}

代碼2:

for (i=0; i<N; i++) {
    for (loop=0; loop<10; loop++) {
        ... = ... x[i] ...
    }
}

代碼2的性能優於代碼1,x的元素現在被重複使用,因此更有可能留在緩存中。這個重新排列的代碼在使用x[i]時顯示更好的時間局部性。

  • 空間局部性:

一個矩陣乘法的例子:

代碼1:

for i=1..n
    for j=1..n
        for k=1..n
            c[i,j] += a[i,k]*b[k,j]

代碼2:

for i=1..n
    for k=1..n
        for j=1..n
            c[i,j] += a[i,k]*b[k,j]

代碼2的性能優於代碼一的性能。

兩者實現上的差異:

代碼2的b[k,j]是按行訪問的,所以存在良好的空間局部性,cache line被充分利用。代碼1中,b [k,j]由列訪問。由於行的存儲矩陣,因此對於每個緩存行加載,只有一個元素用於遍歷。

cache替換策略

Cache工作原理要求它儘量保存最新數據,當從主存向Cache傳送一個新塊,而Cache中可用位置已被占滿時,就會產生Cache替換的問題。

常用的替換算法有下面三種。

  1. LFU

LFU(Least Frequently Used,最不經常使用)算法將一段時間內被訪問次數最少的那個塊替換出去。每塊設置一個計數器,從0開始計數,每訪問一次,被訪塊的計數器就增1。當需要替換時,將計數值最小的塊換出,同時將所有塊的計數器都清零。這種算法將計數周期限定在對這些特定塊兩次替換之間的間隔時間內,不能嚴格反映近期訪問情況,新調入的塊很容易被替換出去。

  1. LRU

LRU(Least Recently Used,近期最少使用)算法是把CPU近期最少使用的塊替換出去。這種替換方法需要隨時記錄Cache中各塊的使用情況,以便確定哪個塊是近期最少使用的塊。每塊也設置一個計數器,Cache每命中一次,命中塊計數器清零,其他各塊計數器增1。當需要替換時,將計數值最大的塊換出。LRU算法相對合理,但實現起來比較複雜,系統開銷較大。這種算法保護了剛調入Cache的新數據塊,具有較高的命中率。LRU算法不能肯定調出去的塊近期不會再被使用,所以這種替換算法不能算作最合理、最優秀的算法。但是研究表明,採用這種算法可使Cache的命中率達到90%左右。

  1. 隨機替換

最簡單的替換算法是隨機替換。隨機替換算法完全不管Cache的情況,簡單地根據一個隨機數選擇一塊替換出去。隨機替換算法在硬體上容易實現,且速度也比前兩種算法快。缺點則是降低了命中率和Cache工作效率。

cache的映射

主存與cache的地址映射方式有全相聯方式、直接方式和組相聯方式三種。

  • 直接映射:將一個主存塊存儲到唯一的一個Cache行。

多對一的映射關係,但一個主存塊只能拷貝到cache的一個特定行位置上去。cache的行號i和主存的塊號j有如下函數關係:i=j mod m(m為cache中的總行數)。

優點:硬體簡單,容易實現。缺點:命中率低, Cache的存儲空間利用率低。

  • 全相聯映射:將一個主存塊存儲到任意一個Cache行。

主存的一個塊直接拷貝到cache中的任意一行上。

優點:命中率較高,Cache的存儲空間利用率高。缺點:線路複雜,成本高,速度低。

  • 組相聯映射:將一個主存塊存儲到唯一的一個Cache組中任意一個行。

將cache分成u組,每組v行,主存塊存放到哪個組是固定的,至於存到該組哪一行是靈活的,即有如下函數關係:cache總行數m=u×v 組號q=j mod u

組間採用直接映射,組內為全相聯。硬體較簡單,速度較快,命中率較高。

原文作者:人人都是極客

原文連結:https://mp.weixin.qq.com/s/m3lq4RrP58BN0wfiQiJlBw

原文標題:CPU體系結構之cache小結

關鍵字: