都2022年了,出去面試連分布式鎖的源碼你都不會畫?

石杉的架構筆記 發佈 2022-11-27T21:53:34.418369+00:00

目錄一、寫在前面二、Redisson實現Redis分布式鎖的底層原理(1)加鎖機制(2)鎖互斥機制(3)watch dog自動延期機制(4)可重入加鎖機制(5)鎖釋放機制(6)此種方案Redis分布式鎖的缺陷一、寫在前面現在面試,一般都會聊聊分布式系統這塊的東西。

目錄

  • 一、寫在前面
  • 二、Redisson實現Redis分布式鎖的底層原理
  • (1)加鎖機制
  • (2)鎖互斥機制
  • (3)watch dog自動延期機制
  • (4)可重入加鎖機制
  • (5)鎖釋放機制
  • (6)此種方案Redis分布式鎖的缺陷


一、寫在前面

現在面試,一般都會聊聊分布式系統這塊的東西。通常面試官都會從服務框架(Spring Cloud、Dubbo)聊起,一路聊到分布式事務、分布式鎖、ZooKeeper等知識。

所以咱們這篇文章就來聊聊分布式鎖這塊知識,具體的來看看Redis分布式鎖的實現原理

說實話,如果在公司里落地生產環境用分布式鎖的時候,一定是會用開源類庫的,比如Redis分布式鎖,一般就是用Redisson框架就好了,非常的簡便易用。

大家如果有興趣,可以去看看Redisson的官網,看看如何在項目中引入Redisson的依賴,然後基於Redis實現分布式鎖的加鎖與釋放鎖。

下面給大家看一段簡單的使用代碼片段,先直觀的感受一下:


怎麼樣,上面那段代碼,是不是感覺簡單的不行!

此外,人家還支持redis單實例、redis哨兵、redis cluster、redis master-slave等各種部署架構,都可以給你完美實現。


二、Redisson實現Redis分布式鎖的底層原理

好的,接下來就通過一張手繪圖,給大家說說Redisson這個開源框架對Redis分布式鎖的實現原理。


(1)加鎖機制

咱們來看上面那張圖,現在某個客戶端要加鎖。如果該客戶端面對的是一個redis cluster集群,他首先會根據hash節點選擇一台機器。

這裡注意,僅僅只是選擇一台機器!這點很關鍵!

緊接著,就會發送一段lua腳本到redis上,那段lua腳本如下所示:


為啥要用lua腳本呢?

因為一大坨複雜的業務邏輯,可以通過封裝在lua腳本中發送給redis,保證這段複雜業務邏輯執行的原子性

那麼,這段lua腳本是什麼意思呢?

KEYS[1] 代表的是你加鎖的那個key,比如說:

RLock lock = redisson.getLock("myLock");

這裡你自己設置了加鎖的那個鎖key就是「myLock」。

ARGV[1] 代表的就是鎖key的默認生存時間,默認30秒。

ARGV[2] 代表的是加鎖的客戶端的ID,類似於下面這樣:

8743c9c0-0795-4907-87fd-6c719a6b4586:1

給大家解釋一下,第一段if判斷語句,就是用「exists myLock」命令判斷一下,如果你要加鎖的那個鎖key不存在的話,你就進行加鎖。

如何加鎖呢?很簡單,用下面的命令:

hset myLock

8743c9c0-0795-4907-87fd-6c719a6b4586:1 1

通過這個命令設置一個hash數據結構,這行命令執行後,會出現一個類似下面的數據結構:


上述就代表「8743c9c0-0795-4907-87fd-6c719a6b4586:1」這個客戶端對「myLock」這個鎖key完成了加鎖。

接著會執行「pexpire myLock 30000」命令,設置myLock這個鎖key的生存時間是30秒。

好了,到此為止,ok,加鎖完成了。

(2)鎖互斥機制

那麼在這個時候,如果客戶端2來嘗試加鎖,執行了同樣的一段lua腳本,會咋樣呢?

很簡單,第一個if判斷會執行「exists myLock」,發現myLock這個鎖key已經存在了。

接著第二個if判斷,判斷一下,myLock鎖key的hash數據結構中,是否包含客戶端2的ID,但是明顯不是的,因為那裡包含的是客戶端1的ID。

所以,客戶端2會獲取到pttl myLock返回的一個數字,這個數字代表了myLock這個鎖key的剩餘生存時間。比如還剩15000毫秒的生存時間。

此時客戶端2會進入一個while循環,不停的嘗試加鎖。

(3)watch dog自動延期機制

客戶端1加鎖的鎖key默認生存時間才30秒,如果超過了30秒,客戶端1還想一直持有這把鎖,怎麼辦呢?

簡單!只要客戶端1一旦加鎖成功,就會啟動一個watch dog看門狗,他是一個後台線程,會每隔10秒檢查一下,如果客戶端1還持有鎖key,那麼就會不斷的延長鎖key的生存時間。

(4)可重入加鎖機制

那如果客戶端1都已經持有了這把鎖了,結果可重入的加鎖會怎麼樣呢?

比如下面這種代碼:


這時我們來分析一下上面那段lua腳本。

第一個if判斷肯定不成立,「exists myLock」會顯示鎖key已經存在了。

第二個if判斷會成立,因為myLock的hash數據結構中包含的那個ID,就是客戶端1的那個ID,也就是「8743c9c0-0795-4907-87fd-6c719a6b4586:1」

此時就會執行可重入加鎖的邏輯,他會用:

incrby myLock

8743c9c0-0795-4907-87fd-6c71a6b4586:1 1

通過這個命令,對客戶端1的加鎖次數,累加1。

此時myLock數據結構變為下面這樣:


大家看到了吧,那個myLock的hash數據結構中的那個客戶端ID,就對應著加鎖的次數

(5)釋放鎖機制

如果執行lock.unlock(),就可以釋放分布式鎖,此時的業務邏輯也是非常簡單的。

其實說白了,就是每次都對myLock數據結構中的那個加鎖次數減1。

如果發現加鎖次數是0了,說明這個客戶端已經不再持有鎖了,此時就會用:

「del myLock」命令,從redis里刪除這個key。

然後呢,另外的客戶端2就可以嘗試完成加鎖了。

這就是所謂的分布式鎖的開源Redisson框架的實現機制。

一般我們在生產系統中,可以用Redisson框架提供的這個類庫來基於redis進行分布式鎖的加鎖與釋放鎖。

(6)上述Redis分布式鎖的缺點

其實上面那種方案最大的問題,就是如果你對某個redis master實例,寫入了myLock這種鎖key的value,此時會異步複製給對應的master slave實例。

但是這個過程中一旦發生redis master宕機,主備切換,redis slave變為了redis master。

接著就會導致,客戶端2來嘗試加鎖的時候,在新的redis master上完成了加鎖,而客戶端1也以為自己成功加了鎖。

此時就會導致多個客戶端對一個分布式鎖完成了加鎖。

這時系統在業務語義上一定會出現問題,導致各種髒數據的產生

所以這個就是redis cluster,或者是redis master-slave架構的主從異步複製導致的redis分布式鎖的最大缺陷:在redis master實例宕機的時候,可能導致多個客戶端同時完成加鎖。

關鍵字: