2009年7月3日 星期五

從system bus來看系統

有些基礎不夠深厚 遣詞用句也不是很精確以下試圖以自己的體認和觀點 以簡單的辭彙去解釋一些processor與系統演進的方式,如果有誤或是清楚的地方,歡迎大家討論

[本文開始]
在學校學computer architecture或者做一些簡單的單晶片介面卡實驗課程的時候
常常會被一下子多出來的專有名詞搞混像是DMA, memory, cache, mmu, virtual address, physical address 等等,尤其大家一開始接觸電腦都是已經發展很久的x86系統,即使有單晶片系統的實驗課程也很難將單晶片的經驗運用到x86或是已經較為複雜的CPU系統上,因為CPU上頭又開始加入了越來越複雜的作業系統,像是作業系統常提到的kernel mode和user mode,常常跟上述的專有名詞physical address or virtural address交互使用。例如:刻板印象的『作業系統處於kernel mode時,使用physical address』經常讓一剛要學習撰寫driver或是OS的軟體人員產生非常多的疑問,那應該怎麼簡單來看待一個系統?

首先,我們回歸到CPU這個字的字義上,我們稱呼它為『處理器』他是用來處理各種『資料』那麼這些資料又放在哪邊?他是如何去存取這些資料?通常可以被處理的資料都在memory當中,CPU透過所謂的 bus 去存取memory到目前為止,我們得到一個簡單的系統

CPU + bus + memory

接著,我們用兩個角度去看這個簡單系統的發展

1. 硬體加速
2. 作業系統

我們先從硬體加速的觀點來看這個系統如何改進:

首先,硬體加速通常就是把某種特殊格式的資料準備好 (例如電影)放在某個地方,然後請你設計好的加速硬體去處理這些資料,可以看得出來,這些資料勢必會被放在某塊地方,讓硬體可以直接讀取。這個想法造就了 DMA ,也讓系統也開始複雜化,因為這樣一來,同時之間會有兩個東西去存取記憶體。所以bus的設計上變得複雜,必須處理DMA和CPU同時發出request 的狀況,這邊bus變成需要多了arbiter的功能,以便決定目前誰是master可以存取memory。

從另外一個角度來說,她們會互搶資料,也就是你加入越多DMA,CPU那邊的效率有可能更差,因為他要不到資料,必須等待,但另一方面他多出了一些時間可以處理其他資料,而將一些固定特殊的工作交給加速硬體去完成。所以系統改變成:

CPU + arbiter bus + memory + DMA

接著我們從作業系統的角度來看:

一開始的作業系統沒有分 kernel mode 和 user mode,也沒有出現virtual address,只有一種模式和一種定址方式。可是這樣會因為程式撰寫錯誤,直接改寫到OS所處記憶體位置,變成整個系統都不能工作。例如:

OS被載入到 memory 0 的開頭位置,某個程式寫錯資料,把資料也寫到0的位置,這樣原本的OS就被亂改到,萬一程式跑到這邊系統可能就掛掉了。面對這樣的問題,發展了user mode和 kernel mode,並藉由硬體的保護,使得user mode下不能直接存取某塊被保護的memory區塊,這個硬體就是現在的MPU。到目前為止我們可以看出來整個系統更加複雜了,CPU必須多一些模式,以便支持作業系統的kernel mode和user mode,kernel mode可以去改寫MPU設定要保護的memory區段,等到設定好了,切換成user mode,這樣 user program 就可以安心的使用記憶體,也不擔心惡意程式去搞壞OS。所以我們的系統變成了

multi-mode CPU + MPU + arbiter bus + memory + DMA

接著我們看 virtual address 和 physical address 的誕生,這邊相當抽象,需要一些想像。

隨著時代進步,越來越多user program產生,user mode的program目前雖然已經不會因為隨意的存取記憶體,造成OS掛點,可是還是有可能去改到別人的記憶體,因為每個程式共同擁有並使用同一個記憶體和所謂的記憶體空間。例如:

程式A放在0~128 KBytes,程式B放在512~768KBytes,程式A寫錯位置到B程式的地方,變成程式B毀損,B程式就掛掉了。

上述的記憶體使用情況,不僅給programmer帶來困擾,而且變成記憶體必須被事先決定好誰只能用哪邊?只能使用多大?這樣不但得事先規劃,對於記憶體的使用也不是很高,因此MMU的硬體便被提出來。簡單來看,MMU記錄著某個虛擬位置所對應到的實體記憶體的位置。作業系統利用這個特性,為每一個user program先做了一個假的記憶體,每個程式都以為他有很大很大的記憶體空間,其實當程式呼叫malloc的時候,才會去設置MMU將這個user program的假記憶體空間和真實記憶體做個連結。這邊很難解釋清楚,其實每個程式都有一個假的記憶體空間的紀錄表格,當OS做context switch到某個program的時候,MMU也會跟著切到這個table上,以便用到正確的紀錄表格。例如:

程式A的表格記錄了他配置0~4K,而這4K對應到真實記憶體的128K~132K的區段。
程式B的表格記錄了他配置0~4K,而這4K對應到真實記憶體的132K~136K的區段。

雖然兩個程式自己都以為他是用到0~4K,可是其實真實記憶體所配到的位置不同,作業系統在切換的時候,會同步將虛擬記憶體的紀錄表格做切換,以便使用到正確的對應表。以上是一種例子,各種OS可能採取的設計方式不同,但是概念大多是一樣的,我們可以看得出來,對每個程式來說,它可以有擁有許多假的連續記憶體空間,對程式撰寫,還有記憶體使用率來說,很有效果。到此,CPU多了MMU,現在大多包含MPU的功能。

muti-mode CPU + MMU + arbiter bus + memory + DMA

因此OS在kernel mode的時候,如果MMU是打開的,這時候還是使用virtual address。要讓mmu正常工作,必須要設定,要讓他知道你對位址的規劃是如何。例如:

RAM被硬體人員安排到0xFF00 0000的位址,可是你希望RAM被當成從0x0開始,你就可以設定MMU將 0xFF00 0000 對應到 0x0(有些CPU會提供特別開機時特別的remap功能,將ram map到0x0開始),這樣一來你讀取0x0就會自動轉到0xFF00 0000那邊去。0x0000 0000 --<>-- 0xFF00 0000作業系統一開始就會初始化這些位址轉換對應的資訊,把它放在所謂的page table裡面,然後把table位址交給MMU,MMU就會依照table的資訊工作。假如你今天有兩張table,兩張table設定不一樣,MMU只要在這兩張table之間切換,那記憶體對應的方式也會跟著換。這是一個很重要的想法。假如,我每一個process都有自己的 page table,切換process的時候,table也跟著切換,這樣我可以控制每一個process去存取記憶體的方式。假如我是讓所有的process 都共用一個 table,這樣這個table的設定值,就會影響到所有的process。共用一個table表示每個process用同一個位址去讀寫,透過MMU轉換到的位址是相同的,會讀寫到同一塊。不共用的話,表示processA和processB即使拿同一個位址0x8000 0000去讀寫,可能最後對應到的位址是不同的。

但是這樣的差別就是有什麼好處??

因為感覺上複雜化了整個系統,本來我可以很直覺的拿processA傳給我的位址,去讀取它為我準備的資料,現在我可能會因為我使用的 table 不同,就不能在其他process直接使用。感覺很麻煩,要是大家都在同一個 table 工作,不是很簡單嗎?位址空間都是一樣的。why?!

一、如果大家都在同一個page table上

因為彼此用的記憶體應對方式是一樣的所以processA要了某個區段 0x0~0x100這樣processB就不能使用,很可能跑了一段時間之後整個系統的memory fragment就會變多,對記憶體使用率來講不好,很可能要一次找到大塊的不好找,雖然virtual address有4G但是process分一分還是可能不太夠

二、processB可以看到processA的address space

表示我可以拿到相對應的資源這樣惡意程式很容易就得到一些記憶體上的個人資料有些地方的說明不太容易,太簡略容易造成誤解,贅述又怕不容易理解。沒表達清楚的地方歡迎提出來討論。

沒有留言:

張貼留言

搜尋此網誌