2019年1月22日 星期二

[經驗分享]Proxmox VE 上傳 ISO 檔注意事項與技巧


在 Proxmox VE 建立 VM 虛擬機完成後安裝系統,需要先掛載安裝 ISO 檔開機後開始進行安裝程序,有那些方法可以讓我們把手上的 ISO 檔案放進 PVE 的放置區呢?


備註:

  • 預設路徑 /var/lib/vz/tmplate/iso/
  • 本文範例 /vmimage/template/iso/




方法一

第一種方法,就是最為容易使用,在 WebUI 上簡單點選即可操作。

WebUI 上傳 ISO 映像檔


如圖所示,點選 Storage 儲存區後,進入 Content 內容,再按下 Upload 上傳按鈕即可進入上傳介面,非常容易。

對於經常使用此功能的使用者,應該會發現有幾個問題,雖然不是大問題,但可能造成困擾。



缺點一:介面等待

開始上傳進度以後,使用者會發現這個介面是強制等待的,不像其它 PVE 的作業可以把視窗關閉後會在 Task 作業區繼續進行,而是結束正在進行的上傳作業。



缺點二:搬移等待

當上傳完成以後,我們一般會認為可以開始使用這個 ISO 檔了,但曾經在某一台比較慢的伺服器上發現,明明上傳完成了,怎麼 ISO 檔還不能用?或是掛起來開機了,但是啟動失敗或是安裝時發生錯誤。

仔細看看下方的 Task 作業視窗,就會發現多了一項作業正在進行。

上傳完成後多一項進行中作業



其實,上傳完成不代表真的完成了,PVE 在 WebUI 接受的上傳檔案作業,實際上是先寫入 /var/tmp 內的暫存檔,當上傳完成後才把這個 ISO 檔放置到實際上應該的位置去,所以我們上傳有兩段等待時間,一是上傳,二是複製

我們可以點選這個項目兩下觀看細節。

上傳作業後置程序


所以這項 Copy data 作業未完成之前,任何使用此 ISO 檔的動作都會有問題。

另外,如果 /var/tmp 所在的磁區容量不夠大,當上傳的 ISO 檔超過此區大小時就會造成上傳失敗





方法二

在方法一中提到,方法一的上傳會有兩個等待階段,若 ISO 檔案很大,那麼等待的時間將會很久,有沒有更快的辦法呢?

有的,我們可以利用 SFTP 工具上傳 ISO 檔案,直接把檔案放到存放 ISO 的專用位置去。

以 FileZilla 上傳 ISO 映像檔


可以利用指令列的 SCP、SFTP 等指令進行上傳,或者使用圖形介面的 FileZilla 動手拖曳,即可完成上傳。


缺點:預先下載

好了,方法一的缺點已經解決,但又想到了一個問題。

既然要用軟體把 ISO 映像檔給丟進去,這表示已經預先下載好了,也就是說還是有兩段作業時間,第一是先下載到工作用電腦,第二是用軟體上傳到 PVE 伺服器。

還有沒有更快的方法?有。





方法三

為了節省先下載到電腦再上傳進 PVE 的時間,我們應該要讓 PVE 直接去抓取所需 ISO 映像檔。

首先,在介面上開啟 Node 節點的 Shell 命令列,或是用 SSH 登入 PVE。

進入 PVE Node 節點 Shell 命令列



接下來,請準備 ISO 的來源下載位址,以 FreeNAS 為例:

取得 ISO 檔案下載位址


有了下載位址以後,就可以利用指令讓 PVE 直接下載該檔案到指定位置。

下載 ISO 映像檔到指定位置
wget https://download.freenas.org/11.2/STABLE/U1/x64/FreeNAS-11.2-RELEASE-U1.iso 
-O /vmimage/template/iso/FreeNAS-11.2-U1.iso


執行以後,就可放著讓 PVE 自己下載了,這個小技巧直接又方便。

直接在 PVE 伺服器下載完成






參考









2019年1月21日 星期一

[工具推薦]Proxmox VE 排程自動快照工具



Proxmox VE 已經內建 ZFS 檔案系統,同時也具備 KVM 虛擬機、LXC 容器的快照功能,但好像還少了什麼東西?

若您有使用 PVE 的經驗,應該就能夠體會「怎麼少了排程快照功能?」這句話。





功能需求

先參考一下隔壁棚的功能狀況,來自 FreeBSD 體系的 FreeNAS 套件。


FreeNAS Snapshot Task


FreeNAS 是一款功能完整又提供容易操作 WebUI 的儲存伺服器套件,底層的 ZFS 檔案系統的最大特色之一就是快照機制,同時也在 WebUI 介面上提供了方便的設定,滑鼠簡單的點選設定後,即可完成排程自動快照的功能。

隨著現在 Proxmox VE + Local ZFS 越用越多的情況下,有沒有好方法可以達到類似效果呢?






功能介紹

就在不久前,2018 年 12 月的 PVE 進階研討會我也介紹過這個小工具。

eve4pve-autosnap



這個 eve4pve-autosnap 套件,主要基於 Proxmox VE 提供的 ZFS 達成自動排程快照功能。



主要功能項目




eve4pve-autosnap 功能完整,最重要的是整合 PVE 原生快照機制。

  • 支援 PVE 叢集 Cluster 與獨立節點 Separate Node
  • 整合 PVE Syslog 記錄
  • 支援 KVM 與 LXC
  • 提供系統排程機制
  • 支援快照保留份數上限與自動清理
  • 可以設定例外條件





安裝方式

請到專案網站下載最新版 deb 安裝檔,先查看最新版本資訊如下:


查看 eve4pve-autosnap 最新版本



確認版本號以後,就可以進入到 PVE 主機的命令列下進行操作。

下載最新版本並安裝
wget https://github.com/EnterpriseVE/eve4pve-autosnap/releases/download/0.1.8_all/eve4pve-autosnap_0.1.8_all.deb

dpkg -i eve4pve-autosnap_0.1.8_all.deb


安裝完成後,執行起來若有出現指令說明畫面,即表示成功。

安裝成功後執行畫面






使用指令

相關指令已經在程式本身的 help 中有詳細說明。
指令格式
eve4pve-autosnap <指令> [參數] [選項]


可以使用的 <指令> 如下
  • version:查看程式版本
  • create:建立排程快照作業
  • destroy:刪除排程快照作業
  • enable:啟用排程快照作業
  • disable:取消排程快照作業
  • status:查看所有快照的狀態
  • clean:清除所有已經做過的排程快照 (非 autosnap 所做的快照不受影響)
  • snap:立即進行快照作業



可以使用的 [選項] 如下
  • --vmid=字串:VM/CT ID (如 100, 101)
  • --exclude-vmid=字串:要排除的 VM/CT ID (如 100, 101)
  • --vmstate:以包含記憶體狀態的模式做快照
  • --label=字串:可自行定義產生的快照名稱標籤 (通常為 hourly、daily 等)
  • --keep=數字:要保留的快照份數上限,預設保留最近1份
  • --syslog:將執行結果寫入 Syslog 記錄



舉個例子,若需要立即做一份快照,目標是 ID 為 104 的虛擬機,並保留最近10份,可使用以下指令:

立即製作快照與清理
eve4pve-autosnap snap --vmid=104 --label='daily' --keep=10


在下圖可以看到,執行快照製作完成以後,由於限定了只保留最新的10份,所以會把最早先的那一份快照點給清除。

立即製作快照與清理執行結果



同時,eve4pve-autosnap 所製作的快照是整合 PVE 原生的快照機制,所以我們可以在 WebUI 上看到正確的資訊。


PVE WebUI 呈現正確快照資訊



雖然 ZFS 製作快照的速度非常快,但如果快照份數太多(視該主機的硬體規格與效能而有所不同)反而會拖慢整體效能,藉由 eve4pve-autosnap 的自動清理機制,可以幫我們保存所須的份數,同時又可以避免過多的快照影響 ZFS 能力。


其它指令參考:

建立快照排程作業
eve4pve-autosnap create --vmid=104 --label='daily' --keep=10

刪除快照排程作業
eve4pve-autosnap destory --vmid=104 --label='daily' --keep=10

取消快照排程作業
eve4pve-autosnap disable --vmid=104 --label='daily' --keep=10

啟用快照排程作業
eve4pve-autosnap enable --vmid=104 --label='daily' --keep=10

查看快照排程狀態
eve4pve-autosnap status






排程調整

如果對於 eve4pve-autosnap 產生的排程指令有興趣,或者想要進行修改,可以開啟這個檔案 /etc/pve/eve/autosnap/eve4pve-autosnap.cron 。


特別說明,eve4pve-autosnap 會利用 PVE 的叢集機制,自動把設定複寫到所有節點,因此只要在一台節點上操作即可適用整個叢集,非常方便。




參考








[工具推薦]ProxmoxVE 儲存區排程同步工具



Proxmox VE 內建效能與功能兼具的 ZFS 檔案系統,不過有些功能還沒有在介面上提供,例如儲存區 (Storage) 的同步功能,該怎麼辦呢?

沒關係,我們所選用的正是開源軟體,別忘了,開源的力量正是無窮。





功能需求

先參考一下隔壁棚的功能狀況,來自 FreeBSD 體系的 FreeNAS 套件。

FreeNAS Replication


FreeNAS 是一款功能完整又提供容易操作 WebUI 的儲存伺服器套件,提供了對多台主機複寫的功能,加上又是採用 ZFS 快照機制實作的,對於資料備份的易用與時間都達到很好的平衡。

隨著現在 Proxmox VE + Local ZFS 越用越多的情況下,有沒有好方法可以達到類似效果呢?






功能介紹

就在不久前,2018 年 12 月的 PVE 進階研討會我剛好介紹過這個小工具。

eve4pve-zstorage



這個 eve4pve-zstorage 套件,主要基於 Proxmox VE 提供的 ZFS 達成許多方便功能。



主要功能項目




官網同步示意圖



eve4pve-zstorage 功能豐富,還可以整合 PVE 原生的許多機制。

  • 整合 PVE Storage 設定讀取
  • 支援 PVE 叢集 Cluster 與獨立節點 Separate Node
  • 整合 PVE Syslog 記錄
  • 支援 KVM 與 LXC
  • 提供系統排程機制
  • 同步複製 KVM 與 LXC 組態檔





安裝方式

請到專案網站下載最新版 deb 安裝檔,先查看最新版本資訊如下:

查看 eve4pve-zstorage 最新版本



確認版本號以後,就可以進入到 PVE 主機的命令列下進行操作。

下載最新版本並安裝
wget https://github.com/EnterpriseVE/eve4pve-zstorage/releases/download/0.1.0_all/eve4pve-zstorage_0.1.0_all.deb

dpkg -i eve4pve-zstorage_0.1.0_all.deb


安裝完成後,執行起來若有出現指令說明畫面,即表示成功。

安裝成功後執行畫面






使用指令

相關指令已經在程式本身的 help 中有詳細說明。
指令格式
eve4pve-zstorage <指令> [參數] [選項]

可以使用的 <指令> 如下
  • version:查看程式版本
  • create:建立排程同步作業
  • destroy:刪除排程同步作業
  • enable:啟用排程同步作業
  • disable:取消排程同步作業
  • status:查看所有同步作業的狀態
  • sync:立即進行同步作業



可以使用的 [選項] 如下
  • --stroage=字串:PVE 儲存區 (Storage) 名稱
  • --host=字串:目標 PVE 節點位址
  • --syslog:將執行結果寫入 Syslog 記錄



舉個例子,若需要立即同步的 PVE 儲存區 (Storage) 名稱為 test,目標 PVE 節點為 172.16.8.114,可使用以下指令進行同步與查看:

同步儲存區至另一節點
eve4pve-zstorage sync --storage=test --host=172.16.8.114

查看儲存區同步狀態
eve4pve-zstorage status --storage=test --host=172.16.8.114



執行儲存區同步與狀態查看


在上圖可以看到,執行同步時,除了將儲存區資料同步過去以外,若該儲存區裡有存放 KVM 或 LXC 的機器,eve4pve-zstorage 還會自動將我們把機器的組態檔一起複製到目標的 PVE 節點上

這對於 PVE 的跨叢集搬遷作業是一件非常方便的事,因為過去有些使用 PVE 的朋友,經常發生有備份虛擬機的 Data,卻忘了備份 Config,導致花了很多時間與心力去重新把設定弄起來。


其它指令參考:

建立同步排程作業
eve4pve-zstorage create --storage=test --host=172.16.8.114

刪除同步排程作業
eve4pve-zstorage destory --storage=test --host=172.16.8.114

取消同步排程作業
eve4pve-zstorage disable --storage=test --host=172.16.8.114

啟用同步排程作業
eve4pve-zstorage enable --storage=test --host=172.16.8.114





排程調整

如果對於 eve4pve-zstorage 產生的排程指令有興趣,或者想要進行修改,可以開啟這個檔案 /etc/cron.d/eve4pve-zstorage





參考







2019年1月19日 星期六

[經驗分享]PVE 與 ESXi 簡易效能測試



近期多位朋友在討論 Proxmox VE 與 VMware ESXi 的效能差異是否極為明顯,正巧有空出一台老舊的拼裝測試伺服器,便與同事 Max 來做些簡單的測試。


特別聲明:
「效能一定有差別,測試數據有輸有贏,查看前應詳閱不吵架說明書。」





測試配備


實體機


因為只有一台伺服器可以使用,也為了用相同的硬體跑數據,所以是完全使用同一台機器分別測試這兩個平台,以示公平。


項目 規格
主機 Dell PowerEdge T420
處理器 Intel(R) Xeon(R) CPU E5-2407 @ 2.20GHz
記憶體 DDR3 24 GB 1333MHz (ECC)
磁碟 PERC H710
- Hgst DK7SAF300 SATA 3TB 7.2krpm
- Hgst DK7SAF300 SATA 3TB 7.2krpm
- Seagate ST32000542AS SATA 2TB 7.2krpm
- Seagate ST2000DM001 SATA 2TB 5.9krpm
- RAID 1+0 Virtual Disk 3725 GB


由於此張磁碟陣列卡沒有支援 HBA Mode,所以 PVE 的磁碟也是以 ZFS 安裝在磁碟陣列卡所做出來的單顆 Virtual Disk 上。

表中有一顆硬碟是 5.9krpm,沒有錯,他就是 5.9krpm,前面已經提到它是一台東拼西湊起來的拼裝機了...😭😭😭


虛擬機


安裝完虛擬平台後,建立一個 Windows 虛擬機在裡面跑測試工具來統計數據,Windows 7 除了必要的虛擬機相關驅動以外,不做任何 Windows Update。


項目 PVE ESXi
平台版本 5.3-6 6.5u2
作業系統 Windows 7 Pro. SP1 x64
處理器 Type Host / 1 vCPU
記憶體 8 GB vRAM
虛擬磁碟 VirtIO SCSI SCSI
實體儲存 Local Storage


PVE 說明:
Proxmox VE 使用 5.3-6,這個版本具有 CPU Meltdown & Spectre 這兩個漏洞修補檔,其實在 5.1 起的版本即有內建。

ESXi 說明:
VMware ESXi 使用 6.5u2 試用版而沒有選擇最新的 6.7,原因在於 VMware 的相容性清單上並不支援 Dell T420,所以降至可以相容的版本 6.5u2,同時此版本經查已經修補 CPU 的 Meltdown & Spectre 這兩個漏洞,所以在 CPU 數據上可以跟 PVE 起跑點較為一致。




使用軟體

本次測試所使用到的資訊識別與測速軟體如下。

  • CPU-Z 1.87.0 x64
  • CrystalDiskMark 6.0.2 x64
  • PerformanceTest 9.0 x64






開機速度


開機速度的條件,以虛擬機開機後到出現登入畫面且無載入動畫為止,單位為秒。


次數 PVE ESXi
1 17.31 46.54
2 16.65 43.15
3 17.33 45.99
平均 17.09 45.22



開機時間對照表


Proxmox VE 開機速度明顯較快,差異應在於 ESXi 的本機 VMFS 檔案系統效能較弱所致,若是外掛 Storage 做存取或是搭配 vSAN,則尚難定論。

註:Proxmox VE 裡 VM 的磁碟 Cache Mode 為 Default (No cache)。








處理器效能


接下來進行中央處理器效能測試,兩邊均是 Host CPU 模式,以 CPU-Z 讀取資訊如下:



PVE VM CPU 資訊




ESXi VM CPU 資訊





接著以 PerformanceTest 進行效能測試,結果如下:



PVE VM CPU 效能數據




ESXi VM CPU 效能數據




CPU 效能對照表



在 CPU 運算能力的部份,ESXi 較為優秀。

雖然整體效能看起來 PVE 落後 ESXi 10% 左右,但是在浮點運算(Floating Point Math)部份,PVE 的效能只有 ESXi 的 57%,最為明顯。






記憶體效能


接下來進行記憶體存取效能測試,以 CPU-Z 讀取資訊如下:



PVE VM 記憶體資訊




ESXi VM 記憶體資訊



接著同樣以 PerformanceTest 進行效能測試,結果如下:



PVE VM 記憶體效能數據




ESXi VM 記憶體效能數據



記憶體效能對照表



在記憶體效能部份,PVE 略勝一點點,但微乎其為可以視為平手;但是在 CPU-Z 讀取記憶體資訊時,能夠取出的資訊極少。








磁碟效能


最後一個是磁碟讀寫效能測試,在 PVE 中磁碟的快取模式(Cache Mode)有多種,所以本測試會取較為常用的三種 Default (No cache)、Write through、Write back 一起做測試,提供參考。



PVE VM 磁碟效能測試 Default (No cache)




PVE VM 磁碟效能測試 Write through




PVE VM 磁碟效能測試 Write back




ESXi VM 磁碟效能測試




PVE - No cache 與 ESXi 磁碟效能對照表




PVE - Write through 與 ESXi 磁碟效能對照表




PVE - Write back 與 ESXi 磁碟效能對照表


如同前面開機時間測試提到的,差異應在於 ESXi 的本機 VMFS 檔案系統效能較弱所致,若是外掛 Storage 做存取或是搭配 vSAN,則尚難定論。

在本機磁碟讀寫效能上借助 ZFS 檔案系統的優勢,PVE 在隨機讀寫的部份效能較為突出,循序讀寫的部份則依不同模式而互有差異。

其中 Write back 效能最好,若能在主機的電力穩定運作與不斷電系統齊備可以採用 Write back 做為 Cache Mode。

但在效能與資料保全的平衡上,筆者建議採用 Default (No cache) 或 Write through,前者強調讀寫平衡,後者強調寫入讀取效能。
(2019/01/21 更新:感謝 Folay Chen 朋友指正寫反了)






結論


這次利用時間做了簡易的測試,主要驗證目前 PVE 與 ESXi 效能的對比,兩者在不同的項目上各有所長,就整體來說效能差異其實相當,在應用層面並沒有任何問題,只在於想要選用的方案是否符合自己所需。

瞭解自己真正的需求,並知道現有的自由軟體與專有軟體可以滿足哪些需求,從而選擇適合的方案,就是軟體自由運動的精神:「軟體與方案是我們的工具,而不會因為被特定方案綁住,反倒成為軟體與方案的奴隸」。



另外,網路上有一份 2017 年發表更加詳盡的測試比對數據,來自於 IADIS (International Association for Development of the Information Society,資訊社會發展國際協會)。

在這份詳盡的報告中,同時比較了 ESXi、XenServer、PVE、Hyper-V 等方案,並且涵蓋 CPU、Memory、Disk、2D、3D、Network...等多種測試,值得一看。



測試數據 (點圖可放大查看)


當中 CPU 的測試結果 PVE 與 ESXi 僅差 5%,比我的測試結果還要接近,但是在儲存效能上,因為沒有說明儲存是使用什麼檔案系統與如何配置,因此儲存方面的數據我是抱持觀望態度。詳細內容請至本文參考資料的倒數第三個連結查看。






參考資料







2019年1月15日 星期二

[經驗分享]找尋虛擬機磁碟 I/O 效能問題所在



使用 Proxmox VE 以後,隨著虛擬機器越來越多,最常遇到的效能瓶頸就是磁碟 I/O 卡住,但是當系統已經很忙的時候要怎麼知道是問題在那裡呢?

尤其是使用了 ZFS 的情況下,要如何快速得知就是一個重要的關鍵,以下分享一些自己在查修時的經驗,提供參考。





一、查看 zfspool 效能指令

先查看 zfspool 的使用情況,若有多個 zfspool,可以釐清目前是那一個比較吃重。

查看 zfspool 效能
zpool iostat 


執行以後如圖,依據不同的 zfspool 顯示目前的讀寫使用頻寬。
顯示 zfspool 效能數據 

這個數據太籠統了,繼續往下看。







二、查看 zfs 磁碟效能指令

zfspool 是由多個磁碟組成,可以經由加入參數來顯示更詳細的資訊。

查看 zfspool 與磁碟效能
zpool iostat -v 


執行以後如圖,依據不同的 zfspool 以及 disk 顯示目前的讀寫使用頻寬。

顯示 zfspool 與 disk 效能數據 


好了,到這裡已經可以顯示個別磁碟的使用情況,可以判斷出到底吃重或是瓶頸卡在那裡。



如何自動重新整理顯示


此時您可能會想到個問題,上面的指令都是執行一次才顯示一次,對於觀察數字改變很不直覺,能不能讓他自動重新整理顯示

可以的,您可搭配 watch 這個指令來提升便利性。預設是每2秒重新整理一次,若您想要變更重新整理的頻率,可以在 watch 後方加入數字參數,例如:
每秒自動重新整理查看 zfspool 與磁碟效能
watch -n 1 zpool iostat -v 

每秒自動重新整理查看 zfspool 與 disk 效能






三、查看磁碟效能指令

除了 zfs 的相關指令以外,其實 Linux 也有內建相關的指令,可以查看磁碟效能的數據。

查看磁碟效能
iostat -xdm 


執行以後如圖,顯示每一個 disk 顯示目前的讀寫使用頻寬。

顯示 disk 效能數據 

在這張表,我們關注的是 await 與 %util 這兩個欄位。到這裡,已經能夠以指令掌握磁碟的使用情況。







四、查看磁碟效能工具

指令用久了也許會想,有沒有更方便的工具可以查看呢?

有的,筆者曾介紹過的一款工具 glances 就相當不錯。

glances 查看磁碟效能


執行 glances 以後,左下方的有一個「DISK I/O」的區塊,這裡就羅列了各個磁碟即時的讀寫速度。







五、查看磁碟效能圖形介面

雖然有了 glances 可方便查看,但是好像缺少了圖表,比較難看出不同時間下的變化?

有的,筆者曾提過的一款工具 netdata 就相當不錯。

netdata 查看磁碟效能

有了 netdata,不僅可以有秒級的圖表可以觀察時間變化,而且只需要瀏覽器就可以很方便的查看不同主機資訊,是管理者的重要幫手。



等等,講了半天都在談 disk 效能,但我到底要怎麼知道是那一個 VM 或 Process 吃掉我的效能?

以下就來提供幾個作法。







六、查看佔用磁碟效能的程序

我們希望知道是那一個程序的讀寫量大,或是它已經在等待磁碟IO (IO Delay),要用什麼指令呢?

查看佔用磁碟效能程序
pidstat -d 

pidstat 查看佔用磁碟效能程序


確實能夠看出讀寫數據與 iodelay 欄位,可是資料太多,能不能有更簡單的查看方式?

有的,請往下看。







七、查看佔用磁碟效能的程序排行榜

上面的指令資訊太多,能不能搞個排行榜最快了?最好還可以自動更新顯示?

查看佔用磁碟效能排行榜
iotop 

iotop 查看佔用磁碟效能排行榜


確實能夠看出吃掉磁碟效能的排行榜,知道是那一支 Process 在作怪。

問題又來了,我使用 Proxmox VE,我想知道現在是那一個 VM 吃掉我的磁碟效能,有什麼更快的方法?








八、查看佔用磁碟效能的虛擬機

想要知道是那一個 VM 吃掉,我們可以利用 zfs 的特性。

相信各位在上面的 iostat、glances、netdata 可能都有發現一件事:一般的磁碟都是像 sda、sdb、sdc 之類的,怎麼還會跑出 zd0、zd48、zd64 之類的裝置?這是什麼東東?

其實在 zfs 上,所有 VM 的 Disk 都會被對應成一個 /dev/zdN 的裝置,我們正好可以利用這個特性衍生一個方便查出 VM 佔用磁碟的小技巧。

當我們先用 iostat -x 指令查看,對其中的 zd112 可能有點疑慮:


這時,可以使用指令做反查。

查看 zdN 所對應的 VM 磁碟
udevadm info /dev/zd112 

udevadm 查看 zdN 對應 VM 磁碟


其中的資訊明確顯示,這個 zd112 是來自於 vmimage 這個 pool 下,編號為 104 虛擬機的第一個磁碟。

找出 Proxmox VE 中對應的虛擬機與磁碟


經由這樣的方式,我們就可以很明確的判斷是那一台虛擬機的那一個磁碟正面臨著大量存取所帶來的磁碟效能不足。






同場加映:查看磁碟資訊

既然發現 zdN 裝置的玩法,順便也推薦一個用在 Proxmox VE 的 Host 機上極為方便的指令。

查看 zdN 的磁碟資訊
blkid | grep zd 

查看 zdN 的磁碟資訊


從結果可以看到,在 Host 機即可對 zdN 裝置取出它的 type、uuid、label 等資訊,可以快速的判斷裡面的格式為 zfs/dos/ext2... 等,也可以立即從 label 名稱判斷這是那一台虛擬機的磁碟或是其用途。 





參考