2016年8月30日 星期二

VM_Lab15-設定vMotion

這個功能
可以讓VM在不關機的情況下
進行移轉,移轉到另外一個esxi主機上
最先出現這個功能的是VMware
VMware也算是虛擬領域的領先者

不過...

Microsoft也不是吃素的
只讓VMware領先2~3年後,就後來居上
Microsoft最讓人詬病的 OS領域的授權問題
在虛擬領域中,卻成了 Microsoft
瞬間提高市佔率的 助益
2者相比,VMware簡直是天價啊~

總之...

後來Hyper-v也有這個功能了

這邊...

可能又會遇到一些挫折
小弟我都是用單一主戰機去模擬整個環境
遇到的光怪陸離的情況
都已經見怪不怪了
用好幾台實體去架,問題可能都沒那麼多...

作為vMotion

這個功能可是 計畫性停機 的前置功能
何謂 計畫性停機,停什麼機
有計畫,可預期...
停的機,指的是 esxi 主機

舉例:

明明知道某台esxi,要關機或是重新啟動
怎麼可能放任這台esxi上的VM,而沒有所作為呢?
如果這台esxi上的VM有提供AD服務怎麼辦?

要有這個的功能

會有一些基本的限制條件
一、使用 Share Storage
二、必須有同名稱的 vSS
三、VM必須安裝VM Tools
四、CPU必須同等級

一、設定Fortigate

二、設定 vMotion
三、驗證 vMotion
四、Troubleshooting

一、設定Fortigate

01-01.設定port1 跑vlan 20


因為需要將vMotion
跑在vlan 20
且照規劃,會跑在VMware Workstation的 VMnet1上


二、設定 vMotion
02-01.新增VMkernel
如果我沒記錯的話
其實...
VMware官方的最佳配置文件
是建議vMotion是和Manager網段互做備援

這點
我是比較不認同啦

個人認為
vMoion是DRS的前置功能
且在Manager網路發生異常時
通常都需要更多的靈活運作,甚至會搬移VM
如果不能vMotion
不就等於自廢武功

在正式環境中
Manager和vMotion會用vlan切開

就此Lab還看
就一樣,和Manager綁一起囉
點選 內容

新增

選擇 VMKernel


依序輸入

網路標籤: vMotion(這個一定要一致)
VLAN ID: 20
勾選 將此連結群組用於 vMotion


輸入

IP位址: 192.168.20.28
子網路遮罩: 255.255.255.0


完成



02-02.新增NIC

因為要讓vMotion
跑在另外一個網卡上
網路介面卡 > 新增...


照規劃

vMotion流量,跑在vmnic1

我個人比較建議
是可以分開
現在Giga NIC這麼便宜,買個2張2 port的 gNIC也不用5000元
用2張共4port 的gNIC來做,真的掛了任1port或是任1張
也不用擔心,互作備援
2張2port,共4port,從各gNIC上,挑1port出來做vMotion使用
這樣也是避免單點失效的風險
單點失效的風險在哪裡?
假設單單把1張gNIC上的2port都拿來做 vMotion
那麼萬一這張gNIC掛掉呢?不就整個vMotion機制停擺
所以要拆開,再各張gNIC上,才能避免風險


完成



然後再修改一下 vMotion的設定


上方全打勾
主要是hash的方式

下方 介面卡的部分
可以利用藍色框內的 上移、下移 來做調整


VM Network也需要做設定


三、驗證 vMotion
03-01.vMotion
在功能表裡面
你會找不到任何有關vMotion的字眼
這個功能的名稱是 "移轉"
選一個容量比較小的VM來做vMotion
先選到要vMotion的VM,滑鼠右鍵→【移轉】


vMotion有很多 咪法
這個Lab就僅做這個就好
Store不變,僅變更主機



因為我們是把
從192.168.10.28 的主機上的VM
要搬移到

192.168.10.29 主機上
選擇目的主機 192.168.10.29


選擇完目的主機
VMware會先去驗證一下,目的主機的相關設定
像是這個 訊息
就還蠻容易發生的,建議在vMotion前移除Mount ISO

不過,就我們的這個Lan來說
不會有影響

剛剛說過
VMware會先去驗證,目的主機的設定
在一般大型公司
甚至是 Public Cloud Vendor
在DataStore的配置上,都是有規劃的
底下可能有數十個DataStore
每個DataStore都有各自存放不同屬性的資料
都常也可有可無
除非客戶提出需求,否則一般來說
不會特意

如果目的主機忘了Mount這個DataStore
那麼,就會發生 vMotion 錯誤

因為這個VM上的 CDROM 資源,還咬在原先的 DataStore上


優先順序


有時候會vMotion到一半
停很久,停完就算了,還失敗

那麼進度條,不是沒有意義的
在失敗的經驗中去驗證
前33%,真的是在搬移資料,DataStore是有流量進出的
75%之後,DataStore幾乎沒流量,推測應該在搬記憶體


瞬間完成~大驚


照道理來說
不會這麼快就完成
傳輸個5GB的檔案,以1Gbps理論值去算
5 x 1024 / (1000/8) = 至少也要40秒
這還不含 TCP Header
推測,看來在設定的過程中背後就開始偷偷傳?大膽~

沒關係
我再移回192.168.10.28這台


還是...
跑的相當快
快到一整個不可思議
快,不是不好,只是快到不可能
我都是用模擬的,讀自己的disk,寫也是自己的disk
理論上再強的 SATA3 HDD 最多跑個150MB/s很偷笑了
我有做RAID0,算整數乘2好了
150 x 2 =300
5 x 1024 / 300 = 至少也要17秒
算了~
這邊就不再深入研究了

在按此步驟
也把另外幾台esxi主機,掛上Share Store 後
去vMotion看看吧~


驗證 vMotion
當然不是這樣就結束了
我們要測試
要vMotion的VM是 AD+DC 這台我們開這台 Guest VM 的 Console
從裡面去ping 主戰機的 VMnet1 的腳
即: 192.168.10.1 
ping 192.168.10.1 -t


在ping的當下
繼續把這台VM給vMotion到別台esxi上
觀察是否會掉封包
幾乎沒掉包
四、Troubleshooting
正常來說
以上,應該就要可以進行vMotion
但是,很神奇的是
在Lab環境中,竟然不行,離開30分鐘回來
竟然又可以了,真是鬼打牆啊
無論如何,如果真的還是不行vMotion
請再確認一下
1.NFS Share Storage在各個esxi上是否已經掛好
2.vMotion功能是否開啟
3.用vmkping去測試ShareStorage的20網段的腳

Lab的架構上來看

略有一點點複雜,畢竟有vlan,也自管Gateway

可以

將網段單純化,統一無vlan
也將Gateway 設給 VMware Workstation 試試

不能進行vMotion的狀況

有百百種,真的無法一一說明

狀況:在主機的目前狀態下不允許執行此作業

請將此esxi退出vCenter,再重新加入試試


狀況:無法連線到NFS伺服器

請將此esxi退出vCenter,再重新加入試試


由esxi的NFS的腳去ping NFS Storage試試
vmkping -I vmk1 192.168.50.40


由NFS Storage去ping看看esxi的 NFS的腳


都正常,那絕對是誤會一場
去泡杯咖啡,再回來試試

在Mount Share Store的時候
一直不是很順利
不確定是不是
把FreeNAS也給虛擬化的關係
但是過一陣子,就又Mount上去了
我什麼也沒做
一整個很怪...
看來...FreeNAS也不怎麼穩定


到這邊,我們完成了
1.設定vMotion

沒有留言:

張貼留言