Jumbo Frames

Функція дозволяє збільшити розмір поля для даних в пакеті IP Виходить, що ми тим же числом пакетів (тобто з тими ж накладними витратами) передаємо більше корисної інформації Якщо в стандартному IP-пакеті поле для даних має розмір 1500 байт, то при використанні Jumbo Frame – до 9000 байт

повинні підтримуватися всіма вузлами мережі, тобто повинні бути включені на фізичних комутаторах, віртуальних комутаторах або розподілених вКоммутаторах, а також у фізичних і віртуальних серверах можуть використовуватися з мережевими контролерами 1 Гбіт і 10 Гбіт

можуть використовуватися віртуальними машинами і портами VMkernel для трафіку NFS, iSCSI і vMotion Для початку використання нам необхідно включити їх підтримку на фізичних комутаторах, потім для vSwitch і dvSwitch, а далі налаштувати їх використання всередині ВМ або для віртуального контролера VMkernel

Найпростіше включити їх використання для розподіленого комутатора: Home Networking ⇒ в контекстному меню dvSwitch пункт Edit Settings Advanced Maximum MTU Вказуємо розмір поля для даних Найчастіше ис-

користується максимальний – 9000

Для стандартних комутаторів VMware включення робиться в два етапи

Спочатку підключіться за допомогою ssh або vSphere CLI до сервера ESX (i)

Виконайте команду

esxcfg-vswitch -m &ltMTU&gt  &ltvSwitch&gt

Подивитися поточні налаштування можна командою

esxcfg-vswitch –l

Отже, перший крок – включення підтримки на віртуальних комутаторах – ви зробили Крок номер два – включити цю функцію на ВМ і / або на інтерфейсах VMkernel

Щоб використовувати з ВМ, в якості гостьових ОС повинні використовуватися Windows Server (2003 або 2008, Enterprise або Datacenter Edition), Red Hat Enterprise Linux 50, SUSE Linux Enterprise Server 10 Тип віртуального мережевого адаптера повинен бути vmxnet2 або vmxnet3 У документації VMware написано «Для включення дивіться документацію гостьовий ОС» Але для Windows це робиться приблизно так, як показано на рис 235

Рис 235 Налаштування в драйвері vmxnet3

Для перевірки роботи відправте великий пакет сусідній ВМ:

ping-f-l 8972 <адреса ВМ>

На виході повинно вийти щось на кшталт:

ping 8972 (9000) bytes of data

8980 bytes from <адреса ВМ>: icmp_seq = 1 ttl = 128 time = 336 ms

Для використання з інтерфейсами VMkernel необхідно включити цю функцію на них Виконайте команду

esxcfg-vmknic  –l

Буде відображений список існуючих інтерфейсів VMkernel Якщо в стовпці MTU стоїть значення 1500, значить, не використовується До жалкую-

Різне

нію, змінити цю настройку для вже існуючого інтерфейсу можна, можна тільки його перестворити Для цього видаліть існуючий інтерфейс, для якого хочете включити Коли видаляється інтерфейс підключений до стандартного віртуального комутатора, синтаксис команди наступний:

esxcfg-vmknic-d <назва групи портів, куди підключений видаляється інтерфейс>

Потім створіть новий командою

esxcfg-vmknic-a-i -N -M <Назва групи портів, куди повинен бути підключений створюваний інтерфейс>

Зауваження з приводу синтаксису вищенаведених команд: у кожного інтерфейсу VMkernel є власне імя виду vmk # Кожен такий інтерфейс числиться підключеним до групи портів При виконанні вищенаведених команд під <назва групи портів, куди підключений видаляється інтерфейс> розуміється як раз назва групи портів, а не інтерфейсу

Будьте обережні – видалення інтерфейсу VMkernel може привести до розриву сесій vMotion, FT, iSCSI або NFS Переконайтеся в тому, що інтерфейс не використовується, перед його видаленням Також майте на увазі, що після пересозданія MAC-адресу інтерфейсу зміниться

Зверніть увагу не можна включити на ESXi з безкоштовною ліцензією

Ті команди з видалення та створенню інтерфейсу VMkernel, що були показані вище, дано у варіанті для стандартних вКоммутаторов У разі використання розподілених вКоммутаторов є невеликий нюанс

В актуальній на момент написання версії vSphere CLI не виявилося способу створити інтерфейс VMkernel на розподіленому віртуальному комутаторі Тому слід вчинити так

1 Створити інтерфейс VMkernel з MTU = 9000 на якомусь стандартному віртуальному комутаторі описаним вище способом

2 Перенести цей інтерфейс на розподілений віртуальний комутатор

Для цього пройдітьConfiguration Networking ⇒ кнопкаDistributed

має сенс використовувати для інтерфейсів VMkernel, задіяних під будь-які завдання Єдиний виняток – трафік управління ESXi

TOE (TCP offload engine) – функція фізичного мережевого контролера, коли частина роботи з обробки стека TCP / IP, така як формування та підрахунок контрольної суми пакетів, виконує не службою в ОС, а самим контрол-

лером Частина цього механізму – TSO, TCP Segmentation Offload, функція також відома як «large segment offload», або LSO TSO дозволяє обробляти великі пакети (до 64 Кб) при будь-якому розмірі MTU, формуючи з великого пакета більшу кількість пакетів меншого розміру

У документації VMware зазвичай вживається термін TSO, інші назви наведені для довідки

Включення цієї функції дозволяє знизити навантаження на процесори сервера і підвищити швидкість роботи мережі Помітна різниця в навантаженні на процесори сервера буде, швидше за все, лише в інфраструктурах зі значним мережевим трафіком

Формально ми можемо задіяти цю функцію для трафіку ВМ і VMker nel «Формально» – тому, що мені зустрічалися твердження інженерів VMware, що в vSphere (у перших версіях, принаймні) мережеві контролери з TSO працюють, але для трафіку ВМ TSO не використовується, так як внутрішні тести не показали значущою ефективності на різноманітних завданнях (дивhttp:// communitiesvmwarecom/thread/217825) Для трафіку ВМ цю функцію можна задіяти, прокинув фізичний мережевий контролер у ВМ за допомогою функції VMDirectPath

Може знадобитися включення TSO в BIOS мережевого контролера Зверни ті увагу, що якщо контролер з підтримкою TSO значиться в списку сумісності ESX (i), то це означає, що ESX (i) запрацює з цим мережевим контроллером, але не гарантує роботу з його функціями TSO Якщо вас цікавить саме функціонал TSO, то сумісність контролера з ESX (i) потрібно перевіряти саме з упором на TSO (по документації до мережевого контролеру)

Для інтерфейсів VMkernel TSO включений за замовчуванням Перевірити це можна, виконавши команду

esxcfg-vmknic  –l

Якщо в стовпці TSO MSS значення 65535, то TSO включений Якщо він вимкнений, то єдиний спосіб його включити – перестворити інтерфейс заново (як це зробити, описано в розділі про )

Вимкнути використання TSO для ESX (i) можна через розширені налаштування Пройдіть в налаштування сервера: Configuration Advanced Settings для Software ⇒ налаштуванні UseHwTSO вам потрібно привласнити значення нуль

Швидше за все, вимикання може знадобитися лише у випадку проблем з використанням цієї функції з вашими мережевими контролерами У разі проблем перед відключенням TSO відновите прошивку контролера і ESX (i) (або окремо драйвер для контролера)

Функція VMDirectPath дозволяє виділяти в приватне користування ВМ контролер в слоті PCI сервера Таким контролером може бути мережева карта Докладніше дивіться у розділі про компоненти ВМ

Різне

На розподіленому віртуальному комутаторі віртуальні машини підключаються до груп портів і до портів з конкретним номером Наприклад, у властивостях ВМ ви можете побачити можливість підключення віртуального мережного контролера до конкретного порту – рис 236

Рис 236 Налаштування мережевого підключення ВМ до окремого порту dvSwitch

Це може бути важливо з тієї причини, що для розподілених віртуальних комутаторів змінювати налаштування (такі як VLAN, traffic shaping, security та ін) можна і для окремого порту

Джерело: Міхєєв М О Адміністрування VMware vSphere 41 – М: ДМК Пресс, 2011 – 448 с: Ил

Схожі статті:


Сподобалася стаття? Ви можете залишити відгук або підписатися на RSS , щоб автоматично отримувати інформацію про нові статтях.

Коментарів поки що немає.

Ваш отзыв

Поділ на параграфи відбувається автоматично, адреса електронної пошти ніколи не буде опублікований, допустимий HTML: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

*

*