• Главная <
  • Галерея
  • Карта сайта
  • Наши контакты
  • Обратная связь

Тестування мережевих карт для серверів

  1. Вступ
  2. Критерії відбору
  3. Методика тестування
  4. Вибір редакції
  5. 3Com 10/100 Fast EtherLink Server NIC
  6. D-Link DFE-570TX
  7. Intel Pro 100
  8. Вбудований мережевий адаптер сервера HP LH3000
  9. Intel PRO / 100 + Server Adaper
  10. Intel PRO / 100 + Dual Port Server Adapter
  11. Intel PRO 100 PCI
  12. Безіменний адаптер на базі Realtek 8139
  13. SMC TigerArray2 SMC9334BDT / SC
  14. SMC TigerArray SMC9432TX / SC

У тестовій лабораторії «КомпьютерПресс» проведено тестування дев'яти моделей мережевих карт для серверів: 3Com 3C980C-TXM, D-Link DFE 570TX, Intel Pro 100+, вбудована на материнській платі сервера, Intel Pro 100+ (для робочих станцій), Intel PRO / 100 + Server Adapter (PILA8470B), Intel PRO / 100 + Dual Port Server Adapter (для серверів), SMC EtherPower II 10/100 Ethernet Adapter, SMC EtherPower 10/100 Ethernet Adapter і безіменна карта на основі чіпа Realtek 8139.

Сергій Пахомов, Сергій Самохін

Вступ

Критерії відбору

Методика тестування

Вибір редакції

3Com 10/100 Fast EtherLink Server NIC

D-Link DFE-570TX

Intel Pro 100

Вбудований мережевий адаптер сервера HP LH3000

Intel PRO / 100 + Server Adaper

Intel PRO / 100 + Dual Port Server Adapter

Intel PRO 100 PCI

Безіменний адаптер на базі Realtek 8139

SMC TigerArray2 SMC9334BDT / SC

SMC TigerArray SMC9432TX / SC

Сімейство мережевих адаптерів DuraLan64

Мережеві адаптери для серверів від Compaq

Matrox NS-FNIC / 4

Вступ

Протягом довгого часу в сервери встановлювалися такі ж мережеві карти, що і в робочі станції. Це було обумовлено рядом причин. По-перше, тим, що при виборі карти керувалися тим же критерієм вартість / продуктивність. По-друге, спеціальних мережевих карт просто не існувало. Однак зростання мережевого трафіку змусив переглянути традиційний підхід до мережевих карт, що встановлюються в сервери.

Дивлячись на світлодіод, індиціюється активність мережевої карти, встановленої на робочій станції, можна помітити періодичні короткі спалахи, іноді змінювані більш тривалими при файлових операціях або друку. Цей же світлодіод карти, встановленої на сервері із середньою (або вище) завантаженням, має майже безперервне світіння. Дійсно, кожна зі станцій обмінюється з сервером службової і файлової інформацією, але він-то обмінюється цією інформацією з усіма! Виходячи із загальних міркувань, можна припустити, що мережева карта на сервері повинна співвідноситися зі звичайною так само, як RAID-масив зі звичайним жорстким диском, тобто бути більш продуктивною і надійнішою.

Основними властивостями, властивими серверним мережевим картками, повинні бути масштабованість, керованість і надійність.

В даному випадку під масштабністю розуміється можливість збільшення числа користувачів при збереженні достатньої швидкості обміну для кожного з них. Масштабованість може бути досягнута установкою більшої кількості мережевих карт, однак їх кількість обмежена кількістю вільних слотів PCI. Інший спосіб - застосування багатопортових карт, що мають два або чотири мережевих роз'єму на одній платі. Фактично на одній платі розташовано кілька мережевих адаптерів. Оскільки на інтерфейсі PCI одночасно може бути активним лише одне периферійний пристрій, то наявність одного фізичного пристрою на чотири адаптера не знижує пропускну здатність.

Керованість необхідна для загального контролю за станом системи, спрямованого на запобігання збоїв і катастроф. Мережева карта повинна входити в систему управління сервером і реєструвати всі збої і підозрілі ситуації в базі даних статистики системи управління.

Надійність серверної мережевої карти повинна бути вище, ніж у клієнтських карт. Це пояснюється тим, що відмова мережевої карти одного клієнта призводить до того, що один користувач не може працювати з документами протягом одного або декількох годин. Відмова ж мережевого адаптера на сервері може призвести до повної відмови всієї системи, іншими словами, ефект має не адитивний, а синергічний (тобто такий, коли результат перевищує суму причин, що його породили) характер. Частковим вирішенням проблеми є застосування мережевих адаптерів з можливістю гарячої заміни, більш адекватним - гаряче резервування, подібне до того, що реалізовано в мережах FDDI (в нормальному режимі працюють два кільця, при аварії вони об'єднуються в одне, яке працює на половинній швидкості).

Останнім часом з'явилося кілька типів карт, які відповідають перерахованим вимогам і мають досить вражаючі характеристики.

Яким чином можна поліпшити характеристики мережевих карт? За пропускної здатності вузьке місце знаходиться не на карті або сервері, а зовні, в мережі. Візьмемо мережу, реалізовану за стандартом 100Base-T. Цифра 100 означає величину тактової частоти, з якою передаються дані, а також те, що при наявності в мережі тільки двох станцій вони зможуть обмінюватися даними зі швидкістю не набагато менше ніж 100 Мбіт / с. Через тимчасових витрат, властивих алгоритму доступу до середовища передачі, прийнятому в мережах Ethernet, - CSMA / CD (Carrier Sense Multiple Access / Collision Detection - множинний доступ з прослуховуванням несучої / виявленням зіткнень), корисна пропускна здатність при наявності концентратора (а не комутатора) рідко перевищує 50 Мбіт / с, причому зі збільшенням навантаження пропускна здатність знижується. Реальний максимум, при якому падіння пропускної здібності не дуже помітно, становить 15-20 Мбіт / с. Це становить відповідно 2-2,5 Мбайт / с, що легко досягається навіть при 32-бітної шині PCI. З тієї ж причини вказуються нижче величини пропускної здатності носять чисто теоретичний характер і наводяться в порядку посилань на відповідні стандарти. Застосування комутаторів дозволяє значно підвищити швидкість обміну.

Перший спосіб поліпшення характеристик мережевих карт - зниження навантаження на центральний процесор. Це досягається шляхом розробки спеціалізованих БІС, які беруть на себе значну частину роботи на низькому рівні (виявлення зіткнень, складання / розбирання пакетів, перевірка контрольних сум, повторна передача зіпсованих пакетів і т.д.). Другий спосіб (що не виключає перший, а застосовуваний поряд з ним) - установка на мапі власного процесора. Подібні карти показують особливо хороші результати, оскільки забезпечують ефективну роботу навіть з великим навантаженням в мережі, не дуже істотно підвищуючи навантаження на центральний процесор. Наявність власного процесора дозволяє встановлювати на них до 1 Мбайт буферної пам'яті, що переводить їх з розряду просто мережевих карт в розряд комунікаційних мережевих процесорів.

Нарешті, можна спробувати розшити вузьке місце і збільшити пропускну здатність самої мережі. В даний час при збільшенні мережевого трафіку вище допустимого застосовується розбивка її на сегменти і підключення цих сегментів до різних мережевих адаптерів. Однак таке рішення не відрізняється легкістю масштабованості і призводить до зниження надійності (чим більше мережевих адаптерів і концентраторів, тим більша ймовірність відмови одного з них). Теоретично набагато привабливіша «плоска» модель мережі, коли центральний концентратор або комутатор приєднаний до сервера за допомогою єдиного високошвидкісного каналу.

Це досягається за допомогою технології, званої Port Aggregation (об'єднання портів). Об'єднання портів в даному випадку означає об'єднання декількох сегментів мережі в один, що володіє більшою продуктивністю. Ці кілька портів утворюють один віртуальний порт, теоретично володіє продуктивністю, рівної продуктивності вихідних портів, помноженої на їх кількість. Таким чином, продуктивність, скажімо, об'єднаних чотирьох портів дорівнює 4х100 = 400 Мбіт / с. Але цим пострілом вбивається не один заєць. Рішення має масштабністю, так як порти можна додавати, тим самим збільшуючи по мірі необхідності пропускну здатність. Рішення також володіє підвищеною надійністю, так як при виході з ладу однієї з карт її навантаження просто розподілиться між рештою.

Об'єднання портів буває двох видів: симетричне і асиметричне. При асиметричному об'єднанні поліпшується пропускна здатність лише в одну сторону, наприклад на вихід, що входить ж трафік проходить тільки через один порт (або навпаки). Конкретне рішення про направлення, в якому будуть об'єднані порти, приймається драйвером на основі аналізу трафіку в обох напрямках. Об'єднуються канали того напрямку, де навантаження більше. Це рішення відоме також під назвою Adaptive Load Balancing.

Симетричне об'єднання має на увазі підсумовування пропускної здатності як для вихідного, так і для вхідного трафіку, незалежно від навантаження в обох напрямках. Cisco Fast EtherChannel (FEC) - одна з технологій, що реалізують симетричне об'єднання портів.

Керованість забезпечується за рахунок того, що в сучасних мережевих адаптерах, спеціально призначених для установки в сервери, передбачені всі необхідні засоби взаємодії з системою управління.

В технології об'єднання портів крім сервера і мережевих карт бере участь ще один гравець - комутатор (Switch). Об'єднані в групу мережеві порти повинні підключатися до одного і того ж комутатора. Концентратори не підтримують технологію об'єднання портів, але здатні забезпечити резервування. Більшість сучасних комутаторів підтримують даний режим, однак перед придбанням конкретного комутатора слід упевнитися, чи так це.

Для об'єднання портів потрібен спеціальний драйвер, що постачається зазвичай з мережним адаптером. Це означає, що об'єднання підлягають тільки карти, виготовлені одним і тим же виробником, одного і того ж типу (або на однаковому чіпсеті). Найбільш придатними є дво- і чотирьохпортовий адаптери, наприклад Intel Pro 100+ Dual Port Server Adapter або чотирипортова карта ANA-62044 виробництва Adaptec.

Однак з появою пакета NIC Express від фірми IP Metrics Software, Inc. () ситуація змінилась. Цей пакет дозволяє об'єднувати практично будь-які карти. Доступна безкоштовна оціночна копія терміном на 30 днів. Якщо сподобається, її можна зареєструвати за все за 395 дол. Втім, за ті ж гроші можна купити чотири дуже пристойних серверних адаптера разом з ПО для їх об'єднання.

Критерії відбору

Для тестування вибиралися наявні на російському ринку мережеві карти, що позиціонуються виробниками як серверні. Дані деяких карт, недоступних в Москві, представлені у виразках. Для порівняння в склад тестованих були включені два адаптера, не призначених для установки в сервери: перший - невідомого виробника на основі БІС Realtek 8139, другий - Intel Pro 100. Перший був узятий для того, щоб перевірити, чи не морочать нам голову, пропонуючи серверні адаптери просто тому, що вони «серверні», а другий - щоб перевірити, наскільки різняться «серверні» і «несерверні» карти, реалізовані на одній і тій же БІС контролера.

Методика тестування

Вимірювання проводились на стенді, що складається з сервера HP LH3000 (2XPIII 600 МГц, RAM 512 Мбайт, RAID 0 з двох дисків), комутатора Lucent Cajun P533T на 24 порти і 23 робочих станцій. На сервері була встановлена ​​ОС Windows 2000 SP1, на робочих станціях - Windows 2000 Pro. Всі адаптери, встановлені на робочих станціях і сервері, працювали в режимі 100 Мбіт / с Full Duplex.

Метою вимірювань було отримати порівняльні характеристики роботи тестованих мережевих адаптерів в комплексі з операційною системою та мережеве середовище. Вимірювання «чистої» продуктивності мережевого адаптера, швидше за все, не має особливого сенсу, так як він завжди працює спільно зі своїм драйвером і мережевою ОС, при цьому завантаження процесора визначається як якістю написання драйвера, так і супутніми мережевого трафіку файловими операціями.

Зазвичай для вимірювання ефективності мережевих карт використовуються утиліти IOmeter або NetBench. Обидві вони призначені для відносних (а не абсолютних) вимірювань, тобто для порівняння декількох пристроїв однакового призначення на предмет виявлення кращого (і гіршого) з них. Кожна з утиліт має свої позитивні і негативні сторони.

IOmeter імітує як вхідний, так і вихідний трафік, дозволяючи регулювати їх співвідношення, що більше відповідає реальній роботі. Однак при цьому на сервері запускається процес під назвою IOmeter, на який падає велика частина завантаження процесора. Мабуть, значна частина операцій відбувається при цьому «в обхід» файлової системи ОС, що не дозволяє вважати вимірювання характеристик комплексу адаптер + драйвер + ОС цілком коректними.

Робота утиліти NetBench заснована на читанні файлів, розташованих в кеш-пам'яті файлової системи, виключаючи тим самим з процесу вимірювань дискову підсистему, яка могла б сповільнити файлові операції; при цьому розмір запиту варіюється від 512 байт до 64 Кбайт. Хоча з боку сервера в цьому випадку генерується тільки трафік на читання, в роботі беруть участь всі підсистеми ОС, і тільки вони. Саме ця обставина і виявилося вирішальним при виборі вимірювального інструмента для отримання характеристик комплексу адаптер + драйвер + ОС.

Основним критерієм якості мережевого адаптера, поряд з абсолютною величиною пропускної здатності, є ставлення пропускної здатності до створюваної при цьому завантаженні процесора. Слід враховувати, що завантаження процесора породжується не тільки (і не стільки) операціями роботи з мережею, але і супутніми файловими і іншими операціями, а також різними фоновими завданнями. На жаль, драйвер мережевого адаптера не породжує окремого процесу, і тому пряме вимірювання завантаження процесора від виконання коду цього драйвера не представляється можливим. Деякого уточнення можна домогтися шляхом вимірювання часу DPC (Deferred Procedure Calls - відкладені виклики процедур), яке безпосередньо пов'язане з системою обробки переривань. Однак більша частина периферії працює по перериваннях, так що і цей параметр не дає однозначної оцінки. У зв'язку з цим було прийнято рішення прийняти традиційне ставлення пропускної здатності до створюваної при цьому завантаженні процесора за основний критерій якості мережевого адаптера. За інших рівних різниця в завантаженні процесора породжується тільки мережним адаптером і його драйвером, а значить, вона може служити об'єктивним критерієм оцінки якості.

Власне вимірювання проводилися наступним чином: на 22 робочих станціях було встановлено пакет NetBench, ще одна служила контролером, що здійснює запуск клієнтів і відображення результатів вимірювання. При збільшенні кількості мережевих з'єднань з сервером число приєднаних робочих станцій відповідно зменшувалася, але ніколи не було нижче 19. Завантаження процесора вимірювалася за допомогою стандартної утиліти Performance Monitor, запущеної на сервері. Виміри проводилися при розмірі запиту на читання 512 байт, 1, 2, 4, 8, 16, 32 і 64 Кбайт. Отримані результати відносини продуктивність / завантаження процесора усереднювалися і служили для оцінки. Вбудований адаптер відключався через BIOS, якщо він не брав участі в процедурі вимірювання.

На закінчення кілька слів про саму величину завантаження процесора (Processor Utilization). Всупереч відомому думку, що чим ця величина нижче, тим краще, насправді вона характеризує віддачу тих грошей, які були вкладені в придбання процесора / процесорів. Наприклад, при завантаженні процесора в 30% можна з деяким наближенням вважати, що 70% грошей було викинуто на вітер! Насправді не слід, звичайно, шляхом зниження потужності домагатися величини 100%, але 70 ... 80% - величина не тільки допустима, але і бажана.

З результатами тестування ви можете ознайомитися тут .

Вибір редакції

Так як мережевий адаптер для сервера купується не кожен день, було вирішено виключити з розгляду грошовий аспект, а оцінку виробляти тільки за основним критерієм якості - відношенню продуктивність / завантаження процесора. При цьому були обрані дві номінації: кращий одиночний мережевий адаптер і кращий колективний. У першій найкращим виявився з невеликим відривом 3Com 3C980C-TXM, у другій (також з невеликим відривом) Intel PRO / 100 + Dual Port Server Adapter.

3Com 10/100 Fast EtherLink Server NIC У тестовій лабораторії «КомпьютерПресс» проведено тестування дев'яти моделей мережевих карт для серверів: 3Com 3C980C-TXM, D-Link DFE 570TX, Intel Pro 100+, вбудована на материнській платі сервера, Intel Pro 100+ (для робочих станцій), Intel PRO / 100 + Server Adapter (PILA8470B), Intel PRO / 100 + Dual Port Server Adapter (для серверів), SMC EtherPower II 10/100 Ethernet Adapter, SMC EtherPower 10/100 Ethernet Adapter і безіменна карта на основі чіпа Realtek 8139

Мережеве обладнання виробництва 3Com користується заслуженою популярністю. Мережевий адаптер 3C980C-TXM - приклад оптимізованого для високошвидкісного обміну пристрою. Інтерфейс з мережею - 10Base-T (10 Мбіт / с), 100Base-T (100 Мбіт / с) і 100Base-TX (200 Мбіт / с). Застосована в ньому технологія Parallel Tasking (паралельні завдання) дозволяє знизити навантаження на шину PCI, так як весь пакет розміром 1514 байт передається за один цикл типу Bus Master. При цьому використовується розширений набір інструкцій PCI, таких як Memory Read Line (MRL), Memory Read Multiple (MRM), особливо Memory Write Invalidate, яка дозволяє поліпшити управління кеш-пам'яттю.

Під управлінням ПО 3Com DynamicAccess кілька адаптерів (до восьми) можуть бути об'єднані в групу за технологією Load Balancing, при цьому в разі виходу з ладу одного з адаптерів забезпечується розподіл навантаження між рештою. Для обчислення потрібного адаптера в групі при встановленні «вихідного» з'єднання застосовується алгоритм хешування, який використовує в якості ключа IP-адреса клієнта. Це дозволяє ефективно використовувати технологію при роботі через маршрутизатор або комутатор рівня 3.

При встановленні «вхідного» з'єднання для вибору адаптера використовується простий циклічний алгоритм вибору MAC-адреси, відповідного IP-адресою сервера. Оскільки маршрутизатори і комутатори рівня 3 беруть безпосередню участь у встановленні з'єднання, то «входять» з'єднання з іншими підмережами здійснюються тільки через провідний адаптер групи.

Так як весь інтелект технології Load Balancing зосереджений в мережевому адаптері і драйвер, то вона може застосовуватися з будь-яким комутатором незалежно від застосованих в ньому фірмових технологій. Це дозволяє заощадити кошти шляхом використання вже наявного обладнання, в тому числі і недорогого.

Технологія Resilient Server Links (RSL - пружне з'єднання з сервером) дозволяє зберегти зв'язок з сервером навіть при відмові деяких елементів мережевої інфраструктури. Драйвер первинного адаптера відстежує стан з'єднання. Якщо воно обривається в результаті несправності комутатора, кабелю або самого адаптера, то всі логічні з'єднання передаються на резервний, а його MAC-адресу передається широкомовно для того, щоб коммутирующая середовищі набули дані про новий шляху для з'єднання. Всі сеанси при цьому залишаються активними, а користувачі продовжують роботу, навіть не помітивши відмови.

Драйвери побудовані по архітектурі 3Com Self-Healing (буквально - самолікування) таким чином, що при наявності помилок на кшталт завислого переривання або втрати несучої робляться необхідні заходи, аж до перезапуску драйвера і карти. Крім того, при виникненні великої кількості помилок, наприклад колізій, коротких пакетів, помилок CRC і т.п., драйвер може прийняти рішення перейти на запасний адаптер (якщо такий є). Кількість помилок (поріг), при якому здійснюється такий перехід, може бути встановлено і змінено адміністратором.

Основним елементом адаптера є велика інтегральна схема BCM5904 виробництва фірми Broadcom. Цей однокристальний контролер проводиться на замовлення 3Com і в широкий продаж не надходить.

Установка адаптера 3C980C-TXM пройшла без проблем, був використаний драйвер версії 3.21.0.0 від 3Com із прикладеного CD-ROM. Самостійно ОС Windows 2000 драйвер встановити не змогла.

Після тестування одиночного адаптера був встановлений другий і вироблено об'єднання їх в групу за допомогою утиліти 3Com DynamicAccess Software for Server Configuration v1.8. При установці двох адаптерів продуктивність мережевий підсистеми зросла в два рази, а завантаження процесора - майже в три. Установка і об'єднання чотирьох адаптерів привели до потроєння виміряної продуктивності мережевої підсистеми. При цьому спостерігалася завантаження процесора більше 93%, що і обмежило насправді мережевий трафік.

Редакція дякує московське представництво 3Com () за надані для тестування мережеві адаптери 3C980C-TXM.

D-Link DFE-570TX

Чотирьохпортовий серверний адаптер D-Link DFE-570TX побудований на основі чотирьох БІС Intel 21143-TD + і однієї 21152-AB. Він призначений для установки в сервери, що працюють під управлінням ОС Windows NT / 2000. При наявності відповідного програмного забезпечення забезпечується симетричне об'єднання портів і захист від збоїв і відмов.

ОС Windows 2000 визначила адаптер як чотири мережеві карти на основі контролера i21143. Для об'єднання портів служить спеціальна утиліта, наявна на сайті D-Link (). По дизайну і інтерфейсу ця утиліта дуже схожа на вже згадувану NIC Express від фірми IP Metrics Software, Inc.

Після установки утиліти управління з'являються можливості об'єднання портів в одну або кілька груп, управління властивостями протоколу TCP / IP групи, а також перегляду статистики та управління отказоустойчивостью.

Утиліта статистики дозволяє переглядати стан кожного з портів і їх активність в загальному і в деталях. Також передбачена можливість ручного перезапуску відмовив порту (наприклад, після заміни випадково пошкодженого кабелю або усунення іншої несправності), хоча відстеження стану портів і їх перезапуск при відновленні працездатності виробляються автоматично. Крім того, можна змінити кількість перезапусків, після якого порт вважається несправним (за замовчуванням воно дорівнює трьом за одну годину).

Наявність такої великої кількості можливостей контролю і управління, безсумнівно, робить цей адаптер і постачається з ним програмне забезпечення вельми привабливим.

Редакція дякує московське представництво D-Link () за наданий для тестування мережевий адаптер D-Link DFE-570TX.

Intel Pro 100

Марка Intel Pro відома досить давно і заслужено користується як любов'ю системних інтеграторів, так і успіхом у комп'ютерноїпреси, свідченням чого є численні нагороди таких видань, як PC Magazine, Network Computing і ін. Всі адаптери в лінійці мають істотні відмінності по архітектурі і застосованої елементної базі. Мінімально відмінність між двома адаптерами - PRO / 100 + і PRO / 100. Нова БІС, 82559, застосована в цих адаптерах, апаратно реалізує функцію підрахунку контрольної суми пакетів TCP, тим самим знижуючи навантаження на центральний процесор.

Для об'єднання портів використовується декілька технологій. Перша, Adaptive Load Balancing, є варіантом асиметричного об'єднання портів (один, ведучий, адаптер працює і на прийом, і на передачу, інші - в ту сторону, куди більше трафік) і не вимагає ніякої підтримки з боку комутатора. Ця технологія дозволяє комбінувати до чотирьох портів в один високошвидкісний канал і отримати пропускну здатність до 400 Мбіт / с. Друга технологія, Intel Link Aggregation, - фірмова, відповідна симетричного об'єднання (трафік йде в обидва напрямки через все адаптери) і дозволяє за допомогою комутаторів Intel Express Switch серії 500 отримати пропускну здатність до 800 Мбіт / с. Третя технологія, Fast EtherChannel розробки Cisco, також є симетричною і вимагає підтримки з боку комутатора.

Нарешті, заявлено, що серверні мережеві адаптери, побудовані на основі контролерів 82558/82559, підтримують новий стандарт IEEE 802.3 ad, тобто можуть об'єднуватися з будь-якими адаптерами, що підтримують цей новий, тепер узаконений IEEE стандарт.

Всі технології забезпечують підтримку функції Adapter Fault Tolerance (допустимість збою адаптера).

У разі виявлення несправності одного адаптера драйвер негайно перемикає трафік на інші. Цікаво, що ця функція може працювати і з різнотипними адаптерами. Характерною особливістю є також те, що жоден адаптер не простоювали в якості запасного в очікуванні збою.

Крім того, всі адаптери підтримують технологію Adaptive Technology (адаптивна технологія), яка, власне, складається з двох частин: завантаження микрокода в БІС контролера і управління межпакетное інтервалом.

Завантаження микрокода проводиться драйвером і необхідна для підстроювання контролера на рівні кремнію під конкретну ОС. Для ОС класу Win NT заявлений виграш продуктивності, досягнутий таким чином, від 5 до 20%. Друга частина технології відноситься до управління розміром межпакетное інтервалу на основі аналізу трафіку в мережі. Збільшуючи або зменшуючи цей, взагалі кажучи, стандартизований інтервал, адаптер домагається зниження числа колізій або полегшення доступу до середовища передачі.

Вбудований мережевий адаптер сервера HP LH3000

Розгледіти БІС контролера, заховану в глибинах сервера, неможливо, не розібравши його наполовину, однак представник HP повідомив, що в основі мережевого адаптера лежить i82559. Це підтверджується і тим, що Windows 2000 встановлює драйвер від Hewlett- Packard, проте драйвер від Intel також прекрасно працює. Вбудований адаптер здатний об'єднуватися в групи з іншими адаптерами на базі чіпа i82559, встановленими в роз'єми шини PCI, тобто він може служити основою для подальшого розширення мережевої підсистеми.

Intel PRO / 100 + Server Adaper

В основі адаптера лежить БІС контролера i82559. Було встановлено драйвер версії 5.0.67.0, провайдер Intel Сorporation. За допомогою утиліти Intel PROSet II були отримані групи з двох і чотирьох адаптерів, причому для двох адаптерів продуктивність практично подвоювалася, а завантаження процесора зростала в 2,5 рази. При установці групи з чотирьох адаптерів продуктивність зросла більш ніж в 3 рази (але не в 4), що обумовлено досягненням завантаження процесора до 95%.

Intel PRO / 100 + Dual Port Server Adapter

Двопортовий серверний адаптер побудований на базі контролера PCI Intel 21152_AB і двох контролерів Ethernet Intel 82558+. Було встановлено драйвер версії 5.0.67.0 (провайдер Intel Сorporation). Об'єднання в групи з двох і чотирьох портів проводилося за допомогою утиліти Intel PROSet II. Цей адаптер показав найвищі результати при об'єднанні портів.

Intel PRO 100 PCI

Цей адаптер побудований на основі того ж чіпа i82559 і відрізняється наявністю функції Wake up On LAN. Тестуванню він піддавався головним чином для того, щоб зрозуміти, чим відрізняється «серверний» адаптер від «несерверні», при тому що в обох використовується одна і та ж БІС контролера. Було встановлено драйвер версії 4.02.38.0000 (провайдер Intel Сorporation). Функції об'єднання в драйвері відсутні, але за допомогою утиліти від Ipmetrics (NIC Express v2.12, оціночна 30-денна версія) вдалося об'єднати два адаптера. При цьому навантаження на обидва адаптера була однаковою як на прийом, так і на передачу, а досягнутий результат - вельми високим для мережевих карт, об'єднаних в групу.

Редакція дякує компанії Аертон () за надані для тестування мережеві адаптери виробництва Intel.

Безіменний адаптер на базі Realtek 8139

На основі чіпа Realtek 8139 випускається половина дешевих мережевих адаптерів для робочих станцій. Через виняткову дешевизну вони користуються заслуженою популярністю. Метою включення подібної карти до складу тестованих було виключно бажання зрозуміти і відчути різницю.

Установка адаптера пройшла на ура, операційна система підхопила його вліт. Відразу ж встановилася максимально можлива швидкість з'єднання - 100 Мбіт / с з повним дуплексом. Однак за результатами вимірювань видно, що дешевизна далася розробникам непросто. Тільки при одному значенні розміру запиту вдалося подолати бар'єр 70 Мбіт / с. Далі почалися формені чудеса: NIC Express, прекрасно працювала з усіма типами адаптерів, а за чутками, здатна об'єднувати різнотипні карти, відмовилася працювати з двома однаковими картами на основі контролера Realtek 8139. Вона їх бачить, об'єднує в групу, але цим справа і закінчується. Реально весь трафік йде через одну карту.

Це ще раз підтверджує, що адаптери для серверів і робочих станцій остаточно розійшлися по різних класах обладнання. ОС, встановлена ​​на комп'ютері користувача, ніколи не зможе створити трафік більше 30-40 Мбіт / с, що і підтримує з запасом розглянута карта. А ось на сервері мережевий адаптер повинен розвивати швидкість, рівну або принаймні близьку до теоретичної межі - 100 Мбіт / с на прийом і передачу.

SMC TigerArray2 SMC9334BDT / SC

Побудований на основі двох БІС Digital 21140-AF + і одного контролера PCI Intel 21152-AB, цей адаптер був розпізнаний операційною системою як дві мережеві карти з контролером 21140, при цьому відповідні драйвери були встановлені автоматично. З засобом об'єднання портів Tiger Array було дещо гірше: версії, працездатною під ОС Windows 2000, не виявилося, і з Мюнхена, де розташований європейський офіс SMC, нам по електронній пошті прийшов рада скористатися все тим же пакетом NIC Express від Ipmetrics, що і було зроблено для проведення вимірювань.

SMC TigerArray SMC9432TX / SC

Цей однопортовий адаптер побудований із застосуванням однокристального контролера з маркуванням SMC 83C171A2QP. У ньому застосовані технології SMC SimulTasking і Programmable InterPacket Gap.

Перша прискорює роботу карти з інтерфейсом PCI за рахунок звернення до масиву даних однією командою і використання паралельної завантаження буфера і обміну з мережею. Друга дозволяє полегшити доступ до мережі або знизити кількість колізій шляхом підстроювання межпакетное інтервалу.

Драйвер для установки був узятий з сайту SMC (), версія драйвера 3.22, провайдер - SMC Networks. Після закінчення установки було виявлено, що з'єднання встановилося на швидкості 10 Мбіт / с. Потрібної швидкості вдалося домогтися шляхом зняття режиму Autonegotiation і примусової установки 100 Mbit Full Duplex. Об'єднання портів проводилося за допомогою все тієї ж утиліти NIC Express від Ipmetrics, причому слід зазначити той факт, що на сайті SMC доступна тільки 30-денна версія.

Редакція дякує московське представництво SMC () за надані для тестування мережеві адаптери SMC9334BDT / SC і SMC9432TX / SC.

КомпьютерПресс 4'2001


Яким чином можна поліпшити характеристики мережевих карт?
Новости