+86-13811808484

Когда говорят о Purley, многие сразу думают про переход на LGA 3647 и поддержку памяти DDR4. Это, конечно, базис, но если копнуть глубже — а мы в ООО Чжунчуан Жуньцзинь (Пекин) Информационные Технологии как раз этим и занимаемся при разработке своих серверных решений — понимаешь, что суть платформы в другом. Это фундаментальный сдвиг в архитектуре ввода-вывода и управлении ресурсами. Частая ошибка — оценивать её только по тактовым частотам. На деле, ключевое — это UPI (Ultra Path Interconnect) вместо QPI и, конечно, колоссально расширенные возможности через платформу Purley для сегментации и балансировки нагрузки на уровне аппаратного обеспечения.
В наших НИОКР, о которых можно подробнее узнать на https://www.itbktech.ru, мы быстро столкнулись с тем, что просто взять новый процессор Intel Xeon Scalable и воткнуть его в материнскую плату — путь в никуда. Платформа требует переосмысления подсистемы памяти. Трёхканальность ушла, пришла шестиканальная архитектура. На бумаге — рост пропускной способности. На практике же, при сборке кластера для одного из наших заказчиков из финансового сектора, мы наткнулись на тонкости ранжирования модулей RDIMM и LRDIMM в конфигурациях с максимальным количеством слотов. Не все прошивки BIOS/UEFI от вендоров плат тогда корректно с этим работали, были задержки с постом системы. Пришлось глубоко погружаться в документы Intel и проводить свои тесты, что в итоге стало частью нашего ноу-хау.
Или взять сеть. Интеграция контроллеров Intel QuickAssist Technology (QAT) и возможностей для ускорения обработки сетевых пакетов — это то, что реально меняет экономику ЦОД. Но чтобы это использовать, нужно тесно работать с софтверным стеком. Мы, например, при создании решения для провайдера облачных услуг активно экспериментировали с технологией Intel Resource Director Technology (RDT). Идея — изолировать кэш и полосу пропускания памяти между виртуальными машинами на одном хосте. Звучит фантастически, но настройка... Там была куча нюансов с мониторингом метрик и интеграцией в оркестратор. Не всё получилось с первого раза, некоторые ожидания по изоляции пришлось скорректировать, но сам опыт бесценен.
Вот этот переход от обсуждения ?ядер и гигагерц? к обсуждению управления кэш-памятью третьего уровня, распределения полосы пропускания PCIe и аппаратного ускорения — это и есть настоящая суть работы с Purley. Это уже не сборка систем, а проектирование вычислительной среды. Наша компания, предлагающая комплексные аппаратно-программные решения, видит в этом прямую выгоду для клиентов из медицины и науки, где нужна предсказуемая производительность сложных вычислений.
Был у нас интересный проект по созданию высокоплотного хранилища на базе платформы Purley. Идея была в использовании большого количества NVMe-накопителей через PCIe switch. Платформа с её увеличенным количеством линий PCIe 3.0, казалось бы, создана для этого. Собрали прототип, всё определилось, заработало. Но под нагрузкой, в моделировании обработки больших данных для образовательного сектора, начались странные фризы.
Долго искали узкое место. Оказалось, проблема не в дисках и не в процессоре. Логика распределения прерываний (MSI-X) между десятками устройств NVMe на одном корне PCIe не была оптимально настроена в драйверах и прошивке платы. Произошёл коллапс при определённом типе нагрузки. Это был момент, когда понимаешь, что новая платформа — это новая экосистема прошивок, драйверов и даже подходов к тестированию. Решение нашли через кастомные настройки в UEFI и патчи от вендора контроллера, но сроки проекта, конечно, сдвинулись.
С другой стороны, этот провал привёл к успеху. Полученный опыт мы применили в следующем проекте — графической рабочей станции для инженерного моделирования. Там тоже использовалась связка из нескольких мощных GPU и быстрых накопителей. Уже зная подводные камни, мы смогли заранее выбрать оптимальную конфигурацию материнской платы и тщательнее протестировать firmware. Клиент остался доволен стабильностью работы под пиковыми нагрузками.
Говоря о сетевых коммутаторах в контексте наших комплексных решений, Purley открыл новые возможности и здесь. Речь не только о поддержке интерфейсов 100GbE. Гораздо важнее, на мой взгляд, возможность тесной интеграции с технологиями Intel Ethernet Flow Director и DPDK (Data Plane Development Kit) для создания программно-конфигурируемых сетей (SDN) на уровне сервера.
В одном из проектов для интернет-сектора мы строили платформу для обработки трафика. Использовали платформу Purley с сетевыми картами, поддерживающими технологию Intel Ethernet Controller XL710. Задача была в том, чтобы эффективно распределять потоки пакетов между ядрами процессора, минуя стандартный стек ОС. Настройка DPDK под конкретную модель процессора Skylake-SP (а потом и Cascade Lake) — это отдельное искусство. Пришлось учитывать топологию NUMA, чтобы привязать потоки обработки и буферы памяти к ?своим? сокетам, минимизируя межсокетные задержки.
Это не та документация, которую читают по диагонали. Мы буквально по шагам сверяли настройки с white papers от Intel, проводили бенчмарки на собственном стенде. Результат — снижение задержки обработки пакетов в разы по сравнению с классической настройкой. Для МСП, которые работают с реальным временем, такой прирост критически важен. Но важно понимать, что это не out-of-the-box решение, а результат глубокой кастомизации, которую мы можем предложить как часть наших НИОКР.
Ещё один аспект, который часто упускают из виду при миграции на Purley, — расширенные возможности управления питанием. Технологии вроде Intel Speed Select (SST) позволяют гибко управлять частотой ядер и базовой частотой процессора. Звучит скучно, пока не столкнёшься с счётом за электричество в дата-центре.
У нас был пилотный проект с медицинским учреждением, где вычислительная нагрузка носила ярко выраженный пиковый характер (ночная обработка снимков, днём — относительно простые задачи). Стандартные настройки энергосбережения не давали нужного эффекта. Мы стали экспериментировать с SST, настраивая профили производительности через BMC (Baseboard Management Controller) в зависимости от расписания задач. Сначала были ошибки — слишком агрессивные настройки приводили к торможению критических процессов при внезапной дневной нагрузке.
Методом проб и ошибок нашли баланс. Удалось снизить среднее энергопотребление серверной стойки почти на 15% без ущерба для времени выполнения ключевых операций. Это тот самый практический результат, который сложно оценить по спецификациям, но который напрямую влияет на TCO (общую стоимость владения). Для нас, как для интегратора, это сильный аргумент в диалоге с заказчиком, особенно из госсектора, где вопросы энергоэффективности стоят остро.
Сейчас, с приходом поколений Cascade Lake и Ice Lake, платформа Purley эволюционирует, но её архитектурные принципы остаются. Для нас в ООО Чжунчуан Жуньцзинь это означает постоянную работу над адаптацией наших решений — серверов, рабочих станций, систем хранения. Каждое новое stepping процессора, каждая новая ревизия микрокода — это потенциальные улучшения стабильности или новые возможности, которые нужно проверить на стендах, описанных на нашем сайте itbktech.ru.
Главный вывод, который можно сделать, проработав с этой платформой несколько лет: она не проще предыдущих. Она сложнее и требовательнее к квалификации инженеров. Старое доброе ?поставил ОС и работает? здесь часто не срабатывает. Нужно копаться в настройках UEFI, думать о топологии, подбирать совместимые версии драйверов и firmware. Это и есть та самая ?экосистема?.
Но именно эта сложность открывает двери для создания truly оптимизированных решений. Когда мы сейчас собираем систему для заказчика, мы уже не просто собираем железо из коробок. Мы проектируем её с учётом его конкретных workload'ов, потенциальных точек роста и узких мест. И платформа Purley, со всей её многогранностью и подводными камнями, дала нам для этого необходимый, хоть и иногда суровый, инструментарий. Это уже не просто платформа, это среда для инженерной работы.