Intel разкри детайли за интерфейса CXL Interconnect

Intel разкри детайли за интерфейса CXL Interconnect

В раздел: Новини от на 9.04.2019, 1,671 показвания

 

CXL, съкратено от Compute Express Link, е амбициозна нова технология за свързване на дискретни устройства с висока честотна лента, като GPU базирани изчислителни ускорители, в средата на центрове за данни. Този интерфейс е проектиран да преодолее много от техническите ограничения на PCI-Express, най-маловажно, от които е честотната лента. Intel усеща, че предстоящото семейство мащабируеми изчислителни ускорители “Xe” се нуждаят от специализирана връзка, която Intel иска да прокара като следващ индустриален стандарт. Разработването на CXL е задействано главно заради и от изчислителните ускорители на NVIDIA и AMD, които вече имат сходни собствени интерконекти, съответно NVLink и InfinityFabric.
На специалното събитие, наречено “Interconnect Day 2019”, Intel представи техническа презентация, в която се описват всички подробности на CXL интерфейса.
На него са се аргументирали защо индустрията се нуждае от CXL и защо PCI-Express (PCIe) интерфейса не е достатъчно подходяш за тази цел.
За устройствата в клиентския сегмент PCIe интерфейсът е перфектен, тъй като машините в този сегмент нямат свързани с него твърде много устройства, твърде голяма памет и приложенията нямат много голям отпечатък в паметта или мащабируемост на множество машини. PCIe се проваля в центровете за данни, когато се използва от множество устройства, които са гладни за честотна лента и изискват големи кохерентни пулове обща памет. Най-големият недостатък на PCIe са изолираните пулове памет за всяко устройство и неефективните механизми за достъп. Споделянето на ресурсите е почти невъзможно. Споделянето на операнди и данни между множество устройства, като например два GPU ускорителя, работещи по даден проблем, е много неефективно. И накрая, PCIe има голяма латентност. Латентността е най-големият враг на споделените пулове памет, които обхващат множество физически машини. CXL е проектиран да преодолее много от тези проблеми, без да отхвърля най-добрата част на PCIe – простотата и адаптивността на физическия му слой.

 

CXL е просто алтернативен протокол, който се изпълнява на физическия слой на PCIe. Нa “хартия” началната версия на CXL има във всяка посока честотна лента от 32 Gb/s на линия (сумарно за 16 линии – 128 GB/s), която е идентична с тази в стандарта PCIe gen 5.0. Но Intel планира агресивно да върви напред към PCIe Gen 6.0 стандарта (теоретично даже отвъд него).
Според Intel промените в свързващия слой са ключовият момент в CXL интерфейса и “лекарството” за повечето от изброените по-горе недостатъци. Компанията работи върху нови протоколи за удостоверяване, автоматично договаряне и транзакции, които ще заменят тези на PCIe, за да се преодолеят изброените по-горе недостатъци.

 

 

CXL транзакционният слой се състои от три мултиплексирани подпротокола, които се изпълняват едновременно на една връзка. Те са: CXL.io, CXL.cache и CXL.memory. CXL.io се занимава с откриване на устройства, договаряне на връзки, прекъсвания, достъп до регистър и т.н., които са основни задачи, за да може машината да работи с други устройства. В същото време, CXL.io минава през стека, който изглежда подобно на стандартен PCIe стек. Intel смята, че CXL.io ще бъде „широко разпространен“.
CXL.cache се занимава с достъпа на устройството до паметта на локалния процесор. CXL.memory се занимава с достъпа на процесора до външната за него памет (паметта, управлявана от друг процесор или друга машина).

 

 

Intel изброява случаите на употреба на CXL, които започват с ускоряване на достъпа до паметта, от които се възползват например графичните карти, GPU базираните ускорители и високо натоварени карти. Всичките три протокола за транзакционния CXL слой са подходящи за такива устройства. Следващите FPGA и NIC. CXL.io и CXL.cache са също важни, тъй като мрежовите стекове се обработват от локални за NIC процесори. И накрая, налични са всички важни буфери на паметта. Можете да си представите устройства като “NAS, но с DRAM плочки.” Бъдещите центрове за данни ще се състоят от големи пулове памет, споделяни между хиляди физически машини и ускорители. CXL.memory и CXL.cache са подходящи за целта. Това, което прави свързващия слой на CXL да е по-бърз от PCIe, е неговият оптимизиран стек. За разлика от други протоколи CXL стекът е изграден от нулата, за да може да поддържа ниска латентност. Intel изясни, че CLX Gen1 ще използва стандартен PCIe Gen5 PHY, което означава, че не се нуждае от специален такъв.

Източник: Intel, STH, Techpowerup






Етикети: , , ,



6 коментара

  1. 1 bootyshine // 09.04.2019 в 17:35

    Добре, нали NVLink замести един вид SLI, а InfinityFabric на АМД е връзката между cpu-ram? CXL ще замести Pcie или ще служи за връзка на 2+ карти?

  2. 2 Denislav Slavchev (acdc) // 10.04.2019 в 13:18

    Те искат да стандартизират този интерфейс, за да могат да си отворят път към дейта центровете с предстоящите им графични карти. Целта им не са геймърите, а разпределените изчисления. За геймърите PCIe е предостатъчен поне още 10 години напред, но за свързване на мулти GPU конфигурации не е особено подходящ (в материала е описано защо). Поради тази причина NVIDIA си има NV Link, AMD съответно xGMI, който по същество е базиран на Infinity Fabric. Така, че Intel или трябва да използва някой от тези двата, или собствен, което е по-добрия вариант, още повече, че целите са същите като на Gen-Z. Нов интерфейс от нулата не се прави лесно – обикновено се прави от консорциуми и затова Intel са подходили практично, като за база използват PCIe (тоест нещо вече разработено), като взимат всичко добро от него и се опитват да го преработят за техните цели.

  3. 3 Гого // 10.04.2019 в 15:03

    “bootyshine // 09.04.2019 в 17:35

    Добре, нали NVLink замести един вид SLI, а InfinityFabric на АМД е връзката между cpu-ram?”
    И двете неща, които си написал, не са верни.

  4. 4 Denislav Slavchev (acdc) // 10.04.2019 в 16:30

    Кое точно не е вярно?
    https://www.nvidia.com/en-us/data-center/nvlink/
    http://ir.amd.com/news-releases/news-release-details/amd-unveils-worlds-first-7nm-datacenter-gpus-powering-next-era
    https://www.techpowerup.com/247388/amd-implements-xgmi-for-vega-20-as-competition-to-nvlink
    https://www.phoronix.com/scan.php?page=news_item&px=AMDGPU-XGMI-Vega20-Patches
    https://www.pcgamesn.com/amd-xgmi-vega-20-gpu-nvidia-nvlink

    “XGMI is a peer-to-peer high-speed interconnect and is based on Infinity Fabric”
    “xGMI (inter-chip global memory interconnect) is a cable-capable version of AMD’s Infinity Fabric interconnect.”

    “NVLINK FABRIC
    A FASTER, MORE SCALABLE INTERCONNECT
    Systems with multiple GPUs and CPUs are becoming common in a variety of industries as developers rely on more parallelism in applications like AI computing. These include 4-GPU and 8-GPU system configurations using PCIe system interconnect to solve very large, complex problems. But PCIe bandwidth is increasingly becoming the bottleneck at the multi-GPU system level, driving the need for a faster and more scalable multiprocessor interconnect”

  5. 5 Гого // 10.04.2019 в 20:20

    Sli-то все така си го има и е с мост върху картите. АМД пък си карат кръстосания огън направо през ПЦИ-Е-то от доста годинки, преди да има фабриката въобще. Да не забравяме и че колегата споменава баш използуванео в любителски системи, а ти говориш за HPC. Аз не апострофирам теб, а него и гледната му точка.

  6. 6 Denislav Slavchev (acdc) // 10.04.2019 в 21:48

    OK, не съм разбрал към кой ти е насочен поста.