Intel може да покаже своята графична карта на CES 2019

Intel може да покаже своята графична карта на CES 2019

В раздел: Новини от на 8.05.2018, 2,067 показвания

След всичките назначения в последно време на бивши AMD кадри, едва ли остана някой, който да не е наясно, че Intel не разработва свой дискретен графичен процесор и то с доста бързи темпове от екип, оглавяван от Раджа Кодури (Raja Koduri). Проектирането му се движи с много бързи темпове, така че компанията може да бъде готова с работещ продукт, който да покаже на света на изложението CES 2019, което ще се проведе в началото на януари през 2019 г.

Създаването на графичнен процесор от Intel вероятно е мотивирано от инстинкта за оцеляването на компанията, за да не застане зад NVIDIA и AMD при създаването на супер-скаларни архитектури и да се възползва едновременно от два технологични бума – изкуствения интелект (AI) и криптомайнинга.

Появата на конкуренция на графичния пазар може само да радва геймърите. От 2014 г. насам, NVIDIA е с едни гърди пред AMD в производителността и ефективността на графичните процесори за персонални компютри, като последната играе само догонваща роля на геймърския пазар. Все пак архитектурите на AMD са доказали своята ефективност в други области, като например изчислителните процеси. NVIDIA, от друга страна, инвестира силно в AI, със специализирани ядра в своите чипове, наречени “tensor core”, които ускоряват изграждането и обучението на невронни мрежи.

Източник: Techpowerup






Етикети: , , , ,


13 коментара

  1. 1 Мементо // 08.05.2018 в 11:38

    Radeon са зле заради липса на бюджет, иначе са много по иновативни и технологични от intel и nvidia, справки Vulkan, HBM, Infinity Fabric. Също изказването, че Radeon са догонващи не е вярно, 1080TI няма конкуренция, НО само в игрите, като стане дума за compute Vega се присмива и на Тиган Xp, а до игрите Polaris е много по добрата алтернатива от средните Pascal карти. Времето ще покаже как ще се развият нещата, Radeon изкарат ли Infinity Fabric “залепени с лепило” няколко чипа NOvideo лошо ще им стане, щото дори 3 чипа Polaris са по силни от една 1080TI, какво остава ако залепят 3-4 чипа Navi, които се предполага, че един от тях има изличислителната мощ на GTX1080.. Определено е добре че и минтел се намесват барем раздвижат пазара, щото аз изобщо не бих и помислил да плащам малоумно високите цени на NOforce картите, понеже Ngreedia са решили да си развяват коня точно както интел преди Zen.
    2019 година ще е интересна ако интел изкарат тогава изобщо някакви карти, и AMD IF Radeon карти, въпреки, че дори с ресурсите на интел ще им отнеме според мен време поне до 2020, нова архитектура не се вади ей така, както и наемането на Jim Killer Intel, чудно ми е интел троловете и сектата какво имат да кажат по въпроса, че интел сами не могат да се оправят и за това решиха да изкупят половината AMD и инженери им, новото мото ще бъде “Intel – AMD inside”…

  2. 2 right // 08.05.2018 в 12:06

    “изчислителните процеси”. Демек копането.

  3. 3 Сашо // 08.05.2018 в 13:05

    Добре е и затова защото, интел трябва да помогнат за събарянето на CUDA като софтуерен walled garden.

  4. 4 tsv_strogg // 08.05.2018 в 17:27

    Някой, ако си мисли, че наглите от Интел ще изкарат евтина карта и е добре, че се намесват – много се лъже:)
    Досега Нвидия държаха първенството с цени, сега алчните Интел ще се намесят и ще вземат първенството по скъпчийство. Ич не се и надявайте на евтини карти вече:D…

  5. 5 ToHu // 08.05.2018 в 17:31

    Изчисления не е само копаене, изкуственият интелект също и много други области в които трябвта сметки, но факт е че в момента копаенето е най-печеливше, а за изкуствен интелект поне в масовото му приложение някак си чипове които харчат десетки и стотици ватове не пасват.

  6. 6 Гого // 08.05.2018 в 18:03

    Интел, има няма 100 години, все се канят да пуснат дискретна графика, някой помни ли Larrabee?! Ама кой знае, сега може и да е на път да успеят, стига да се не спънат по пътя.

  7. 7 yato // 08.05.2018 в 21:00

    това само демо-версия до ритейл още година-2, а Невидия ще изрине пазара с GTX 1180 дори да е с мизерните 384 GBs бандвич, специално за кошмар на миньорите GDDR6 и високи тайминги и ниска честота 1500Mhz както на овърклокната GTX 1080. баба лиса ще ви улиса да ZEN2, нов ZEN всяка година и така до пенсия, и то на същият сокет, хаха, сокета няма да сменяте само процесор за 1К. А Navi на 2Ghz и 200 кв.мм ще бие 1180 без съмнение, не само 1080. но докато като узрее 7нм ще дойде време за 5нм и пак се почва.

  8. 8 nv // 09.05.2018 в 07:26

    Бъдещето не принадлежи на процесорите. Сериозните изчисления ще се поемат от други модули и блокове в компютърните системи. Засега изглежда че това ще бъдат видеокартите. В бъдеще нещата може да се променят. Говори се за допълнителни специализирани VR и AI процесори. Може самите видеокарти да се трансформират в такива блокове, а 2D/3D видеоизображенията да са само малка част от предназначението им.

    Memento – въобще не съм съгласен с твоите приказки. Приличат на повърхностно некомпетентно мнение от зомбиран фен. Съвсем очевидно Vega се справя добре само с определен тип изчисления. В останалите изостава много от резултатите на архитектурата Pascal. Лидерът си е nVidia, а AMD са си догонващи дори и с всички прехвалени технологии, които цитираш. Докато видеокартите на AMD само се доближават до резултатите на nVidia но това за сметка на почти двойно по-висока консумация на електричество ЩЕ СИ ОСТАНАТ ДОГОНВАЩИ и само ПОДГЛАСНИЦИ на лидера.

  9. 9 tony // 10.05.2018 в 08:45

    Едно по-независимо изследване кой-кой е:
    https://www.gamingscan.com/nvidia-vs-amd/

  10. 10 Сашо // 11.05.2018 в 19:15

    За AI се разработват специални модули. Не сме далече от FPGA като стандартен компонент. Процесорите винаги ще са важни обаче. Както и видео картите.

  11. 11 ToHu // 15.05.2018 в 05:16

    Ами то има вече специализирани чипове и за VR и за AI приложения. FPGA е технология с конкретно приложение, няма как да намери масово приложение за сериозни цели защото цените са космически, където се търси специализиран чип и цена се ходи на ASIC, двете неща са хем еднакви хем съвсем различни. Ако визираш специалозирани чипове да имат бъдеще в някои приложения, но виждаш какво е в майнинга, има ги но хората все така работят масово с GPU заради гъвкавостта. А за видеото на интел, може да сте забравили или пък д нямате спомени от тогава, i740 така че няма да им е за първи път. Между другото вграденото им видео хич не перформва зле, не е геймърско но това е не е голям и пазар, конзолите са друго нещо, но там въпросът е малко по друг.

  12. 12 Сашо // 15.05.2018 в 10:57

    Тони, говоря ти за интегрирани FPGA. FPGA може да се програмира за ускорител с различна дейност, за разлика ор ASIC, което прави едно нещо добре, но не мож го накарад а прави друго.

    https://www.extremetech.com/extreme/184828-intel-unveils-new-xeon-chip-with-integrated-fpga-touts-20x-performance-boost

  13. 13 Richard // 20.05.2018 в 23:39

    Ами то има вече специализирани чипове
    https://bestfortnitesettings.com/best-fortnite-pro-settings/

Коментари: