NVIDIA GeForce GTX 470 vs ATi Radeon HD 5870 ревю – заслужаваше ли си чакането на GF100/GT300/Fermi?!

NVIDIA GeForce GTX 470 vs ATi Radeon HD 5870 ревю – заслужаваше ли си чакането на GF100/GT300/Fermi?!

В раздел: Ревюта от на 27.03.2010, 82,993 показвания

«»

След повече от шест месеца на “родилни мъки” най-сетне станахме свидетели на официалната премиера на първото поколение DirectX 11 съвместими графични ускорители на NVIDIA, базирани на “Fermi” архитектурата – GeForce GTX 470 и GeForce GTX480.

Въпреки огромното ни желание да тестваме и двете нови видеокарти, поради ограничените количества от Fermi базирани графични контролери, успяхме да се “докопаме” само до един от малкото GeForce GTX 470, който да “измъчим” в тестовата ни “лаборатория” и да ви запознаем с резултатите. Смятаме скоро да поправим тази вопиюща несправедливост, но до тогава ще се задоволим с каквото имаме под ръка ;). Живо се надяваме проблемите с недостига на 40nm GF100/GT300/Fermi графични чипове скоро да се пооправят, защото в момента положението с наличностите е “меко казано”, незадоволително (по неофициални данни, в Европа по време на премиерата на GeForce GTX 470/480 ще има само 5000 графични контролера, които ще влязат в продажба).
(бел. GeniusLoci – всъщност данните си бяха направо полуофициални ;))

Реализирането на Fermi тръгна “малко” трудно още в началото на проекта, веднага след като от NVIDIA решиха да заложат на радикално различна архитектура, вместо да следват “утъпканата пътека” от предишните поколения G80/92 и GT200. Вместо да разчитат на по-простата “доработка” на вече съществуващата архитектура, като просто добавят DX11 поддръжка, от компанията тръгнаха по-по трудният път и решиха да проектират GPGPU (General-purpose computing on graphics processing units) с претенцията да бъде нещо много по-голямо от обикновен графичен контролер, а именно – универсален изчислителен процесор. От там дойдоха и множество подводни камъни по пътя на реализацията на тази идея. Сложността на архитектурата и реализацията на самият чип доведоха до много големи проблеми с производственият процес и количеството на годни чипове от една силициева подложка. За “капак” последва и земетресение в Тайван, а там се намират производствените мощности на TSMC, в чиито заводи се произвеждат Fermi чиповете. Последваха проблеми с топло-отделянето и консумацията на енергия на новите графични контролери и какво ли още не. Стигна се до там, че самият SEO на NVIDIA Йен-Хсун Хуан (Jen-Hsun Huang) да демонстрира макет на Fermi базиран контролер за да успокои страстите покрай забавянето на новото поколение графични ускорители. Всички тези проблеми маркираха трудният път на Fermi до крайният потребител, а PR кампанията от страна на NVIDIA доведе Fermi графичните контролери до статус на “митично животно” за което всеки е слушал, но малцина са виждали. В общи линии ситуацията заприлича много на положението от 2003 година при премиерата на първите DX9 графични ускорители на NVIDIA, GeForce FX 5800/Ultra, когато станахме свидетели на почти същите трудности и закъснение.

В последно време дискусиите и разпалването на страстите покрай новата архитектура и видеоконтролери на NVIDIA стигнаха почти до точката на кипене, както по официалните информационни сайтове, така и в стотиците форуми с IT насоченост по света, включително и във форума на hardwareBG.com. Постоянната “битка” между NVIDIA и ATi отново стана повод за “чупене” на множество клавиатури от страна на “NVIDI-оти” и “фан-ATi-ци” ;). Разбира се, този път феновете на “червеният отбор” бяха в по-изгодна позиция, защото ATi представиха сравнително безболезнено първите си DX11 съвместими видеоконтролери още в края на септември месец, а до днешна дата компанията вече разполага с пълна гама DX11 графични контролери обхващащи всички сегменти на пазара което постави NVIDIA в позицията на догонващ, нещо което не се беше случвало от доста време насам.

Но стига толкова “общи приказки”, нека обърнем малко внимание на радикално новата архитектура на NVIDIA, която им докара толкова главоболия…



Всички страници от статията:

  1. Page 2
  2. Page 3
  3. Page 4
  4. Page 5
  5. Page 6
  6. Page 7
  7. Page 8
  8. Page 9
  9. Page 10
  10. Page 11
  11. Page 12
  12. Page 13
  13. Page 14
  14. Page 15
  15. Page 16
  16. Page 17
  17. Page 18
  18. Page 19
  19. Page 20
  20. Page 21
  21. Page 22
  22. Page 23






Етикети: , , , , , ,


97 коментара

  1. 1 vanmx // 27.03.2010 в 06:29

    Въпреки че все още не съм го дочел, благодаря за доброто ревю.

  2. 2 lol // 27.03.2010 в 06:42

    Поне да се бяхте опитали да скриете тенденциозността и фенбойщината в тази статия.

  3. 3 Кирил Венев (Ba4o Kiro) // 27.03.2010 в 06:51

    “Фенбойщина” може и да има, но само в заключението и то само в частта писана от мен, това беше абсолютно нарочно ;), но да говориш за “тенденциозност”?! Моля ти се, казаното от теб са ПЪЛНИ ГЛУПОСТИ и веднага си личи, че си прочел САМО заключението, като дори си пропуснал по-важната част от него ;)!

  4. 4 lol // 27.03.2010 в 07:05

    ;) Спокойно, прочетох го ЦЯЛОТО. ;) В заключението просто Е малко по-очевидно ;), ПЪК и за много хора това е НАЙ-важната част от статиите, защото за тях това е личното МНЕНИЕ ;) на специалист, което малко или много биха сметнали ЗА авторитетно!! ;) ;)

    ;)
    Crank that gimmick up.

  5. 5 vanmx // 27.03.2010 в 07:07

    Според мен Nvidia се върнаха в играта при това много мощно – конкурентът на HD5850 е бърз колкото HD5870. А ревюто е много добре написано и го прочетох цялото.

  6. 6 mechka // 27.03.2010 в 07:16

    Напротив.Не виждам кой ви излъга,че 470 трябвало да се сравнява по начало с 5850? Мога да хвана бас,че 470 ще дойде с минимум 150 лева над цената на 5850,така че изобщо не може да се говори за надмощие,по-скоро различни ценови диапазони и 5850 си също толкова изгодна колкото и преди.

  7. 7 luckyman1 // 27.03.2010 в 07:32

    Твърдението, че играта “Metro 2033” с DX11 видимо върви добре и на GTX 470, и на HD5870 спорде мен е спорно. Ще се чака Fermi II или HD6870… Ревюто е полезно. Не разбрах защо се тества на статични сцени и се улесняват картите.

  8. 8 joroooooo@HWBG // 27.03.2010 в 07:38

    Едно голямо БЛАГОДАРЯ и от мен за ревюто!

  9. 9 Georgi121270 // 27.03.2010 в 07:42

    Греша ли,или само турбината и консумира около 10% от цялата мощност на видеокартата (12V 1.80A)?

  10. 10 LeGaL^CriMeR // 27.03.2010 в 08:07

    Браво за хубавото ревю

  11. 11 Atlant // 27.03.2010 в 08:17

    Браво Локи
    Според мен това е най-доброто ревю, което сте правили до сега !

    Очаквам с нетърпение боят между 5850 и 470 !

    Относно новото отроче :)
    Картата според мен е страхотна и единственото, което може да спре човек да си я купи е консумацията и.

  12. 12 Аньо Нимен // 27.03.2010 в 08:22

    Интересно – в ревюто на гуру3д намират производителността на ХД 5870 доста близка до тази на ГТХ480 пък вие тук някак си сте успели да я приравните на гтх470. Несъмнено съвсем случайно, без умисъл :) А ревюто си е открито тенденциозно, не се обиждайте :)

  13. 13 LeGaL^CriMeR // 27.03.2010 в 08:24

    Как ли пък не ще ме спре консумацията :) То този който си я купува едва ли ще гледа това , и ще знае , че ще му трябва тежко и яко захранване.

  14. 14 Atlant // 27.03.2010 в 08:38

    Вярвай ми, има и такива хора, които искат 3dvision и физика, но искат и малка сметка. Иначе всички искаме ниски температури :)

  15. 15 APPOLON // 27.03.2010 в 08:38

    Благодаря за ревюто! Но независимо, че не го отричате, пристрастността в коментарите е меко казано очевидна. Иначе, като собственик на НВИДИА карта, чакал месеци и отказвал АТИ продукт, съм разочарован. Това не е водещата карта в момента, а догонващата, като очевидно и не се справя идеално в замисъла си. И както много колеги отбелязаха, нека не я сравняваме с 5750.
    Поздрави

  16. 16 Whiskey // 27.03.2010 в 09:37

    В заключение, най-вероятно ще се взима HD5x карта, а не гтх4x. Главно съм разочарован от консумацията и топлоотделянето. За почти същите резултати ще си взема нещо, което ще харчи по-малко, но ще доста по-евтино. Може би след 1 година потенциала на новите карти на невидия ще се разгърне (главно за дх11), но до тогава – ати.

  17. 17 spartak // 27.03.2010 в 09:43

    С тази консумация енвидия направо се оляха,въпреки че твърдят колко са зелени.

  18. 18 Явор // 27.03.2010 в 09:48

    Благодаря за ревюто! Но мога да кажа, че не съм впечатлен от представянето на GeForce GTX 470. Като цяло нищо революционно а просто поредната еволюционна стапка. Очаквах категорична победа, която не се случи. а пак и с тази консумация да ме извиняват nvidia. Ще се получи интвересно ATi като пуснат HD5890(Cypress XTX):)

  19. 19 k0eff // 27.03.2010 в 10:15

    Гледам в 2 други сайта gtx470 е директен конкурент на HD5850 и сравненията са точно с нея.

  20. 20 LeGaL^CriMeR // 27.03.2010 в 10:17

    Незнам с коя версия на GPU-Z сте опитали но гледам , че има вече нова версия TechPowerUp GPU-Z v0.4.0

  21. 21 венци // 27.03.2010 в 10:18

    Ето още едно ревю вече с gtx480 http://www.3dnews.ru/video/nvidia_geforce_gtx_480/

  22. 22 Кирил Венев (Ba4o Kiro) // 27.03.2010 в 10:39

    @LeGaL^CriMeR – версията на GPU-Z с която тествахме беше 0.3.9. Излизането на 0.4.0 вечера в ~21:00 часа (тяхно време, незнайно в колко часа наше) сме го пропуснали.

  23. 23 Николай Цеков (geniusloci) // 27.03.2010 в 11:00

    На нас ни е равно с какво сравняват картите другаде. С готови бенчове и пърформънс драйвър го могат всички, макар че Vantage-а друго казва (добавен след Unigine).

    Тестването със статични кадри е, защото тестването с динамична игра иска повтаряне до постигане на разлики в рамките на статистическата грешка. Което, както пише в статията, иска време.

    Georgi121270 – ако работеше на максималните си обороти – не, не грешиш – перките и на двете карти са ужасно мощни, макар тази мощност да стои неизползвана повечето време.

  24. 24 ivan // 27.03.2010 в 11:04

    много странно в чуждите сайтове ревютата показват съвсем различни резултати :) в томс хардуеър гтх 470 не минава 5870 в нито един бенчмарк :)

  25. 25 M // 27.03.2010 в 11:11

    ATI vs NVIDIA, AMD vs INTEL.. Аз съм фен на всички марки. Нека има конкуренция, нека всички производители се стремят да са на върха. От това печелим само НИЕ. Затова не уважавам мнения от рода мани ги тия боклуци ати/нвидиа

  26. 26 Николай Цеков (geniusloci) // 27.03.2010 в 11:11

    Ще видим как ще е с готовите тестове, GrigorBG обеща да ги върти като свършим ние.

    После ще си играя с динамичните сцени – макар че там вече съм пробвал и знам какъв ще е резултата – не особено по-различен.

  27. 27 Shad0whunter // 27.03.2010 в 11:40

    Първо – свалям шапка за времето и нерви отделени за тестовете!
    Второ – нека не си кривим душите излишно, вижда се, че в този конкретен случай Nvidia се върнаха и дано да продължат нагоре!Същото пожелавам и на Ати…все пак от нас се иска да купуваме графични контролери – а при една евентуална конкуренция от двете страни – до няколко месеца всички ще сме със СЛИ или Кросфайър ( в кръга на шегата )
    Трето – … и все пак ще си купя Nvidia …

  28. 28 Fermi is out (finally!) - Неудобно?.com // 27.03.2010 в 12:05

    […] приключихме първата част от ревюто на GeForce GTX470 в hardwareBG.com. То си е малка мъка да разработиш методика, без да имаш […]

  29. 29 HD Blog // 27.03.2010 в 12:54

    Зa видеообработка NVIDIA-та би трябвало да е по-добра заради CUDA?

  30. 30 mechka // 27.03.2010 в 13:59

    @ivan

    Не само,че не минава 5870,а дори губи от 5850 в някои игри.Общо взето са на 1 ниво,а цената на ферми ще е с едно 200 лева повече.И на това ако викате връщане….

  31. 31 TOFO // 27.03.2010 в 14:40

    Ето цените…и АТИ са набутани:
    * EVGA GeForce GTX 480 (015-P3-1480-TR): 700/1401/924 MHz, reference air-cooled, US $499.99
    * EVGA GeForce GTX 480 SC (015-P3-1482-AR): 725/1450/950 MHz, reference air-cooled, US $529.99
    * EVGA GeForce GTX 480 FTW Hydro Copper (015-P3-1489-AR): 750/1500/950 MHz, Hydro Copper water-block pre-fitted, US $649.99
    * EVGA GeForce GTX 470 (012-P3-1470-TR): 607/1215/837 MHz, reference air-cooled, US $349.99
    * EVGA GeForce GTX 470 SC (012-P3-1472-AR): 625/1250/850 MHz, reference air-cooled, US $369.99
    * EVGA GeForce GTX 470 FTW Hydro Copper (012-P3-1479-AR): 650/1300/950 MHz, Hydro Copper water-block pre-fitted, US $499.99

  32. 32 TOFO // 27.03.2010 в 14:41

    ПРи това тези цени са на EVGA, а да кажем аз ако си зема една карта на Palit е доста по евтина..и пак що годе предлага същата производителност.

  33. 33 TOFO // 27.03.2010 в 14:48

    Ето ревю на GTX 480 …направо смазва едночиповеото Ати, а предвид смешната разлика от 50$ мисля, че nVIDIA има 100% flawless victory. Да не говорим, ако пусне двучипова карта..ще си замине и HD5970. Обаче от чисто технологична гледна точка, nVDIА, ne ги виждам когато излезе HD6xxx…

  34. 34 TOFO // 27.03.2010 в 14:48

    ОПа горе пропуснах ревюто ето го:
    http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_480_Fermi/

  35. 35 Bo // 27.03.2010 в 15:06

    Май само в ревюто на Течпауъръп има разлика в полза на Нвидиа .. Между другото видя ли с какви драйвъри е тествано Атито .. (ATI: Catalyst 9.12)… При 10.3 драйвърите има драстична разлика с тези от тестовете, избощо няма никакъв смисъл от сравнение на тези карти при положение, че за АТИ-то се използва 9.12 … Колкото до Нвидиа .. Като гледам как АТИ няма конкуренция от HD4000 серията насам.. й предвиждам на видията много мрачно бъдеще .. Тезата ми се доказва и с последния продукт на компанията.. 6 месеца забавяне и никакъв прогрес .. Тези карти ще се продават само на основата на голяма реклама и заклети Нвидиа фенове.. Същата работа като таблета на Ейпъл .. (хардуерен и софтуерен регрес, дори катаклизъм) и от рекламата му и маркта Ейпъл изби пазара..

  36. 36 Vldaiski // 27.03.2010 в 16:06

    Браво,много голямо БЛАГОДАРЯ за статията,а най-много и за това, че сте свършили страхотна работа да ни представите новите технологии и постижения.Поздравления и за NVIDIA.

  37. 37 Константин Философ // 27.03.2010 в 16:37

    много шум за нищо. Все едно чета тема за Аватар.

  38. 38 July // 27.03.2010 в 16:59

    Ако разликата между 5870 и 470 е повече от 50лв, просто не виждам смисъл да се купува Нвидиа.
    Иначе въпреки и пристрастно, ревюто си е добро:)

  39. 39 LeGaL^CriMeR // 27.03.2010 в 17:27

    @July – дори и 50лв. да е , пак ще купя GTX-са. Повечето игри са оптимизирани за NVIDIA а и да не забравяме PhysX където го няма в нито една система базирана с ATI карта ! Просто екстрите на GTX-са бият отвсякъде ATI-то.

  40. 40 Дядо мраз // 27.03.2010 в 18:05

    Погледнете други ревюта в нета. ГТХ 470 я сравняват с 5850 и я бие само на места, а тук с 5870… има нещо странно.

  41. 41 LeGaL^CriMeR // 27.03.2010 в 18:24

    Зависи тия дето са правили ревюто на коя фирма са подчинени :)

  42. 42 Боян Николов // 27.03.2010 в 18:26

    http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_480_Fermi/10.html Добавиха резултатите и с новите драйжери на АТИ. Резултатите са много интересни :) , особено в Кризата!

  43. 43 LeGaL^CriMeR // 27.03.2010 в 18:34

    Да но все пак NVIDIA не са си ушлайфали бегачите.

  44. 44 TOFO // 27.03.2010 в 18:45

    Боян Николов …я пак виж кой линк си дал това е същото ревю, което посочих по-горе със старите драйвери на АТИ. Освен това тъпата криза….ми е писнало да е гледам вече. Тъпа неоптимизирана, лагава боза…това е Crysis. Буфер за долари пак може да се кажи.

  45. 45 цецо // 27.03.2010 в 18:47

    Проверете си главите и тестовата щайга “хардуербг”. Резултатите които сте пуснали нямат нищо общо с реалността. В повечето ревюта разликата между 470 и 5850 е 5/10% макс ,а 5870 бие 470 навсякъде. Като сложиш некачественото производство, ненормално високите консумации, температури и шум, кой ще е тоя идиот дето ще купи 470/480 се пита в задачката.

  46. 46 м // 27.03.2010 в 18:49

    Браво на енвидия за смелостта. Надявам се да успеят. Да си пионер в тази мейнстрийм свера е голямо геройство. Надявам се да не са изпреварили времето си и успешно да прокарат пътя към следващото поколение графични ускорители. Майната им на резултатите от тестовете, това е първи опит, нещата ще стават само по-добре. Тези ватове на съвременните компютри направо плашат. Замислете се колко лв плащаме за ток всеки месец само от 1 пц. Следващата стъпка е оптимизация в тази посока.

  47. 47 цецо // 27.03.2010 в 18:50

    A забравих да допълня- при 650лв за 470 и 850-900лв за 480 в БГ, трябва освен да си малоумен да си и паралия – но май точно в БГ двете вървят ръка за ръка.

  48. 48 Иван // 27.03.2010 в 19:03

    Всички Нвидиа фенове, ще си играят на синтестовете, създадени с “подкрепата” на същата, защото главно там има истинско предимство цена(покупна, но не и амортизационна и консумативна)/производителност(за беля, разхода на ток дъни дори там, новите отрочета на Нвидиа);)

  49. 49 Bocko // 27.03.2010 в 19:51

    На фермерите – честито!
    Ще има да си копкат градинки… (chuckle)

  50. 50 Chris__ // 27.03.2010 в 21:32

    “проблемът е, че от месеци насам се опитвам да убедя хората, че при карти от този клас, където едва се намира игра, която да не може да се играе “на MAX” на 1920х1080 (колко човека с 2560 екрани познавате у нас?), като изключим консумацията – и по-точно ефекта от шума на охладителната система, на ентусиастите хич не им пука за общата консумация, която е едно от недооценените като важност неща, се оказва по-важно картата да може нещо повече от това да смята на теория по-бързо игри.”

    Съмнявам се, че и автора знае какво казва с това изречение…:)

  51. 51 SuSaMeCa // 27.03.2010 в 22:06

    Според мене след толкова забавяне след излизането на HD5000 трябваше доста повече да искарат като производителност…

  52. 52 TOFO // 28.03.2010 в 02:21

    ВИДИЯТА, както каза миналата година Жен Сун Хуан е преди всичко компания за производство на драйвери.

  53. 53 PowerPc // 28.03.2010 в 10:06

    Колко харчи максимум ГТХ 470?

  54. 54 Николай Цеков (geniusloci) // 28.03.2010 в 12:41

    @Chris__ – все пак е писано след два дена почти без сън в 5 сутринта на третия. Ще го поправя след малко.

  55. 55 yuu // 28.03.2010 в 13:42

    Това е точно новият ред в графичният бизнес, каквото излезе искат да го купуваме веднага, конкуренцията се събужда след 9 месеца, изкарва някакви продукти, които позиционира на дадени цени според производителността закръглено на 50$ и така си откарват докато излезе шринк, смъкването на цени при което е абсурд, просто се смъкват от производство или седят в ценовите листи ако някой се изъже, понеже и количествата на склад не са големи, имат 1-2 карти. 28нм се вижда на хоризонта, 22нм има страхотни проблеми, поне за интел. Когато Амд изкарат шринк, нвидиа ще последва с отложен старт 6-9 месеца за да се позиционират удобно всеки в неговият си ценови диапазон, така невидия има короната с 1-2%, колкото да не се минат да излязат прекалено напред, после другите и се редуват, заговор.

  56. 56 LeGaL^CriMeR // 28.03.2010 в 21:14

    Няма ли да направите клип както WC базиран на GTX 470 ;) Но тоя път да я разтресете по здраво.

  57. 57 sem // 29.03.2010 в 09:51

    Вие избихте рибата с това ревю :)

  58. 58 ReeT // 29.03.2010 в 11:15

    много писане за един музеен експонат. Казах ли ви аз че тая архикектура ще я прескочат или не, е верно ще пуснат 5000 броя за вета тест :)

  59. 59 Petar // 29.03.2010 в 11:45

    “проблемът е, че от месеци насам се опитвам да убедя хората, че при карти от този клас, където едва се намира игра, която да не може да се играе “на MAX” на 1920х1080 (колко човека с 2560 екрани познавате у нас?), като изключим консумацията – и по-точно ефекта от шума на охладителната система, на ентусиастите хич не им пука за общата консумация, която е едно от недооценените като важност неща, се оказва по-важно картата да може нещо повече от това да смята на теория по-бързо игри.”

    Ba4e Kiko – ПРЕЗИДЕНТ !

  60. 60 Кирил Венев (Ba4o Kiro) // 29.03.2010 в 13:39

    Като изключим сложността на изказа (писан в пет часа сутринта след общо 5-6 часа сън в продължение на 72 часа ;)) изречението е разбираемо и смисъла са ясни, поне за мен :). За да улесня тези които имат трудности с разчитането у осмислянето му – ето го поднесено по друг начин: “от месеци насам се опитвам да убедя хората, че при карти от този клас… …се оказва по-важно картата да може нещо повече от това да смята на теория по-бързо игри.”

    Сега по-ясно ли е?

  61. 61 em0_tion // 29.03.2010 в 14:18

    Разликата в двете карти на 3DMark Vantage CPU Test 2 ми е интересна – 211.21(GTX470) vs. 20.55(HD5870) ?!? От там и чудото в CPU Score – 56K vs. 16K (WTF?). NVIDIA май вече са приложили разни PR хитринки в драйверите (GPGPU оптимизация за Vantage?), така че резултатите им да запалят клокърите още с появата на първите резултати :)

  62. 62 Кирил Венев (Ba4o Kiro) // 29.03.2010 в 14:30

    @em0_tion – Нали знаеш “що е то PhysX и има ли то почва у нас?” ;)?! Пък то 3DMark-а отдавна не е никакъв критерий за 3D производителност ;).

  63. 63 Iliyan // 29.03.2010 в 15:44

    Само не ми става ясно, в какво се изразява “Пълна поддръжка на C++, като допълнение към вече наличната поддръжка на C, Fortran, Java, Python, OpenCL и DirectCompute”. Изпълнява С/С++ на машинно ниво…

  64. 64 Кирил Венев (Ba4o Kiro) // 29.03.2010 в 16:48

    Не съм програмист, но според обяснението от Whitesheet-а на NVIDIA (ако съм го разбрал правилно), графичният процесор може да изпълнява код писан на C/C++ директно на ниско ниво без нуждата от “транслатор”. Я някой програмист който е по-навътре в материята да каже дали се изразявам правилно ;).

  65. 65 zero // 30.03.2010 в 03:55

    Fanboy-четата и на двете марки могат да се карат колкото си искат кой модел бил най-добър в някоя си там игра…
    Обаче от няколко години NVIDIA слабо се вълнуват за това непременно да са първенци при игрите. Доказателството е недоклатените им предходни модели. Fermi архитектурата не е замисляна да даде отпор на ATi и да се превземе първенството при игрите, а по-скоро да се увеличи производителността и да се увеличат сегашните добри продажби в една друга област…
    NVIDIA с CUDA са се оформили като монополист в областта на евтин за постигане High Performance Computing-a чрез векторни процесори (GPGPU). Там ATi никога не ги е имало, няма ги и скоро няма да ги има. Големите пари са там. NVIDIA го знаят и новата им архитектура е проектирана приоритетно към HPC – GPGPU за клъстъри и компактни HPC системи. А там от съществено значение е максималната тяга за изчисления при числа с плаваща точка с ДВОЙНА точност, в това ATi винаги са били изоставащи спрямо NVIDIA, май.

    В ревюто си е написано – “… В случаят с Fermi от NVIDIA решиха да създадат продукт с архитектура предназначена за професионални паралелни изчисления и да я направят съвместима с нуждите на професионалистите и геймърите …”.

    На професионалистите – честито!
    На не-професионалистите …

  66. 66 sas // 30.03.2010 в 12:37

    Не съм съвсем убеден, че затворените стандарти имат някакво бъдеще в света в който живеем и в който се стремим да живеем. И в този смисъл CUDA, Phisx, 3D Vision, … ще се окажат изпята песен в един момент. Момент в който се появи достатъчно добра свободна алтернатива, достъпна за всички. А този момент май скоро ще дойде. NVIDIA може и да са проправили пътя, но го проправиха в погрешната посока, защото не всички са тръгнали към техните порти. А е наивно да вярваш, че само защото няма път надругаде, всички ще запристигат при теб и ще можеш да ги цакаш с такса вход :)

  67. 67 Кирил Венев (Ba4o Kiro) // 30.03.2010 в 18:13

    Ако нещото което предлагаш е с по-добра поддръжка и по-добра производителност, сериозният бизнес ВЕДНАГА ще предпочете платеното решение. Останал съм с впечатлението, че Free/Open Source софтуерите не се нравят много на големият бизнес и то най-вече заради поддръжката. Като си представя как ATi пишат драйвери не ми се мисли как ще осигурят достатъчно качествена софтуерна поддръжка на продуктите предназначени за професионалният пазар. Ако там се туткат шест месеца с бета драйвер – забрави някой да ги вземе на сериозно.

  68. 68 Todor // 30.03.2010 в 18:55

    Ето на това му се казва Ревю! KUTGW!

  69. 69 Николай Цеков (geniusloci) // 30.03.2010 в 21:36

    sas – проблемът е, че това ще се случи само, ако производителите застанат зад други стандарти. NVIDIA стои зад своите, PhysX игри се правят и в момента, CUDA ще се развива на гърба или зад гърба на OpenCL и това ще е, докато ATI не се хване да прави нещо собственоръчно. Защото в момента казват “ние поддържаме това и онова”, но реално не правят нищо повече. А поддръжка и картите на NVIDIA си имат, при това без да карат потребителя да сваля допълнителни файлове (въобще да не коментирам, че са зад регистрация).

  70. 70 Константин Философ // 30.03.2010 в 23:30

    Кирил Венев (Ba4o Kiro), Всяко уважащо себе си vfx студио има цяла армия от роби, които бълват custom software, включително и цели пакети за разработка на 3D content. Мислиш ли, че някой е толкова настинал да се отдаде изцяло на нещо затворено и монополизирано?

    За rigid body симулациите в 2012 са били използвали open source физически engine от някакъв game engine, който е бил модифициран тежко.

    Не случайно Линукс е това, което е.

    Същото е и с тази война – ОпенЦл и КУДА.

  71. 71 Кирил Венев (Ba4o Kiro) // 31.03.2010 в 00:33

    @Константин Философ – имай предвид, че не всички студия които се занимават с vfx са толкова големи, че да имат възможността и ресурса да си позволят “цяла армия от роби, които бълват custom software”! Дори напротив! Болшинството студия които се занимават vfx (Visual Effects) имат под 50-60 човека персонал като основното количество от персонала са дизайнерите и аниматорите, а не “робите които пишат софтуер”. Сещам се за поне три български студия (и то големи) които са наши клиенти и имат САМО NVIDIA графични контролери в работните си станции. Точно заради поддръжката и безпроблемността на работа с тях, драйверите им и софтуера който ползват по време на работата си. Те нямат “цяла армия от роби, които бълват custom software”. Може би, точно заради това решиха да си купят NVIDIA GTX 285-ици и Quadro-та “на кило” за да ползват CUDA ускорението им. Хубаво е, човек да чете и да се образова, но не е зле понякога да бъде и реалист, а не да вярва сляпо на нещата които чете и PR-а който бълват както NVIDIA, така и ATi със съответните им партньори!
    BTW – Не мисля, че в момента има война между OpenCL и CUDA, просто OpenCL все още е толкова слабо застъпен, че едва ли не го няма (за сега). Също така, NVIDIA GPGPU-тата могат да “смятат” със същият успех и под OpenCL, а не само под CUDA…

  72. 72 sas // 31.03.2010 в 00:47

    Е кой е тоя производител дето му е кеф да си ограничава пазара :) Или пък да му е кеф да си губи времето и ресурса да прави едно и също нещо по-два различни начина, за да върви на два различни стандарта. Много ясно, че ако излезе нещо отворено и необвързано с конкретен хардуер, ще се вземе присърце от всеки производител. Под производител нямам предвид този на желязото, ами на софта който върви на това желязо, било то игра или някаква програма. Единственият проблем е, че такъв стандарт все още не се е появил и затова то все още не се е случило. Аз не знам каква им е идеята на NVIDIA. Разбирам да имат 90% пазарен дял, че да са в състояние да извиват ръчичките на производителите, пък то май не е съвсем така. Това е и причината да се “радваме” на толкова жалки ефекти дължащи се на Physx, защото производителя иска да си продава игрите и на клиенти с ATI хардуер. А те няма да си я купят ако 30% от ефектите в играта се дължат на Physx и съответно при тях липсват или ако в следствие на тях играта им върви с 2 кадъра. И ако имахме един отворен стандарт, досега на такива чудеса щяхме да се нагледаме, че акъла ни сигурно нямаше да ги побере :) Другият вариант, който дано не се случи никога е всяка компания да си измисли собствени стандарти и да излизат ексклузивни заглавия само за тях. Това би било най-тъпото нещо което може да се случи, но NVIDIA май това се опитва да направи.

  73. 73 zero // 31.03.2010 в 03:05

    OpenCL поддръжка е налична и при ATi и при NVIDIA. Реализацията е на ниво драйвъри (+ външни библиотеки в някои случаи), следователно може да се използва под коя да е OS за която има драйвъри. Все пак си трябва и драйвърите да са направени добре.
    Недостатък за OpenCL към момента е, че не е достатъчно добре замислен самия стандарт за точно най-бавните неща – изчисленията при плаваща точка с ДВОЙНА точност. Нещата обаче ще се подобрят и затова OpenCL е евентуалния основен стандарт в индустрията. CUDA към момента е най-масово ползвана защото е пионер и от друга страна е добре реализирана и вече достатъчно ошлайфана и стабилна технология… Но в дългосрочен план CUDA е губещата технология за сметка на отворените стандарти.
    DirectCompute е и ще е възможен само и единствено в Windows среда.
    Тенденцията е Physics, AI ускоренията да се реализират където е възможно чрез GPGPU, много вероятно да е чрез OpenCL. Тези ускорения са подходящи повече за векторните процесори каквито са в GPU, не толкова за CPU.
    NVIDIA нека си стискат там техните CUDA и PhysX, изхода обаче е предизвестен в полза на отворените стандарти. Много е вероятно и други библиотеки за physic ефекти да ги модифицират за GPGPU спомогнато ускорение както е при Havoc. ATi за това не правят свои технологии за ускоряване на physic ефекти, достатъчно е да си подобряват продуктите да поддържат стандартите.
    Плюсовете за NVIDIA към момента са, че Fermi е native double precision и предпочитането на техните продукти заради консервативните нагласи при големите производители (подобно като с Intel).
    Fermi e добро универсално решение за паралелни изчисления, но си е едно доста неуверено начало макар и в правилната посока (векторни процесори за общи, не толкова graphics насочени задачи).
    Надеждата е разбира се конкуренцията и тя най-накрая да се усети и затворените стандарти постепенно ще започнат да загубват влияние.

  74. 74 Константин Философ // 31.03.2010 в 10:53

    Кирил Венев (Ba4o Kiro), извън тази дискусия, просто информативно, кажи ми кои са тези студия и какви други има.

  75. 75 Николай Цеков (geniusloci) // 31.03.2010 в 10:58

    Въобще не разбирам тая мания да се говори в стил “да си ги стискат”, “обречени са” и т.н. В крайна сметка, ако не беше CUDA/PhysX GPU ускоренията щяха са популярни колкото е OpenGL поддръжката в игровите заглавия днес. И тя е универсална и мултиплатформена, за разлика от DirectX, но не е най-популярната, нали? PhysX е популярен, защото е достъпен и – в смисъла на “отворен за работа” – отворен за разработчиците. Срещу него има само един популярно API и то доскоро си оставаше прекалено скъпо за гейм студията.
    Може и да ви се иска OpenCl/DC да са бъдещето, но това бъдеще без подкрепата на производителя на желязото ще е в професионалните сфери и доста по-ограничено. CUDA няма да отпадне след година или две, да не говорим, че дори не ограничава навлизането на OpenCL – ако някой иска ще си ползва последното и с карти на NVIDIA. Те не само го поддържат, но и са в основата на Кронос. В случая “дългосрочен” план просто е твърде обширно понятие, че да го мятате като евентуална смърт на CUDA.
    Не разбирам и защо прехвърляте вината за лошите имплементации на PhysX, че чак и изхвърляния, че разработчиците биха прегърнали отворен стандарт – последното не е вярно и примери има дори след конкурентите на PhysX, а първото изобщо не зависи от самото API, а от времето/желанието на разработчика.
    То разбирам хейт, ама чак такова омаловажаване и превръщане на всичко положително в недостатък не бях чел досега за продукт, при това точно за нещата, за които няма особена конкуренция или направо е никаква. Да не говоря, че това става под ревюто на геймърска карта.

  76. 76 asd // 31.03.2010 в 11:59

    Николай Цеков (geniusloci), защо сравняваш директХ с куда? директХ може да върви на всички карти, докато куда е само на нвидия – разликата е огромна. И защо намесваш популярността? Това модно ревю ли е? Дай да слушаме Лейди Гага и да се обличаме като нея, щото е популярна, т.е. – по-добрата баница.

    Идеята за гпгу е по-стара и от баба ми, също като стереоскопичността. Никой не е правил 3Д (и гпгу) досега _сериозно_, защото никой не е имал големите идеи и топки (balls of steel). Нвидия направиха гелато, беше хубаво, после куда, пак хубаво, но се осраха с тази монополизация. Ако кудата им беше достъпна и за други карти, щяха да седят на върха и нищо нямаше да ги помести; на Ати карта щеше да пише – powered by Nvidia. Но гпгу не е извънземна технология – всеки може да направи своя имплементация, и направиха ОпенЦЛ, която върви навсякъде. Което означава, че мога да напиша хиляди реда код и го пускам на каквото си искам – сравни го това с куда. Сравни ми java script с activex, кое ще предпочетеш, ако искаш максимално покритие…

  77. 77 Николай Цеков (geniusloci) // 31.03.2010 в 12:22

    OpenGL сравнявам с DX – мултиплатформеното така и не взе надмощие.
    И естествено, че ще говоря за популярност, след като PhysX надмина Havok по използваемост, а останалите двигатели тотално взеха да дават на задна. Използва се и в конзолите съвсем успешно.
    Напълно безмислено е да сравнявам OpenCL с CUDA, нали и двете вървят прекрасно на картите на NVIDIA и именно NVIDIA са в основата и на OpenCL, за какво тогава ги противопоставяте? Защото до онзи ден са имали CUDA и не зарязват поддръжката в името на светло мултиплатформено бъдеще? Ми нормално, те са бизнес компания, не торба линукс гурута. ATI прегръща OpenCL (или поне говори така, те никога не правят нищо по въпроса), защото нямат особен избор – което си е изцяло техен проблем и то IMO съществен, защото нямат никаква софтуерна поддръжка от свое име. Иначе казано – чакат NVIDIA да избута и това.
    Ако ще критикуваш някой – я изпълни OpenCL приложение на ATI карта с гол драйвер? не става, ега ти великата мултиплатформеност…

  78. 78 sas // 31.03.2010 в 12:37

    Само времето ще покаже кой крив и кой прав :) Лошото е, че докато не се утвърди един стандарт, всичко ще си стои в застой. Не знам коя е била първата игра с Physx, но аз се сещам за Ghost Recon от далечната 2006, която даже има повече ефекти дължащи се на физика от новоизлезлите такива. 4 години застой на нещо, което само по себе си има огромен потенциал, а то си стои на едно и също ниско ниво. А не е като хардуера и изчислителната мощ на видео картите да не е мръднала напред за тези 4 години. И не съм на това мнение, защото съм с ATI хардуер, а защото съм с NVIDIA и във всяка игра която поддържа Physx виждам за какво точно става въпрос. Аз съм от типа хора за които графиката в една игра е най-важното. И именно затова искам да гледам по-добра графика, по-добра физика, повече реализъм, а не виждам нищо такова, поне от към частта с физиката. Далече съм от мисълта, че NVIDIA трябва да хвърли на общата маса нещо за което е дала доста пари. Просто споделих мнение, че този тип затворени стандарти нямат бъдеще на този пазар и в момента в който се появи свободна алтернатива, нещата ще загрубеят за NVIDIA. И под свободен стандарт, не се разбира задължително да е безплатен, достатъчно е само да не прави разлика в транзисторите на двете компании. Даже съм на мнение, че NVIDIA също както сега с всичка сила си стиска въпросните стандарти в юмруче, по същият начин ще разтвори ръчички в момента в който види, че изтърва примката.

  79. 79 JZ // 31.03.2010 в 12:57

    ATI 5850 дойде на първоначална цена от грубо казано 450 лева начална. GTX 470 се очертава да дойде на 700 лева, къде е мястото за сравение? Цена качество ATI превъзхожда GTX 470.

  80. 80 Николай Цеков (geniusloci) // 31.03.2010 в 14:01

    JZ – въпросът е какво общо има HD5850 с GTX470?

    sas – все пак имай предвид, чсе те пари от PhysX директно не изкарват, т.е. няма да ги уплаши отворен стандарт, защото в момента, в който има такъв, се губи идеята да печелят пряко от ускорители.
    Освен това не губят нищо с излизане на отворен стандарт, те ще го поддържат не по-зле от ATI, а последните също ще се ориентират към гъвкава архитектура рано или късно, защото това х2, х2… с всяко поколение вече си изпява песента.
    Причината за застоя е масовото правене на игрите за конзоли. Иначе въобще не знам защо хората чак толкова отричат физичните енджини, мен лично ме кефи като гръмна или посека някой да пада реалистично, не като парцалена кукла. Но и това го няма във всяко заглавие.

  81. 81 sas // 31.03.2010 в 15:05

    “все пак имай предвид, чсе те пари от PhysX директно не изкарват, т.е. няма да ги уплаши отворен стандарт, защото в момента, в който има такъв, се губи идеята да печелят пряко от ускорители.”
    Това не можах да му схвана смисъла, може би защото има изпуснато едно “не” пред губи?
    Под “загрубеят нещата за NVIDIA” нямах предвид, че един отворен стандарт с нещо ще ги изплаши или че ще се представят зле в него, а че Physx просто вече няма да могат да го използват като плюс за да си продават картите. А с този + съм убеден, че доста хора вързаха и продължават да връзват.
    x2, x3 .. може и да си изпява песента, но все още се бори доста конкурентно с новата архитектура на NVIDIA, а и не страда от загуба на производителност в паралелните изчисления.
    Не съм съгласен, че конзолите държат Physx в застой. Не мисля, че имплементацията й в един конзолен порт на дадена игра е чак толкова сложно и изискващо много време. По скоро се замисли ако си производител на дедена игра, дали би я наблъскал с Physx, който моментално да ти свие пазара с едни 30-40%.

  82. 82 Николай Цеков (geniusloci) // 01.04.2010 в 01:48

    Идеята е, че те сега го предоставят на разработчиците, те как го имплементират – предполагам по пътя на най-малкото съпротивление, а именно – базова функционалност.

    Иначе е плюс, понеже повечето заглавия от 2009-та насам са PhysX базирани.

    Ако съм производител няма да тръгна да имплементирам безобразен отворен стандарт (сегашните) или да купя Havok, а ще сложа точон PhysX – в противен случай трябва да пиша из основи, което.. е, сещай се, някое инди студио надали ще седне да прави, макар че руснаците в това отношение мачкат понякога.

  83. 83 Радо // 01.04.2010 в 15:57

    “пари от PhysX директно не изкарват”
    Аха! Ама не е така :) Аз съм пример – имах към 200 лева за видео карта и останових, че избора ми е между GTS250 и 4850. И понеже не съм фенбой разгледах ревюта и видях, че като производителност са много близки. Тогава си казах “а защо да не получа за същите пари и физекс и куда?”. Така че nvidia има 200 лева от мен благодарение на физекс :)
    Иначе моето обяснение за… малко разочароващият GF100 е, че прекалено много се изхитриха – с едни пари за разработка хем да пускат star craft2 хем да симулират флуиди. Най-лошото е че няма голяма вероятност и да размърдат цените на Ati като гледам как позиционират своите.
    Силно ревю иначе, добра работа.

  84. 84 724059 // 02.04.2010 в 14:03

    Има ли някъде из нета тест на видеокартата с х2 120мм вентилатора? Ето така: http://store.picbg.net/pubpic/38/80/298dfcad5bc93880.jpg
    И ако е възможно, моля и вие тествайте по този начин. Само не знам как ще се захванат вентилаторите. Би могло да стане с миши(свински) опашки – в моя край така им викат :)

  85. 85 Кирил Венев (Ba4o Kiro) // 02.04.2010 в 20:18

    @Константин Философ – принципно не е етично да обявявам имената на клиентите ни, тоест съответните студия, публично.
    Мога да ти кажа само, че едните са направили едни от най-успешните български филми в последните три години (единият от които е черно бял ;) ), а другите две правят доста голяма част от рекламите на шоколади, вафли, бонбони и мобилни оператори по всички телевизии (да речем рекламата с “рибата” на “ТуБи” и поредицата с шоколадите на “Своге-Сушардс” ;)). Предполагам, че ще се ориентираш кои са студията…

  86. 86 medunski // 02.04.2010 в 21:22

    Браво за положения труд и мерси за ревюто, въпреки че четенето беше изтощително ;)

  87. 87 Kiro // 03.04.2010 в 16:50

    Не си заслужаваше чакането.5870 е по-евтина и по-производителна.

  88. 88 hipigore2 // 07.04.2010 в 18:00

    Хора все пак опираме до нова архитектура! Всичко ново и революционно изисква време за да се усъвършенства. Според мен се справя отлично картата. Не е това, на което всеки се надяваше, но не пада толкова. Ревюто е много показателно и изчерпателно. А картата си е конкурент точно на 5850 макар и с по-висока цена. Ако 5870 е реалния конкурент интересно 480(говорим за едночипови решения), с кого трябва да се конкурира в момента ?? Много наивно е да се сравнява едночипова с двучипова карта макар и не дотам голямата разлика в цената. А и чисто и просто НВ винаги е поддържала по-високи цени на картите си, та нищо ново. Силно се нaдявам с бъдещите си решения да се доразвие и оптимизира технологията, но най-интересен ще си остане средния клас ;)

  89. 89 Daredevil_666 // 10.04.2010 в 09:15

    Поздрави за отличното ревю!!!

  90. 90 Jordan // 12.04.2010 в 11:40

    Радо // 01.04.2010 в 15:57
    Аз съм пример – имах към 200 лева

    Аз като ти си взех моето 4850 1GB преди повече от 8 месеца струваше 220лв., GTS250 беше над 300лв.

  91. 91 Кирил Венев (Ba4o Kiro) // 13.04.2010 в 14:36

    @Jordan – Не съм сигурен кои цени и на какви карти си развнявал (марки/модели) но не помня разликата в цената между GTS 250 и HD 4850 да била толкова голяма (100+лв)! На всичкото отгоре ако по-същото време беше погледнал цената на “залежалите” GeForce 9800 GTX+ щеше да видиш, че струваха малко по-малко от GTS 250 и HD 4850. А GeForce GTS 250 е преименуван GeForce 9800 GTX+ ;)…

  92. 92 Радо // 13.04.2010 в 14:53

    @Кирил Венев (Ba4o Kiro) вярно, но за 512MB моделите. Поне когато аз гледах (в началото на годината) GTS250 с 1G памет беше по-евтина от 9800 с 1G.

  93. 93 visitor // 13.04.2010 в 22:24

    Много информативна статия! Благодаря ви!

    Имам само една молба- да добавите по- едър ред “Следваща Сраница/Предишна Страница” за да нацелваме по- бързо страничките от интервюто, а и по- лесно!

    Благодаря!

  94. 94 Jordan // 19.04.2010 в 17:11

    @Кирил Венев (Ba4o Kiro), не знам какви цени си гледал тогава, но аз много добре си спомням кое колко струваше за краен клиент, не някакви измислени карти, под масата, без ДДС и т.н. 4850 1GB си я взех за 228лв (точно, имам все още гаранцията) крайна цена. По същото време цената на 9800GT (няма X както виждаш) 1GB беше малко над 250лв (зависи от производителя). Това се развива средата на август месец миналата година, когато бях решил да си сменя 2900Pro с нещо по бързо. Доста гледане и ровене падна из нета и в крайна сметка от 4850 по-добър вариянт нямаше (за цената си).

  95. 95 Кирил Венев (Ba4o Kiro) // 19.04.2010 в 18:08

    @Jordan – Както Радо беше писал по-горе, може да съм объркал цените на 512MB-товият и 1GB-товият вариант на 9800GTX+. Като ми остане време ще направя справка със складовата ни програма за да съм сигурен какви са били цените по това време. BTW – цени “под масата” без ДДС и т.н. не ги коментирам, защото подобна практика въобще не я толерираме!

  96. 96 Кирил Венев (Ba4o Kiro) // 19.04.2010 в 18:29

    @Jordan – За съжаление не мога да открия доставки и продажби точно от този времеви диапазон който коментираме за двете видеокарти (август месец миналата година).
    Най-близките като време доставки на HD 4850 и 9800 GTX+ на които попадам са от края на април, началото на май миналата година (тогава сме продавали за последно 9800 GTX+). И двете доставки са за модели с по 512MB видео памет, а цените им са били съответно 277лв. за Sapphire HD 4850 512MB и 298лв. за Palit GeForce 9800 GTX+ 512MB. Разликата при 512MB не е толкова фрапантна, предполагам, че и при 1GB моделите не е била чак толкова голяма по едно и също време. Горе долу от този времеви диапазон имам и цена на Palit GeForce GTS 250 1GB и тя е 275лв. Тоест – или ти си попадал все на някакви супер скъпи GTS-и или си уцелил “кьоравото” като си взел HD 4850 на цена с повече от 100 лв. по-ниска от цената на GTS 250. Отново повтарям, че никога не съм бил свидетел на подобна разлика между GTS 250 и HD 4850.

  97. 97 Кирил Гайдаров // 22.06.2010 в 04:57

    Последно коя карта е по-добрата, гтх 470 или хд 5870? Преди всичко я искам за игри и като цяло си мисля че 5870 е ще е по-добрия избор (цените и на 2те карти са еднакви във магазина във който ще копувам) защото е по-мощна пък и не смятам да си копувам цайси и нов монитор заради 3д висион-а, също така гледах клипчета на които тестват фан-а на гтх 470 и ми се струва че е доста шумна а и тази температура ме плаши малко, аз по принцип съм голям фен на НВ но в този случай си мисля че по-добрия избор ще е 5780 заради нейната мощност. Надявам се че някой ще ми отговори скоро защото ще копувам пц в близките дни и бих желал да знам предварително.