AMD Radeon RX 480, заслужаваше ли си чакането?

AMD Radeon RX 480, заслужаваше ли си чакането?

В раздел: Ревюта, Ревюта, статии и ръководства от на 29.06.2016, 37,262 показвания
Страница от ревюто: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15


28nm технологичен процес бе въведен при графичните ускорители през далечната 2011 година, и по-точно 2 години след въвеждането на 40nm. Общо взето последните 10 години бяхме свидетели на скок в технологичният процес на всеки две години… или не точно. След 2011 година, когато се появиха първите графични карти с 28nm GPU, погледите бяха насочени към следващата стъпка – 20nm. По ред причини тя бе пропусната, което от своя страна доведе до поредната графична фамилия видеоплатки, базирани на добрият (стар) 28nm технологичен процес. И така, 5 години по-късно най-накрая се случи и чудото – двата основни производителя на десктоп графични чипове (най-накрая, отново) успяха да предложат своите нови GPU-та, произведени (най-накрая, за трети път) по 14/16nm технологичен процес.

rx480_first

Както за NVIDIA, така и за AMD (конкретно) достъпа до 14nm бе възможността да предложат нещо наистина ново и интересно на своите потребители, главно заради големият инженерен и дизайнерски потенциал за 14nm разработки, който се откри пред съответните кадри на компанията. Подобен скок от 28nm на 14nm бе нещо чакано от много дълго време, така че не само самите производители, но и (главно) потребителите и геймърите с интерес очакват какво могат да им предложат от AMD, базирано на 14nm FinFET.

90nm_to_14nm

Що се отнася до AMD, стартът при 14nm FinFET се бележи със създаването на два графични чипа – Polaris 10 и Polaris 11. В този материал ще обърнем по-специално внимание на по-производителният от двата, Polaris 10, погледнато през неговото пълнофункционално отражение под формата на графичният ускорител AMD Radeon RX 480.



Всички страници от статията:

  1. Най-накрая да видим и 14nm при GPU
  2. Геймърите днес
  3. Нека бъде Polaris!
  4. Новата архитектура GCN 4.0
  5. Новата архитектура GCN 4.0 - продължение...
  6. Новата продуктова линия Radeon RX
  7. Най-добрият Polaris 10 - RX 480
  8. Какво представлява референтната RX 480?
  9. AMD Wattman, консумация, температура
  10. Овърклокинг при RX 480
  11. Криптовалутите и RX 480
  12. Тестова система и софтуер
  13. Резултатите 1920 x 1080
  14. Резултатите 2560x1440
  15. В заключение


Страница от ревюто: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15




Етикети: , ,


63 коментара

  1. 1 SA1 // 29.06.2016 в 15:07

    Не, не си заслужаваше, не и личи, че е по нов процес и с нова архитектура, GTX1080 е с почти същата консумация, а доста по-висока производителност.

    Uber fail! АМД да намалят цените на 150$ за 8GB версия, ако искат имат успех!

  2. 2 SA1 // 29.06.2016 в 15:11

    GTX1080 има с горе-долу 10W (3W в typical gaming, 20W в maximum) по-висока консумация и производителност 80-90% по-висока.

    Какво стана, AMD? :(

  3. 3 Хиокд // 29.06.2016 в 15:34

    Така
    Близо 30 % увеличение спрямо наследника си(380х)-не е тотално разочарование,но не и е грандиозен успех.
    За да има шанс тази карта,трябва да бъде на цена 200 евро/400 лева-за 600 лева и нагоре е изключително надценена,предвид че 970 има вече за 250 евро.

  4. 4 Бай Ставри // 29.06.2016 в 15:34

    В резултатите от теста с Witcher-а на резолюция 2560 x 1440 явно има някаква грешка.

  5. 5 Белков // 29.06.2016 в 15:39

    А цената къде я поставяш? Дай процентно съотношение и за това. За парите си, картата се позиционира тамън където ѝ е мястото.

    Молов,
    Приятно четиво си сътворил. Имам някои препоръки и коментари, но не са толкоз важни.

  6. 6 hidoi // 29.06.2016 в 15:39

    твърдо Нье, тази карта има отчайваща производителност на Ват, има консумацията на GTX 1080, производителността на GTX 1060. това ли ще очакваме от 14нм Зян процесорите.

  7. 7 Last V8 // 29.06.2016 в 15:41

    SA1, а сравнени по цена, нещо да кажеш?

  8. 8 sfury // 29.06.2016 в 15:53

    Само дето GTX1080 струва 1500 лева минимум, а RX 480 към 500 лева. Какво ги сравняваш изобщо? Тази ще струва 600 лева максимално, а 4гб версията сигурно далеч по-малко.

  9. 9 Марто // 29.06.2016 в 16:16

    Тъжна вест – овърклокът почина поне до следващото поколение при зелени и червени! Максуел 2014 – завинаги!
    Колкото до самата карта – малко под очакванията е като производителност, но все пак е референтна. Като цена 480 е толкова 199$, колкото и 1070 е 379$, особено пък в България. За температури и шум може да се говори след като МСИ и Гига се намесят. Като цяло не мога да кажа, че съм впечатлен. Но е факт, че към момента в най-масовия клас ще е избор #1, поне до излизането на 1060.

  10. 10 nv // 29.06.2016 в 16:48

    Излиза че RX 480 дава почти същата производителност като R9 390X и GTX 970.

    Добра видеокарта на добра цена.
    Остава сега цената да слезе до обявените 200$ и долара да падне под 1.70 лв./долар и ще е най-добрата карта за цената си в средния клас. Поне докато се появи GTX 1060.

  11. 11 Сашо // 29.06.2016 в 16:54

    “Всъщност е много удачно да говорим за почти двойно повишение на консумацията при сходна производителност.” – това май наобратно трябвало да се каже.

  12. 12 KalliMan // 29.06.2016 в 16:58

    @”Какво стана, AMD? :(”

    Проблема с консумацията не е в АМД ами в скапаните Самсуняци. Техния 14нм процес е по-зле от 16нм на ТЦМЦ.

  13. 13 smart // 29.06.2016 в 18:24

    Дали заради лош 14-нм от GloFo, дали заради грешна архитектура и изпълнение, дали заради старата GDDR5 клокната на 2000 и контролер на паметта, който не е усъвършенстван, но тази карта със сигурност не е добра презентация и плаши, че и Zen може да се превърне в пълна блядка.
    Никой ли не осъзнава, че тази карта показва ефективност в консумацията колкото старите карти Максуел на 28-нм процес? :O

  14. 14 Deragot // 29.06.2016 в 18:41

    Сравненията на производителността – със старото поколение карти, а на цената – с новото. Като говорите за цените на 10-та серия дайте да видим и как се сравняват резултатите.

  15. 15 tato // 29.06.2016 в 19:24

    Като изключим консумацията, която разочарова, картата е отлична за класа и цената си (след като цената се нормализира). След оптимизация на драйверите и при излизането на къстъм модели, ще задмине с повече от 50% аналогичната карта от предишното поколение.

    Всъщност слабата консумация може би ще има един плюс – ще отблъсне миньорите, които иначе биха могли да ѝ покачат цената с голямото търсене.

    Тази карта ми вдъхва доста оптимизъм за бъдещата RX 490, който, ако се оправдае, може би ще повлияе положително и на цените на Nvidia.

    Прави ми впечатление, че повечето недоволни сравняват картата с грешни класове карти.

  16. 16 Станислав // 29.06.2016 в 19:28

    Някои забравят че TDP не е консумация и че има бая голяма разлика между TDP-то на АМД и Нвидия.

  17. 17 Бай Ставри // 29.06.2016 в 20:16

    Дрън, дрън, и все се пропуска, че тази карта е поне колкото 980 на DX12. Масово тестовете са на стария DX11, и съответно произведителността е на нивото на 970. Аз дори съм учуден от добрата работа при новият DirectX при тези все още не особено оптимизирани драйвери.

  18. 18 ?? // 29.06.2016 в 20:21

    Mollov, картата има ли датчик за vrm и какви са температурите ?
    Thanks in advance.

  19. 19 Бончо // 30.06.2016 в 07:02

    Дано да са го скрили като на nvidia-та.

  20. 20 SA1 // 30.06.2016 в 07:53

    Станиславе, в ревюто на TPU тестват и сравняват ябълки с ябълки, а не ябълки с круши.
    Картата е със сравнително висока консумация дори в режим idle. Такова нещо говори, че вероятно има проблем с високо-честотната GDDDR5 памет.
    Да се чакат нови ревизии или направо следващото поколение – трябва тогава да скочат на GDDR5X или HBM(2) и да си оправят нещата, които са оклепали.

    Станислав // 29.06.2016 в 19:28

    Някои забравят че TDP не е консумация и че има бая голяма разлика между TDP-то на АМД и Нвидия

  21. 21 Ngoro // 30.06.2016 в 08:37

    И нека многогодишното чакане на работещи драйвери започне сега!

  22. 22 asd // 30.06.2016 в 08:56

    В jar я има 8гб версия за 620 лева, дано 4гб да е на значително по-разумна цена.Ако струва 500 лева по-добре 970ка втора ръка да си търся.

  23. 23 time999 // 30.06.2016 в 09:13

    Станислав чел ли си други ревюта за да видиш че картата си харчи прилично 140-150 W. Даже вчера имаше въпроси към Раджа Кодури за карти които надвишават 150W той призна за проблема. Така че картата не е направена добре ако потърсиш ще видиш, че тя дърпа доста повече от PCIe слота от препоръчителните 75W. Това не е проблем за хора които са си купили прилично дъно и захранване, но картата е направена за хора с бюджет които надали ще си купят скъпо дъно и захранване. Дано да оправят проблемите.

  24. 24 Киката // 30.06.2016 в 09:30

    Като гледам нефелното охлаждане и парченце радиатор…едва ли.Спестили са доста откъм охлаждане на платката,явно с цел максимално ниска цена.

  25. 25 Владислав // 30.06.2016 в 10:23

    Колко хейт се отприщи от Nvidia фенчета… Картата за класа в който се предлага си е доста прилична! Все пак да споменем, че това е изцяло нов продукт, за който тепърва ще се пишат оптимизации. А и следващата им карта идва след няколко месеца, достатъчно време да оптимизират тук-там нещо по 490-ката.
    Така че има време, ще видим. Само силно се надявам тези карти да са си с Hynix памети, тъй като особено при NVidia с не малко карти имам ужасни преживявания със Samsung чиповете… те памети и процесорчета не могат да се научат да правят, камо ли телефони и UI за Андроид…

  26. 26 Aleks // 30.06.2016 в 10:26

    Имал съм HD 4850, 6850 и R9 270 но сега съм много разочарован от AMD. Колкото и да не ми харесва Nvidia явно следващата ще е тяхна. Имаше време когато си заслужаваха повече но явно вече не е така.

  27. 27 jordan // 30.06.2016 в 12:27

    Е то правилото е: ако заглавието на статията е въпрос, значи отговора е “НЕ” :) Картата е “конкурент” на GTX 970, но е закъсняла с 2 години.

  28. 28 Zand // 30.06.2016 в 12:42

    високи темп , шум , тдп като на 2 поколения назад , единственото нещо което може да ти хареса в тази карта е цената , ама се оказа че и тея не е 199usd a по скоро 240. Та тея вафли със заводския ОЦ вече сме ги яли. Толкоз са я напомпали в сравнение с 10та серия на нвидиа , само и само да стигна там кадето я мъчат да я набутат. Едва ли има нормален “ГеймОр” който да си прични Xfire или Sli .В крайна сметка нищо ново под слънцето – RX480 30% по-слаба от gtx1070 и 40% по-евтина, както вече знаем от доста години нвидиа таксува поне 10% за тишина,темпс,тдп, фиичърс и най-важното РАБОТЕЩИ драйвери.Жалко за хората които чакаха месеци и аз включително и аз , още по-жалко за хората които ще чакат 490. SAD PANDA!!!

  29. 29 ПИФ // 30.06.2016 в 15:02

    Нищо неочаквано като цена.Разликата с Гигабайката е около 130лв, а това с нереферентен модел ще я бие.Не че не го прави и сега при DX12, така че стига сте мрънкали.

  30. 30 jo // 30.06.2016 в 15:36

    Не съм фен на Нвидиа, а по скоро на AMD, макар че съм с Нвидиа карта в момента. Надявах се AMD да ги смажат, а като гледах тестове на Tech of Tomorrow то е точно обратното. Не съм се задълбочавал да гледам коя каква цена е(което е супер важно всъщност) обаче ако не гледаш цената то перформънса е изцяло в полза на Нвидиа. Не знам как се стигна до тая ситуация защото по времето на 4850 примерно AMD мачкаха и изкарваха картите преди конкуренцията.
    В DOOM разликите са умопомрачителни, като 20+ кадъра. Защо продължават да са толко зле под OpenGL. И пак се говори за некъв илюзорен DX12, то няма игри, кой го интересува и всъщност къде са тестовете под DX12 където AMD мачка… искам ЛИНК. Тая карта трябва да е 350лв а не 500 за да “мачка”.

  31. 31 eviton // 30.06.2016 в 18:14

    Аз пък не мога да разбера какво мрънкате !? Гледайте как се представя в новите игри ДХ 12 – къса шортите на 970 и дори на картите с двойна цена.Имате най нови технологии, и изходи с новите стандарти. Скалира добре при клок- с по-малко от 10% клок имате около 7-10 % прираст. Сега се надяваме нереферентните карти да оправят някои недостатъци и ше имаме карта трепач. Трябва да си луд да вземеш 970 и или дори 980 пред тази карта. А, и да не забравяме бъдещи оптимизации по игри и драйвъри

  32. 32 шошо // 30.06.2016 в 19:20

    610 кинта честитка …… дотук с 200те $ :D и наистина е закъсняла с около 2 годинки за съжаление

  33. 33 nVIDIA VW // 30.06.2016 в 19:59

    Една камара коментари на спецове, това така било онова така било. Като не ви харесва никой не ви кара да купувате, има хора като мен дето още си ползват 7970, и проблеми не сме имали, освен със Zero Core, това си беше проблем, който се оправяше с махането на заспиването на монитора, нищо сериозно, нито с градуси съм имал проблем, нито с драйвъри, нито с перките. И само се коментира “прекрасната” 970, която е скъпа, и НЕвидя нарочно лъгаха хората за размера на Vram, но това не попречи на никой да си я закупи, без да мрънкя нали ? Ако AMD бяха лъгали за размера Vram на HD7xxx, R9 2xx, R9 3xx, какво щеше да стане ? Сега както си надувам графиката, игри като GTA V дето ми пълнят 2.8GB vram, ако прекрасната 970 беше, щеше да дава грешки, да лаги, да прави мизерии, ако беше писано, че е 3GB, а реално е два ??
    /
    И да има някакви проблеми, картата ще ги оправят, особено модифицираните карти на MSI, ASUS, Sapphire, XFX, Gigabyte, ще са по добри, и повечето проблеми няма да присъстват. Дори да не ги оправят, много лесно, ще се ползват карти като Fury X, или ще се гледа високия клас R9 490X каква ще е и така.
    /
    Тези с драйвърите, дето пищите, вие сте с невидели карти, тогава как разбрахте, че проблеми има ? Аз, освен със Zero Core, откакто съм си взел 7970 MSI, не е мръднала, вие ако си ползвате картите да копате с тях, проблема си е ваш не на nVIDIA ;).

  34. 34 Марто // 30.06.2016 в 23:25

    Имайте в предвид, че коментирате референтна карта в, буквално, първите дни от излизането й… Температурите и шумът ще бъдат оправени до месец. Консумацията в крайна сметка не е толкова висока. Цената би трябвало да се нормализира, особено ако доларът падне(което май няма да се случи ;/ ). Драйвърите… нова архитектура – нов късмет. Дано станат по-сериозни, че и заради тях губят не малко потенциални клиенти.
    Иначе наблюдавам някаква тенденция да се оплюва всяка карта, която не е висок клас, без значение Нвидиа или АМД ;д Май всеки иска това, което не може да има.

  35. 35 hiroi // 01.07.2016 в 07:38

    благодаря на Моллов за текста.

    Сега съзирам доста добра възможност във Ватмана за намаляне на напрежението, примерно POWER STATE=3, на 993 мV, но според TPU измерено, дори и дефолта е 1025±50 мV, значи дропа спрямо ватмана е 50 миливолта. за копане може да се смъкнат още 100 миливолта от това. По всичко личи че Vega ще бъде картата обаче, това е 232мм2, онова ще е 410мм2 и поне 4 пъти трансфера към паметта ако разбирам правилно че от него се влиае копането.

  36. 36 SA1 // 01.07.2016 в 08:24

    Марто, тогава си е вземи за теб.
    Аз няма да си купя подобна карта посмъртно – 15W да хаби ток докато дреме и не прави нищо е меко казано нахално от AMD.

    Ще се чака до следващите поколения, засега R9 380 4GB ще държи фронта… ако ли не, вече започвам да се замисля за други компромис и скачане на супер ефективните карти на Nvidia. Гадното е, че там пък компромиси има от друго естество – качеството на картината, битове цвят и т.н

  37. 37 K0MEPCA // 01.07.2016 в 08:53

    Марто напълно се съгласявам с последното изречение. И аз забелязах същата тенденция, че и не само по българските сайтове ами и по други. Ако току-що излязла карта не “мачка” топ-модела на конкуренцията – значи не важи… А това че е среден клас и е отлична като цена спрямо това как се представя никой не го интересува.

  38. 38 ?? // 01.07.2016 в 10:35

    Някой ще ми отговори ли, дали voltage controler-a може да чете темп на vrm? За мен това е полезно за да ги следя, вместо с fan controller и датчици по картата.

  39. 39 Тодор Богданов (mollov) // 01.07.2016 в 12:26

    Засега нито един от туул-овете за мониторинг не показва температура на VRM. Може би в скоро време ще има GPU-Z, която ще го показва… АКО изобщо я има опцията…

  40. 40 ?? // 01.07.2016 в 19:14

    Благодаря. Гледам, че ползва IR367, но ме мързи да търся дали картите, които го имат, могат да следят vrm temp.
    We’ve seen the IR367 voltage controller on several designs from AMD before. It has support for I2C voltage control and advanced monitoring.

  41. 41 m0nss7erKill // 02.07.2016 в 18:32

    Не мога да разбера какво ревете. Дърпала много мощност от. PCIe слота, щяло да изгори дъното, пишки по радиото… проблем ще има ако ползваш 100 годишно дъно със pci e 1.0 или старо дъно с pci 2.0. nvidia 750 като е дърпала ток само от слота кво стана ? Най-много да ти се изключи компютъра от това “свръх голямо дърпане на ток”. Всяка клокната карта дърпа повече слота от колкото е по спецификация самия PCIe слот. За 250 долара за 8гб версия това е супер оферта. + Това че картата се конкурира с 960, а 2 RX 480 са почти колкото 1080 лети производителност. Картата е перфектна за гейминг на 1080p и 1440p

  42. 42 Николай Цеков (geniusloci) // 03.07.2016 в 00:51

    Толкова е перфектна, че не прави 60 кадъра на 1080p в 60% от най-ползваните за тестове заглавия.

  43. 43 Esti5 // 03.07.2016 в 09:59

    Тя и 980 не може да направи. Значи ако търсиш нормален гейминг даваш 1000 лева за 1070 иначе си нищо, никакъв геймър не си.

  44. 44 Николай Цеков (geniusloci) // 03.07.2016 в 10:11

    Напротив, но не ходиш да обясняваш как ставали картите за 1440p, когато и с 1080p имат доста трудности.

  45. 45 Tunturi // 03.07.2016 в 10:58

    Нз за какви трудности говорите над 30кадъра нагоре разлика няма да намерите, просто само да се покажете като тролове. Имам чувството че и без пари да ви дадът някоя карта пак ще се мрънка, че и има нещо. Очите ни могат да различат не повече от 24 кадъра в секунда, правете сметка колко са ви необходими 60 кадъра, въпроса е само да са постоянни(стабилни) и да не падат под тоя минимум.

  46. 46 Николай Цеков (geniusloci) // 03.07.2016 в 15:31

    Не знам “зн” ли, но не става въпрос за това какво виждат очите ти. Завъртане на героя ти на 180 градуса за една секунда в игра с 24 кадъра ще ти даде кадри на всеки 7.5 градуса, и това, ако го завъртиш точно за секунда и приемем, че кадрите са напълно равномерни. Обикновено нито го въртиш за секунда, нито са равномерни, това води до усещане за накъсване. 60 кадъра са общоприети за комфортна игра, понеже са обичайната честота на опресняване на масовите монитори и не се налага да се повтарят кадри, хората вече си купуват и монитори на 144 Hz с цел ниска латентност. И, не на последно място, стабилни над 60 кадъра гарантират, че минималните кадри (пикови спадове) няма да са под 30 кадъра. Освен това вземи под внимание, че повечето хора играят с Vsync и това се отразява на реалните кадри.

    Между другото, дай да не бъркаме и 24-кадъра в киното с това какво може да виждат очите ни. Пробвай да си включиш монитора на 30 Hz, пък кажи после няма ли разлика… Киното и игрите са съвсем различни неща.

    Та вашето “става” е някаква вяра, че 30-40 кадъра са нормална игра. Хайде стига с това “плюеш”, говорим за общоприети неща, вие наричате черното бяло.

  47. 47 Касапин // 03.07.2016 в 15:09

    За 1080p дори R9 290 е достатъчна. Аз съм с HD7970 и щом GTA V ми върви на Very High с средни 40 кадъра, не виждам какво си седнал да оплюваш как RX480 не ставала. Всеки ден е по добре, човек да си купи продукт, чиято цена е реална, не оскъпени продукти, зелени и сини………….

  48. 48 СеБа // 03.07.2016 в 15:11

    И на по-слаба карта карам на 1440p60 почти уверено. 1070 ще ми стигне и за 4К на косъм.. Но това ще бъде до излизане на следващата по-тежка игра ще се сменя между двата режима според изискавнията и ново видео през 1 година, на всеки час по лъжичка.

  49. 49 Марто // 03.07.2016 в 18:19

    “Очите ни могат да различат не повече от 24 кадъра в секунда”; “Нз за какви трудности говорите над 30кадъра нагоре разлика няма да намерите”… Само 2 типа хора биха повярвали в подобна простотия – конзолни геймъри и ид*оти! Я пробвай да си пуснеш CS:GO с 24-30 кадъра и да играеш Мачмейкинг. Обзалагам се, че с такъв фреймрейт дори и Силвър1 ще те размажат.
    Не малко хора биха усетили разлика между 120 и 144 херца, какво остава за 100% увеличение от 30 кадъра до 60…
    И какво трябва да се разбира под “подкарва ми игрите на 1440п перфектно? Какво е перфектно? Намалени до почти ниски настройки и 25-35 кадъра в секунда ли? Това ли е перфектно?
    Самият Раджа Кодури казва, че е за FHD, ама тук излиза, че била перфектна за 1440п гейминг ;д То 1070 не може да се каже, че е ПЕРФЕКТНА за 1440п гейминг, какво остава за 480.
    “Всеки ден е по добре, човек да си купи продукт, чиято цена е реална, не оскъпени продукти, зелени и сини” Уверявам те, че всяка цена си е съвсем реална и ще трябва да я заплатиш, ако искаш дадения продукт. А ти дали смяташ, че си заслужава или не, естествено, си е лично твоя преценка. Лошото е, че пак има двоен стандарт. АМД обявяват 199 долара за близо до ФюриХ производителност, а то се оказва, че е 250 долара за близо до 390х производителност. Нвидиа пък с тоя FE и невалидния MSRP също се на*раха, но явно според теб от АМД са излъгали по-малко. А после Цеков е пристрастен…
    И несъгласието не е “плюене”, особено когато се основава на факти.

  50. 50 Станислав // 03.07.2016 в 18:34

    Колкото и да е лоша картата в момента няма никаква алтернатива, освен ако нямаш 1000 лева за видео. 980 на същата цена като rx 480 да я дават е безумние предвид че говорим за 2 годишна карта която в най-добрия случай ще остане със същата производителност и няма никакво бъдеще в ДХ12.

  51. 51 Николай Цеков (geniusloci) // 03.07.2016 в 20:09

    Станислав, не се изхвърляй, 480 преко сили и с клок се бори с референтна 980Иначе не бих се надявал на 980 да поевтинее толкова, а по-скоро да пуснат 1060. И най-вече, да пуснат нереферентните 480, понеже тази с турбинката за нищо не става.

    У нас изглежда по някаква причина продават обикновените 480 за 650 лева (има няколко линка във форума към родни магазини), при положение, че от немско с все пътя и таксата на paypal може да се намери за 480-490 (обикновено 550).

  52. 52 коч // 03.07.2016 в 21:22

    здравейте тая карта заслужава ли си
    http://www.emag.bg/video-karta-evga-geforce-gtx-980-4gb-classified-gddr5-256bit-hdmi-dvi-displayport-evga-vc-gtx980-cls-4gb/pd/DFR622BBM/

  53. 53 Tunturi // 03.07.2016 в 22:39

    Първо разберете какви са разликите между кадри в секунда и херците на мониторите защото ги смесвате 2-те понятия, а са савсем различни неща и не сте наясно кое какво е. Херците на монитора нямат нищо общо в случая и темата. А на 30 фрейма съм играл CS и проблем няма. Считат 60 frame за комфортна игра, защото няма начин да спадне под този минимум(25-30 frame), а не защото има разлика.Като цяло за FHD е абсурдно да се твърди че има проблем с тея резултати, че и на 1440p дори и да се узорва ще подсигури комфортен гейминг, а на тая цена мисля че си е савсем добро предложение(дано и другите смъкнат цените). И другото е защо реши, че кадрите в киното са много по различни с едни и същи очи наблюдаваш и едното и другото…но това е съвсем отделна тема.

  54. 54 Николай Цеков (geniusloci) // 04.07.2016 в 00:27

    Не, не ги смесваме, и настоявам да почетеш малко, преди да се опитваш да раздаваш подобни мнения. 60 FPS се приема за норма, понеже при 60 Hz това ти дава по кадър на опресняване, а при Vsync позволява да ти се показва по точно кадър на опресняване на стандартен LCD монитор, както и порядъчно плавно движение при промяна на сцената. Паднеш ли под 60, без адаптивен Vsync падаш на 45 кадъра, после на 30.

    60 Hz има съвсем други причини да е общоприето, но нека не дискутираме нещо от зората на LCD екраните! Дали си играл с 30 кадъра и ти е било комфортно – все тая, било е понеже не си играл с 60, за да ти е още по-комфортно – в случая даже няма общо с опресняването, вече обясних защо броя кадри на секунда има значение. Колкото по-бързо се движиш в играта (т.е. FPS, Action), толкова повече значение има.

    Кадрите в киното се прожектират по различен начин и не се генерират като компютърните, там се разчита на замазването, а иначе опресняването на светлината към екрана може да е със 72 Hz (заради което не виждаш трептене от светлинния източник) и вкарване на всеки кадър по три пъти – което не променя това, че записът отразява само 24 състояния на сцената в секунда. В киното могат и по-малко от 20 да ти покажат (всъщност често се ползва при снимане на преследвания с коли). Запитай се защо като гледаш мач с 24 кадъра не е много яко…

    Дайте да не спорим за елементарни неща, всеки може да си потърси информация и не опира до субективните усещания и оправдания.

  55. 55 Tunturi // 04.07.2016 в 14:35

    Предполагам резултатите са с пуснат Vsync, до колкото си спомням по подразбиране е пуснат, не виждам да пише че е изключван за тестовете и пак подържа 40fps. А за 24-те кадъра реално на под съзнателно ниво се разпознават повече(експериментите с 25-тия кадър) и както каза в киното са замазани нещата, но картата поддържа 40fps дори в най-тежките условия при 1080p.

  56. 56 Николай Цеков (geniusloci) // 04.07.2016 в 15:01

    Бенчовете тестват с off по подразбиране, иначе нямаше да имат никакъв смисъл. На подсъзнателно ниво могат да те “флашнат” и с черен кадър със 200 FPS, в който пускат един бял на всеки 199 :D

    Така де, ще усещаш нередност, не може да я видиш.

  57. 57 Tunturi // 04.07.2016 в 16:08

    Това за 200fps може само да гадаеме. За бенчовете не знаех и не се сетих че са с off, но е логично да са. Но дори и с Vsync би трябвало да пада до 30 fps където е било под 60фпс например assasian-a 40-тина беше fps а не под 30, но това е на теория трябва да пуснат и нереферентните модели и да се види и на практика как е. Лошото е че те сигурно ще са в бг над 550лв, което ме кара да се надявам на 1060 да е по добро предложение :).

  58. 58 smart // 05.07.2016 в 19:41

    Дам, и един мармот завива чокалдчето в станиол… Приема се да се пишат простотийки, но до някаква степен :D

    Марто // 03.07.2016 в 18:19
    “Очите ни могат да различат не повече от 24 кадъра в секунда”;

    Това горното в кавичките е страшно невярно твърдение – очите ни са много по-съвършени и имат по-висок праг и на разчитане на плътност на точките, демек ppi, и кадрите в секунда.
    Не мога обаче да си обясня защо се тиражират такива невярни данни – дали е някакъв вид психически натиск върху хората – вижте сега колко сте ограничени, или просто “учените” са си ограничени ;)

  59. 59 Марто // 06.07.2016 в 01:17

    smart, нали не си останал с впечатлението, че вярвам в цитираното твърдение? Ако да – то по-добре смени никнейма ;д Очите са ТООООЛКОВА по-напреднали от всякакъв вид панели и обективи, че тея 24 кадъра… не знам къде е тръгнал с тях.

  60. 60 smart // 10.07.2016 в 20:36

    Заради копи-пейста ти излезе името.
    Иначе да, прав си, очите ни са чувствителни, свикват и затова производителите, примерно на дисплеи за смартфони, вече започнаха да въвеждат 4К на 5-6 инчовите си модели. Скоро и 1000 ppi може да стане нещо не толкова невероятно.

  61. 61 Комисар Попов // 06.08.2016 в 14:44

    Интересното е,че като пуснеш един Watchdog .. на 4К с всички алайзинги,таселации сенки и екстри на макс включени, играта заковава стабилно на 5 фрейма/fps и 1,5 киловата B час /товар към трансформатора на трафопоста. Кога ще излезне custom made версията с 200 fps at all Max ;-)

  62. 62 Богдан // 08.08.2016 в 14:59

    Хмм, интересно, да, наистина. Тези ако не подобрят софтуера, каквото и желязо да му хвърлиш на това, разлика особена в следващите години няма да има. Майкрософт и разработчиците на игрите да му мислят какво ще правят.

  63. 63 Свой // 18.08.2016 в 12:27

    Някой хора се чудя как може да намесват киното тук. Ехо… там кадите са стабилно 24(23.976)-25 и е обработена докато в игра те се променят според натовареността на играта. При малък брой при завъртане ще има 2 кадъра с голям ъгъл на завъртане между тях от където идва накъсването. Ако изключите заглаждането ще видите друга разлика при малък брой кадри. Без заглаждане при малко кадри картината ще е чиста иначе при включено ще е замазана при завъртането. Всъщност при 4К заглаждане не е и нужна защото оригинала е направен за 4К. Заглаждането е заради промяна на мащаба от 4К до избраната резолюция като 1080p примерно.