Stránka 2 z 5

Napsal: úte led 19, 2010 11:38 am
od no-X
Termín geometrický výkon je velice široký.

To, co prudce rostlo u předchozích čipů, byl výkon vertex shaderu; tzn. schopnost zpracovávat programy přiřazené jednotlivým vertexům (vrcholům).

To, co rostlo pomalu, je triangle-rate, tzn. schopnost vůbec zpracovávat trojúhelníky. Tohle bylo omezeno výkonem CPU, protože vertexy generuje CPU. Bylo tedy zbytečné navyšovat výkon GPU, protože by stejně nebylo jak ho využít.

Přisla teselace = schopnost, díky níž je GPU schopno vertexy generovat samo. Tzn. možnost nárůstu počtu polygonů na mnohonásobek toho, co by zvládal CPU. Teoreticky. Praxe má dva zádrhely:

1. Triangle-rate. Triangle setup na to není dimenzovaný, byl dimenzovaný na množství polygonů, které stíhalo dodávat CPU. Triangle setup jako jednotka běží na základní frekvenci, za takt obvykle dokáže zpracovat 1 polygon. Tzn. frekvence v MHz obvykle = miliony trojúhelníků za sekundu. Má to ale výjimky - třeba R600 měla klasicky 1 trojúhelník za takt, ale RV670 v některých situacích potřebovala na 1 trojúhelník dva takty. Nebyl to moc problém, protože G80 a první generace G8x čipů měla poddimenzovaný (nebo zabugovaný) front-end čipu (tzn. buďto triangle setup, nebo rasterizér; detaily nevím), takže taky měla problémy s vysokým množstvím polygonů. Proto se zezačátku říkalo, že u G8x nefunguje unifikace jak by měl, protože výkon vertex shaderu při vysokém množství polygonů není o moc větší, než u starých čipů. Unifikace ve skutečnosti fungovala, ale pomalý front-end nezvládal unifikované jádro zásobovat polygony. Tohle ale pro nVidii nebyl problém; tehdejší hry - psané tak, aby běhaly i na unifikovaných čipech - náročné na geometrii nebyly, R6xx byla zabržděná bugy a drivery, takže do toho nikdo moc neryl.

Druhý limit je, že nVidia má základní frekvenci GPU nízkou, takže i triangle-setup běží na nižší frekvenci. Proto nVidia byla z tohohle hlediska víc limitovaná, než ATi a musela to začít řešit dříve.

ATi to zatím řešila tak nějak průběžně pozvolna - RV670 měla 1 polygon za 2 takty, RV770 zvládá 1 polygon za takt (tzn. dvojnásobek). RV870 má ještě dvojitý rasterizér, takže hrubý triangle-rate nevzrostl (resp. jen co se týče rozdílu frekvence), ale dokáže se ním nakládat o něco efektivněji.

Další řešení ATi je multi-GPU. AFR přes všechny své zápory má jeden velký klad a to je, že efektivně násobí triangle-rate. Tzn. zatímco nVidia se při návrhu velkého čipu musela pachtit s řešením problému, jak ho "nakrmit" dostatkem polygonů, tak ATi pro "nakrmení" menšího čipu stačil klasický způsob a high-end, který tradičně řeší přes AFR, které triangle-rate násobí, jako problém odpadl.

Nemůžu si pomoct, ale tahle genialita jednoduchosti se mi fakt líbí.


2. Zádrhel číslo dvě je, že když máme nějakou tu teselaci, kdy se zněkolikanásobí počet polygonů, není kladena zvýšená zátěž jen na teselátor a triangle-setup, ale na celý čip. Protože více polygonů = více stínů, které je třeba spočítat, složitější HDAO/SSAO (které je v módě a jehož obliba s DX11/compute-shadery poroste), několikanásobně více hran, které musí MSAA vyhladit. Tzn. s teselací rostou navíc nároky na unifikované jádro, texturovací jednotky i ROPs.

Nevím, jestli tohle nVidii uniklo, nebo co, ale dávat vlastní geometrickou jednotku do každého ze 16 bloků, ze kterých se čip skládá, je blbost. Výkon se projeví jen v syntetických testech; v reálných hrách bude návratnost mizivá - jak jsem zmínil, teselace není jen o polygonech navíc, stoupají nároky i na zbytek čipu. Takže zvýšit geometrický výkon o 800% je úplná zbytečnost, když výkon zbytku čipu jde nahoru jen o 40-100%.

ATi už se poučila z R5xx a R6xx a technologie, který se projevujou jen na papíře, nechala plavat (dynamic branching u R5xx atp...) a řeší věci, které mají vliv na 90% her. nVidia místo toho řeší nesmysly jako PhysX, "čistě" skalární architekturu a předimenzované geometrické jednotky, které se projeví v pár vybraných hrách, zatímco většinu titulů to neovlivní nijak...

Napsal: stř led 20, 2010 10:39 am
od Lukfi

Napsal: stř led 20, 2010 11:00 am
od no-X
Ne. Ale pozor, má tam chyby. Nečetl jsem to všechno (všude bych je asi ani neodhalil), ale slajd 16 (přklepy u sběrnice, špatně TMUs u GT200/GF100) a slajd 17 (špatně TMUs u GT200 a podle toho, o čem se mluví, tak i u GF100)

Napsal: čtv led 21, 2010 11:09 pm
od Lukfi
Mimochodem, nevíš něco víc o tom, jak nVidia řešila ten problém s triangle rate?

Napsal: sob úno 27, 2010 12:42 am
od no-X
Obrázek

:mrgreen:

Napsal: pon bře 01, 2010 10:34 pm
od no-X

Napsal: úte bře 02, 2010 12:08 am
od DOC_ZENITH/XAN
Cím blíže ta karta je, tím měně robustní a velkej dojem budí. Chladič bude mít menší výměnou plochu jak ten u GTX280 a z bedny prej niak extra horkej vzduch nešel. + 2x6-pin, odhadovaná 470.
Obrázek
Obrázek

Takže fakt nevim, ale TSMC asi nebude ten kdo zavinil zdržení... spíš tam byla ňáká kritická bota v architektuře jako měla R600 u HW resolve ale NV radši než aby dopadla jak ATI s R600 to prostě nevydala a radši to opravila tudiž to zpoždění.

Bude to úplně normální karta konkurence k 5870, jen o půl roku později, pok NV nedá cenu jako konkurenci k 5870, bude to zaslouženej propadák.

Napsal: úte bře 02, 2010 1:28 am
od Bob van Sikorski
já ti nevím docente, mě přijde, že fakt moc sázíš na hry. to mi nepřijde zajímavý už od dob 4850, kterej jsem měl možnost proklepnout v 2560x1600. spíš jsem zvědav na to, co udělá nebo neudělá Fermi s GPGPU světem, zejména s ohledem na C++/Nexus a tak vůbec. jestli bude tesselátor/dx11 takový nebo makový, je mi zcela u řiti, hry nejsou u supercoolsexy grafice, ta může být pěkná už od dob DX9.0c, na to DX11 není nezbytně nutné. pokud má "jen" 2x6pin, pak to kvituji s povděkem, rozhodně bude nadále možné živit s 1200W zdrojem (pc power&cooling :-D) 4 tyto karty v "supercomputer" deskách, což ocení jistá (velmi omezená) skupinka uživatelů (nemluvě o nižším TDP Tesla/Quadro karet. ale chápu, že už asi zním jako nvidiot, že mi igor vymyl mozek, jenže to tak opravdu není. na GTX480 jsem hodně zvědavej z jiných aspektů než herních, ty byly dobré už u generace 200/4800.

Napsal: úte bře 02, 2010 1:50 am
od no-X
DOC_ZENITH/XAN: podle obou modelů výtěžnosti výroby (které znám) vychází, že GF100 má čistě z důvodu defektů daných výrobním procesem výtěžnost oproti RV870 poloviční... druhá věc je, že tam můžou být nějaké důvody navíc (nVidia mohla něco podcenit), ale už ta polovina vůči RV870 mohla stačit

btw. ta karta na obrázku je opravdu osekaná verze - má 320bit sběrnici

Napsal: úte bře 02, 2010 7:28 am
od Lukfi
Počítají ty modely i s možností redundance? Nechce se mi věřit, že by nVidia naplánovala high-endový čip na nevyzkoušený výrobní postup a nepočítala s tím, že výtěžnost nemusí být ideální. Takže plně funkční Fermi může být dost vzácná, ale třeba usilovali právě o to, aby měli slabší verzi s 448 SP a silnější se 480.

Napsal: úte bře 02, 2010 10:30 am
od no-X
Ne, počítá se se 100% funkčními čipy. Tzn. pokud by třeba RV870 měla 22%, pak by to mělo znamenat, že 22% čipů je použitelných na HD5870 a ze zbytku se vypaběrkuje na HD5850 a HD5830. Pokud se vyrábějí v poměru 1:1:1, pak ATi využije 66% (2/3) čipů.

Pro 1,5x větší čip by to znamenalo 11% plně funkčních čipů... GTX470 zřejmě bude mít deaktivováno méně jednotek, než HD5830/5850, takže by s těmito čísly byla celková výtěžnost možná 25-30%.

Napsal: sob bře 06, 2010 3:33 pm
od no-X
GTX470 je pomalejší než HD5870 v DiRT2 i STALKERovi COP [o 20%?]
ve 1920x1200 je pomalejší než HD5870 1GB o 10%
ve 2560x1600 je stejně rychlá jako HD5870 1GB [zřejmě kvůli větší kapacitě paměti?]
TDP GTX470 je výrazně pod 300W, ale karta je výrazně víc rozpálená než HD5870

http://we.pcinlife.com/thread-1369198-1-1.html

Napsal: sob bře 06, 2010 3:34 pm
od Bob van Sikorski
TDP může být maximálně 225W, neb 2x6pin PCIe.

Napsal: sob bře 06, 2010 3:37 pm
od Lukfi
To by odpovídalo těm 225 W. A vypadá to, že nVidia volila mezi hlukem a vysokými teplotami, tak dovolili vysoké teploty.
Každopádně z toho pořád víc a víc cítím průser, na tak obrovský čip je to docela nízký výkon.

Napsal: sob bře 06, 2010 3:38 pm
od no-X
Bob: Pokud to nezměnili... ale asi ne. Vypadá to, že GTX470 je docela krátká, takže pasivní část chladiče je poměrně malá, a proto se hřeje...

Jinak TDP může být 225W, ale nedávno jsem narazil na zajímavou diskusi, kde byly vypsané TDP předešlých modelů nVidie + linky na různé recenze, kde naměřili i o desítky wattů víc. Takže nVidia se s tímhle asi moc netrápí.

Lukfi: Taky mi to tak přijde... navíc všude samá GTX470 - o GTX480 nic.

Napsal: sob bře 27, 2010 11:25 am
od ps47
..tak prve recenzie veselo nabiehaju,ale nemozem si pomoct,cisla ktore vidim ma nejak do kolien nedostavaju..spatne to rozhodne nieje,ale viac ako polrocny sklz za konkurenciou to neospravedlnuje ani nahodou..no neviem,myslim ze ceny budu musiet byt hodne nizke aby sa to predavalo.

Napsal: sob bře 27, 2010 11:48 am
od Lukfi
Mně to teda do kolen dostává, jmenovitě spotřeba a teploty.

Napsal: sob bře 27, 2010 11:56 am
od no-X
ps47: Recenze vyšly, ale GTX480 přesto nejsou a neví se, kdy budou. Zatím se mluví o polovině dubna v nejlepším případě.

Napsal: sob bře 27, 2010 12:33 pm
od ps47
Lukfi píše:Mně to teda do kolen dostává, jmenovitě spotřeba a teploty.
no,nejak obludne to zasa nieje,ale nieje to ani nic moc..co su asi dve slova ktore tieto karty najvystiznejsie vystihuju-vykon? nic moc..spotreba? nic moc..hlucnost? nic moc..teploty? nic moc..

proste po pol roku..nic moc.

Napsal: sob bře 27, 2010 12:38 pm
od chosen
http://www.pcgameshardware.com/aid,7434 ... ws/?page=2

že nejsou teploty/spotřeba/hluk špatné mno u gtx 480 určitě ano

zato ta 470 nevypadá po této stránce nejhůř