Napsal: pon dub 13, 2009 9:48 pm
tak toto musim mat, neviete o takejto klucenke ale s cipmi G200 65nm G80, R600? 
where?Edit OBR: Nvidia podobné přívěsky prodává už hodně dlouho, podle situace. Stačí zapátrat v historii internetu a najdete jich několik, sám mám také takový ale s jiným jádrem. Toto není novinka, ale pěkně stará záležitost - tento konkrétní je v nabídce už od prosince 2008!
Ano, za cenu propuštění zaměstnanců...no-X píše:G200 a G200b... nVidia je díky nim ve ztrátě 200 milionů, ATi má za stejný kvartál +1 milion
Však znáš Igora...no-X píše:Nejkrásnější na tom celém je, když si vzpoměnu na Igorovo konstatování, že ATi na RV770 prodělává, zatímco nVidia na G200 má standardní 80% marže
Pro nVidii je to největší fiasko od doby GeForce FX. Nebo ti nepřipadá jako neúspěch, když 580mm² velký čip s 512bit sběrnicí prodávají za stejnou cenu, za kterou vždycky prodávali mainstreamový 150mm² čip se 128bit sběrnicí? To není rozdíl jednoho segmentu, ale 2-3 segmentů. Pro nVidii je to hodně velký problém - pár lidí stále tvrdí, že to nic není, že mají vyděláno dost peněz z doby G80... stačí se ale podívat na konkrétní čísla - peníze z doby G80 už nejsou dávno.XAN píše:GT200 není neúspěšný čip.
To, že si na něm zahraješ, bohužel neurčuje, jak je produkt úspěšný pro výrobce. Možná tak ta nekompatibilita RV770 a P45 nVidii přihrála nějaké prodeje, ale jinak to s tím vůbec nesouvisí.XAN píše:GT200 není neúspěšný čip. Mam doma GT200B, ošahal jsem si dobře i moderní Radeony atd. a vím, že s GT200 si dnes zahraju nejiíp to je prostej fakt.
GT200 neměl být odpovědí na R600. R600 vyšla v květnu 2007 a to už byla o pár měsíců zpožděná, kdyby GT200 vyšla podle plánu, tak dříve než v listopadu by to nebylo.GT200 byl čip pro jinou dobu. Jak všichni víme vyvíjel se spolu s G80, ala jako G80 ale ještě rychlejší. Měl bejt odpovědí na R600, kdyby ovšem její architektura fungovala. Nakonec tak nebylo, a tak nebyl důvod jí vydat, prosté a jednoduché.
Asi nejsou peníze na to, aby mohla být každé dva roky nová architektura. A možná trochu ignoruješ, že mezitím se "vyloupla" herní fyzika a asistence GPU u negrafických úloh - což je taky pokrok.1. Zpomalneí pokroku - od G80 žádná revoluce a ta je tu hrozivě od listopadu 2006. Pokud nová generace ala RV870 / GT300 nic tvrdého nepřinese, nebo nedej bože bude jedna strana mít v ruce nefunkční / polofunkční čip jako se ATI stalo s R600, bude to už dost zlé.
RV770 má namísto ring-busu hub a bloky shaderů mohou komunikovat jenom s vlastní přidruženou texturovací jednotkou, u R600 byl crossbar, takže mohly komunikovat všechny SIMDs se všemi TUs. Ale co je ve výsledku důležité je výkon na počet tranzistorů nebo na plochu, a v tom je RV770 lepší. S tím CrossFire je problém, ale možná je to holt takový business modelTo vše vedlo k rezignaci na high end, krokům zpět, aneb Rv770 je na tom technologicky hůře jak R600, nemá Ringbus, jak jsem někde četl méně efektivně skládá snímky atd.
Myslím si, že to nemůžeš takhle srovnávat. Za posledních několik let se GPU stále zvětšují a stále relativně ke své velikosti zlevňují. R300 měla plochu přes 200 mm2, byl to high-end. RV570 měla podobnou plochu a 256bitovou sběrnici, ale už to byl nižší mainstream. Taky se tehdy říkalo, jak na tom ATI musí prodělávat. A ty sám jsi to vyvracel.no-X píše:Pro nVidii je to největší fiasko od doby GeForce FX. Nebo ti nepřipadá jako neúspěch, když 580mm² velký čip s 512bit sběrnicí prodávají za stejnou cenu, za kterou vždycky prodávali mainstreamový 150mm² čip se 128bit sběrnicí? To není rozdíl jednoho segmentu, ale 2-3 segmentů.
kazdy nadava aky je 6800ultra/7800GTX (512) shit, myslim si ze tieto karty boli omnoho viac neuspesne ako G200(b)no-X píše:Pro nVidii je to největší fiasko od doby GeForce FX. Nebo ti nepřipadá jako neúspěch, když 580mm² velký čip s 512bit sběrnicí prodávají za stejnou cenu, za kterou vždycky prodávali mainstreamový 150mm² čip se 128bit sběrnicí? To není rozdíl jednoho segmentu, ale 2-3 segmentů. Pro nVidii je to hodně velký problém - pár lidí stále tvrdí, že to nic není, že mají vyděláno dost peněz z doby G80... stačí se ale podívat na konkrétní čísla - peníze z doby G80 už nejsou dávno.XAN píše:GT200 není neúspěšný čip.
S R300 nebo staršími bych neporovnával, nemáme žádný ukazatel velikosti mainstreamových GPU. Rozměry mainstreamových čipů jsou známé až od další generace. 150 mm² (±) měl prakticky veškerý mainstream: RV710 (X700), RV530 (X1600), RV630 (HD2600), RV635 (HD3600), RV730 (HD4600), RV740 (HD4700), NV43 (GF6600), G73 (GF7600), G84 (GF8600).Lukfi píše:R300 měla plochu přes 200 mm2, byl to high-end.
Snad vyšší mainstream (midrange).Lukfi píše:RV570 měla podobnou plochu a 256bitovou sběrnici, ale už to byl nižší mainstream.
Ano. A finanční výsledky můj názor podporovaly.Lukfi píše:Taky se tehdy říkalo, jak na tom ATI musí prodělávat. A ty sám jsi to vyvracel.
Neberu to jako pokrok ale krok zpět, nebo respektive do prázdna. Počítat flodding home u ATI šlo od dob R520. Tzn zde se nic nemění. Ty různé video konvertery v praktických testech a ne marketingových balastech ukázaly rozporuplné (slabý nárůst) až tragické (atefakty, horší kvalita videa) výsledky. Herní fyzika přes physx je stále neprosto nereálná (zachytávající se kamney uo různé oběkty, vítr protéká oběkty a ignoruje přitom zemskou gravitaci, atd. Physx bylo mrtvé už jak jej chtěla prosadit Ageia a je ještě více mrtvé teď s Nvidií, je to slepá větev, jejíž život ukončí nstup OpenCL. Ten, to ještě uvidíme, by se konečně mohl sát jistou revolucí, protože je to konečně standardizované rozhraní.Asi nejsou peníze na to, aby mohla být každé dva roky nová architektura. A možná trochu ignoruješ, že mezitím se "vyloupla" herní fyzika a asistence GPU u negrafických úloh - což je taky pokrok.
Peníze bych v tom neviděl, možná na straně ATI, ale to jen protože jí vysává AMD, toto odkoupení pořád považuji za obrovskou katastrofu. Spíš strach z neúspěchu, uvidíme co Nvidia předvede s GT300.Asi nejsou peníze na to, aby mohla být každé dva roky nová architektura. A možná trochu ignoruješ, že mezitím se "vyloupla" herní fyzika a asistence GPU u negrafických úloh - což je taky pokrok.
Chi se vrátit k tomu počet tranzistorů na plochu a nebo vůbec plocha čipu jako taková. Tento údaj a všeobecné představa že čím menší čip = automaticky menší náklady, je dle mého názoru zcela mylná. Jde tu také o vyladěnost procesu, zmetkovost čipů, která je u sarěího procesu logicky menší. Dále pak také neustále se hrnutí za lepším výrobním procesem bez ohledu na vylepšení stávajícího. Jak daleko to třeba AMD dotáhlo od počátku 180nm až do konce 180nm? Kolikanásobně se tam zvedla frekvence a vkon? U GPU to bylo obdobně, ale poslední dobou je to bída. Poukážu třeba u NV na G92 a GT200, jejíž přechod z 65 na 55nm neznamenal praticky nic ve spotřebě, teplotě, taktech, atd. Potřebovala to akorát GT200, která potřebovala další rtevizi, protože původní GT200 měla určité % vadných čipů kde docházelo k jakémusi (nevím to přesně) prostřelování napětí mezi částmi jádra (něco podobného řešila ATI před vydáním R520), což způsobovalo enormní zahřívání a destrukci čipu, pár karet asi (20% GTX280 co se dostaly do prodeje) tímto trpělo. U 55nm verze GT200 už se to neděje.RV770 má namísto ring-busu hub a bloky shaderů mohou komunikovat jenom s vlastní přidruženou texturovací jednotkou, u R600 byl crossbar, takže mohly komunikovat všechny SIMDs se všemi TUs. Ale co je ve výsledku důležité je výkon na počet tranzistorů nebo na plochu, a v tom je RV770 lepší.
Ani nápad.kazdy nadava aky je 6800ultra/7800GTX (512) shit, myslim si ze tieto karty boli omnoho viac neuspesne ako G200(b)
A teď se podívej, co jsi napsal předtím:no-X píše:S R300 nebo staršími bych neporovnával, nemáme žádný ukazatel velikosti mainstreamových GPU. Rozměry mainstreamových čipů jsou známé až od další generace. 150 mm² (±) měl prakticky veškerý mainstream: RV410 (X700), RV530 (X1600), RV630 (HD2600), RV635 (HD3600), RV730 (HD4600), RV740 (HD4700), NV43 (GF6600), G73 (GF7600), G84 (GF8600).
Ta cena za "mainstreamový čip" už tak dva roky neplatí. RV630 ve verzi XT stála 4000. RV635, RV730, RV740 jsou všechno karty za 2000-2500. GT200 sice stojí tolik, co mainstream před dvěma třemi lety, ale určitě ne tolik, co 150mm2 čipy.no-X ve svém předchozím příspěvku píše:Nebo ti nepřipadá jako neúspěch, když 580mm² velký čip s 512bit sběrnicí prodávají za stejnou cenu, za kterou vždycky prodávali mainstreamový 150mm² čip se 128bit sběrnicí?
To samé ale dělá i ATI. Tohle je prostě současný trend. Čipy se zvětšují, ale ceny zůstávají. G80 nebo GT200 nebyly při vydání dražší než R580, přestože jsou větší.nVidia z těchto kolejí "vyjela" až v okamžiku, kdy důsledkem primárního vývoje architektury pro gigantické čipy (G80, GT200) a absencí řadičů s podporou rychlejších pamětí nebyla schopna vytvořit čip podobných rozměrů se 128bit sběrnicí, který by byl konkurenceschopný. Takže i do low-endu už se tlačí se >200mm² čipy a 256bit sběrnicí. Nemyslím, že jim to vyhovovalo, ale spíš jim nic jiného nezbývá...
Jo, původně, pak během roku 2007 už to sklouzlo mezi 3-4 tisíce Kč, kde byly G84 a RV630.Snad vyšší mainstream (midrange).Lukfi píše:RV570 měla podobnou plochu a 256bitovou sběrnici, ale už to byl nižší mainstream.
Ale nVidia může být ve ztrátě i z jiných důvodů než kvůli GT200. Například se jim smršťuje trh pro čipsety.Ano. A finanční výsledky můj názor podporovaly.Lukfi píše:Taky se tehdy říkalo, jak na tom ATI musí prodělávat. A ty sám jsi to vyvracel.
Jediný problém je to, že nVidia musí velkým čipem konkurovat menšímu. Ale GPU se obecně zvětšují. Akorát G71, kterou jsi asi měl na mysli místo G70, se vymyká.nVidia musí defektní G200/G200b prodávat jako GTX260 za cenu stejnou, jako ATi prodává čip o polovičních rozměrech. HD4870 s 250mm² čipem a 256bit sběrnicí se cenově vyvíjela prakticky stejně, jako zmíněná X1950PRO s 230mm² a 256bit sběrnicí, takže ATi s prodejními cenami vůči výrobním nákladům téměř nehnula. nVidii šly za tutéž dobu výrobní náklady výrazně nahoru (G200 byla 3x větší, než G70) a prodejní cena výrazně dolů (G200 prodává za cenu až 3x nižší, než G70).
V historii bylo několik produktů, které byly očividně výrobně dražší, než co měla konkurence (GeForce 6800 GT vs. Radeon X800 XL, Radeon X1900 XT/X vs. GeForce 7900 GTX) a stejně se prodávaly. Takže si myslím, že menší plocha čipu je výhoda, ale zase ne taková, aby někoho položilo prodávat za stejné peníze větší čip.Je jasné, že cena čipu ≠ cena karty, ale ATi a nVidia prodávají čipy a musejí je prodávat za takové ceny, aby po přičtení nákladů na zbytek karty nebyly vyšší, než konkurenční...
Tož samozřejmě, tam je víc faktorů výsledné ceny. Například samozřejmě nemá smysl přecházet na novější výrobní postup, pokud je zmetkovitost tak vysoká, že na starším mám z jednoho waferu více funkčních čipů (nebo méně, ale s tím, že wafer je levnější). Obecně by se ale nikdo na novější postup nehnal, kdyby to nebylo výhodnéXAN píše:Chi se vrátit k tomu počet tranzistorů na plochu a nebo vůbec plocha čipu jako taková. Tento údaj a všeobecné představa že čím menší čip = automaticky menší náklady, je dle mého názoru zcela mylná. Jde tu také o vyladěnost procesu, zmetkovost čipů, která je u sarěího procesu logicky menší. Dále pak také neustále se hrnutí za lepším výrobním procesem bez ohledu na vylepšení stávajícího. Jak daleko to třeba AMD dotáhlo od počátku 180nm až do konce 180nm? Kolikanásobně se tam zvedla frekvence a vkon? U GPU to bylo obdobně, ale poslední dobou je to bída.
Kdo ví, jak to je. Možná by stačilo zamakat na spotřebě podobně jako to udělala nVidia a velký čip by byl možný. Ale já si spíš myslím, že ATI nechce ztrácet čas vývojem takového produktu, který moc velkou část trhu neosloví. Jedním z úkolů high-endu je vytvářet haló efekt a to se daří i X2 kartám, i když pro mnoho lidí jsou v praxi nepoužitelné.Dále pak plocha čipu jako taková. Já si myslím, že ATI by moc ráda dělala GPU o velikosti GT200, klidně se svou současnou architekturou, protstě jen více výkonu, ale není to momentálně možná. I když je RV770 menší, tak topí a dost často i žere více než velká GT200. Rv770 o velikosti GT200 by nešel provozovat. I u HD4890 ATI plýtvá křemíkem na okraje čipu aby se lépě a rovnoměrněji rozváděla teplota, a evidentně jim toto uměé zvětšení plochy jádra vrásky nedělá, takže jim to výrobní cenu tolik nezvedá. Spíš GT200 a nyní HD4890 dorovnaly spotřebu HD2900XT. Nad tuto hranici, bych už nerad chodil.
Ale tady nejde o GP-GPU pro řadové uživatele, ale pro profi segment. Tam je podpora na zcela jiné úrovni a pro oba výrobce je tenhle segment důležitý, protože profi karty stojí výrazně víc, ačkoli náklady na jejich výrobu jsou jen mírně vyšší. Pokud hráči nejsou ochotni platit tolik jako dříve, je logické, že oba výrobci hledají jiné odvětví, ze kterého by nějaké peníze mohli dostat.XAN píše:Neberu to jako pokrok ale krok zpět, nebo respektive do prázdna. Počítat flodding home u ATI šlo od dob R520. Tzn zde se nic nemění.
To imho není problém API, ale problém vývojářů. Stejně, jako se s D3D nebo OpenGL vytvořit dobrá, ale i naprosto nereálná 3D grafika, tak lze s každým fyzikálným rozhraním vytvořit reálnou in nereálnou fyziku. OpenCL nebude akcelerovat fyziku, bude sloužit jen jako mezivrstva mezi Havokem a GPU (z hlediska ATi). nVidia zatím asi bude dál tlačit PhysX, je to to jediné, co momentálně má. Ale i ten umře, nebo vůči němu budou lidé lhostejní. Stejně, jako to šílenství kolem TnL, SM3.0, HDR, SLI (či později Q-SLI či 3-SLI), skalárních SPs...XAN píše:Herní fyzika přes physx je stále neprosto nereálná
Plocha čipu je skutečně primární. Není důležitá jen proto, že s nižší plochou se z jednoho wafferu vyrobí více čipů, ale hlavně z důvodu defektů. Pokud máš např. v průměru na 600 mm² jeden defekt, tak při výrobě 150mm² čipů budeš mít poškozených 25% čipů. Při výrobě 600mm² čipů budou poškozené prakticky všechny (samozřejmě je to složitější, ale teď mi jde o základní souvislost zmetkovosti s plochou). Takže výrobní náklady s plochou čipu nerostou lineárně, ale dokonce exponenciálně.Chi se vrátit k tomu počet tranzistorů na plochu a nebo vůbec plocha čipu jako taková. Tento údaj a všeobecné představa že čím menší čip = automaticky menší náklady, je dle mého názoru zcela mylná.
Podobné problémy jsou obvykle řešitelné úpravou metal layers, není třeba dokonce ani respin. Spíš to vidím tak, že problém vyřešili zároveň s úpravami čipu na 55nm výrobu.Potřebovala to akorát GT200, která potřebovala další rtevizi, protože původní GT200 měla určité % vadných čipů kde docházelo k jakémusi (nevím to přesně) prostřelování napětí mezi částmi jádra (něco podobného řešila ATI před vydáním R520), což způsobovalo enormní zahřívání a destrukci čipu, pár karet asi (20% GTX280 co se dostaly do prodeje) tímto trpělo. U 55nm verze GT200 už se to neděje.
Tady toho mícháš víc dohromady. V první řadě - spotřeba RV770 není ani v nejmenším blízká spotřebě G200. Vysokou spotřebu mají rychlé GDDR5. Pokud budeš srovnávat karty s GDDR3, tak 55nm RV770 má spotřebu o 50W nižší, než 55nm G200.Dále pak plocha čipu jako taková. Já si myslím, že ATI by moc ráda dělala GPU o velikosti GT200, klidně se svou současnou architekturou, protstě jen více výkonu, ale není to momentálně možná. I když je RV770 menší, tak topí a dost často i žere více než velká GT200. Rv770 o velikosti GT200 by nešel provozovat.
Výrobní cenu to rozhodně zvedá, hlavně to taky stálo nějaké peníze na vývoji, ale vyplatí se to z několika důvodů:I u HD4890 ATI plýtvá křemíkem na okraje čipu aby se lépě a rovnoměrněji rozváděla teplota, a evidentně jim toto uměé zvětšení plochy jádra vrásky nedělá, takže jim to výrobní cenu tolik nezvedá.
To je pravda, ovšem nesmíš zapomínat, že spotřeba v klidu je nesrovnatelně níž, než u R600, takže vysoká čísla platí jen pro čas strávený ve 3D.Spíš GT200 a nyní HD4890 dorovnaly spotřebu HD2900XT. Nad tuto hranici, bych už nerad chodil.