Všechny komentáře k článku:3-way SLI v akci

Jenom gtx a ultra?

Zajímalo by mě proč lze do triple sli zapojit jen karty GTX a Ultra. Jelikož s 8800gt by to lidi v současné době (cena karet,spotřeba atd.) zajímalo o něco více. Nevim nevim jestli bych si dal do kompu tři karty a kvůli tomu si musel koupil 1200w zdroj. Holt jsem asi divnej.:D

@santor: nj ale slyssel jsme ze nekde dali i tri GT a to urcite nejak jde tomuz verim... ale stim zrdojme to mas pravdu protoze kamarad ma ultru a ma 800w zdroj a huci to vsecho jak svin...a v tom jsou prave GT dobry mas hrozna malou spotrebu

Ověřený GEEK - level 3

@???101: To ???101: po vás něco přečíst je občas zážitek :D , jen na těch 2,5 řádcích máte přes 7 chyb.

@BERNADIC: pisu na rychlo...a jestli mi neverite ze jde zapojit 3GT tak myslim ,ze jsem to cetl nekde na str. tiscali

@???101: jezisikriste dyt prakticky jakekoliv karty jdou takhle zapojit

@Wu199: :D:D:D, tak to asi ne, jestli sis nevšiml, tak Ultra a GTX mají jako jediné karty dva konektory SLi, a pro 3-wey SLi potřebuješ jich 6, takže můžeš zapojit jakékoli grafiky, ale nikdy z toho nebudeš mít 3-wey SLi, jen můžeš zapojit více monitorů najednou....

Ověřený GEEK - level 3

@santor: Když si vezmete nutný super výkoný zdroj a 3 x GTX/Ultra, pak musí být hluk opravdu neúnosný. 3 x GT by bylo mnohem lepší řešení, poloviční spotřeba, tišší chlazení.
Rozhodně nejste divný (nebo já taky), tohle řešení mi při dostupných GT připadá absolutně k ničemu.

@BERNADIC: hi nevim no asi by mi bylo jedno ze to rve ale ze to zere kdybys tam dal ten 1200w zdroj tak si myslim ze to neco taky sezere ten zdroj a asi by pak chodily zajimavy vyuctovani za elektriku :-D jinak by mi stacilo bohate 2x 88GT

@KelThuzat: heh volovina tohle nikdo nekoupí a kolik musi stat ty grafiky ktery to podporují a ty desky no nevim. No když už tak aspon AMD 790 S Crossfire a 4x HD 3850 a výkon je jeste věčí za 3x meší cenu a menší spotřebu

Ověřený GEEK - level 3

@chello123: Tak nějak v duchu doufám, že se vyskytnou i desky pro Intel s podporou Crossfire X. (ne že bych 4x 3850 plánoval, ale jsem zvědavej, jak by to dopadlo)

@BERNADIC: A viděl jste někdo na GT a nebo nové GTS nějakej SW co to umožnuje zapojit je to 3x SLI? já teda ne, ale představa 4x 3870 nebo 3850 je taky lákavá.

@vomys: myslim ze 3xGT ani nejde,pac maj jen po jednom vystup na zmustkovani.by museli mit dve a pak by to slo.jestli to tak neni,tak me nekamenujte. D.

@daemon20: Nekomentuju ale koukni na ten obrázek a bude ti to jasný =;-))

@Trewor: nevim proc resit jesli si koupit zdroj 1200w a kolik bude elektrina.myslim is ze kdyz si nekdo muze dovolit koupit 3 x ultru tak ho uz nezabije ucet za elektriku,pokud je nekdo extremista a nevadi mu super hluk tak proc si tuto sestavu nekoupit...mit ty prachy tak bych asi taky investoval .jen ta predastava toho vykonu...myslim zeby mi bylo jedno jeslti to rve nebo hraje...dat si pak vsechno na very hight v Extreme HD rozsliseni musi bejt slast..

@henk: Já pořád nechápu co máte všichni s tím hlukem?. Já mám 1 GTX a na té už mám vodní blok a tichoučko největší. Pokud bych měla na 3 GTX, tak bych měla i na bloky na ně a žádný hluk by nebyl. A s tím zdrojem to taky nebude tak hrozný.

@Lenka12: To jo, s vodou uz by se to dalo... hluk bych neresil ani pri vzduchovym chlazeni, GTX/Ultra jsou hodne tichy karty (GTXko jsem mel), takze jde tam jenom o to zajistit jim privod studenyho vzduchu (25cm vetrak co je treba na Armor+ skrini a fouka primo na pridavne karty), teplej vzduch pak foukaj rovnou ven. Proc bych ale ja osobne toto reseni nevolil, tak je fakt, ze bych tim zabral vsechny sloty co jsou na desce, takze bych nemel kam strcit ani zvukovku. A nejde jen o zrakovy pozitek, ale i o ten sluchovy, zejo... ve zkratce, bez X-Fi nehraju :-) Tohle by prave vyresila ta voda, kde objemne vzduchove chlazeni sundam, dam tam vodni bloky a mam z toho zas jednoslot. Lenka na to de dobre, podle meho gusta :-)

@BERNADIC: tak nějak si nemyslim, že by to AMD dovolilo.... nebo vlastně by to nedovolil i HW... k tommu crossfiru bys potřeboval AMD nebo ATI chipset a ten asi jen tak s Intelem... mno prostě si myslim že marketingové oddělení AMD by to zatrhlo....

@santor: vzhledem k ceně těch karet předpokládejme nižší prodejnost... tím pádem jich asi bude víc na skladě než kolik se prodává... a tak stačí, aby zástupci výrobců karet jako třeba gygabyte, leadtek apod. trochu zatlačili na nvidii a ta jim šla pěkně na ruku a tak to samozřejmě zatím zprovozní jen pro to nejdražší železo... a pak se dělaj recenze jak je to skvělé a protože to s jinýma kartama nefunguje, jdou si fanatici výkonu koupit rovnou 3 ultry nebo GTXka a k tomu odpovídající desku a procesor... a o čem to všechno je? o penězích přece... o těch co se pak nvidii sypou...

Crysis

jak tak koukam tak Crysis jim na tom behalo prumerne neco kolem 30fps ,to by me teda zajimalo na jaou meli sestavu na Games Convention 07 kdyz to tam behalo v 1920*1400 na vsechno plny a nejeblo se to ani jednou,proste jako kdybych koukal na film.... a jako na cem to Crytek vubec delal to Crysis?? dyt to snad delali na kompu z NASA ne? :D

@Kotesova: všeobecně se předpokládá že armáda (a teď schválně nepíšu která) je ve vývoji počítačové techniky o deset let dál než to, co si můžeme běžně koupit.... a když vemu, že jenom řídící jednotka nových BMW má vyšší výpočetní výkon než to nejdražší pc co dnes může člověk postavit... je divné že Crytek (jako faqt velká ryba herního průmyslu) dokáže sehnat takovou mašinu na které jede Crysis naprosto krásně při jakémkoli rozlišení? já si myslim, že s tím problém nemaj...

@mike.cz.com: jj hardware se uměle brzdí a pouští se postupně aby se zaplatil vývoj. Nebo to si vážně myslíš že intel atd dělá pulrok na tom aby zvíšil zběrnici z 1066 na 1333mhz. No ale herní vývojáři tomu maj přístup o dost dříve. Podívej třeba na první sreenshoty z dooma3, copak by se to na těch Gf2 takhle hýbalo...:-)

@Kotesova: Crysis a kazda jina hra se vyvijej na uplne normalnich kompech jako maj doma bezni hraci, tedy bezne PC za cca 2-4 tisice dolaru, vyvojar totis nepotrebuje aby mu hra bezela naprosto plynule v nejvissim moznem rozliseny a na maximalni detaily, 90% lidem z vyvojoveho teamu nejake hry staci kdys si praci kontrolujou v rozliseni bezneho 17-24" monitoru a navic si kontrolujou jen svou praci, tedy 1 model ve scene, nebo dany efekt ve scene kde toho moc neni, as teprve finalni testovani je vkupe a teprve tam se zkousej vsechny druhy grafik/procesoru/pameti/desek, nastaveni grafiky, a i to povetsinou pomahaj vyvojarum vybrani lidi z rad hracu celeho sveta

@Shap: tak se koukni na praci v editoru crysis:
http://www.youtube.com/watch?v=OTj_I-iCzqY.
Myslíš si,že to na klasickým kompu co máš doma rozhýbeš? Neříkám, že maj hardware o několik generací vyšší, ale používaj rozhodně o dost našlapanější než je zrovna v prodeji. Právě až poslední fáze je optimalizace na stávající hardware

@kwikeshop: jako herni vyvojar vim nacem pracuju a nacem delaj kolegove, a je to presne to co se da v kramech normalne koupit, zadny extra tajny masiny co sou teprve ve vyvoji rozhodne nemame, pracuju pro EA, delal sem pro IS a pro Altar a vsude sme meli spis podprumerne stroje nes neco vyjimecneho, kuprikladu na Mafii sem jako animator delal na P3 800MHz s 512ramkou a grafikou MX440 a svou praci sem kontroloval v rozliseni 800/600, ted jakosto freelancer pro EA mam v jednom pc E6600, 2GB ramek a 88GTX a v druhem pro rendrovani mam Q6600 + stejnej zbytek, tedy zadnej zazrak techniky poslednich tydnu :-))))), mimoto Crysis editor tak i hra me naprosto vpohode jedou na high v rozliseni 1920*1200 , to ze nejaka hra podporuje vetsi rozliseni neznamena ze to v nem tvurci delaj, to jen znamena ze to hra umi, nic vic a nic min, je to totis jen par radku v kodu

@Shap: v tom případě uznavám a to co jsem napsal beru zpět. Ale mám na tebe technickej dotaz rozhoduji se mezi E6750 a Q6600. Mám to čistě na pařby. Co mi doporučíš?

@kwikeshop: E6750, v pripade ze hodlas taktovat, ale pokud hodlas upgradovat i desku tak si cca 2 mesice pockej na Penryny, budou za cca stejne penize, ale budou za ty stejne penize vykonejsi, ja hry hraju na E protoze hry co vyuzijou vic nes 1 jadro je minimum a navic ani ty co to umej to nevyuzivaj tak jak by si to zaslouzilijinak ciste mezi tema dvema CPU tak Q je drazsi a v drtive vetsine her bude diky mensimu taktu horsi, nicmene oba podaj ve hrach dobre vysledky

@Shap: No ale ty Penryny budou 45nm že? Já právě čekám na novej nforce 7xx (protože chci SLI s dvěma 8800gt), ale na nich nebude přímo podporován. Nechápu proč si i Intel nevyvíji vlastní SLI chipsety.

Pozdě???

Jen mi nejde do hlayvy jestli to jako až teď nVidia udělala 3xGK nebo to už měli dřív. Přeci jenom ATI už zapojuje 4GK dlouho. A využitelnost tohodle s ULTRou vydim naprosto minimální. mělo by to takovou spotřebu, že by z toho jeden pošel. A kdo hraje 2560*1600??? 1600*1200 je naprosto dostačující a pro hraní sou nejlepší 19´´LCD a na těch víc neuplatníš

@Trewor: Jj taky se mi zdá, že s tím přišli, jak s křížkem po funuse(nebo tak nějak se to říká:D). Jedině, že by ty ultry a gtxka zlevnili s příchodem nové generace. Ale zase, je tu stále ten velký problém s jejich hlukem a obrovskou spotřebou.

@santor: ten problém se spotřebou a hlukem bude pořád. šel by vyřešit jiným chladičem třeba, aspoň ten hluk, ale to by tam člověk zase nenacpal tři karty, přece jenom se chladiče neustále zvětšují.... a co se týče výkonu při extrémních rozlišeních.... je to marketingový tah jako všechno... jim je jedno jestli to lidi využijí, hlavně že to zvýší prodejnost....

@Trewor: ATi sice má 4GK dlouho. Ale s tím výkonem se nevyrovná... ovšem, že cena je u tohoto 3-way SLi vysoká, ale já bych nedal ani těch 20 000,-Kč za 4GK od ATi (Radeony 3850)

@Trewor: fuj 19" LCD, je to jen nafoukla 17" s vetsima bodama, takove LCD a nejlepe TN si koupej v drtive vetsine jen lidi co tomu nerozumej a videj reklamu na super 19" za 4 tisice :-))))), mimoto spousta lidi a to vcetne hracu us ma doma 24" monitory protoze proste chtej nejen hrat v rozliseni 1920*1200, ale taky se chtej divat na svem PC na filmy z BR nebo HD , mimoto v grafickejch studiich/proste firmach us neni vyjimkou ze maj 30" LCD prave s rozlisenim 2560*1600

@Shap: Kdyz uz jsme u ty 19tky za 4tisice, tak mi povez, kolik z tech lidi ma kvalitni 24tku.(sry za off topic)

@Faramir: Praveze uz posledni dobou temer dost lidi. Nerikam, ze nejak super kvalita, ale ja jsem koupil 24ku od HP za 13 tisic a to uz je taky nejaka doba. Je to sice TNko, ale kdyz se tomu rucne doladi barvy, tak super. A pocet lidi rychle stoupa, protoze LCDcka jsou fakt hodne rychle dolu.

@666 Diablo: no ja us mam svuj 24: HP cca trictvrte roku, a tehdy to S-PVA taky stalo necelejch 14k ( ja jeste levneji tim ze to mam za nakupku ) , z lidi co znam z branze ma to HP2465 nebo jinej 24" cca 30% lidi a znam i par co maj tu 30" od HP nebo dva 24" vedle sebe, ja sam mam vedle sebe 24" na praci a 17" kvuli stalemu sledovani netu

@Shap: No jo 24" LCD sou pěkný ale na hraní sou prostě nejvyužitelnější 19"LCD s normálnim poměrem stran. Nejlepší ale je stejně nějaký profi CRT 19" co dá 100Hz a k tomu třeba ta 24" aby si při hraní moh koukat na DC, ICQ a telku

@Trewor: To je imho pekna blbost. Jasne ze je to o zvyku, ale ja nedam dopustit na widescreen a taky nevim proc by mela na hrani byt dobra nejaka titerna 19ka (navic CRT omg)

Mazeček :-)

Za dva roku bude mít kdejakej magor 8 nejnadupanějších grafik v SLI a bude brečet že se mu nejnovější hry sekají :D Kam se hrabem my amateří MX 440 :D

@Under: za dva roky se budou prodávat karty s několika nebo třeba i 16 čipy (dobře... samostatně by ty čipy byly hov**.. ale když jich bude 16...) a to půjde třeba jen o mainstream.... nějak faqt nechápu jaké by to mělo využití... zatím sem neviděl monitor co by zvládal takové rozlišení aby tak velký výkon měl smysl...

Heh

dámy a pánové podle mýho názoru jsou stejně tyhle čipy, pokud vám počítač neslouží pouze nahraní ale taky na práci, tak je tohle pouze výstřel do tmy žrout peněz a energií, je jasný že na CAD programy by to taky bodlo ale na tohle jsou přeci jen jiný karty mno nic to jen tak na okraj.

@mixxxer: Tohle je určený tak z 90% na hry(možná více).Ale výstřel do tmy je to tak jako tak. :)

Kdyby neškudlili

tak by nebyl problém udělat jednu kartu, která vydá za tři. Všechno je to jen o uchlazení. A to je možné, ale protože chtějí vydělávat, tak pořád dělají, jak jim to nejde dělat tak, jak by to ve skutečnosti šlo. Proto chladím vše dusíkem a jsem spokojený :-D

@CarteroGS1: čoveče a čím to živíš, takovéhle chlazení? elektrárnou přímo v baráku? to je horší než dvě pc s 3xSLi ne? :-D tohle už je extremismus... a promiň, ale dost pochybuju že to někdo v CZ má doma na svém železe... nebo ne.. nepochybuju.. někdo takovej se určitě asi najde.. ale dokud to neuvidim.. neuvěřim :-D

@mike.cz.com: neni to zase moc drahe,by jsi se divil, jak dlouho to vydrzi samostantny dusik chladit...a jak fo financuji? odectu to z dani :-)

@CarteroGS1: plácáš nesmysly ... chladit dusíkem je blbost, už jen proto jak třeba zabraňuješ vytváření námrazy na desce atd? ... nekoukej tolik na extrémní testy na netu a žij na zemi ..

@Nekvasilova: Přesně, čipy chladit dusíkem trvale, super, to asi nekupuje jen dusík, ale i nové procáky...

@CarteroGS1: To s tím dusíkem myslíte vážně?:) Já jen, že bych to taky rád viděl na vlastní oči :P.

@santor: No no dusík??? Chlapče víš co udělá takovej procák když ho ochladíš pod nulu?? No orosí se. Z toho vyplívá, že chlazení dusíkem by bylo tak náročný na regulaci, že by tě to vyšlo finančně nastejno s novym autem. A kdyby to někdo měl tak by to byl tak leda nějakej výrobce co chce ukázat co umí.

@Trewor: Nahodou mozny to je... uz je to peknych par let, kdy jsem videl video (nekde se mi tu jeste vali na disku), kde chlapci tusim z TomsHardware pretaktovavali P4ku nad 4GHz... procesor chladili dusikem (meli na nem takovou rouru ro ktere to lili) a chipset tusim kompresorem z pracky :-) Povedlo se jim to, ale samozrejme jen kratkodobe, dlouhodobe to asi fakt nejde, prave kvuli tomu srazeni.

@CarteroGS1: Dej sem vlastni foto frajere, a potom ti stejne na to neskocim...

Nenašli jste, co hledáte?

To je gól! To je gól!