Gainward 1046-Bliss GTX 480 1.53GB, PCI-E_853960156
Gainward 1046-Bliss GTX 480 1.53GB, PCI-E
Produkt není určen k prodeji.

Všechny komentáře k produktu:Gainward 1046-Bliss GTX 480 1.53GB, PCI-E

@earendil: Ukončil bych to hláškou Havla "Vím že nic nevím." Doufám že jsi spokojen a rád na tebe bude vždy reagovat :)

@Lukas.Drax: Ona to totiž není hláška Havlova ale Sokratova. Scio me nihil scire- Vím, že nic nevím.
Těším se na příští rozhovor ;)

@earendil: Je zajímavé, že se tyhle diskuse pořád opakují (GTX 295, HD 4870X2 atd.)
Prostě lidem jde o max výkon a jestli je to jeden čip, nebo třeba osm je vedlejší. Na druhou stranu je potřeba vidět větší závislost vícečipových řešení na kvalitě ovladačů, kdy v některých hrách výkon padá až na úroveň jednočipového ekvivalentu.
Dokud nVidia nepřijde s dvoučipovou kartou, a to se u současné generace čipů čekat nedá, tak ATi bude mít nejvýkonnější kartu. Na druhou stranu myslím, že nVidia na tom pracuje a v příští generaci s dvoučipovou verzí přijde možná také. Ovšem pokud by byla dvoučipová verze uchladitelná, tak by mohli uvést i dostatečně výkonnou jednočipovou na vyšších taktech.
ATi si to uvědomuje a možná i proto posunuli termín uvedení nových karet na podzim, i když ještě nedávno se mluvilo spíš o první polovině 2011.

@piro:cz: Hmmm, vcelku dobrá, ale za ty peníze si ji já určitě nekoupím. To raději si snad koupím nové kolo. Už mě přestalo bavit pořád dokola investovat peníze do stále nových a nových a stále výkonnějších grafik, procesorů atd. Asi jsem už z toho vyléčený :).

@papj: A taky je to šíleně uřvaný vysavač a navíc vysoká spotřeba, to by se ještě dalo, přeci jen kdo má kartu za 12k nekouká na spotřebu a chladič jedině vyměnit až to půjde, ale i s chladičem jsme na ceně HD5970 a ta žere stejně a výkon vyšší znatelně. Čili k čemu?!

@Michal Opluštil: Tak já mám Ati Radeon HD 4870 a ta je s originálním chladičem naprosto tichá. Zatím na hry stačí a nemám v plánu "vyhodit" spoustu peněz za podobnou grafiku.

@papj: Určitě nemá smysl si kupovat každou novinku, grafické karty sice stárnou relativně rychle, ale i tak se nic nestane, když člověk vždycky jednu generaci přeskočí. Než výkonná karta začne nestíhat uplynou vždycky tak dva roky.

@Anonymní uživatel: Ano, v tom máte naprostou pravdu. Já jen, že maximálně hraji jen jednu hru a to Command & Conquer Generals Zero Hour a jelikož je to hra poměrně stará (7let) tak mi moje grafika opravdu dostačuje:).

@papj: Nápodobně, mám HD5770 pasivně chlazenou a hraju na tom vše na max. v rozlišení 1680*1050. Jestli někdo má tři 24palcovky, tak to možná využije.

@Michal Opluštil: Pokud má tři 24" pak musí koupit ati a nebo 2x GTX4x0 jinak si na nich nezahraje. (ati eyefinity funguje na jedné kartě až pro 3 monitory (5/6 u spec. edicí), u Nvidia max 2 výstupy na kartu takže sli je nutnost.)Mimochodem jak jste dosáhl pasivního chlazení HD5770 to asi nebude referenční? (Accelero?)

@Michal Opluštil: tak všechno asi ne,například na metro 2033 musíš mít aspon 5870... navíc u eyefinity se ti sníží počet fps ostatně jako u všech grafik to je přece logické že čím větší rozlišení tím méne fps. pokud bych šel do eyefinity tak minimálně s 5870 ale nejlépe to pujde s 5970 :D

@vernys: S metrem na max zápasí GTX480 při 1680x1050 na full co dělat, takže já jsem snížil AA a fiultrování textur mám za to a už si užívám uplně parádně, lagy vůbec nevedu :) spokojenost :)

@beznick: zajímavé že já mám GeForce 8600GTS 512 GDDR3 a rozjedu Metro2033 na full s rozlišením 1920x1080 Full HD tak mi přijde divný aby tato grafika nezvládala taky s AA a filtrováním textur

@Island: to bude asi tim ze on ma ve hre zapnute DX11 efekty ktere dost srazej vykon smerem dolu. V DX9 ta hra bezi defakto na svem ale v DX11 skoro na nicem :)

Recenze na EHW!

http://www.extrahardware.cz/test-geforce-gtx-480-gf100-fermi-recenze-i

Nechce se mě věřit , že

Nvidia vůbec takovou hrůzostrašnou kartu vydala. Nejvýkonější karta na světě je ATI HD 5970 s výkonem v rozlišení 2560x1600 (od toho je to high-end, aby se provozoval na pořádných monitorech) cca o 40% vyšší při stejné spotřebě!!! Efektivitu výkon/watt má Nvidia více než žalostnou, to je ta slibovaná nová architektura? Efektivitou je na tom mnohem hůře než předchozí generace Nvidia karet, to je opravdu pokrok. Dále pokud to srovnáme GTX480 (Nvidia hidh-end) s ATI HD 5870 (ATI vyšší mainstrem viz srovnej ceny obou karet), tak má výkon jen o cca 10% vyšší.To vše při spotřebě jak olejový radiátor (cca 120-150W navíc). Navíc výkon FERMI v GPGPU aplikacích na ATI nestačí viz např. výsledky v HASH MD5, kdy je HD 5970 cca o 300% rychlejší než FERMI GTX480!!! Aby toho nebylo málo, Nvidia u FERMI omezila výkon v DP (64-bit přesnost) výpočtech (prakticky všechny projekty v cloud computingu např. folding@home, boic atd.) na 1/4 výkonu!!! U ATI žádné takové omezení neexistuje!!! Dále teploty jádra kolem 100 C, hlučnost při zatížení jak v centru tornáda, velký nárůst spotřeby při zapojení dvou monitorů (u prvních verzí docházelo k velkému přehřívání, problémy snad údajně odstranil nový bios, který roztočí více ventilátor a tím i hlučnost), obrovská teplota jádra (na cdr.cz ji dostali na 104 C, to je opravdové peklo), při těchto teplotách dochází k rychlé degradaci součástek, velkému pnutí křemíku i samotného 12-vrstvého PCB (obecně také zdroj častých poruch při vysokých teplotách). Za ty prachy při těchto parametrech si jí může koupit jenom člověk s nějakou úchylkou, pravděpodobně to o mnoho lepší nebude ani s dalšími nižšími modely karet. Nvidia stvořila prasopsa, měl to být CPU a GPU čip v jednom a je z toho hybrid, co neumí ani jedno pořádně (ve srovnání s konkurencí). Uvažovalo se o tom, že by na FERMI čipech měli být postaveny některé superpočítače, což mě při spotřebě přes 300W na jeden čip nepřijde jako reálné. Úsměvné je, že jeden takový superpočítač už existuje, je to pátý nejvýkonější superpočítač na světě a je postaven .... ano správně na čipech ATI. :-)

@exon: Fermi, jako první GPU s novou architekturou má řadu dětských nemocí, což se dalo čekat, i když někdy už první generace vyjde skoro bez chybně. Hlavní problém je špatná dostupnost a tedy i relativně vysoká cena.
Ta špatná dostupnost je ze dvou důvodů:
1. nízká výtěžnost 40 nm výroby v TSMC
2. nVidia musí prvními čipy zásobit výstavbu právě těch superpočítačů o kterých se zmiňuješ. Rozdíl v testech vědeckých výpočtů je do značné míry daný právě vypnutím double precision operací v herních grafikách. U profi GPU je DP plně funkční a proto jsou také profi karty v těchto výpočtech několikanásobně výkonnější. Pro tyto sestavy je vedle hrubého výkonu rozhodující hlavně SW podpora a funkční nadstavby a tou je u nVidie CUDA a rozsáhlá podpora programování třeba v C.
Je fakt, že karty hodně hřejí, a teploty nad 100 °C nevidím v PC rád, ovšem i ATi tvrdí, že teploty do 110 °C jsou OK, s dobrým prouděním vzduchu by se teploty nad 100 °C dostávat neměly.
Takže když to shrnu, výkon je dobrý, možnosti dalšího zlepšování s nástupem DX 11 jsou vynikající, dostupnost je hrozná, teploty a hlučnost chlazení špatné. Osobně si počkám na Fermi2, případně příští generaci od ATi.
Pokud jde o ty, co kupují PC dneska, tak těch pár nových nVidií, které se na náš trh dostanou si svoje kupce určitě najde.

@Anonymní uživatel: No když to vezmu po stránce architektury, zdá se že čip s 3mld. transistorů je na hranici výrobní rentability, s každým dalším zmenšením se rychle přibližujeme k fyzikálnímu limitu křemíku (údajně kolem 7nm) a zvyšuje se pravděpodobnost defektního transistoru, s každým zmenšením procesu se navíc zvyšuje počet transistorů a to jsou dvě věci které jdou proti dobré výtěžnosti. Dle mého názoru je mnohem efektivnější (vlastně FERMI je toho zářným příkladem), udělat menší čip (jako to dělá ATI) a na nejvýkonější high-end pak spojit více čipů dohromady. Do budoucna si umím představit i to, že bude více jader pod společným heatsinkem, jako např. u Intelu v Core duo. Jinak k těm teplotám, FERMi má nastavený limit 105C a on se k němu přiblíží v normálním provozu, to je hodně špatné a svědčí to o tom (v reálu změřeno přes 300W), že Nvidia v otázce TDP (250W) evidentně nemluví pravdu. Jinak k tomu výkonu v GPGPU, HASH MD5 je počítán v SP, tam není FERMI jinak omezována, přesto je výkon mnohem nižší, v DP precision, díky omezení na 1/4 výkonu, je to pak přímo katastrofa (takže nutnost si koupit TESLU za 3000$, která výkonem v DP opět na HD 5970 nestačí). Jinak ATI vydala Stream SDK v2.01 kit, takže vývoji aplikací nic nebrání, první vlaštovky se už objevují. Osobně doufám, že se v budoucnu prosadí OpenCL, protože je multiplatformní a umožní běh aplikací na grafikách Nvidia, ATI a časem snad i na Intelu v Linuxu i Widlích, to by bylo skvělé. Souhlasím s Vámi, že čekání na FERMI2 pokračuje, také jsem zvědavý na AMD Fusion.

@exon: JJ hned několik témat, které mi v poslední době vrtají hlavou.
1. přibližování se hranici křemíkové technologie, taky mě to v souvislosti s Fermi napadá, ale na druhou stranu výroba CPU až takové problémy nemá a paměťové čipy se vyrábějí úspěšně už o stupeň jemnější litografií (i když ty jsou podstatně jednodušší). Vychází mi z toho technologické problémy TSMC, na které sice ATi doplácí také, ale relativně méně, právě díky jejich architektuře, která sází na jednoduchost. Trochu mi to připomíná dávné soutěžení mezi RISC a CISC procesory. Bude hodně záležet na vývoji a využívání DX 11, jestli "chytřejší" konstrukce Fermi najde uplatnění.
2. Podpora GPGPU je pro nVidii prioritou už dlouhé roky a proto je nucena vymýšlet vlastní řešení a pak ho prosazovat, ostatní nechtějí být například na CUDA závislí a proto prosazují alternativní cesty. (Mimochodem nVidia je zároveň jedním z nejaktivnějších členů skupiny vyvíjející OpenCL). Obecně nVidia dlouhodobě investuje značné prostředky do vývoje nadstavby nad vlastním HW, vzhledem k jejich omezení na GPU a chipsety je to pochopitelné, ale na zásluhám jim to v mých očí neubírá.
ATi přišla s možností současného vektorového násobení a sčítání v jednom taktu a pokud se najde aplikace, která to umí využít, budou excelovat, obecně jsou ale Fermi univerzálnější a umožňují variabilnější využití.

@Anonymní uživatel: Pokud se nemýlím CPU jsou vyráběny trošku jiným postupem (High-K). Také jde o počet vrtev. GPU mají obecně o dost nižší takty než CPU, což je logické, se zvyšující se frekvencí roste spotřeba. Zachytil jsem na netu test dvou karet GTX480 ve SLI, naměřená spotřeba v zátěži cca 624 W!!! Jde o spotřebu grafik, ne celého PC. To už si z nás Nvidia dělá vyložene legraci, před nahozením PC, aby člověk volal do Temelína, ať zvýší výkon reaktoru. :-) Svýho času se také uvažovalo o dvou čipech na jednom PCB (jako v případě HD5970). Pod tíhou těchto argumentů je jasné, že je to zcela nemožné.
Mluvíte o chytřejší konstrukci, Nvidia používá skalární architekturu, která má vyšší efektivitu vytěžování core jednotek (až 97%), ale je velmi náročná na spotřebu transistorů (poměr core/trans.), ATI má VLIW architekturu, kde se o vytěžování 5D jednotek stará compiler, 5D jednotky nespotřebují tolik transistorů při návrhu a proto jich může být vysoký počet (u HD5870 1600 stream procesorů).Efektivita vytěžování se pohybuje cca o 12% méně než u skalární, jenže v konečné celkové efektivitě, která nás ve výsledku zajímá tj. výkon/spotřeba a výkon/počet trans. má ATI jasně navrh a to už několik generací karet. Osobně se mě architektura ATI líbí více, protože je flexibilnější, umožňuje jednoduše přidávat další stream jednotky, nebo naopak ubírat a tak jednoduše vytvářet další varianty čipu.

@exon: To je opravdu velmi pěkná spotřeba... To už aby pomalu člověk začal přemýšlet nad tím, že před startem PC musí vypnout veškeré spotřebiče v domácnosti, aby mu ten odběr nevyhodil pojistky :-D :-DJedna otázečka... Není náhodou důvodem použití jiného typu architektury u nVidie to, že "údajně jim jde hlavně o výpočetní výkon pro grafiku", kdežto u ATI čistě o herní výkon? Je pravda, že tohle by byl zřejmě jediný důvod, kdy by se nesrovnatelně vyšší spotřeba na +/- stejný výkon dala akceptovat. Alespoň globálně... U mě, jako u člověka, který má PC primárně určeno na hry, a který se stará o vyrovnávání veškerých účtů v domácnosti, takové opodstatnění postrádá smysl...

@Dufinos: Jakožto člověk vlastnící 5870ku,na kterou jsem přešel z 295GTX,tvrdím že pro hráče kteří si potrpí na kvalitu je bohužel dnešní generace ATI nepřijatelná,všechny výhody které jsou nepopiratelné bohužel ztrácí svuj význam když si člověk užívá transparency AA s NVidií a pak přejde na ATI a ono ejhle!! kde nic tu nic,obraz s prominutím k zeblití a výkon oproti GTX480 pokulhává a to chladím vodou na taktech 1050/5400.Cena je jediným duvodem ke koupi ATI,potom už jedině asi teploty a spotřeba ale to řeší u high-endové karty opravdu jen omezenec.

@Jan Španiel: Bohužel z této perspektivy (srovnání např. zmíněné AA mezi ATI a nVidií) karty porovnat nemůžu. Přeci jenom nVidii jsem měl naposledy v době, kdy zkratka AA určitě znamenala milion možností, ale antialiasing mezi ně rozhodně nepatřil. No a co se týče pokulhávání ve výkonu, vzhledem k rozdílu ceny si to dle mého karta dovolit může. Přeci jenom rozdíl je tak znatelný, že "dle ceny" se jedná o naprosto jiné segmenty...

Obsah balení a záruční plomba

Gainward nám nadělil v balení přechudku DVI>VGA, odhadem (nerozbaloval jsem) metrový kabel miniHDMI>HDMI, CD s ovladači, PhysX a Expertoolem (garage a supersonic sled chybí) a voucher na nějaký CUDA převaděč videa (25% sleva).
Dost nepříjemné ale je, že chytráci v Gainwardu zalepují jeden šroub, kterým je připevněn chladič záruční plombou, takže výměnou chladiče ztratíte záruku (pokud se vám tu rozřezanou nálepku nepodaří neroztrhnout > nepravděpodobné)

@beznick: Díky za informaci, docela nepříjemná limitace produktu.

@TrekCZ: opravdu dost nepříjemné ... asi přinejhoršim budu muset vymyslet, jak tu nálepku sundám :( nahodim ještě foto k téhle kartě, tam bude i vidět, jak je nálepka rozřezaná proti sloupnutí

@beznick: Maj velkou fotku u zelenyho pajduláka, kde je to vidět. Je to prořezaný jak žiletkou. Ale díky hodně za info, to by mne nenapadlo, že to udělaj. U pajduláka to maj skladem, ale díky, za těchto podmínek ne. Ani pastu bych si nemohl vyměnit.

@TrekCZ: Nechci nabádat k nekalostem, ale s trochou šikovnosti tato plomba půjde odlepit bez poškození.

@jeronim77: Proč to dělat složitě? Vrátit a vzít něco co to nemá.

@TrekCZ: Vrátit je sice v pohodě, ale vzít je problém - nejsou skladem. Kupoval jsem taky u zelenýho, ale z plomby nadšenej nejsem. Teď jsem koukal, maj už skladem GIGABYTE ale to ve mně kvalitu moc nebudí (GW teda taky ne). Ale jelikož chladič asi měnit nebudu, tak si jí už nechám. BTW na fotce sice nálepka vidět je, ale není už úplně k přečtění, co je na ní

@beznick: Když si dáš maximální zobrazení, tak je tam fotka ve vysokém rozlišení. Gigabyte to nemá, tak šupky vrátit, bude to tak lepší i pak když to za rok budeš prodávat.

@TrekCZ: prodávat jí nehodlám, ale nyní si bohužel nemůžu dovolit těch 500 přitlačit a už ani nechci. Vona stejně časem horkem odpadne :D

@beznick: ok, kolik máš defaultní vid (napětí) na gpu?

@TrekCZ: kdybych věděl, kde ho přečíst, tak rád napíšu, ale v GPU-Z jsem nenašel a v everestu taky ne. Teplota v klidu teď prej 77°C a karta je relativně tichá
spát se u toho dá i s otevřenou bednou :)

@beznick: To napětí jde vidět v MSI afterburneru. 77 stupňů při kolika otáčkách ventilátoru?

@TrekCZ: jsme u gainwardu, takže řešim gainward, mimochodem MSI afterburner an tom půlku věcí co "umí" nepřečte. Ale napětí jsem nijak neměnil, takže půjde dohledat dle specifikací nVidie. Jinak 77°C při 53% otáček fanu (dynamicky měněné dle teploty). Pokud bych moh zavřít bednu, tak o tý kartě nebudu při těchhle otáčkách vědět

@beznick: MSI afterburner můžeš použít nehledě na výrobce karty. Jenom mě zajímalo napětí co máš, liší se GPU od GPU. 77 stupňů v idle při 53 procentech otáček se mi nezdá jako moc dobrá teplota.

@TrekCZ: Bohužel napětí to u mně nezjistí ... mimochodem coreclock - 1848MHz asi taky nebude dobře :D (jinak by to bylo fakt solidní OC :D)Jinak teď jsem mrkal do logů z everestu.
Teplota v klidu tedy 77°C
Teplota pokud vypnu monitory 51°C (podtakt?)Teplota v zátěži (GTA4:EFLC)=90°C
Teplota v zátěži (Metro 2033)=90°CJinak pro porovnání ze starších logů jsem si ze zvědavosti vytáh teploty 8800GT
Idle 74°C
Load 91°C (přičemž to je řev za kterej by se nemusela stydět kdejaká ženská)
Takže bych to zase tak hrozně neviděl :)

@beznick: vsechny tyhle referencni gtx480ky maji zarucni plomby pokud nemaji primo nalepku na sroubku maji jeste horsi takovy prouzek z cerne peny pod kterou jsou 2 sroubky a ten tak lehce nejde sundat drzi daleko vic nez jakakoliv nalepka a trha se strasne jednoduse

@TrekCZ: Když jsem teď četl vedlejší thread, došlo mi, že jsem zapomněl zmínit, že používám 2 monitory a tedy moje teplota v klidu asi nebude úplně vypovídající (kvůli nemožnosti podtaktování některých částí karty). Tak tohle bych chtěl uvést na pravou míru :)

@beznick: Sundával jsem jednou podobnou "protisundávací nálepku"... Pokud ji budeš chtít nakonec opravdu sundat, tak na to zkus použít lak na vlasy... Její okolí překryj a lehce ji postříkej tím lakem... Papít se ti poté zpevní. Pak ji opatrně začni odloupávat skalpelem a... ;)

@Dufinos: Jde to celkem slušně žiletkou,doporučuju před tím zahřát fénem nebo horkovzušnou pistolí na 140° ,potom to jde uplně samo,plomba zustane neporušená.

@beznick: Pekne napsane.Kazdopadne me staci prave tato jedina informace: "chytráci v Gainwardu zalepují jeden šroub, kterým je připevněn chladič záruční plombou" a vice již číst nemusím. Takovou kartu bych nechtel ani se slevou 50%.Presne to je ta nejvetsi pridana hodnota CzC, tedy moznost diskuze u jednotlivych produktu. Dekuji za varovani.

@moch: Ona opravdu ta plomba není "překážka"... Bezproblémů se s ní dá bojovat. Tzn. pokud člověk najde v nabídce Gainwardu nějakou výhodu, tak není problém jít do jejich karty i v případě, že se počítá s výměnou popř. úpravou chlazení....

Super

jsem moc spokojenej mam akorat chlazenej pc vzduchem a grafika max 82 teplota jinak kdyz surfuju a koukam na videa 67 :) krasa a to jsem veril ze topi jako prase :)

@Ma7aKr: staci kartu vytizit, skus treba hodinu cyklovat CRYSIS WARHEAD frost mapu :). Urcite dosahnes teploty pres 90°C. Ja napriklad u sve pasivne chlazene HD5850 mam v klidu 33°C :), tj teplota 67°C mi nepride zadnej zazrak to mam defakto v zatezi

@stratos.: Mít 33C na grafice v idle je hezké, ale maximálně k chlubení, jinak to přínos žádný nemá, ani na stabilitu ani na životnost karty, ani na spotřebu, prostě k ničemu tvých 33C není. Praktický rozdíl mezi 33 a 67 skutečně není ;-)
A i když by grafika v zátěži měla 90C, tak to stejně nevadí, líbí se mi, že kdyby to měla ATI, tak by jsi to nezmiňoval, ale když je něco takového u nVidie, tak to stojí za zmínku :-) A co taková 4870X2.. ale to je vlastně ATI, tak tu zmiňovat nebudeme :-D

@jeronim77: "jinak to přínos žádný nemá"
teplota jadra ma znacny vliv na spotrebu karty, viz treba pekna recenze zde na toto tema: http://pctuning.tyden.cz/ilustrace3/godzzila/test_vgas/spotrebav.jpgcitace autora:
U Radeonu HD 5870 s vodním blokem sice není pokles spotřeby tak evidentní, ale pořád je patrný. Na první pohled je pokles z 397 na 386 poměrně zanedbatelný, ale je v tom i režije čerpadla a dalších větráků, což dělá dalších přibližně 20 W. Po odečtení tedy zjistíme, že spotřeba vlastně karty poklesla přibližně o 31 W.Tj priste si o tom neco zjisti nez napises totalni blbost.

@stratos.: Máš pravdu, s tou spotřebou jsem to uvedl trochu nepřesně, pokles spotřeby při nižší teplotě je samozřejmý. Kromě spotřeby ale snížení teploty grafiky na 33C nemá žádný významný vliv :-)

@jeronim77: co s tim ma co delat mych 33°C v klidu, to sem psal jenom na srovnani ze ty teploty co se psaly v prvnim prispevku nejsou zadnej zazrak oproti konkurenci, defakto sou to teploty naprosto sileny. Mit ve 2D stejny teploty co ma konkurence ve 3D to mi opravdu nepride moc dobry vysledek :). Jinak kdybych nechladil pasivne dostal bych se v IDLE jeste na nizsi teplotu.

Nenašli jste, co hledáte?

kód: 75790
Gainward 1046-Bliss GTX 480 1.53GB, PCI-E_853960156
prodloužená záruka
Produkt není určen k prodeji.
Výkonná grafická karta platformy Nvidia Fermi, grafický čip GeForce GTX 480 (40nm), frekvence 700MHz čip, 3696MHz 1536MB GDDR5 pamětí, 384bitové rozhraní, 2x Dual DVI + 1x miniHDMI (až 3 monitory), podpora DirectX 11 + OpenGL 3.2 + Shader Model 5.0, 3-way SLI, NVIDIA 3D Vision, CUDA, PCI-E 2.0 x16 rozhraní.
Nakup a soutěž o hvězdné stavebnice LEGO® Nakup a soutěž o hvězdné stavebnice LEGO®