![]() |
Ciesz się, że nie pójdę za Twoją radą, bo jakby takich early adopterów jak Ty było więcej, to producenci jeszcze bardziej by przycisnęli i ta karta kosztowałaby w podstawie 2,5 k euro, jak nie trójkę ;)
Tobie gratuluję, że sprzęt złożony i śmiga, a sam robię sobie małą predykcję - kusiło mnie żeby wymienić sprzęt na wspomnianą 3060 12GB, ale doszedłem do wniosku, że ta karta za pół roku od dziś może kosztować w okolicach 1200-1300 zł. No zobaczymy, czy mnie mój nochal nie zwiedzie :D BTW, patrząc po wydajności, jest spora szansa, że za te pół roku będzie na rynku jeszcze jedna warta uwagi karta - Intel Arc A750 (ew. 770 z 16 GB RAM). Karty mają potencjał, jak na swoją wydajność są bardzo tanie, a jedyny problem leży obecnie w niedopracowanych sterownikach. Jeśli to się poprawi, a cena zostanie utrzymana (albo jeszcze lekko spadnie), to będzie to świetna alternatywa dla Nvidii i AMD. |
Jarson zawsze karta bedzie tansza, pytanie czy dla 200zl warto czekac np. pol roku. mnie to dyndalo i kupilem teraz ot proste chcialem teraz mam teraz mimo ze moglem poczekac pewno z 12misiecy i kupic ta karte za 1300e ;)
|
Wiesz, ja gram niewiele i mogę sobie poczekać, bo zanim ogram do końca Wiedźmina to minie trochę czasu, a kolejne w kolejce będzie zapewne RDR2 (ot, to takie moje klimaty - otwarty świat, luźna fabuła, podchodzenie do gry powiedzmy raz-dwa razy na tydzień, a nieraz miesięczna przerwa jak nie ma czasu). Jeśli Ty masz więcej czasu akurat teraz, to przecież nie będziesz czekał roku, żeby zaoszczędzić kilkaset euro, jeśli nawet nie możesz być na 100% pewien czy na pewno w międzyczasie ceny spadną (to niemal pewne, ale przecież nikt tego nam na piśmie nie dał, a mogę na kolanie wymyślić z 5 scenariuszy, gdzie dzieje się coś, że jednak nie spadają).
Tak naprawdę dla mnie też te 1200, 1500 czy 1800 zł nie robi wielkiej różnicy - dziś na byle zakupach wydaje się stówkę-dwie, więc czekanie pół roku żeby zaoszczędzić 500 zł nie jest dla mnie kluczową koncepcją na dorobienie się w życiu pieniędzy. To bardziej kwestia tego, że i tak na razie nie potrzebuję nowego GPU; zaraz zaczyna się wiosna, będę miał na głowie remonty, działkę, koszenie, zabranie dzieciaków na jakąś wycieczkę - prawdę mówiąc kupno czegoś dziś byłoby w związku z tym mało odpowiedzialne, bo wiązałoby się z ryzykiem niedosypiania po nocach :D Stąd moja decyzja - skoro i tak najprędzej kolejny dobry termin do gier będzie pewnie na jesieni, a do tego czasu grafiki raczej potanieją, to dla mnie rozsądnie jest poczekać ;) |
To nie wybrzydzaj i kupuj karte a nie dywersje robisz. Kupuj, kupuj i cisz sie zyciem, wiesiek w 4K wyglada wspaniale a RDR2 jeszcze lepiej bo wlasnie testowalem ;)
|
Wiem, bo nawet na mojej 970 gram w niego w 4K i to na Ultra z przyciętymi na high dosłownie kilkoma ustawieniami :) Do RDR2 już tak nie podejdę, zatem sprawa jest prosta - kończę Wieśka i będą zakupy - ale to pewnie wyjdzie październik ;)
|
Eee... tam bierz karte i ciesz sie na ultra z raytracing ;)
|
Ilość załączników: 2
Cytat:
3080msi vs 4090asus |
Mowilem ci ze to gigant, z blokiem wodnym jest malutka ;) , widze ze tez masz podstawke pod karte :D
|
Cytat:
w piątek będę u kumpla może coś wystrugamy z alu na cnc |
Ja tam uwazam ze warto podstawic, co bys nie wystrugal aby ci zwory nie zrobilo, najlepiej plastik.
|
Patrząc na PCB, 4090 nie jest większa niż 3080. Natomiast układ chłodzenia - toż ten radiator nominalnie musi mieć z 1 kW :hmm:
W tym wypadku rzeczywiście aż się prosi o LC. Tu nie jest problemem odprowadzenie ciepła poza kartę, ale wyrzucenie go poza obudowę, a tu całe ciepło z GPU będzie najpierw podgrzewać procesor zanim zostanie wyrzucone dalej. |
Sie absolutnie zgadzam, jedyne sensowne rozwiazanie na 4090 to LC
|
Strasznie te karty spuchły, niedługo będzie trzeba minimum full tower, żeby jakoś weszła na styk. Teraz pokaż tego wymaksowanego Crysisa w 4K ;)
Ciekawe kiedy ujrzymy kartę o wydajności 4090, ale pobierającą dwa razy mniej prądu, to dopiero będzie postęp. 980Ti na premierę ciągnęła 250W, cztery lata młodsza 1660Ti (o bardzo podobnej wydajności) ciągnie połowę z tego. Podejrzewam, że dwie generacje powinny wystarczyć. Dzisiaj nawet 3080 to karta na lata, a 4090 tym bardziej, o wymaganiach sprzętowych na następne 5-7 lat możesz zapomnieć :P |
Nie trzeba, wystarcza LC i sie miesci w MIDI :P
|
Cytat:
Natomiast jeśli rozmawiamy o samym rdzeniu... 76 miliardów tranzystorów. Weź tu coś takiego skalpelem wystrugaj :O Zmniejszenie prądożerności może chwilę zejść, Ada Lovelace jest tłuczona w 5 nm, które TSMC opracowało niezwykle szybko (GeForce'y 10 to proces 16 nm, poszło błyskawicznie), ale w tym czasie po grafiki ustawiali się gracze, górnicy a i przecież w superkomputerach w tym czasie GPU zaczęły odgrywać istotną rolę, o tym się trochę zapomina. Dziś mamy inną sytuację, do Nvidii już nie płynie taki strumień pieniędzy więc tempo IMHO prawdopodobnie nieco zwolni. Od z górą dwudziestu lat śledzę z zainteresowaniem kiedy prawo Moore'a się wydupcy, na razie o dziwo jako tako się trzyma (bardziej dzięki GPU niż CPU, ale w zasadzie co za różnica). Natomiast trzeba już coraz więcej drobnych sztuczek, żeby ten rozwój utrzymać. I teraz ciekawe, czy najpierw tempo się załamie, czy jednak nauka zdąży coś wymyślić zanim możliwości krzemu się skończą :hmm: |
Wszystkie czasy w strefie CET. Aktualna godzina: 00:24. |
Powered by vBulletin® Version 3.8.11
Copyright ©2000 - 2025, vBulletin Solutions Inc.