Obecnie (nie)stety muszę używać zastępczej karty graficznej (opis jest dawno nieaktualny) i jest nią znany i lubiany GeForce 9600GT 512MB DDR3.
Totalny zabytek jak na dzisiejsze czasy, ale postanowiłem spróbować pograć sobie w trochę nowsze tytuły.
Na początek pobawiłem się w OC i niestety trochę przesadziłem (stock: 650/900, moje ustawienia 720/980) i karta zaczęła sypać artefaktami. Udało mi się odpalić FarCry 3 w rozdziałce 1440x900 (natywna to 1680x1050, monitor 16:10) i działał na ustawieniach średnich wyciągając jakieś 30-50FPS. Dla eksperymentu dałem ustawienia ultra i jakie było moje zdziwienie, gdy zamiast spodziewanych 5-10FPS wyciągnąłem 20-30
Niestety tytuł zaczął się zwieszać i musiałem zmniejszyć taktowania do 700/900Mhz żeby dało się grać.
Następnie zainstalowałem Tomb Raidera z 2013 roku, czyli tytuł który wyszedł 5 lat po premierze karty. Tutaj drugie zaskoczenie, bo na tej samej rozdzielczości i ustawieniach wysokich z filtrowaniem FXAA wyciągam koło 30-45FPS. Co więcej, na rozdzielczości natywnej i ustawieniach średnich nadal mam około 30FPS
Nie myślałem że taka stara karta ma jeszcze pokłady mocy żeby odpalić gry które (teoretycznie) powinny działać jak kupa albo w ogóle nie działać. Doszedłem do wniosku że bez sensu teraz kupować nową kartę za kilkaset zł, lepiej poczekać, uzbierać kasę i poskładać sobie nową jednostkę z czymś pokroju 980Ti, RX580 czy 1070.
Jednak są zalety monitora o mniejszej rozdzielczości, różnica między 1680x1050 a FullHD jest mała, a klatek zawsze trochę więcej