Mam dokładnie takie same doświadczenia - przez lata wymieniałem karty graficzne około 2x częściej niż procesory i nie zdzrzyło mi się, żeby ten drugi był w jakimś wyraźnym stopniu wąskim gardłem.
Ok, są gry "procesorowe" (Cyberpunk np.), które wymagają relatywnie szybkich CPU. Tyle, że nawet w takich tytułach ewentualne problemy zaczęłyby się bardziej w rozdzielczości 4K i po sparowaniu z GPU rzędu powiedzmy RTX 3080Ti i wyżej. A i tu różnica raczej nie byłaby szczególnie znacząca.
3570K ma już kilka lat na karku, ale nie jest aż tak stary, żeby wyraźnie spowalniać RTX 3060Ti.
Na szczęście dziś na YT można znaleźć porównania w grach mnóstwa różnych konfiguracji. I tak na szybko znalazłem porównanie (linki pod spodem) Cyberpunka 2077 (m.in.) w rozdzielczości 2K na RTX 3060 (bez Ti) z CPU 3670K oraz w drugim gameplayu RTX 3060Ti sparowanego ze znacznie nowszym 11400F. W obu przypadkach ustawienia Ultra, bez włączonego RayTraceingu. Na zestawie z Twoim prockiem średnio 39 FPSów, na nowszym CPU, ale też z nieco lepszą grafiką - 46 FPSów. Stawiałbym, że ta różnica wynika w większym stopniu z innych GPU niż CPU. Po włączeniu RT różnica wzrasta znacząco (odpowiednio ok. 21 vs 43 FPSy), ale znowu - za RT odpowiada karta graficzna.
Oczywiście żeby podjąć decyzję warto prześledzić więcej konfiguracji (np. 3060Ti wespół z i7/i9 12th czy 13th gen.), w różnych grach, natomiast podejrzewam, że wszędzie zysk będzie znacznie większy np. przy zakupie szybszej karty niż tej samej karty i nawet znacznie szybszego CPU.
https://youtu.be/2gzBwfIblhg?t=1223
https://youtu.be/-mkB2w1fwG4?t=1653