к сожалению алгоритмы современных программ слишком сложны, чтобы быстренько на пальцах прикинуть как они будут использовать вычислительные ресурсы.
но суть вот в чём - это как многоборье, где есть определённые задачи, которые выполняют разные узлы компьютера.
И в каждой программе список этих задач разный и сложность этих задач тоже разная... И всегда будет слабое звено - узел, который будет выполнять свою задачу дольше всех остальных узлов. пока он её не выполнит - остальные узлы будут ожидать его всей толпой.
все вот рассуждают типо вот есть проц и есть видюха... да там в этом проце всяких блоков хуева гора... а видеокарта вообще по сути отдельный компьютер со своей памятью, процом, питанием, биосом... и у неё в гпу тоже куча разных блоков, которые делают разные вещи...
Поэтому ускорение какого-то отдельного узла будет давать прирост в любом случае, потому, что этот блок выполнит свою задачу быстрее... но насколько в сумме вырастет скорость исполнения всего алгоритма целиком будет зависеть только от того какую долю алгоритма занимает задача исполняемая конкретно данным узлом.
именно поэтому прирост скорости памяти в 40% даёт всего 3% прирост общей скорости исполнения.
ну и очень упрощённый пример:
допустим процессор умеет только складывать а видеокарта только умножать.
каждое действие занимает 1 секунду.
дан алгоритм - сложить 10 раз и умножить 10 раз...
процессор складывает 10 секунд, видеокарта в это время ждёт... потом видеокарта умножает 10 секунд, процессор ждёт - итого результат будет через 20 секунд.
но при этом процессор "загружен" на 50% и видеокарта на 50) тоесть оба половину времени отдыхают, но быстрей алгоритм сделать не могут.
меняем алгоритм
2 раза сложить, 18 раз умножить....
то же 20 секунд. но при этом процессор 18 секунд ждёт пока карта сделает свою работу.
третий алгоритм - 18 раз сложить, 2 раза умножить. и всё те же 20 секунд.
а теперь ставим карту, которая умножает в 2 раза быстрее.
итого в первом алгоритме получаем результат через 15 секунд, а во втором 11 секунд, а в третьем получается 19 секунд... тоесть прироста почти нет...
А теперь вернёмся к изначальному вопросу: "насколько вырастет фпс если я воткну более мощную карту"
ответ - в одном случае на 25%, в другом на 45%, а в третьем всего на 5%
А если в алгоритме не будет умножения, то не вырастет вообще.
Тоесть "спотыкаться" в компе нечему и необо что. Всё будет зависеть от программы... (игра это тоже программа) И однозначного ответа не может быть впринципе.
единственное - можно посмотреть кучу тестов похожего железа и в уме прикинуть приблизительный диапазон прироста производительности на конкретной карте в конкретной игре с конкретными настройками.
... а потом вспомнить что там выходили патчи, новые драйвера... и понять, что эти тесты уже не актуальны и проще проверить на практике))