Ohne da jetzt den Delf reinzuziehen....

(sorry)
Aber mit den PC Leuten (abseits von hier, allgemein) kann man darüber eh nicht diskutieren. Die werden dir IMMER sagen, dass die Konsole "schlechter" ist (dass selbst die PS5 nur ein Bruchteil des PCs kostet und eine Xbox Series S nur ein fünfzigstel vom Strom verbraucht = einfach vergessen).
Auf PC werden bei RESIDENT EVIL 2 noch auf auf der 1000€ Grafikkarte Details weggeschaltet, damit man sich auf5pu13n kann. Oh toll, in 12 Sekunden den Boss besiegt, aber vorher noch 19 Sekunden mitten im Spiel im Menü die Details runtergestellt.

Der PC Spieler sitzt am 25" Monitor mit gebeugter Haltung und denkt, er sei in irgendeiner Weise den Leuten mit Konsole "überlegen".
Ich fletze mich in den Sessel und kann aus 2.25 m gar nicht sehen, ob gerade Full HD oder 4K läuft (am Schreibtisch, am Windows Desktop sehe ich es natürlich)... der Monitor zeigt es mir sogar auf Wunsch an... da schaltet manches Konsolenspiel auch mal runter (hat also dynamische Auflösung... auf PS4 Pro erlebt), gerade wenn man vorher andere Spiele gezockt hat und der Speicher noch voll ist. Also sprich, DIRT5 kann heute mit 4K starten, und morgen startet es mit Full HD (und man sieht es nicht), ganz abseits von div. Einstellungen (Framerate / Priorisierung auf 4K) im Spiel. Aber das sehe ich NUR am Hud des Monitors.
Der PC Spieler sitzt gebeugt 18 cm vor dem Schirm und sieht natürlich ständig Dinge, die im Grunde uninteressant sind. Deswegen sehen die auch sofort, dass angeblich irgendwas auf Konsole "schlechter" wäre.
In drei Jahren oder gar sechs Jahren kriegst auf der PS5 immer noch Spiele am Limit, während der gleiche PC dann nur noch für Solitaire taugt, weil sich kein Spiel einen Dreck um Effizienz auf älterer Hardware schert.