Counterplay Games und Gearbox Publishing haben die Systemanforderungen der PC-Version von Godfall bekannt gegeben, wobei die „empfohlenen Systemvoraussetzungen“ schon ziemlich hoch ausfallen. Das Action-Rollenspiel bzw. der Looter-Slasher mit Nahkampf-Fokus erfordert eine permanente Online-Verbindung. Gleichzeitig betonen die Entwickler, dass Godfall trotzdem kein „Game-as-a-Service-Titel“ sei. Die PC-Version wird ab dem 12. November im Epic Games Store erhältlich sein. Gleiches gilt für die PS5-Version.
Minimum
- OS: Windows 10
- CPU: AMD Ryzen 5 1600 oder Intel Core i5-6600
- GPU: AMD Radeon RX 580 8 GB oder Nvidia GeForce GTX 1060 6 GB
- RAM: 12 GB
Empfohlen für 1080p mit 60 fps und hohen Grafikqualitätsoptionen (Quelle)
- OS: Windows 10
- CPU: AMD Ryzen 5 3600 oder Intel Core i7-8700
- GPU: AMD Radeon 5700 XT 8 GB oder Nvidia GeForce GTX 1080 Ti 11 GB
- RAM: 16 GB
Prepare to ascend on PC! The PC specs for #Godfall are available now.
— Godfall (@PlayGodfall) November 2, 2020
âš” Pre-purchase on PC today: https://t.co/Sa8GUzmXoK pic.twitter.com/0cOk1bjsoE
Die PC-Version von Godfall wird in Zusammenarbeit mit AMD einige besonderes Funktionen bieten, z.B. Raytracing-Schatten via DXR, FideltyFX Contrast Adaptive Sharpening etc. Weitere Details verraten die Entwickler im folgenden Video.
Ultra / Extrem-Details sind in der Regel auch Quatsch, weil sie unverhältnismäßig viel Leistung kosten und man den Unterschied zu "Hoch" kaum oder gar nicht sieht.
Mir sind mehr FPS wichtiger als exorbitante Grafikqualität. Das trägt deutlich mehr zum besseren Spielerlebnis bei.
Dieser Firlefanz ist es, was das Gesamtbild runder macht. Ist es ein Gamechanger, dass die Sonne bei Red Dead Redemption 2 die Ohrmuscheln von Arthur erhellt? Natürlich nicht. Ist es jedem aufgefallen? Ich denke nicht. Aber wenn es einem erstmal auffällt ist es ein sehr cooler Effekt. Spiele sehen seit Jahren gut aus, der Polycount ist oft ausreichend (für Spielfiguren und große Gebilde). Es fehlt an Texturen, was Speicher benötigt und an Effekten (nicht nur Partikel), was Rohleistung benötigt.
Und irgendwann ist dieser Firlefanz etwas, ohne den, nach einer Eingewöhnungsphase, die älteren Spiele etwas Mau (nicht schlecht) aussehen. Vergleiche nur mal, was das Shadermodell 3.0.(glaube ich) zur GeForce FX 5XXX-Reihe an Perfmanceeinbußen hatte bei Splinter Cell Chaos Theory und wie fluffig das auf einmal selbst mit einer GeForce 6600 lief. Klar, solche Geschichten wie Bump Mapping oder...
Always online und Epic exclusive, da gibt's Pest und Cholera im Doppelpack!
Edit: Und dem Trailer nach zu urteilen ein FOV von ca 50. Covid als Zugabe zu Pest und Cholera!
Das war aber abzusehen. Es gibt sehr viele Effekte, bei denen hohe / höchste Einstellungen kaum einen Unterschied machen. Zwischen den höchsten Einstellungen und einer Stufe darunter gehen oft 30% Performance verloren, ohne dass man es wirklich sieht.
Generell sind wir mittlerweile an einem Punkt angekommen, an dem immer mehr Performance benötigt wird und der optische Mehrwert kaum noch sichtbar ist. 4k ist für viele noch immer keine Option, schon allein weil die passenden Monitore fehlen. Ich weiß, dass 4k in Spielen auch auf FHD Monitoren einen Vorteil bringt, die meisten haben davon aber keine Ahnung. Und auch hier sind wir bei 4 mal so viel Leistung im Vergleich zu FHD bei einem relativ kleinen Mehrwert. Da reicht es auch nicht, ein paar Effekte entwicklerseitig zu reduzieren bzw. darauf zu verzichten, um den Performanceunterschied von FHD zu 4k auszumachen.
Ein Witcher 3 sieht natürlich noch immer gut aus, aber gerade bei Texturen, Spiegelungen und Partikeleffekten ist es einem Godfall bei weitem unterlegen. Man findet sicher noch mehr, wenn man das ganze technisch analysiert oder wenigstens Vergleichsvideos von beiden Spielen sieht. Das habe ich jetzt aber nicht vor
Bis 4k wirklich für die Masse interessant wird, werden noch einige Grafikkartengenerationen vergehen. Wenn es nicht die höchsten Einstellungen sein müssen, kommt man aber sicher auch mit einer 3070 gut hin.
Es ist aber eben keine Verhältnismäßigkeit, wenn die Anforderungen dermaßen steigen ohne einen fundamentalen optischen Fortschritt. Wie gesagt, schau dir ein Witcher 3 daneben an. Es wird eben ohne erkennbaren Grund so viel benötigt.
Wenn man die Mehrleistung nicht für irgendwelchen Firlefanz ausgeben würde, wäre 4K überhaupt kein Problem, auch mit einer 3070 nicht (außer vielleicht den VRAM). Und ich glaube von 4K hätte man wesentlich mehr, als von irgendwelchen kaum sichtbaren Effekten, die die Performance runterziehen. Zumal man sich dann auch die Kantenglättung eher sparen kann, zumindest runterdrehen. Stattdessen braucht man demnächst dann eine 3070 um einfach nur wieder FHD ordentlich zu spielen. Klasse.