Skip to content

Beeinflusst die Größe eines Monitors die Spielleistung?

Lösung:

Die Größe des Monitors spielt keine Rolle, aber seine Auflösung schon. Da Sie jetzt einen Monitor mit einer höheren Auflösung als Ihr vorheriger verwenden, benötigt Ihre Grafikkarte mehr Videospeicher, um jeden Frame zu speichern, da die Frames größer sind. Aus diesem Grund werden Sie bei allen Spielen, die Sie mit voller Auflösung Ihres Monitors spielen, einen allgemeinen Leistungsabfall feststellen - die Grafikkarte muss einfach mehr Arbeit leisten, um ein größeres Bild zu erzeugen.

Stellen Sie bei Minecraft sicher, dass 64-Bit-Java installiert ist. Ohne 64-Bit-Java kann Minecraft nicht den gesamten verfügbaren Speicher nutzen, was die Ursache für das Verzögerungsproblem sein kann. Wenn dies nicht funktioniert, sollten Sie auch OptiFine ausprobieren - eine Mod für Minecraft, die die Leistung erheblich steigern kann.

Ich habe den Großteil deiner Frage nicht gelesen, aber die Antwort auf die Titelfrage lautet Jawohl, sofern sich "Größe" auf "Bildschirmauflösung" (in Pixel) bezieht.

Jedes Pixel muss auf die eine oder andere Weise einzeln bearbeitet werden... und bei komplizierten 3D-Rendering-Programmen muss jedes Pixel oft mehrmals neu berechnet und bearbeitet werden, da verschiedene Effekte angewendet werden: Schatten, Geometrie-Shader, Beleuchtung, Bildschirmbereich Umgebungsokklusion, Culling, Anti-Aliasing und so weiter. Jede dieser Operationen muss effektiv einen großen Pixelstreifen (oder tatsächlich jedes Pixel auf dem Bildschirm) betrachten und seine Farbelemente ändern (ob Rot/Grün/Blau oder eine andere Anordnung).

Die Anzahl der Pixel auf dem Bildschirm erhöht sich quadratisch wenn die Breiten- und Höhenkomponenten symmetrisch zunehmen. Um einfache Zahlen zu verwenden (dies sind keine echten Auflösungen im allgemeinen Gebrauch): Wenn Sie einen Bildschirm von 500 x 500 haben und auf einen Bildschirm von 1000 x 1000 aufrüsten, haben Sie nicht nur doppelt so viele Pixel - Sie haben die Anzahl der Pixel, die Sie haben hatte ursprünglich, mal vier. 500 * 500 (Multiplikation) sind also 250.000; 1000*1000 ist 1.000.000. Wenn wir dies ins logische Extrem treiben und eine Auflösung wie, oh ich weiß nicht, 32000x24000 betrachten, weiß ich ehrlich gesagt nicht, ob irgendeine vorhandene Grafikhardware moderne Spiele mit einer respektablen Bildrate mit einer so hohen Auflösung spielen könnte. Die Zahlen sehen nicht so groß aus, aber wenn Sie 32000 mit 24000 multiplizieren, haben Sie viel Komplexität und müssen viele Daten verarbeiten. Eine enorme Menge!

Die physische Größe des Monitors ist nicht wichtig. Die Bildschirmauflösung (Anzahl der Pixel) direkt wirkt sich auf die Leistung aus, da mehr Daten (mehr Pixel) mehr Verarbeitung in jeder Phase des Renderns bedeuten.

Ich möchte zunächst sagen, dass dies alles sehr gute Antworten sind, aber ich wollte mir die Zeit nehmen und selbst sehen, welche Art von Zahlen ich auf meinen eigenen zwei großen Bildschirmen generieren könnte.

Da mindestens eine Antwort den Speicher der GPU erwähnt und das OP Szenen mit vielen Objekten erwähnt, werde ich verschiedene Ebenen des VRAM-Verbrauchs messen und da eine andere erwähnte Auflösung das Vollbild-Rendering auf einem Bildschirm durchführen und diese Zahlen mit dem Vollbild-Rendering vergleichen auf beiden Bildschirmen. Dies kann man sich als einen größeren Monitor mit einer höheren Auflösung vorstellen, da die Bildschirmfläche doppelt so groß ist. Ich werde auch ein kleines Beispiel für zwei gespiegelte Bilder erstellen, die einen größeren Bildschirmbereich simulieren und gleichzeitig die gleiche Auflösung beibehalten.

Anhand der verglichenen Zahlen kann ich zeigen, was eine Grafikkarte kostet.

Das Rig:

  • Quadcore 2600k @ 5GHz
  • MSI 580 GTX Lightning Xtreme
    • Diese Version wird von MSI höher getaktet als die Standardversion, aber ich selbst habe sie für diesen Test nicht übertaktet
    • Diese Version hat 3 Gigs DDR5
    • Treiberversion 304.79; komplett sauber installieren
  • 16 GB DDR3-System-RAM
  • 2x 32" LED-Bildschirme mit 1920x1080
    • Eine über HDMI verbunden, eine über den DP-Ausgang über einen passiven Adapter an den HDMI-Eingang angeschlossen
  • Ich werde die VRAM-Nutzung mit MSI Afterburner v2.2.1 überwachen

Der erste Test:

Für diesen ersten Test werden wir einfach an einem im Leerlauf befindlichen Windows 7 Aero-fähigen Desktop sitzen. Ich hatte kein Dienstprogramm, um FPS außerhalb von Minecraft zu messen.

  • 116-118 MB Nutzung
    • Beide Bildschirme an und im 1920x1080-Modus
  • 89-91 MB MB-Nutzung
    • Ein Bildschirm an und im 1920x1080-Modus
  • 78-80 MB Nutzung
    • Ein Bildschirm an und im 800x600-Modus
  • 73-74 MB Nutzung
    • Beide Bildschirme an und im 800x600-Modus

-- Dieser Test zeigt, dass 2x Monitore NICHT 2x VRAM-Auslastung bedeuten, daher könnte man erwarten, dass es viel mehr Overhead gibt als nur Framebuffering, und es ist auch erwähnenswert, dass ein Monitor im Hi-Res-Modus ~ 77% der der Speicher von zwei, und im Low-Res-Modus verwendet ein Monitor ~93 % des Speichers von zwei, was die Overhead-Kosten weiter veranschaulicht. -- Dies impliziert, dass die Antwort, die @Huskehn gibt, irreführend ist, allein aufgrund der höheren Auflösungen haben keinen praktischen Einfluss auf die VRAM-Nutzung.


Der zweite Test:

Dieser Test verwendet VLC, um eine Vollbild-Blu-ray-Wiedergabe durchzuführen (Talladega Nights, für die Nachwelt). Ich hatte kein Dienstprogramm, um FPS außerhalb von Minecraft zu messen.

  • 172 MB Nutzung
    • Beide Bildschirme an, einzelner Vollbildmodus und im 1920x1080-Modus
    • Zum Kichern habe ich die Wiedergabe in diesem Modus auf das 8-fache erhöht und eine Zunahme der Nutzung um 2 MB festgestellt
  • 217 MB Nutzung
    • Ein Bildschirm an, dualer Vollbildmodus und im 1920x1080-Modus
  • 125 MB Nutzung
    • Ein Bildschirm an und im 1920x1080-Modus
  • 106 MB Nutzung
    • Beide Bildschirme an, einzelner Vollbildmodus und im 800x600-Modus
  • 130 MB Nutzung
    • Beide Bildschirme an, dualer Vollbildmodus und im 800x600-Modus
  • 94 MB Nutzung
    • Ein Bildschirm an und im 800x600-Modus

-- Zu diesem Test gibt es nicht viel zu sagen, außer dass die VRAM-Auslastung die ganze Zeit stabil war, bis ich nur die Wiedergabegeschwindigkeit änderte -- die Speicherauslastung fiel auf normale Geschwindigkeit zurück, was darauf hindeutete, dass der Framebuffer zugenommen hatte. Ein weiterer Punkt ist, dass keines der Videos abgehackt wurde oder langsam aussah, was zeigt, wie trivial Nicht-3D-Anwendungen sind.


Der dritte Test:

In diesem Test werde ich eine virtuelle 32-Bit-Windows XP-Maschine im Vollbildmodus auf meinem zweiten Monitor mit VirtualBox v4.1.18 einschalten. Die VM hat 128 MB Videospeicher erhalten (was spätere Tests nicht unbedingt beweisen müssen, dass die VM nur so viel nutzen kann) und 2D- und 3D-Beschleunigung aktiviert.

Ich habe ein paar Modi übersprungen, da die anderen Tests zu zeigen scheinen, dass ein vorhersehbarer Unterschied beobachtet werden kann.

  • 151-156 MB Nutzung
    • Beide Bildschirme an und im 1920x1080-Modus
  • 127 MB Nutzung
    • Beide Bildschirme an, VM-Bildschirm (und VM selbst) im 800x600-Modus und Host im 1920x1080-Modus

-- Ich habe nicht gemessen, ob es einen unterschiedlichen Verbrauch gab, wenn der Bildschirm @1080 war oder wenn die Auflösung der VM intern auf @800 geändert wurde


Der vierte Test:

Minecraft spielen!

Dieser enthält viele Informationen und ist wahrscheinlich der wichtigste Abschnitt für @Solignis.

Erstens konnte ich aufgrund der Art und Weise, wie Windows Vollbildanwendungen verarbeitet, nicht zwei MC-Clients gleichzeitig mit maximaler Größe ausführen, also habe ich den anderen in der zuvor erwähnten VM ausgeführt und die Ergebnisse gemessen. Mein Bruder und ich spielen die ganze Zeit so Seite an Seite und wir haben nie Probleme beim Spielen! Zweitens habe ich einen Minecraft-Server im Hintergrund ausgeführt, damit beide Clients die gleiche Welt und die nahezu identische Ansicht rendern. Ich ließ beide Clients laufen, teleportierte beide Spieler an dieselbe Stelle, sah sie in die gleiche Richtung und schloss dann die Clients, um alles zuvor gerenderte zu löschen, dann startete ich sie wieder und bewegte sie nicht. Ich habe zuerst den Server gestartet und festgestellt, dass der VRAM von 156 MB auf 168 MB gestiegen ist. Nachdem ich das erste Mal mit beiden Clients die Verbindung getrennt hatte, bemerkte ich, dass jetzt konstant 230 MB belegt waren. Der Server wurde auch für maximale Rendering-Distanz konfiguriert.

Die MC-Grafikeinstellungen waren die folgenden: "Fancy", Smooth Lightning ON, 3D Anaglyph OFF, GUI Scale AUTO, Partikel ALL, Render FAR, Performance MAX, Bobbing ON, Erw. OGL AUS, Wolken AN. Während der Host-Client mit adv ausgeführt werden kann. OGL ON über 280 fps gut, dies führte zum Crawlen der VM. Ich glaube, dies liegt an der derzeit begrenzten Unterstützung neuerer OGL-Implementierungen auf VirtualBox. FPS wurde von MC von den 'F3'-Statistiken genommen.

Alle Tests wurden in 1920 x 1080 aufgezeichnet, sofern nicht anders angegeben.

  • 530 MB Nutzung bei ~300 FPS (Host)
    • Client-Vollbild im Host auf Bildschirm 1, Desktop im Leerlauf auf Bildschirm 2, keine VM läuft
  • 530 MB Nutzung bei ~305 FPS (Host)
    • Client-Vollbild im Host auf Bildschirm 1 und 2 (doppelter Bildschirm), keine VM läuft
  • 482 MB Nutzung bei ~330 FPS (Host)
    • Client-Vollbild im Host auf Bildschirm 1, zweiter Bildschirm aus, keine VM ausgeführt
  • 482 MB Nutzung bei ~330 FPS (Host)
    • Client-Vollbild im Host auf Bildschirm 1, zweiter Bildschirm aus, keine VM ausgeführt
  • 480 MB Nutzung bei ~430 FPS (Host)
    • Client-Vollbild im Host auf Bildschirm 1, zweiter Bildschirm im Leerlauf, beide 800x600, keine VM ausgeführt
  • 547 MB ​​Nutzung bei ~250 FPS (Host)
    • Client-Vollbild im Host auf Bildschirm 1, VM-Desktop im Leerlauf auf Bildschirm 2
  • 408 MB Nutzung bei ~70 FPS (VM)
    • Client-Vollbild in VM auf Bildschirm 2, Host-Desktop im Leerlauf auf Bildschirm 1
    • FPS begann um 60, fiel dann langsam auf 45 und stieg dann auf 81, nachdem alle Chunks geholt wurden
  • 803-805 MB Nutzung bei ~200 FPS (Host), bei ~50 FPS (VM)
    • Client-Vollbild in Host auf Bildschirm 1, Client-Vollbild in VM auf Bildschirm 2

-- Beachten Sie, dass MC viel zwischenspeichert und unterschiedliche Szenen zu unterschiedlichen Mengen an VRAM-Nutzung führen. Obwohl ich eine komplexe Szene mit viel Feuer und vielen sich bewegenden Kolben gewählt habe, ist dies immer noch ein nahezu 'Best-Case'-Szenario, wie es beim Umschauen der Fall ist bewirken, dass viel mehr Dinge geholt, zwischengespeichert und vor allem neu gezeichnet werden, da sich der gesamte Bildschirm ändert und nicht nur einige Teile. Dies bedeutet jedoch nicht, dass MC seinen Cache nicht löscht, wenn es erforderlich ist. Sie können einen stetigen Anstieg des VRAM sehen, wenn weit entfernte Chunks gerendert werden, und es gab einen RIESIGEN Unterschied zwischen der Zeit, die die VM zum Laden von Blöcken benötigte, im Vergleich zum Hostsystem. Die Wiederherstellung der Framerate nach dem Laden von Chunks zeigt, dass zumindest für Minecraft mehr FPS beim Abrufen von Dingen verloren gehen, als sie tatsächlich anzuzeigen. Der letzte Test zeigte, dass der 'MultiplayerChunkCache' für dieses Setup 961 ist, und dann beginnt es, Dinge auszulagern, aber dies verhinderte nicht, dass der VRAM ansteigt. Dieses Caching kann auch erklären, warum es nach dem Umschalten auf eine kleinere Auflösung bei laufendem Client nicht zu einem signifikanten Rückgang des VRAMs kam.

-- In Bezug auf die Anzahl der verwendeten Pixel in Bezug auf die Leistung, wie von @Diogo vorgeschlagen, zeigen die ersten Durchläufe, dass die doppelte/halbe Pixelanzahl nicht der doppelten/halben Leistung entspricht. Mit FPS als Leistungsmaßstab wurden durch die Halbierung der Pixelanzahl nur etwa 10 % gewonnen, da der zweite Bildschirm nichts Schwieriges darstellte. Also habe ich meine Displays gespiegelt, und die VRAM-Nutzung hat sich nicht geändert, und die FPS haben sich geringfügig geändert. In den Tests, bei denen sowohl der Client auf dem Host als auch die VM läuft, haben weder der Host noch das Minecraft der VM 50% in FPS verloren, sondern nur um etwa 25%, trotz fortgeschrittenem Vollbild-Rendering auf beiden, also Pixelanzahl ist nicht wirklich eine nützliche Kennung in Leistung.


Der letzte Test:

Nun ... wie hoch kann ich VRAM bekommen?!

Nachdem ich viele Minuten auf meinem Server in Minecraft sowohl auf VM- als auch auf Host-Clients herumgewandert war, erreichte ich schließlich eine Auslastung von 1685 MB, als sich die Dinge einpendelten schwer. Nach vielen weiteren Minuten konnte ich 1869 MB erreichen, und dann war es würde nicht nachgeben. Sogar mit Kolben in alle Richtungen und feurigem Netherrack um mich herum. Selbst nach einer so HOHEN Speicherauslastung war das Spiel immer noch zu 100% auf dem Host UND der VM spielbar; ~233 bzw. ~52 FPS. Ich hatte es getan. Ich habe Minecraft angezapft. Zweimal. Auf der gleichen Maschine!

Also habe ich Skyrim gestartet. Als ich den MC-Client meines Hosts minimierte, fiel mein VRAM nur auf 1837 MB.

Draußen in den Ländern von Skyrim konnte ich insgesamt 2636 MB Nutzung erreichen, während das Minecraft der VM noch bei ~50 FPS lag. Ich habe die FPS von Skyrim nicht gemessen, aber sie war sichtbar hoch.

Verärgert darüber, dass ich nicht den Höhepunkt erreicht habe, habe ich Skyrim auf 2617 MB minimiert und Civ 5 geöffnet, das DX 11 verwendet computer is low on memory..." Fenster, das auf einen Java-Prozess (entweder Server oder Client) zeigte, mein System-RAM war jedoch nur 9,77 GB von 16. Ich lud mein gespeichertes Spiel und es hatte es geschafft! Ich habe mein Maximum von 3072 MB erreicht! Mein zweiter Bildschirm wurde leer, und mein erster Bildschirm begann wütend zu blinken und hatte eine reduzierte Auflösung. Aus Angst um meine Karte schaltete ich meinen PC schnell aus, aber nicht bevor ich einen Warndialog zu "Unreferenzierter Speicher bei 0x00..." sah still hoch auf beiden Bildschirmen.


Der Abschluss:

Wenn Sie es bis hierher geschafft haben, dann ein großes Lob fürs Lesen. Dies ist ein Umweg über die Dinge, aber das Problem, das @Solignis hat, ist unwahrscheinlich GPU- oder CPU-basiert, aber vielleicht eine schlechte Serververbindung oder unzureichende Java/Heap-Einstellungen. @Philippe und @libertas sind mit ihren Antworten auf dem richtigen Weg.

Die Minecraft-Tests, die in 800 x 600 und 1920 x 1080 ausgeführt wurden, zeigen, dass die Leistung trotz 432 % mehr Pixeln nicht in dieser Größenordnung beeinträchtigt wurde.

Der Minecraft-Test mit dupliziertem Bildschirm war eine Möglichkeit, einen größeren Bildschirm (zwei Bildschirme kombiniert) zu simulieren, jedoch mit der gleichen Auflösung, 1920 x 1080, nur mit mehr Bildschirmplatz. Abgesehen von einem anderen, größeren Bildschirm mit der gleichen Auflösung ist dies sehr schlüssig, um dies zu zeigen Größe allein beeinflusst die Spielleistung nicht merklich.

Die dualen Minecraft-Tests zeigen, dass das Rendern a Bild mit höherer Auflösung (zwei Bildschirme kombiniert) Wille Auswirkungen auf die Leistung haben, aber eine Verdoppelung des Bildes hat die Leistung nicht halbiert oder merklich verlangsamt. Dies impliziert, dass Sie in Minecraft bereits eine Langsamkeit erfahren würden, damit die geringe Auswirkung einer kleinen Vergrößerung das Spiel sehr langsam macht.

Der letzte Test war eine Möglichkeit, um zu sehen, ob es einen Zusammenhang zwischen VRAM-Verbrauch und Leistung gibt, und ich stellte fest, dass es keinen gab. Nun, das heißt, bis Sie Ihr maximales VRAM erreicht haben – dann geht Ihre Leistung sofort auf 0. Egal, wie viele Informationen die GPU verfolgt, es hat sich nicht merklich auf die Frameraten ausgewirkt. Ich habe auch ohne Zweifel bewiesen, dass 3 GB Videospeicher in der aktuellen Gaming-Generation ohne Zweifel absolut sinnlos sind, es sei denn, Sie planen, lächerliche Dinge wie das gleichzeitige Spielen mehrerer Spiele nebeneinander zu tun; Arbeitsspeicher ist eine praktisch nutzlose Spezifikation für eine GPU, und 1-1,5 GB werden jedem mehr als genug sein.

Minecraft war ein sehr gutes Programm für diese Tests, da es nur einen Satz von Texturen gibt, während große Spiele oft unterschiedlich große Texturen haben können, je nachdem, in welcher Auflösung sie ausgeführt werden, was verschiedene Variablen einführen würde, um die Tests zu verzerren. Ein Multiplayer-Spiel zu sein, war ein weiterer Segen, da ich in der Lage war, ein nahezu dupliziertes Bild zuverlässig zu rendern. Die Tatsache, dass Minecraft leicht genug ist, um in einer VM ausgeführt zu werden, war ein weiterer nützlicher Vorteil, sodass ich extreme Randfälle demonstrieren, zwei Vollbildanwendungen verwenden und endlich feststellen konnte, ob die "Videospeicher"-Einstellung von VirtualBox tatsächlich eingestellt ist eingeschränkt, wie viel Arbeitsspeicher eine VM auf ihrer Host-GPU verwenden kann.

Click to rate this post!
[Total: 0 Average: 0]



Anderer Beitrag

Scala jdk-Beispiel

Blazor mit Database First

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.