Frage:
Warum müssen die Frameraten von Videospielen so viel höher sein als die Frameraten von Fernsehen und Kino?
callum
2011-06-29 06:06:07 UTC
view on stackexchange narkive permalink

Es scheint, dass Videospiele ungefähr 60 Bilder pro Sekunde haben müssen, um flüssig und realistisch zu sein. Aber Fernsehen und Filme haben nur ungefähr 24 oder 25. Warum der Unterschied?

Filme haben 24-25, weil Hollywood uns dazu gebracht hat zu denken, dass 24-25 FPS "richtig" aussehen. Ich gehe davon aus, dass es ursprünglich eine Kostensenkungsmaßnahme (weniger Frames, weniger Kosten) war.
+1, weil sich herausstellt, dass dies ein wirklich interessantes Thema ist. Nachdem ich nach meiner Antwort gesucht hatte, suchte ich weiter, ob HDTV dies überhaupt beeinflusst hatte (ich erwartete eine höhere Bildrate aufgrund der höheren Qualität), aber es sieht so aus, als ob 24/25/30 die Norm ist. 60fps sind jedoch möglich. Wieder aus Wikipedia auf HDTV: http://en.wikipedia.org/wiki/High-definition_television - 720p60 und 1080p-60fps (letzteres scheint derzeit nicht verfügbar zu sein).
@Strix Ich dachte, es wäre in meiner Antwort klar, aber der Grund, warum Spiele 60 fps verwenden, ist, dass sie ursprünglich für das Fernsehen entwickelt wurden (60 fps Bildwiederholfrequenz).
Meta-Thema: http://meta.gaming.stackexchange.com/questions/2466/is-this-question-about-the-history-of-cinema-and-game-console-design-decisions-on
Ich werde entschieden gegen die Migration zu GameDev stimmen. Dies ist keine Frage, die für Entwickler von Interesse ist - es ist einfach eine, die ein Entwickler am besten beantworten kann. Das macht es dort nicht besser als [diese Frage] (http://travel.stackexchange.com/questions/448/are-there-cheap-gps-navigator-devices-with-downloadable-maps) -für-die-ganze-Welt) von Travel.SE würde zu GIS.se passen. Stimmen Sie ab, um es offen oder geschlossen zu halten, aber Migration ist, IMO, ein Nichtstarter. (Für das, was es wert ist, ist meine Stimme, es offen zu halten. Es ist interessant, verantwortungsbewusst, erfordert Fachwissen und themenbezogen.)
Ich stimme @LessPop_MoreFizz zu. Dies ist eine Frage, die wahrscheinlich für jeden Spieler von Interesse ist, der sich um Frameraten kümmert.
Sollte der Unterschied zwischen LCD- und CRT-Monitoren erwähnt werden?d.h. sowohl CRTs als auch alte Fernsehgeräte leiden unter dem Nachlichteffekt der Fluoreszenz (Verzeihung, wenn ich falsch übersetzt habe)
Neun antworten:
#1
+187
DuckMaestro
2011-06-29 23:49:15 UTC
view on stackexchange narkive permalink

Zwei Gründe:

1. Reaktionsfähigkeit der Eingabe

Es gibt einen großen Unterschied im Spielgefühl, wenn die Antwort von & nur 24-mal pro Sekunde und 60-mal pro Sekunde erfolgt, insbesondere bei schnellen Spielen wie Ego-Shootern.

Netzwerkpuffer und Eingabepuffer werden in separaten Threads gefüllt. Dies bedeutet, dass der neue Status vom Spielserver oder das Drücken von Tasten von Ihrem Gamepad bis zur nächsten Iteration in der Spiel-Engine warten muss "Update-Schleife". Diese Wartezeit kann bei 24 Aktualisierungen pro Sekunde bis zu 42 ms betragen, bei 60 Aktualisierungen pro Sekunde nur 16 ms. Das ist ein Unterschied von 26 ms oder ungefähr 25% der "Verzögerung", die wir bei einer 150-ms-Serververbindung gegenüber einer 50-ms-Serververbindung feststellen.

+1 für die Reaktionsfähigkeit der Eingabe. Sie bemerken das "Stottern" in 24 Bildern pro Sekunde nicht, weil Sie den Filmcharakter nicht steuern.
Danke für die Abstimmung. Ich würde hinzufügen, dass Bewegungsunschärfe (oder das Fehlen von) auch dann eine Rolle spielt, wenn keine Eingabe erforderlich ist. Zum Beispiel würde das Anschauen einer Demo- oder Benchmark-Szene (bei der der Benutzer keine Eingabe hat) mit 24 FPS tatsächlich etwas abgehackt aussehen, ohne dass Bewegungsunschärfe auftritt.
Dies setzt voraus, dass das Spiel nur Eingaben entgegennimmt, wenn der Frame aktualisiert wird. Das ist nicht der Fall. Die Eingabe wird immer gemeldet, jedoch stimme ich der Bewegungsunschärfe zu.
@GQCK, jedoch werden Eingaben normalerweise gepuffert und nicht sofort von der Spielelogik verarbeitet (aufgrund von Threading). Das ist jedoch wirklich nebensächlich. Sie könnten Eingaben 200 Mal pro Frame verarbeiten, aber wenn Sie den Bildschirm nur 20 Mal pro Sekunde aktualisieren, erfährt der Benutzer nur eine Reaktionszeit von 20 Mal pro Sekunde, und genau darum geht es bei Punkt 1.
Der Kommentar des eingebetteten Videos ist falsch. Der Unterschied zwischen 30 und 20 ist deutlich zu erkennen, geschweige denn zwischen 30 und 10. Die Menschen und Autos bewegen sich abgehackter. Der Kommentator sagt, dass es nur minimale Unterschiede gibt, aber bei diesen niedrigen Frameraten gibt es * signifikante * Unterschiede. 30 bis 60 bis 100 wäre eine andere Geschichte.
Ich hasse es jedes Mal, wenn mich jemand zu dieser Frage zurückzieht ... Jemand hat dies heute mit mir zur Diskussion gestellt, und ich fühlte mich gezwungen, zwei Beweise zu liefern: 1. Die visuelle Reaktionszeit des Menschen liegt im Bereich von 100 bis 140 ms. Zusätzliche Frames im Bereich unter 100 ms sind erkennbar, aber allein vermitteln sie Informationen nicht schnell genug für starke Reaktionen (obwohl sie davon profitieren können). Infolgedessen sehen wir einen starken Rückgang des Nutzens für Frames über 30 fps. [Quelle] (http://preview.tinyurl.com/75a9sp4). Während der erste Punkt, den dieser Beitrag macht, nicht falsch ist, übertreibt er den Effekt
Außerdem ist der Vergleich zwischen Netzwerkübertragung und Frame-Inter-Arrival nicht korrekt. Die richtige Gleichung lautet (a-b) / ((a + b) / 2)), nicht (a-b). Darüber hinaus ist eine Verzögerung von 100 ms für die Datenübertragung nicht mit einer Verzögerung von 24 ms für die Frame-Inter-Arrival-Zeit vergleichbar. 2. Moderne Videospiele bieten physikalisch genaue (zu einem LoD) Bewegungsunschärfen durch [Pixel-Shader] (http://http.developer.nvidia.com/GPUGems3/gpugems3_ch27.html). Der zweite Punkt in diesem Beitrag ist ungenau: "Bewegung wird im Rendering-Frame aufgezeichnet."
@tzenes bezüglich Ihres ersten Kommentars bin ich mir nicht sicher, wie das als direkte Antwort auf meinen ersten Punkt ist. Mein erster Punkt betrifft die spielinterne Latenz (und die Client-Server-Funktionsweise). Jede Latenz in der Humanbiologie, unabhängig von der Zahl, muss noch zu der internen Latenz hinzugefügt werden, die der Game Engine und der Client-Server-Verbindung innewohnt.
@tzenes in Bezug auf Ihren zweiten Kommentar, können Sie näher erläutern, wie Sie Ihre Formel ableiten und worauf Sie sie in meinem Beispiel anwenden? In Bezug auf "Was mehr ist eine Verzögerung von 100 ms für die Datenübertragung ist nicht vergleichbar mit einer Verzögerung von 24 ms", mache ich die Beziehung deutlich, indem ich sie als ungefähr 25% der Verzögerung charakterisiere [...]. Und schließlich liefern moderne Videospiele im Allgemeinen immer noch keine physikalisch genaue Bewegungsunschärfe (weil die Auszahlung die GPU-Zyklen nicht wert ist) - obwohl es letztendlich eine Frage der Zeit ist, nehme ich an.
@Duck Der Vergleich von 100 ms Übertragungslatenz mit 26 ms Frame-Interarrival-Zeit ist kein gültiger Vergleich. Es sind nicht 26% des menschlichen visuellen Systems. Eine Netzwerklatenz von 150 ms kann zu visuellen Verzögerungen von mehr als 300 ms führen, da das Spiel Position und Drift zwischen der Server- / Client-Positionierung interpoliert. Der Vergleich dieser beiden Werte kann irreführend sein.
@Duck Wenn Sie zwei zyklische Prozesse haben, addieren Sie nicht einfach deren Zykluszeit, um die zugrunde liegende Periodizität (dh Latenz) zu bestimmen. Die inhärente Verzögerung im menschlichen Antwortsystem wird die Verzögerung übertreffen, die durch die Zeit zwischen den Ankünften verursacht wird. Dies ist der Grund, warum wir einen so starken Leistungsabfall über der 15-fps-Marke sehen (und warum der Großteil des Nutzens vor 30 fps liegt). Während zusätzliche Frames Informationen enthalten, müssen diese in Antwortzeiten zusammengefasst werden.
@Duck Schließlich haben moderne Spiele Bewegungsunschärfe. Pixel-Shader (im Vergleich zu Vektor-Shadern) sind auf modernen GPUs billig. Eine Bewegungsunschärfe ist so billig, dass sie das Spiel nicht beeinträchtigt. Der Grund, warum die meisten Spiele sie nur für Filmzwecke verwenden, ist, dass Sie feststellen, dass Bewegungsunschärfe tatsächlich Menschen stört (dh im Übermaß kann es Übelkeit verursachen). Gilham'06.
Vielleicht wäre es am besten, wenn ich zusammenfassen würde: Moderne Videospiele haben Bewegungsunschärfe, und die Netzwerklatenz hat einen anderen Wahrnehmungseffekt als die Frame-Inter-Arrival-Zeit. Dies sind die beiden Punkte, die ich vorstellen möchte.
Zum Chat automatisch verschoben. [Fortsetzung dieser Diskussion im Chat] (http://chat.stackexchange.com/rooms/2135/discussion-between-duckmaestro-and-tzenes)
@MirceaChirea: Jeder kann leicht den Unterschied zwischen 30 fps und 60 fps erkennen, es gibt einen großen Unterschied in der Glätte, wenn sich etwas bewegt.Sogar 60 fps bis 100 fps sind ziemlich auffällig, wenn Sie sie nebeneinander zeigen _ (oder an Spiele mit mehr als 100 fps gewöhnt sind - nach Jahren des Spielens mit 144 Hz fällt mir Sub-100 Hz sofort auf) _.100fps bis 144fps sind viel subtiler.
@BlueRaja-DannyPflughoeft, Mein Kommentar stammt aus dem Jahr 2011. Damals gab es keine Monitore mit Bildwiederholfrequenzen über 60 Hz, jetzt sind 144 Hz sehr leicht zu finden.Es ist heute eine andere Geschichte :)
Die Fähigkeit von @MirceaChirea: Menschen, höhere Frameraten zu sehen, hat nichts mit der Verfügbarkeit von Monitoren zu tun ... _ (2011 gab es auch viele Monitore mit mehr als 120 Hz) _
@BlueRaja-DannyPflughoeft, hat * alles * mit Monitoren zu tun, da der Monitor diese Frames anzeigt.Wie sehen Sie mehr als 60 Bilder, wenn ein Monitor nicht mehr als 60 Bilder pro Sekunde anzeigen kann?Ach nein. Die Augen selbst haben keine "Bildraten" -Einschränkung.es ist nur der Monitor, der das tut.Bei sehr hohen Bildraten ist es vielleicht * schwer zu sagen *, aber das ist anders. Und nein, im Jahr 2011 waren 120-Hz-Monitore nicht ausreichend, bei weitem nicht so häufig wie heute.Sie könnten in * einigen * Teilen der Welt erhältlich gewesen sein, aber sicherlich nicht überall für spottbillige wie heute.
@MirceaChirea: Ich habe keine Ahnung, was Sie sagen wollen.Ob Menschen die Fähigkeit haben, 30 Hz von höheren Hz zu unterscheiden oder nicht, hat absolut nichts damit zu tun, "wie leicht verfügbar sind Monitore mit höheren Hertz?"
@BlueRaja-DannyPflughoeft, habe ich nie gesagt, dass Menschen nicht über 30, 60, 100 oder welche FPS unterscheiden können - Sie haben das eingebracht. Mein Punkt ist, dass es 2011, als ich meinen ursprünglichen Kommentar machte, keine Monitore mit hoher Bildrate (oder Fernseher) gab.Daher gab es wenig Nutzen von höheren FPS, insbesondere in Filmen.Ja, 60 ist besser als 30, also 144 als 60, aber für die meisten Menschen wird es * schwierig, den Unterschied * zu erkennen.60 bis 144 oder 30 bis 60 sind viel weniger auffällig als 10/20 bis 60, wie das Video in der Antwort behauptet.Das Video behauptet, dass 10 FPS gleich 30 FPS sind, was absolut falsch ist.
#2
+144
tzenes
2011-06-29 08:15:50 UTC
view on stackexchange narkive permalink

Ich denke, hier fehlt ein Stück Geschichte. Erlauben Sie mir also, es auszufüllen.

Wenn Sie 60fps vs 24fps googeln, werden Sie Finde endlose Fäden von Menschen, die fragen, was der Unterschied ist. Die meisten Leute werden Ihnen sagen, dass 24fps seit den 20er Jahren der Standard ist, aber es gibt kaum eine Erklärung dafür, warum.

Wenn wir tatsächlich auf die Erstellung von Filmen zurückblicken, werden Sie feststellen, dass 24fps nicht immer der Standard waren Standard. Edison selbst empfahl ursprünglich 48 fps und sagte: "Alles andere wird das Auge belasten." Edison-Filme folgten jedoch weder diesem Standard noch schienen sie überhaupt standardisiert zu sein (wobei einzelne Filme im Verlauf des Films eine Variation von mehr als 10 fps aufwiesen). American Mutoscope, einer der Rivalen von Edison, verwendete tatsächlich 40 Bilder pro Sekunde, aber die resultierende Kamera wog fast eine Tonne.

Diese schnell gefilmten Filme verbrauchten jedoch zu viel Film (ein Luxus zu dieser Zeit) und um Victor Milners Zeit war der Standard 16 fps. Mehr als praktische Überlegungen kritisierten viele Filmfans Filme, die schneller als 16 fps waren, als "zu schnell". Die Geburt einer Nation wurde zum Beispiel in einigen Abschnitten so langsam wie 12 fps.

Das Hauptproblem in der Zeit zwischen 1910 und 1920 war, dass die Filmempfindlichkeit so stark variierte. Selbst für einen einzelnen Filmographen variierten die Bildraten zwischen den Filmen. Mitte der 20er Jahre hatten Kameramänner begonnen, stolz auf ihre gleichmäßige Geschwindigkeit zu sein und in der Lage zu sein, ungefähr 16 Bilder pro Sekunde zu erreichen (was sie normalerweise in Fuß Film messen). Inzwischen forderten die Theater immer schnellere Geschwindigkeiten. Während 16 fps in einem überfüllten Theater (oder einem kleinen) professioneller ausgesehen haben mögen, schien das Publikum den Film mit 24 Bildern pro Sekunde besser erkennen zu können.

Als Annapolis 1928 gedreht wurde, gab das Studio 24 Bilder pro Sekunde vor. Während viele Filmteams das häufigere Nachladen der Kamera nicht schätzten (16 Bilder pro Sekunde entsprechen etwa 1.000 Fuß in 16 Minuten). Als motorisierte Kameras üblich wurden, waren 24 Bilder de facto zum Standard geworden.

Es ist wichtig zu beachten, dass dies weder eine technische noch (häufig) eine finanzielle Einschränkung war. Es war das Endergebnis zweier gegensätzlicher Kräfte (Kamerateams und Schauspieler gegen Studios und Theater), die eine unterschiedliche Geschwindigkeit wünschten.

Warum also nicht 60?

Es ist erwähnenswert, dass viele Fernseher ( zB NTSC) verwenden 59,94 Bilder pro Sekunde (60 Hz / 1,001), um das Interlacing zu zählen. Wenn Sie Interlacing rabattieren, sind es 29,97 fps. Dies hat damit zu tun, wie das Interlacing tatsächlich implementiert wird (insbesondere um Schläge zu entfernen, die auf 60-Hz-Stromquellen in den USA basieren). Ursprünglich wählten sie 60 fps, um sie an die Stromquelle anzupassen, aber dies führt tatsächlich zu einer Intermodulation (Schlagen), die als Flackern erscheint.

Es gibt einige Hinweise, die darauf hindeuten, dass die Sehschärfe des Menschen abnimmt scharf nach ungefähr 30 Bildern pro Sekunde, obwohl die meisten Menschen immer noch Diskontinuitäten in der Bewegungsillusion bis zu 60-75 Bildern pro Sekunde erkennen können. Darüber hinaus gibt es eine große Bibliothek von Beweisen dafür, dass das menschliche Auge Jitter über 300 Bilder pro Sekunde erkennen kann (Steinmetz 1996). Es ist also eine anständige Frage, warum nicht 60? 60fps selbst ist ein Artefakt unterschiedlicher Technologie (Fernsehen mit 30 Bildern pro Sekunde und Interlacing-Bildern).

Ok, wir wurden zu 60 fps gezwungen. Warum sollten wir unseren 24 fps-Standard beibehalten?

Als das Erstellen von Heimvideos zum ersten Mal in Betracht gezogen wurde (lesen Sie VCR-Camcorder, mein Vater hatte jahrelang einen, das Ding nahm tatsächlich ein VCR-Band und schrieb darauf), wurden sie für die TV-Produktion optimiert (dh 60 fps). Infolgedessen hatten Heimvideos eine weitaus bessere Bildrate als Standardfilme. Leider wurde dies schnell mit der Amateurproduktion in Verbindung gebracht (was die meisten Heimvideos waren). Betrachten Sie Filme, in denen ein Film mit einer Handkamera aufgenommen wurde. Die meisten Leute können die viel schnellere Rate sofort erkennen, aber überraschender ist, dass die meisten Leute Ihnen sagen, dass sie von geringerer Qualität ist.

Die Wahrheit ist, wir denken, dass 24 fps besser aussehen, weil wir darauf trainiert wurden.

Eine Reihe von Direktoren haben versucht, sich von 24 fps zu lösen (Peter Jackson schießt mit 48) James Cameron (60), aber fast immer sind sie gezwungen, diese Filme nach dem alten Standard zu zeigen. Die Leute denken einfach, dass es besser aussieht. Filmgeschwindigkeit (wie viele andere Dinge) ist ein soziales Phänomen.

Ein kleiner zusätzlicher Punkt sind die Ressourcen - eine höhere Framerate würde mehr Speicherplatz zum Speichern und ein schnellerer Prozessor zum Dekodieren erfordern.
Nicht, dass ich dir nicht vertraue, Zehntel, aber ich denke, diese Antwort braucht mehr Quellen. Das sind sehr viele Behauptungen.
-1. Benötigt mehr Quellen, und ich bin nicht von der Relevanz einiger Behauptungen überzeugt.
Ich habe nicht das Gefühl, dass dies die Frage überhaupt beantwortet, ehrlich gesagt.
Ich denke nicht, dass das bisschen über Videorecorder (zum Beispiel) und 60 fps überhaupt genau ist. NTSC ist interlaced. Es gibt eine ungefähre 60-Hz-Aktualisierung, die für den nordamerikanischen Wandstromzyklus bei 60 Hz geplant ist, aber das NTSC-Video ist ~ 29 fps
@haratio, sind 59,94 Bilder pro Sekunde (60 Hz / 1,001), die das Interlacing zählen. Wenn Sie Interlacing rabattieren, sind es 29,97 fps. Dies hat damit zu tun, wie das Interlacing tatsächlich implementiert wird (insbesondere um Schläge zu entfernen, die auf 60-Hz-Stromquellen in den USA basieren). Ursprünglich wählten sie 60 fps, um sie an die Stromquelle anzupassen, aber dies verursacht tatsächlich eine Intermodulation (Schlagen), die als Flackern erscheint.
@Blue, Ich kann definitiv mehr Quellen hinzufügen, wo Sie sie wollen. Ein Teil des Problems, das ich mit dieser Frage hatte, ist, dass es eine RIESIGE Menge an Informationen gibt, um die Frage zu beantworten, warum Kino und Fernsehen unterschiedlich sind. Wenn Sie hervorgehoben haben, wo Sie diese Informationen haben möchten, kann ich sie möglicherweise bereitstellen.
@Billare, Die ursprüngliche Frage lautet: "Warum unterscheiden sich Kino und Fernsehen (von Videospielen)?" Der Grund, den ich gebe, ist, dass das Kino aus historischen Gründen 24 fps und das Fernsehen aus Interlacing-Gründen 60 fps verwendet. Videospiele wurden im Fernsehen modelliert und verwenden daher 60 fps (obwohl nicht interlaced, sind sie einzigartige Frames). Der Grund, warum ich eine lange Erklärung der Geschichte geschrieben habe, ist, dass die Unterschiede alle historisch sind.
Ich stimme allen Kritikpunkten dieser Antwort zu; Es ist größtenteils nicht aus Quellen bezogen und geht meistens nicht auf die ursprüngliche Frage ein, bei der es um * Spiele * und 60 fps ging, nicht um das allgemeine Thema von 60 fps gegenüber 24 fps in Filmen.
@Jeff Ich habe wenig Lust, wieder in dieses Gespräch hineingezogen zu werden. Ich denke nicht wirklich, dass die ursprüngliche Frage für diese Seite angemessen war. Ich habe eine Reihe von Quellen für meine Behauptungen angegeben, wenn Sie der Meinung sind, dass es einen Ort gibt, der zusätzliche Zitate benötigt. Ich könnte wahrscheinlich mehr für Sie herausfinden, aber die Realität ist, dass Spiele mit 60 fps nichts Besonderes sind (in der Tat viele Spiele) nicht mit 60fps laufen); Es ist eine Benchmark, die von einem anderen Medium gehalten wird. Allgemein, aber nicht standardisiert.
Der Titel der Frage lautet: "Warum müssen die Frameraten von Videospielen so viel höher sein als die Frameraten von Fernsehen und Kino?" und kümmert sich nicht wirklich um 60fps. Ich denke, die Antworten unter dieser Frage beantworten tatsächlich die Frage, während diese eine Frage beantwortet, die nicht gestellt wurde - über die historischen Änderungen der Bildraten von Film und Video (Videorecorder usw.). Es ist keineswegs eine schlechte Antwort, aber es beantwortet die gestellte Frage wirklich nicht.
@Jeff, Ich denke, die Antwort, die ich zu geben versuchte (und vielleicht war ich nicht explizit genug), lautet: a) sie müssen nicht sein und b) sie sind aus historischen Gründen. Machen wir hier jedoch einen Schritt zurück. Welche Bedürfnisse werden in dieser Frage angesprochen? Wird es jemandem helfen, Level 5-3 von Angry Birds zu überwinden, wenn der Grund für 60fps X ist? Ich denke, diese Frage ist größtenteils eine Frage der Neugier: "Ich bin neugierig, warum ...", eher eine Frage der Notwendigkeit. Auf diese Weise ist es * -rec sehr ähnlich. Vielleicht hätte ich nicht versuchen sollen, es zu beantworten, sondern stattdessen versuchen sollen, es zu schließen.
@tzenes ist relevant, da 24fps in jeder Art von Spiel, in dem Sie eine schnelle Reaktion benötigen (FPS usw.), so gut wie nicht spielbar sind und Filme mit dieser Framerate in Ordnung zu sein scheinen. Die gesamte FPS-Debatte findet zig Mal im Jahr statt, und es muss eine kanonische Antwort geben.
@Jeff Wenn 24 fps nicht spielbar sind, warum haben sich dann die frühesten FPS bei 6 fps gut geschlagen? In Claypools Artikel (2006) zeigte er, dass die Leistungssteigerung im Bereich von 30 fps bis 60 fps weitgehend minimal war. Selbst bei 15 fps konnten die Testpersonen eine Effizienz von 70% aufrechterhalten. Darüber hinaus war die Wahrnehmung des Subjekts für die Auswirkung bei> 15 fps winzig. Das Thema, ob höhere fps vorteilhaft sind oder nicht, unterscheidet sich jedoch von "Warum 60 fps über 24 fps?" Eines ist eine Frage der Forschung, das andere eine historische Tatsache.
#3
+59
James Skemp
2011-06-29 06:27:33 UTC
view on stackexchange narkive permalink

Ich hasse es, den Wikipedia-Eintrag für die Bildrate zu zitieren, aber es macht Sinn:

In modernen aktionsorientierten Spielen, in denen Spieler animierte Objekte und visuell verfolgen müssen Reagieren Sie schnell, Bildraten zwischen 30 und 60 FPS werden von den meisten als akzeptabel angesehen, obwohl dies von Spiel zu Spiel erheblich variieren kann.

Das Ansehen von Film und Fernsehen ist eine äußerst passive Aktivität.

Das Spielen eines Videospiels erfordert andererseits eine aktive Teilnahme.

Dann haben Sie jedoch Wie viele Frames können die Menschen sehen?, die darauf hinweisen, dass die Das eigentliche Problem ist die Bewegungsunschärfe.

Wenn Sie Ihre sich bewegende Hand sehr klar und scharf sehen konnten, musste Ihr Auge mehr Schnappschüsse davon machen, damit sie flüssig aussieht. Wenn Sie einen Film mit 50 sehr scharfen und gestochen scharfen Bildern pro Sekunde hätten, würde Ihr Auge von Zeit zu Zeit viele Details erkennen und Sie hätten das Gefühl, dass der Film stottert.

Denken Sie nur an modern Spiele: Hast du jemals Quake mit 18fps gespielt? In diesen Spielen gibt es keine Bewegungsunschärfe, daher benötigen Sie viele Bilder pro Sekunde mehr.

Wollen Sie damit sagen, dass eine niedrigere Framerate besser aussieht, wenn Bewegungsunschärfe vorliegt? Wenn ja, frage ich mich, ob Game-Engines dies ausnutzen und Bewegungsunschärfe anwenden, damit sich die Spiele realistischer (oder zumindest filmähnlicher) anfühlen, und mit welchen Ergebnissen!
Nun, besser definieren :) Es klingt so, als würde es für das menschliche Auge * flüssiger * aussehen, aber ich bin mir nicht sicher, ob die Qualität stimmt. Aus demselben Wikipedia-Eintrag oben: "Ohne realistische Bewegungsunschärfe sehen Videospiele und Computeranimationen selbst bei einer höheren Bildrate nicht so flüssig aus wie Filme. Wenn ein sich schnell bewegendes Objekt in zwei aufeinanderfolgenden Bildern vorhanden ist, entsteht eine Lücke zwischen den Bildern auf den beiden Bildern trägt zu einer spürbaren Trennung des Objekts und seines Nachbilds im Auge bei. Bewegungsunschärfe mildert diesen Effekt, da sie dazu neigt, die Bildlücke zu verringern, wenn die beiden Bilder aneinandergereiht werden. "
@Wikiwocket; Ja - Crysis hatte eine ausgezeichnete Bewegungsunschärfe auf dem Bildschirm und es zeigte sich. Die Framerate sank erheblich, aber solange Sie eine Framerate aufrechterhalten konnten, die hoch genug war, damit die ** Eingabe ** glatt war, fühlte sich das resultierende Bild glatter an.
Ein bisschen abseits des Themas: Ich finde die Art und Weise, wie Motion Blur in heutigen Spielen implementiert wird, völlig nutzlos und störend für das Auge. Wir drehen nicht immer den Kopf, während wir die Augen fixiert halten: Meistens wählt das Auge zuerst einen Punkt, dann folgt der Kopf diesem Punkt, um den Nackenmuskel zu entlasten. In diesem Fall sehen Sie keine Unschärfe alles. In Spielen wurde es zu einer billigen Taktik, GPU-Berechnungen einzusparen.
@Wikiwocket Ein weiteres Spiel, das Bewegungsunschärfe implementiert, ist Resistance 3. Es wurde für mehrere Spiele im Sprint verwendet. Geht einfach unbemerkt
@Jeff, Ich würde diesem Video nicht vertrauen. Wenn Sie bei: 28 pausieren und sich das 30-FPS-Beispiel ansehen, sieht die natürliche Bewegungsunschärfe überhaupt nicht so aus (beachten Sie, dass 4 Bilder überlagert sind und nicht eine kontinuierliche Unschärfe - dies bedeutet 4 verschiedene Belichtungen bei geöffnetem Verschluss / nahe beieinander - etwas Verrücktes bei der Bearbeitung oder Nachbearbeitung).
Obwohl ich es zu schätzen weiß, dass Jeff Atwood meine Antwort basierend auf der Antwort von @DuckMaestro's ergänzt hat, bin ich versucht, die Bearbeitung zurückzusetzen, zumal Ducks Antwort jetzt ein Video enthält.
#4
+13
user10783
2011-06-30 09:48:52 UTC
view on stackexchange narkive permalink

Ich bin kein Experte auf diesem Gebiet, aber aus diesem Grund ist es für mich sinnvoll, dass reale Aufnahmen mit weniger Bildern pro Sekunde als Animationen ausgeführt werden können, während sie dennoch eine höhere Qualität aufweisen: Ein animierter Frame zeigt einen einzelnen Moment in der Zeit Ein aufgenommenes Bild zeigt ein kleines Zeitintervall. Dies ist nicht dasselbe wie nur Teile des Bildes mit Bewegung darin zu verwischen.

Dies ist der Grund: Angenommen, das Zeitintervall, das Sie in einem aufgezeichneten Bild erhalten, beträgt 1 Millisekunde, und das Universum läuft mit, Sagen wir 1 Milliarde fps (die tatsächliche Zahl ist die Planck-Zeit, aber lassen Sie uns nicht abschweifen). Dann ist der aufgezeichnete Rahmen der Durchschnitt von 1 Million Zeitpunkten, so dass der 1 Rahmen tatsächlich auf einer enormen Menge an Informationen basiert. Im Gegensatz dazu enthält der animierte Frame nur die Informationen eines einzelnen Zeitpunkts. Stellen Sie sich das aufgenommene Bild also nicht als nur ein Bild vor, sondern als eine Zusammenfassung von einer Million Bildern.

Aus dieser Perspektive ist es sehr sinnvoll, dass die Animation mit einer höheren Bildrate als ausgeführt werden muss Aufnahmen müssen. Sie können den Effekt simulieren, indem Sie den Computer mit 1 Milliarde fps betreiben und diesen auf nur 24 fps mitteln. Ich bin mir sicher, dass 1 Milliarde fps für diesen Zweck übertrieben wäre, und es wäre interessant zu wissen, zu welchem ​​Zeitpunkt sinkende Renditen eintreten. Das könnte eine sehr niedrige Zahl wie 60 oder 100 sein.

So aufgezeichnet Frames sind unschärfer als animierte. Die Unschärfe in aufgezeichneten Frames enthält viele zusätzliche Informationen darüber, was zwischen Frames passiert, während durch Hinzufügen von Unschärfe zu einem animierten Frame Informationen entfernt werden. Dies ähnelt dem Unterschied zwischen Unschärfe und Anti-Aliasing, außer dass wir mit Zeit statt mit Raum arbeiten.

+1 für "Anti-Aliasing ... mit der Zeit" ist eine ausgezeichnete ultrakomprimierte Erklärung.
#5
+6
Rory Alsop
2011-06-29 13:30:59 UTC
view on stackexchange narkive permalink

Sie benötigen höhere Frameraten, da die Auflösung und Klarheit von Monitoren viel höher ist als bei TV und Kino, und Sie versuchen, winzige Bewegungen oder Details zu erkennen, die im Spiel möglicherweise kritisch sind.

Fernsehen und Kino haben versucht, sich auf Unschärfe zu verlassen, und für langsame Schwenks oder Gespräche funktioniert es einwandfrei, aber ein Segment mit dramatischer Action ist bereits ein Albtraum. Das Ruckeln / Verwischen hat Avatar für mich auf der großen Leinwand ruiniert.

Sie können ein Spiel nicht verwischen, wenn Sie die Klarheit und Detailgenauigkeit bieten möchten, die die Leute von einem Computer erwarten, also müssen Sie mehr Frames bereitstellen um die Illusion von Bewegung zu bewahren.

Auflösung und Klarheit eines Monitors sind höher als im Kino? Ich denke, es ist Zeit, dein Kino zu verändern!
Kinos sind immer ein Problem - die Bildwiederholfrequenz ist so abscheulich, dass ich sie, obwohl ich die Kinder zu mindestens einem Blockbuster pro Jahr bringe, in den modernsten Kinos nicht sehen kann.
#6
+6
undi
2011-07-11 23:17:59 UTC
view on stackexchange narkive permalink

Noch mehr als der Eingabeprozess und die Reaktionsfähigkeit sowie die Auflösungs- und Ad-hoc-Standards gibt es die Frameratenspitzen.

Ich habe mir Ihre Frage vor langer Zeit und zur persönlichen Forschung gestellt Ich fand diesen Grund einer der zuverlässigsten:

In Spielen kann eine plötzliche hohe Belastung der Prozessoren sofort und unvorhersehbar auftreten. Stellen Sie sich einen Hinterhalt in einem FPS vor: In einem Frame können plötzlich Dutzende von NPC-Modellen und IAs berechnet werden, Kugeln usw. Dies verursacht eines der nervigsten Dinge, denen Sie beim Spielen begegnen können: Diese Framerate sinkt und macht Ihr Spiel fast unspielbar . Unter Spitzenframeraten kann ein Finalist eines ganzen Teams in einem professionellen Turnier ruiniert werden.

Diese Frameratenspitzen treten möglicherweise nicht im Fernsehen oder in Filmen auf.

Kurz gesagt, mein Punkt ist: Es ist nicht der Standard mittlere Framerate, die für das Gameplay wichtig ist, noch die höchste der Spitzen, aber die möglichen Unter-Spitzen, die die Erfahrung ruinieren können.

#7
+6
M carter
2011-07-29 01:20:42 UTC
view on stackexchange narkive permalink

Zunächst einmal ging der Film aufgrund von Ton von 16 fps auf 24 fps. Der Ton konnte bei 16 fps nicht synchronisiert bleiben, daher mussten 24 fps zum Standard gemacht werden. 24 fps sind seitdem Standard und haben sich aus Kostengründen nicht geändert. Aber jetzt in der digitalen Welt könnte sich das ändern, aber Kameramänner glauben, dass 24 fps nur diesen "filmischen Look" haben. Einige Filmemacher ziehen höhere Bildraten für Filme in Betracht. Peter Jackson filmt den Hobbit mit 48 Bildern pro Sekunde. Da Filme jedoch mit 24 Bildern pro Sekunde wiedergegeben werden, gibt es nur bestimmte Kinos, die den Film mit 48 Bildern pro Sekunde wiedergeben können, um diese zusätzliche Qualität zu erzielen . Alle anderen Kinos spielen einen konvertierten Film ab, der die zusätzliche Qualität bei 48 fps nicht sehen kann. Wenn Sie etwas mit 48 fps und 24 fps wiedergeben, wird es doppelt so langsam wiedergegeben.

Höhere Bildraten ergeben also mehr Qualität, und im Fall von Computerspielen gibt es keinen 24-fps-Standard, der verhindert, dass sie mit höheren Raten ausgeführt werden. Wenn die Film- / Fernsehbranche auf ein neues Qualitätsniveau aufsteigen will, muss alles einem neuen Standard entsprechen, der mit einer höheren Bildrate aufgenommen und dann mit einer höheren Bildrate wiedergegeben wird.

#8
+2
Dillmo
2013-11-23 20:42:58 UTC
view on stackexchange narkive permalink

Dafür gibt es einen sehr guten Grund. Sie sehen, Filme sind Videos, also nehmen sie Videoraum ein. Dies bedeutet natürlich, dass längere Filme mehr Platz beanspruchen. Filme funktionieren jetzt so, dass sie als Frames gerendert und dann mit einer bestimmten Framerate abgespielt werden. Infolgedessen ist ein 30-fps-Film größer als ein vergleichbarer 20-fps-Film.

Da das menschliche Auge nicht wirklich zwischen Frameraten über 30 fps unterscheiden kann, ist es nicht sehr sinnvoll, einen Film zum Laufen zu bringen Niedrigere fps, weil es kleiner ist, schneller rendert und die Leute Probleme haben, den Unterschied zu erkennen.

Videospiele funktionieren jedoch anders. Sie werden in Echtzeit gerendert, sodass mehr fps nicht mehr Speicherplatz bedeuten. Daher ist es in Ordnung, ein Videospiel mit höheren fps auszuführen. Spieler rühmen sich auch gerne, dass sie höhere Bilder pro Sekunde als andere haben, obwohl es für sie schwierig ist, den Unterschied zu erkennen.

Während Filme niedrige Bilder pro Sekunde benötigen, haben Spiele tendenziell vergleichsweise hohe Bilder pro Sekunde. Schließlich betrifft es sie nicht wirklich, sodass sie es nicht einschränken müssen.

Sie haben Recht, aber nur in Ego-Spielen. Sie müssen den Charakter kontrollieren, um ihn zu realisieren, und an die höheren Frameraten gewöhnt sein. Menschen, die dazu neigen, 20 fps zu erreichen, haben Probleme, den Unterschied zu erkennen (abgesehen von den plötzlichen Stottern).
Entschuldigung, aber diese Antwort ist einfach falsch.
Mafu ist richtig - viele Spiele sind mit 30 fps nicht spielbar, aber mit 60 fps sind sie wunderbar.Es ist nicht "schwer, den Unterschied zu erkennen" - es ist der Unterschied zwischen dem Genießen eines Spiels und dem Nicht-Betrachten.
#9
-3
SiIverTongue
2014-03-22 19:19:15 UTC
view on stackexchange narkive permalink

Um viel einfacher darüber nachzudenken. Wenn es um Filme geht, ist es meistens Bild für Bild. Das heißt, in jedem Bild, das in eine Fernsehsendung oder einen Film eingefügt wird, etwas zu machen oder zu bearbeiten. Wenn Sie dies sagen, müssen die Animatoren in der Animation jedes einzelne Bild malen und detaillieren. Bei Frameraten können Sie jedoch möglicherweise sagen, dass bei der Animation 24 bis 25 Bilder pro Sekunde abgespielt werden. Da in der Animation jedoch Dinge pro Frame erstellt werden, wird jeder Fehler angezeigt. In diesen 25 Frames der Animation kann es also vorkommen, dass jemand in jedem Frame dasselbe noch einmal malt und sich dann beim 25. Frame ändert . Bei Spielen werden Dinge nicht wie Film oder Kino hergestellt oder gebaut, daher ist es in einigen Fällen anstelle von Frames nur ein einziges großes Durchspielen von Szenen oder Spielen. Und da es bei Spielen mehr Software und Code gibt, die darin enthalten sein müssen, müssen ... bestimmte Schritte unternommen werden, damit die Dinge reibungsloser laufen. In diesem Fall erhöhen Sie die Menge an FPS.

Das macht keinen Sinn.
Sie müssen nicht jedes einzelne Bild animieren, wenn Sie einen Film drehen.
"Wenn es um Filme geht, ist es meistens Bild für Bild".Und mit Film meine ich auch Animation ...
(Weil einige Dinge nur mit einer Kamera gefilmt werden oder Sie eine Animation kopieren und einfügen können)


Diese Fragen und Antworten wurden automatisch aus der englischen Sprache übersetzt.Der ursprüngliche Inhalt ist auf stackexchange verfügbar. Wir danken ihm für die cc by-sa 3.0-Lizenz, unter der er vertrieben wird.
Loading...