Videos: Graphichardware zur Decodierung nutzen
Videos: Graphichardware zur Decodierung nutzen
Hallo,
in meinem Laptop mit I7 Prozessor ist die HD Graphic 4600 sowie eine NVIDIA Gfotce GTX 880M verbaut (ASUS Gamer ROG). Standardmäßig nutze ich die 880M für mobjects. Wenn ich ein Video in die Timeline einfüge, ist standardmäßig das Häkchen für die Graphichardware zur Decodierung gesetzt (-> 880M). Das ist auch ok. Allerdings ist das Arbeiten in der Timeline deutlich verzögert, wenn ich den Locator verschiebe. Es dauert dann immer eine ganze Weile bis das richtige Bild in der Leinwand erscheint. Wenn ich das Häkchen entferne (-> Prozessor) erscheint das Bild an der geänderten Locatorstellung deutlich schneller. Die lange Wartezeit nervt.
Ich kann das nicht nachvollziehen, da ja die 880M eine sehr gute Performance hat und den Prozessor entlastet.
Gibt es dazu eine Idee woran das liegen kann? Liegt das vielleicht an irgend einer falschen Einstellung? Oder bringt diese Option nur was bei der Präsentation führt aber beim Erstellen der Show zu den Verzögerungen.
Gruß
Herby
in meinem Laptop mit I7 Prozessor ist die HD Graphic 4600 sowie eine NVIDIA Gfotce GTX 880M verbaut (ASUS Gamer ROG). Standardmäßig nutze ich die 880M für mobjects. Wenn ich ein Video in die Timeline einfüge, ist standardmäßig das Häkchen für die Graphichardware zur Decodierung gesetzt (-> 880M). Das ist auch ok. Allerdings ist das Arbeiten in der Timeline deutlich verzögert, wenn ich den Locator verschiebe. Es dauert dann immer eine ganze Weile bis das richtige Bild in der Leinwand erscheint. Wenn ich das Häkchen entferne (-> Prozessor) erscheint das Bild an der geänderten Locatorstellung deutlich schneller. Die lange Wartezeit nervt.
Ich kann das nicht nachvollziehen, da ja die 880M eine sehr gute Performance hat und den Prozessor entlastet.
Gibt es dazu eine Idee woran das liegen kann? Liegt das vielleicht an irgend einer falschen Einstellung? Oder bringt diese Option nur was bei der Präsentation führt aber beim Erstellen der Show zu den Verzögerungen.
Gruß
Herby
Re: Videos: Graphichardware zur Decodierung nutzen
Hallo, Herby,
ohne Kenntnis, welcher Codec (x264, h264, h263, avc etc,) bei dem Video verwendet wurde, ist eine Antwort schwierig.
GPUs können nur Videos mit bestimmten Codecs (beschleunigt) decodieren.
Da Du schreibst, daß die Arbeit in der Timeline schneller geht, wenn die CPU die Arbeit macht, ist meine Vermutung, daß die GPU Deine Videos nicht decodieren kann. Daher solltest Du es die CPU machen lassen.
Meine Erfahrung ist, daß das Encodieren/Decodieren qualitativ besser und meist auch schneller ist, wenn das die CPU erledigt.
Insbesondere wenn man eine potente i7-CPU hat.
Gruß
Stephan
ohne Kenntnis, welcher Codec (x264, h264, h263, avc etc,) bei dem Video verwendet wurde, ist eine Antwort schwierig.
GPUs können nur Videos mit bestimmten Codecs (beschleunigt) decodieren.
Da Du schreibst, daß die Arbeit in der Timeline schneller geht, wenn die CPU die Arbeit macht, ist meine Vermutung, daß die GPU Deine Videos nicht decodieren kann. Daher solltest Du es die CPU machen lassen.
Meine Erfahrung ist, daß das Encodieren/Decodieren qualitativ besser und meist auch schneller ist, wenn das die CPU erledigt.
Insbesondere wenn man eine potente i7-CPU hat.
Gruß
Stephan
-
- Beiträge: 1491
- Registriert: 23.06.02, 23:22
- Wohnort: Siegerland
Re: Videos: Graphichardware zur Decodierung nutzen
Hallo Herby,
hast Du die Möglichkeit die Leistung der Grafikchips den entsprechenden Anwendungen zuzuweisen,
bei meinem Laptop sieht das folgendermaßen aus,
vielleicht hilft das.
hast Du die Möglichkeit die Leistung der Grafikchips den entsprechenden Anwendungen zuzuweisen,
bei meinem Laptop sieht das folgendermaßen aus,
vielleicht hilft das.
Re: Videos: Graphichardware zur Decodierung nutzen
Hallo,
Danke für die Antworten. Meine Videos sind üblicherweise h264 Videos (MOV). Die Einstellungen der Graphickarte habe ich schon mal mit Herrn Richter online optimiert und ist auf max. Leistung bevorzugen eingestellt.
Solange der Prozessor nicht an seine Grenzen kommt (-->Taskmanager), werde ich ihn arbeiten lassen. Ich werde das mal an der Stelle prüfen, wo gleichzeitig 4 Videos laufen. Zum Präsentieren der Show kann ich ja auch eine Kopie der Show mit Graphikprozessor ausprobieren, falls der Prozessor an der Grenze hängt.
Viele Grüße
Herby
Danke für die Antworten. Meine Videos sind üblicherweise h264 Videos (MOV). Die Einstellungen der Graphickarte habe ich schon mal mit Herrn Richter online optimiert und ist auf max. Leistung bevorzugen eingestellt.
Solange der Prozessor nicht an seine Grenzen kommt (-->Taskmanager), werde ich ihn arbeiten lassen. Ich werde das mal an der Stelle prüfen, wo gleichzeitig 4 Videos laufen. Zum Präsentieren der Show kann ich ja auch eine Kopie der Show mit Graphikprozessor ausprobieren, falls der Prozessor an der Grenze hängt.
Viele Grüße
Herby
Re: Videos: Graphichardware zur Decodierung nutzen
Hallo Herby,
habe Shuttle PCs mit i7 CPU und AMD Radeon R9 380.
Die ganz normalen Camcorder-Panasonic Full HD-Videos ruckeln/zucken in der Präsentation leicht.
Wenn ich die Grafikhardware Decodierung auf aus einstelle, läuft es rund.
Ist also nicht nur bei dir der Fall. Scheint ein allgemeines M.objects-Problem zu sein. Eventuell muß Herr Richter bei der Funktion noch etwas nacharbeiten.
Anmerkung:
Mich würde interessieren, wie du 4 Videos gleichzeitig laufen läßt und warum ?
Solch eine Funktion bzw. welcher Effekt dabei heraus kommt ist mir nicht bekannt.
Gruß
1Ernie
habe Shuttle PCs mit i7 CPU und AMD Radeon R9 380.
Die ganz normalen Camcorder-Panasonic Full HD-Videos ruckeln/zucken in der Präsentation leicht.
Wenn ich die Grafikhardware Decodierung auf aus einstelle, läuft es rund.
Ist also nicht nur bei dir der Fall. Scheint ein allgemeines M.objects-Problem zu sein. Eventuell muß Herr Richter bei der Funktion noch etwas nacharbeiten.
Anmerkung:
Mich würde interessieren, wie du 4 Videos gleichzeitig laufen läßt und warum ?
Solch eine Funktion bzw. welcher Effekt dabei heraus kommt ist mir nicht bekannt.
Gruß
1Ernie
Re: Videos: Graphichardware zur Decodierung nutzen
Hallo Ernie,
vorab: Ich habe mit meinen Shows und meinen Videos keinerlei Probleme mit Ruckeln und Zuckeln. Weder auf dem Desktop http://gmgroeb.myqnapcloud.com/systeme- ... ryzen.html noch auf dem Laptop http://gmgroeb.myqnapcloud.com/systeme- ... -l430.html.
Dass jemand durchaus mal meherer Videos parallel "laufen lässt" kann ich nachvollziehen. Hier ein Beispiel / Auszug einer meiner Shows http://gmgroeb.myqnapcloud.com/meine-me ... amele.html, wobei ich konstatieren muss, dass der Panoramaschwenk im Internet-Video ruckelt, was aber bei der lokalen Präsentation des WMV-Videos nicht der Fall ist.
Gruß
Gerhard
vorab: Ich habe mit meinen Shows und meinen Videos keinerlei Probleme mit Ruckeln und Zuckeln. Weder auf dem Desktop http://gmgroeb.myqnapcloud.com/systeme- ... ryzen.html noch auf dem Laptop http://gmgroeb.myqnapcloud.com/systeme- ... -l430.html.
Dass jemand durchaus mal meherer Videos parallel "laufen lässt" kann ich nachvollziehen. Hier ein Beispiel / Auszug einer meiner Shows http://gmgroeb.myqnapcloud.com/meine-me ... amele.html, wobei ich konstatieren muss, dass der Panoramaschwenk im Internet-Video ruckelt, was aber bei der lokalen Präsentation des WMV-Videos nicht der Fall ist.
Gruß
Gerhard
m.objects pro, AGANDO (Ryzen 5 6x 3.6GHz, 16GB, GeForce GTX 1060), Lenovo ThinkPad L430 (i5, 8GB, Intel HD Graphics 4000)
www.gerhard-meissner.de
www.gerhard-meissner.de
-
- Site Admin
- Beiträge: 1284
- Registriert: 20.06.02, 15:27
- Wohnort: Münster (Westf.)
- Kontaktdaten:
Re: Videos: Graphichardware zur Decodierung nutzen
Liebe Videoschnitt-Poweruser,
vorab zwei Begriffe:
CPU: Central Processing Unit (Hauptprozessor) -> im Zusammenhang mit Software-basierter Videodecodierung verwendet
GPU: Graphics Processing Unit (Grafikprozessor) -> im Zusammenhang mit Hardware-basierter Videodecodierung verwendet
Die Hardware-Decodierung (GPU-basierte Decodierung) für Video kann nicht nur pro Video wahlweise abgeschaltet werden, sondern auch global in den Leinwandeinstellungen -> Echtzeit-Renderer. Ich empfehle, im Normalfall entweder die Einstellung "immer aus" für CPU-Decoding (Software-basierte Decodierung) oder "Standard" für aktiviertes GPU-Decoding zu wählen.
Wer sich nicht in der Tiefe mit technischen Überlegungen auseinandersetzen will, wählt am besten einfach die Einstellung, in der seine Videos sauber laufen -> fertig. Für Anwender, die etwas tiefer in die Materie eindringen wollen, sind die folgenden Erläuterungen sicher von Interesse.
Wenn die Hardware-Decodierung in den Leinwandeinstellungen auf "immer aus" eingestellt ist, spielt die Einstellung "Grafikhardware wenn möglich zur Decodierung nutzen" innerhalb der individuellen Videoeigenschaften keine Rolle, die GPU-Unterstützung ist dann immer deaktiviert.
Ob eine Aktivierung des Hardware-Decodings Vorteile bringt oder nicht, hängt davon ab, ob die Grafikkarte im Bezug auf die Decodierung eine höhere Rechenleistung bietet als die CPU. Pauschal kann man davon ausgehen, dass das bei vielen aktuellen Performance-Grafikkarten der Fall ist, insbesondere natürlich, wenn dazu eine langsamere CPU verbaut ist. Wenn Sie jedoch die Feststellung machen, dass Videos auf Ihrem PC per CPU flüssiger laufen als per Grafikkarte (GPU), dann ist das also eindeutig nicht der Fall. Hier sollte dann für das Hardware-Decoding von Videos in den Leinwandeinstellungen "immer aus" gewählt werden.
Sichtbare Unterschiede im Bezug auf die Bildqualität darf es in keinem Fall geben, sofern die Grafikkarte geeignet und der Treiber auf dem aktuellen Stand ist.
Spätestens, wenn Sie anspruchsvolles H.265-Video (HEVC) aus modernen Kameras in 4K-Auflösung auf der Timeline von m.objects verwenden wollen, führt an einer aktuellen Grafikkarte und aktiviertem GPU-Decoding kein Weg vorbei. Selbst die schnellste aktuelle CPU liefert für die Wiedergabe solchen Materials nicht genügend Leistung. Mit einer NVidia GTX1060 oder höher kann problemlos HEVC 2160/60p - 10Bit ruckelfrei wiedergegeben werden. Übrigens eine Fähigkeit, die ein Alleinstellungsmerkmal in m.objects darstellt.
Für besonders Technik-Interessierte: Wenn Sie sich einen Überblick verschaffen wollen, wie gut CPU vs. GPU in Ihrer Maschine für die Decodierung geeignet sind, sollten Sie den Task Manager und ein Tool wie z.B. GPU-Z verwenden. Bei CPU-basierter Decodierung zeigt die CPU-Auslastung des Prozesses "directAV Screen" im Task Manager bei laufendem Video die Rechenlast, bei HW-Decodierung ist es z.B. der Eintrag "Video Engine Load" unter "Sensors" innerhalb von GPU-Z.
Wenn Sie mehrere Videos zugleich wiedergeben wollen (und sei es "nur" während einer Überblendung von einem auf ein anderes) und Ihr PC erst in diesem Moment seine Grenzen aufzeigen sollte, der CPU- oder GPU-Leistungsbedarf also oberhalb von 85% liegt, können Sie sogar das eine Video CPU-basiert und das andere GPU-basiert decodieren lassen, wodurch sich die Rechenlast entsprechend verteilt und auch auf relativ langsamen PCs eine ruckelfreie Wiedergabe solcher Passagen möglich sein kann.
Aber noch einmal: Wenn alles rund läuft, gibt es keinen Grund für eine Änderung der Konfiguration. Ist das nicht der Fall, schlage ich vor, zwischen "immer aus" und "Standard" für das Hardware-Decoding in den Leinwandeinstellungen umzuschalten.
Ach ja, noch etwas: Dass das Lokalisieren eines Videoframes beim Umpositionieren des Locators bei aktiviertem HW-Decoding länger dauert, ist normal und hängt mit der Architektur des sog. Desktop Window Managers von Microsoft zusammen. Verwenden Sie für den Schnitt von Video am einfachsten und schnellsten die gedrückte Shift-Taste beim Überfahren des Clips mit dem Mauszeiger, um absolut verzögerungsfrei und dennoch framegenau arbeiten zu können.
Mit freundlichem Gruß
Steffen Richter
vorab zwei Begriffe:
CPU: Central Processing Unit (Hauptprozessor) -> im Zusammenhang mit Software-basierter Videodecodierung verwendet
GPU: Graphics Processing Unit (Grafikprozessor) -> im Zusammenhang mit Hardware-basierter Videodecodierung verwendet
Die Hardware-Decodierung (GPU-basierte Decodierung) für Video kann nicht nur pro Video wahlweise abgeschaltet werden, sondern auch global in den Leinwandeinstellungen -> Echtzeit-Renderer. Ich empfehle, im Normalfall entweder die Einstellung "immer aus" für CPU-Decoding (Software-basierte Decodierung) oder "Standard" für aktiviertes GPU-Decoding zu wählen.
Wer sich nicht in der Tiefe mit technischen Überlegungen auseinandersetzen will, wählt am besten einfach die Einstellung, in der seine Videos sauber laufen -> fertig. Für Anwender, die etwas tiefer in die Materie eindringen wollen, sind die folgenden Erläuterungen sicher von Interesse.
Wenn die Hardware-Decodierung in den Leinwandeinstellungen auf "immer aus" eingestellt ist, spielt die Einstellung "Grafikhardware wenn möglich zur Decodierung nutzen" innerhalb der individuellen Videoeigenschaften keine Rolle, die GPU-Unterstützung ist dann immer deaktiviert.
Ob eine Aktivierung des Hardware-Decodings Vorteile bringt oder nicht, hängt davon ab, ob die Grafikkarte im Bezug auf die Decodierung eine höhere Rechenleistung bietet als die CPU. Pauschal kann man davon ausgehen, dass das bei vielen aktuellen Performance-Grafikkarten der Fall ist, insbesondere natürlich, wenn dazu eine langsamere CPU verbaut ist. Wenn Sie jedoch die Feststellung machen, dass Videos auf Ihrem PC per CPU flüssiger laufen als per Grafikkarte (GPU), dann ist das also eindeutig nicht der Fall. Hier sollte dann für das Hardware-Decoding von Videos in den Leinwandeinstellungen "immer aus" gewählt werden.
Sichtbare Unterschiede im Bezug auf die Bildqualität darf es in keinem Fall geben, sofern die Grafikkarte geeignet und der Treiber auf dem aktuellen Stand ist.
Spätestens, wenn Sie anspruchsvolles H.265-Video (HEVC) aus modernen Kameras in 4K-Auflösung auf der Timeline von m.objects verwenden wollen, führt an einer aktuellen Grafikkarte und aktiviertem GPU-Decoding kein Weg vorbei. Selbst die schnellste aktuelle CPU liefert für die Wiedergabe solchen Materials nicht genügend Leistung. Mit einer NVidia GTX1060 oder höher kann problemlos HEVC 2160/60p - 10Bit ruckelfrei wiedergegeben werden. Übrigens eine Fähigkeit, die ein Alleinstellungsmerkmal in m.objects darstellt.
Für besonders Technik-Interessierte: Wenn Sie sich einen Überblick verschaffen wollen, wie gut CPU vs. GPU in Ihrer Maschine für die Decodierung geeignet sind, sollten Sie den Task Manager und ein Tool wie z.B. GPU-Z verwenden. Bei CPU-basierter Decodierung zeigt die CPU-Auslastung des Prozesses "directAV Screen" im Task Manager bei laufendem Video die Rechenlast, bei HW-Decodierung ist es z.B. der Eintrag "Video Engine Load" unter "Sensors" innerhalb von GPU-Z.
Wenn Sie mehrere Videos zugleich wiedergeben wollen (und sei es "nur" während einer Überblendung von einem auf ein anderes) und Ihr PC erst in diesem Moment seine Grenzen aufzeigen sollte, der CPU- oder GPU-Leistungsbedarf also oberhalb von 85% liegt, können Sie sogar das eine Video CPU-basiert und das andere GPU-basiert decodieren lassen, wodurch sich die Rechenlast entsprechend verteilt und auch auf relativ langsamen PCs eine ruckelfreie Wiedergabe solcher Passagen möglich sein kann.
Aber noch einmal: Wenn alles rund läuft, gibt es keinen Grund für eine Änderung der Konfiguration. Ist das nicht der Fall, schlage ich vor, zwischen "immer aus" und "Standard" für das Hardware-Decoding in den Leinwandeinstellungen umzuschalten.
Ach ja, noch etwas: Dass das Lokalisieren eines Videoframes beim Umpositionieren des Locators bei aktiviertem HW-Decoding länger dauert, ist normal und hängt mit der Architektur des sog. Desktop Window Managers von Microsoft zusammen. Verwenden Sie für den Schnitt von Video am einfachsten und schnellsten die gedrückte Shift-Taste beim Überfahren des Clips mit dem Mauszeiger, um absolut verzögerungsfrei und dennoch framegenau arbeiten zu können.
Mit freundlichem Gruß
Steffen Richter
-
- Beiträge: 1491
- Registriert: 23.06.02, 23:22
- Wohnort: Siegerland
Re: Videos: Graphichardware zur Decodierung nutzen
Re: Videos: Graphichardware zur Decodierung nutzen
Hallo Herr Richter,
vielen Dank für die ausführlichen Infos zu diesem Thema.
Danke nochmals
und
Grüße
Andreas
vielen Dank für die ausführlichen Infos zu diesem Thema.
Aktuell hat dieser Hinweis mir (und uns) einen neuen Thread erspart, da ich genau dieses Verhalten beobachtet habe. Zuerst vermutete ich einen Bug.m.objects hat geschrieben:....Ach ja, noch etwas: Dass das Lokalisieren eines Videoframes beim Umpositionieren des Locators bei aktiviertem HW-Decoding länger dauert, ist normal und hängt mit der Architektur des sog. Desktop Window Managers von Microsoft zusammen. Verwenden Sie für den Schnitt von Video am einfachsten und schnellsten die gedrückte Shift-Taste beim Überfahren des Clips mit dem Mauszeiger, um absolut verzögerungsfrei und dennoch framegenau arbeiten zu können....
Danke nochmals
und
Grüße
Andreas