Please enable JavaScript.
Coggle requires JavaScript to display documents.
Digitale Videoformate - Coggle Diagram
Digitale Videoformate
Historische Entwicklung
1895: erster Film in Paris (Brüder Lumiére), Ankunft Zug im Bahnhof
früher: langwierig technische Prozesse zur Produktion eines Kinofilms, Stopmotion-Filme
Ton kam erst 30 Jahre später hinzu ⇨
- Nadeltonverfahren
- Lichttonverfahren
Erste analoge Filmtechnik, die privat nutzbar war:
- Super-8-Kamera: 18 Bilder pro Sekunde
-
1990er, erste digitale Aufzeichnungstechniken: DV (Digital Video)
- Einzelbilder wurden digital aufgezeichnet und Bild für Bild in JPEG-ähnlichem Verfahren
- Basis DCT codiert
- Datenreduktion: Farbunterabtastung
- Bildauflösung: 720 x 576 Pixel
- 25 Bilder pro Sekunde bzw. 50 Halbbilder pro Sekunde
Erweiterungen: Aufzeichungssysteme für HDTV
- neben Kassettenn auch Speciherkarten
- Kompression: MPEG-2-Standard
Danach: AVCHD (Advanced Video Codec High Definition) ⇨ Datenkompression: H.264 Codec (MPEG-4-Standard)
Anfang 2000er: HDCAM-Geräte für Kinoproduktionen
Mitte 2000er: Geräte, die bei Aufzeichnung MPEG-Standard zur Kompression nutzten ⇨ längere Aufzeichnungszeiten
Heute: fast ausschließlich digitale Aufzeichnung
- Profibereich: Auflösung im 4K Standard ⇨ vierfache Auflösung von Full-HD
- Digitalkameras: AVC-Codecs (Advanced Video Coding/ MPEG-4-Standard)
- Privatbereich: Smartphones ⇨ je nach Hersteller Filme in HD, Ultra-HD, 4K 24,30, 60fps
Grundlagen von Video
Grundlagen Film
Stopmotion: einzelne Szenen mit spezieller Bildrate (8-24 Frames pro Sekunde), ruckartige Bewegung, weil nicht alle Übergangsbewegungen im Film integriert sind
analoger Film:
- Abfolge von Fotografien
- früher: klassische Filmrolle
Video: bewegte Bilder ⇨ Prinzip der statischen Fotografie
- Viedoframes (einzelne Bilder in einem Film(Video) ⇨ meist aus einzelnen Bitmap-Bildern
- Eindruck von Bewegung entsteht durch Aufnahme von mehreren aufeinanderfolgenden Bildern
Filmaudio
-
1922, Lichttonverfahren: Audio und bild auf einem einzigen Träger ⇨ echte Synchronität
- analoge Tonspur wird mit Licht hinterleuchtet
- Signal wird auf elektrische Fotozelle übertragen
- elektrische Spannungen werden abgelesen und über Verstärler und Lautsprecher in Töne umgewandelt
Digitales Verfahren:
- digitale Informationen werden mit Fotozelle erfasst und mit Decoder in Tonsignale umgewandelt
- mehr Kanäle ⇨ besseres Klangerlebnis, ggfs. räumlichen Sound
- digitale Tonspuren sind immer separat hinterlegt, können auch extrahiert werden
-
Farbmodelle
klassisches TV: ein Kanal Luminanz, zwei Kanäle fpr Farbinformationen
- YUV (Y=Luminanz, UV=Chrominanz/Farbkanäle
digitales Video:
- YCbCr (Y=Luminanz, Cb und Cr=Chrominanz/Farbkanäle)
Videos am PC: RGB, RGBA (RGB plus Alpha)
-
Digitales Video
Übertragung: Frames werden nicht zeilenweise, sondern durch horizontale und vertiakle Bildpunkte dargestellt
-
-
Vorteile:
- Qualitätssteigerung in Wiedergabe
- einfachere Handhabung
- leichtere Bearbeitung
- erlauben verlustfreies Kopieren
Erstellung:
- Digitalkameras zeichnen Bilder auf (Bildsensor fängt eintreffende Lichtsignale auf
- werden als Informationen in binäre Daten umgewandelt und auf Chip geschrieben ⇨ RAW-Daten
- Prozessor: wandelt Sensordaten in Videofile um
Datenkompression:
- Farbunterabtastung (Chroma Subsampling)
- Raten: 4:4:4 , 4:2:2 , 4:2:0
- vereinbarter Standard für Datenkompression: MPEG-Standard
- digitales Audio für Video: AC3-Standard
-
Video-Standard MPEG
MPEG-1
-
- entwickelt für digitale TV-Formate wie CCIR601 (Source Input Format/SIF)
- zunächst nur non-interlaced Video
- gängige Bildauflösungen: 352 x 240 NTSC, 352 x 288 PAL
Bestandteile:
- System, Software, Audio, Video, Konformität
-
Codecs:
- H.261 + H.263
- größte Neuerung: B-Frame ⇨ zweiter Bewegungsvektor (vorwärts und rückwärts)
-
weitere Innovation: Slicing
- Frames statt Blocks in Abschnitte (Slices) geteilt
weitere Veränderungen:
- Optimierung bei der Quantisierung und Einsatz von Bewegungsvektoren, Unterteilung der Bitsreams in hierarchische Ebenen ⇨ Sequenz-Layer, Group-of-Pictures-Layer, Bild-Layer, SLice-Layer, Makroblock-Layer und Block-Layer
⇨ maßgebliche Qualitätsverbesserung
MPEG-2
Anwendungen:
- digitale TVs, HDTV
- DVDs
- besser für Netzwerkanwendungen mit schwankenden Übertragungsraten und progressiven Übertragungsmodellen
-
höhere, maximale Auflösung: 1920 x 1152 bei max. 60 fps
5 verschiedene Vorhersagemodelle, je nach Anwendungsbereich einsetzbar (main, simple, SNR, spatial, high)
-
Farbunterabtastung: 4:2:0, 4:2:2, 4:4:4
-
Weitere Anpassungen: Slicing, Quantisierung und Formatdimensionen
-
MPEG-4
-
Unterstützung einer größeren Bandbreite von Bitraten von 5 kkbps bis 10 Mbps ⇨ breitere Anwendungsfelder
stark ineinander verschachtelte Strukturen: Video-Objekt-Sequenz (VS), Video-Objekte (VOs), Video-Objekt-Ebenen (VOL)
VOP-based Coding:
- Video Object Plane
- nicht ganze Frames, sondern einzelne VOPs
weitere Innovationen:
- Oberflächencodierung (Texture Coding)
- Standards für neue Videoobjekte (Sprites), Sprite-Coding ⇨ Arbeitsfeld CGI (Computer Generated Imagery) ⇨ synthetische Onbjekte in Real-live-Videos integrieren (AR)
- auch für Games Developments wichtig
-
-
-
Digitale Videoformate
MPEG-1 (.mpg /.mpeg)
ältestes, gängiges Videoformat
-
-
-
VHS-Qualität, nicht HD-fähig
-
-
-
-
-
-
-
Quicktime (.mov)
-
-
alle Dateiformate: AVC, WMV, DVC Pro und Flash
-
-
-
-
-
-
-
MKV (Matroska/ .mkv)
Containerformat: Alternative zu AVI, MOV, ASF und MP4
-
-
basiert auf Extensible Binary Meta Language: trennt Beschreibungen und Inhalte, sowie Inhalte und Abläufe mithilfe von Semantik und Syntax
-
-
Anwendungen: Streaming, Heimkino
hohe Flexibilitt, gute Videoqualität bei hoher Kompressionsrate
-
-
HTML5/WebM (.webm)
-
-
-
-
-
hohe Kompressionsraten, gute Qualität und für Web optimierte Strukturen
-
-
Vorteile:
- hohe Kompatibilität auch mobile Geräte
- Einfachheit als Containerformat
- Ausgabe von Real-Time-Videos in hoher Qualität
- Codecs mit Minimalanforderungen um Click and Encode zu ermöglichen
-