Antwort #8 am: 23. Dezember 2019, 11:45:19
Das trifft nur zu, wenn man im Vorfeld unter spürbarem Qualitätsverlust sehr stark komprimiert hat. Das hat Timm sicherlich nicht getan.
Ich habe mich früher intensiv mit der jpg-Komprimierung beschäftigt. Ganz grob gesagt wird das Bild beim komprimieren in Blöcke eingeteilt und dann überprüft der Algorithmus Block für Block, ob der gleiche (oder ein ähnlicher Block) sich woanders wiederholt. Im Wiederholungsfall muss dieser nicht Bit für Bit erneut gespeichert werden sondern nur ein Verweis auf die Kopie.
Über die Prozentzahl gibt man nun an, wie tolerant der Ähnlichkeitsvergleich ausfallen soll. Bei 100% muss es absolut identisch sein und das Ergebnis ist verlustfrei. 80% ist bei Fotos meist mit wenig sichtbarem Verlust verbunden. Umso weiter man runter geht, desto mehr sinkt die Qualität und die Blöcke werden sichtbar, da die Übergänge der benachbarten Blöcke nicht mehr Stimmen und am meisten auffallen.
Das Dekomprimieren ist also relativ einfach und schnell. Beim Komprimieren gibt es von Algorithmus zu Algorithmus große Unterschiede. Das Vergleichen der Blöcke auf Ähnlichkeit ist eine Wissenschaft für sich und da gibt es mit der Zeit immer wieder neue Methoden und Ideen. Deshalb gibt es so unterschiedliche Ergebnisse zwischen den Programmen.
Das ist jetzt stark vereinfacht erklärt, hilft aber den Mechanismus dahinter zu verstehen. In Echt kommt zB. innerhalb der Blöcke noch ein zweiter Algorithmus zum Komprimieren zum Einsatz.