Scheint irgendwie ein heikles Thema zu sein. Ich wundere mich nur, das ich bisher noch nicht "Zurückgepfiffen" wurde, weil ich zur Bearbeitung Audition verwende - eine kommerzielle und nicht ganz "billige" Soft.
Möglicherweise habe ich aber auch irgendwelche Zusammenhänge nicht so wirklich verstanden. Sollte mein Beitrag also gegen irgendwelche Regeln verstoßen, dann bitte einfach löschen...
-----------
Lassen wir an dieser Stelle mal MP3-Cut außen vor, weil es tatsächlich MP3 direkt schneidet. Das geht auch nur deshalb, da MP3 Framebasiert ist (jedes Frame enthält ca 32 Millisekunden Audio). Da es aber auch überlappende Informationen gibt, kann so ein direkter Schnitt an der Stelle durchaus zu Knacksern, Rauscheinbrüchen oder auch Jitter führen. Es war halt bei MP3 nie vorgesehen, diese direkt zu bearbeiten...
Jeder mir bekannte Audio-Editor wird zuerst einmal ein beliebiges Audioformat decodieren und die Audiodaten in seine eigentlich Samplestruktur zurückwandeln. Das gilt sogar für Wave, da Wave normalerweise immer abwechselnd ein Sample Links, ein Sample Rechts speichert. Die konkreten Angaben dazu stehen im Header einer Audiodatei bzw. sind in der Dateispezifikation festgeschrieben.
Diese interne Arbeitsweise spielt aber für diese Betrachtung keine weitere Rolle. Fakt ist, solange man eine Audiodatei (ohne Bearbeitung im Editor) wieder in ein beliebiges verlustfreies Format speichert, treten keinerlei Verluste auf.
Jetzt kommt aber das "Problem" der Bearbeitung. Solange man sich darauf beschränkt, nur die Anfänge und Enden eines Titels "sauber zu schneiden" - also überflüssige oder zu lange Pausen, passiert auch nichts weiter - Die verbleibenden Samples (Musikdaten) bleiben auch vollständig erhalten.
Beim "Normalisieren" geht es aber schon los. Das betrifft aber generell alles - egal, welches Dateiformat als Quelle und Ziel verwendet wird.
Unsere Samples (zumindest die, die wir hier bearbeiten wollen) haben ein Auflösung von 16 Bit als Ganzzahl, also ohne Kommastellen. Beim Normalisieren - also mathematisch ein "multiplizieren" der Werte werden ja wohl in den seltensten Fällen ganzzahlige Werte verwendet. Meist sind es also "Kommawerte". Also ergibt sich als Ergebnis ebenfalls meist ein Kommawert, der aber von den 16 Bit nicht aufgenommen werden kann. Mit anderen Worten: Es enstehen leichte Rundungsfehler.
Man kann auch sagen: Diese entstehen bei JEDER Bearbeitung, egal, ob man noch Klangveränderungen macht, einfach nur ausblendet, einen evtl. vorhandenen Gleichstromanteil herausrechnen oder Effekte einrechnen läßt.
Man sollte also Bearbeitungen auf ein Minimum beschränken.
Das ist auch der Grund, warum in der Produktion (Studio) Samplewerte mit 24 oder gar 32 Bit Auflösung verwendet werden: Diese nehmen Kommastellen auf. Und erst nach Abschluss aller Arbeiten wird das alles dann wieder auf 16 Bit heruntergerechnet - es entsteht also dabei nur ein einziges Mal ein Rundungsfehler.
Wie schon gesagt, das gilt generell immer und hat mit dem eigentlich verwendeten Dateiformat nichts zu tun. Dort entstehen dann im Falle von MP3 weitere Verluste.
Auf die Frage des Threaderstellers bezogen: Solange Du Wave, Flac, Aiff bearbeitest und das auch wieder in ein verlustfreies Format zurückspeicherst, wirst Du praktisch keine Verluste haben. Ein evtl. Rundungsfehler beim normalisieren würde bei MP3 nämlich genauso auftreten.
@ All
Dieser Rundungsfehler tritt übrigens auch auf, wenn man die Dateien im Ursprungszustand beläßt und über Foobar die ReplayGain-Funktion benutzt. Denn auch dort werden die Samplewerte dann mit diesem ReplayGain-Wert multipliziert, bevor sie den Soundchip erreichen.
Von der Sache her ist es also in diesem Fall völlig egal, ob man die Datei direkt bearbeitet oder über ReplayGain hört...
Um aber Mißverständnisse auszuschließen: Mir ist schon klar, das ReplayGain dazu gedacht ist, um alle Dateien in einer gehörmäßig gleichen Lautstärke abzuspielen.
Es ging mir bei dieser Betrachtung auch nur um die reine technische/mathematische Funktion bzw Wirkungsweise.