Informationsrate

Die Informationsrate (auch Coderate oder schlicht Rate) ist ein Begriff der Kodierungstheorie.

Die Rate R {\displaystyle R} eines Blockcodes C {\displaystyle {\mathcal {C}}} der Länge n {\displaystyle n} über einem Alphabet A {\displaystyle A} , | A | = q {\displaystyle |A|=q} , bezeichnet die pro Codewort übertragenen Informationssymbole im Verhältnis zur Länge der Wörter:

R = log q ( | C | ) n {\displaystyle R={\frac {\log _{q}(|{\mathcal {C}}|)}{n}}} .

Dabei gilt R 1 {\displaystyle R\leq 1} , da die codierten Daten durch die Codierung mehr Redundanz, also zusätzliche Symbole, enthalten als die uncodierten Daten. Analog gilt:

R e d u n d a n z = 1 R {\displaystyle \mathrm {Redundanz} =1-R} .

Bei linearen Codes hat der Code genau q k {\displaystyle q^{k}} Elemente:

| C | = q k {\displaystyle |{\mathcal {C}}|=q^{k}}

Deren Rate ist also der Quotient aus der Dimension des Codes und der Länge der Wörter:

R = log q ( q k ) n = k n {\displaystyle \Rightarrow R={\frac {\log _{q}(q^{k})}{n}}={\frac {k}{n}}}