\( \newcommand{\depth}{\textnormal{depth}} \newcommand{\height}{\textnormal{height}} \newcommand{\floor}[1]{\left\lfloor #1 \right\rfloor} \newcommand{\ceil}[1]{\left\lceil #1 \right\rceil} \DeclareMathOperator*{\E}{\mathbb{E}} \newcommand{\pfrac}[2]{\left(\frac{#1}{#2}\right)} \newcommand{\R}{\mathbb{R}} \newcommand{\Z}{\mathbb{Z}} \)

In diesem Kapitel lernen Sie präfixfreie Codes und Konzepte wie erwartete Codelänge kennen. Wir werden lernen, wie man für eine Wahrscheinlichkeitsverteilung $P$ einen optimalen Code berechnet, also mit minimaler erwarteter Codelänge. Wir werden sehen, wie diese im Zusammenhang steht zur Shannon-Entropie $H(P)$ der Verteilung $P$. Zentrale Punkte dieses Kapitels sind Shannons Source Coding Theorem und der Huffman-Algorithmus.

Als eher randständiges Thema beschäftigen wir uns mit der Frage, ob denn die erwartete Länge eines optimalen nicht präfixfreien Codes kleiner werden kann als die Entropie und um wieviel.