Der Stundenplan dient als Tagebuch, um festzuhalten, was wir tatsächlich in den Vorlesungen gemacht haben. Hier kündige ich auch an, welche Übungsaufgaben Sie bis zum nächsten Termin anschauen sollten.
| Dienstag, 18. November Nachmittag (6. Woche, KW 47) |
Rasmus Eder hält Übung. |
| Dienstag, 18. November Vormittag (6. Woche, KW 47) |
Coles paralleler Mergesort-Algorithmus. |
| Dienstag, 11. November Nachmittag (5. Woche, KW 46) |
Valiants merge in $O(\log \log n)$ und warum das nicht so ganz stimmt. Verschiedene RPAM-Modelle. Maximum in $O(\log \log n)$ parallelen Vergleichsschritten. |
| Dienstag, 11. November Vormittag (5. Woche, KW 46) |
Sortiernetzwerke. Sortieren auf einer PRAM: merge in $O(\log n)$ Zeitschritten mittels binärer Suche für jedes Element. Sortieren in $O(\log^2 n)$. |
| Dienstag, 4. November Nachmittag (4. Woche, KW 45) |
Übung. |
| Dienstag, 4. November Vormittag (4. Woche, KW 45) |
Crashkurs in Wahrscheinlichkeitsrechnung. Wahrscheinlichkeitsräume, Ergebnisse, Ereignisse. Formel für $\Pr[A \cup B]$; Unabhängigkeit. Markov- und Tschebyschoff-Ungleichung an folgendem Beispiel: wenn man 600 mal würfelt und $X$ die Anzahl ist, wie oft man eine Sechs gewürfelt hat, was ist dann $\Pr[X \geq 300]$? Leider nicht mehr zur Chernhoff-Schranke gekommen... |
| Dienstag, 28. Oktober Nachmittag (3. Woche, KW 44) |
Listensuffixsummen mit $O(\log n)$ Zeit und $O(n)$ Arbeit: wie man in $O(1)$ eine
unabhängige Menge der Größe $\Theta(n)$ konstruiert. Warum es nicht wirklich klar ist,
ob ein schlafender Prozessor was kostet. Der Algorithmus von Anderson und Miller:
man verteilt auf $n / \log n$ Prozessoren jeweils $\log n$ Knoten der Liste (so,
wie sie im Speicher liegen, nicht so, wie sie in der Liste vorkommen).
Dauer, bis alle fertig sind, Chernoff-Schranke von Wikipedia gespickt.
Offene Frage: Was, wenn die Elemente der Liste nicht schön in den ersten $n$ Speicherzellen liegen, sondern beispielsweise in einem $O(n^2)$ großen Speicher wild verteilt liegen? Wie kann man dann jedem Prozessor $\log n$ Eelemente zuordnen? Dominik Scheders spontane Gedanken dazu: die Schwierigkeit gibt es ja bei jedem Problem. Wenn wir also $n$ Datensätze auf $n^2$ Speicherzellen verstreut liegen haben und dann $n$ Prozessoren, die nicht wissen, wo die liegen, dann müsste man die ja erst einmal irgendwie finden. Vielleicht vernünftige Grundannahme: wenn unser Problem aus $n$ Datensätzen besteht, dann gibt es auch einen Bereich aus $O(n)$ Speicherzellen, der sie enthält und den wir a priori kennen. Ich lasse mich aber gerne vom Gegenteil überzeugen und ein plausibles Szenario zeigen, wo das nicht so gegeben ist. |
| Dienstag, 28. Oktober Vormittag (3. Woche, KW 44) |
Kurze Wiederholung der Präfixsumme. Das ganze nicht als Schaltkreis betrachten, sondern sich Prozessoren vorstellen, die Daten rumschicken / speichern. Dann Listenpräfixsummen (bzw. Listensuffixsummen), bei denen die Daten als verkettete Liste gegeben ist und nicht als Array. Pointer Jumping: $O(\log n)$ Zeit und $O(n \log n)$ Arbeit. |
| Dienstag, 21. Oktober 2025 Nachmittag (2. Woche, KW 43) |
Ramus Eder hält Übung. |
| Dienstag, 21. Oktober Vormittag (2. Woche, KW 43) |
Kurze Einführung. Parallele Berechnung von $\min$. Großteil der Zeit für Binäraddierer mit Carry-Lookahead. Dann das gleiche nochmal als rekursive Konstruktion für Präfixsumme. Abstraktion: Präfixsummen mit assoziativem Operator $\circ$. |
| Dienstag, 13. Oktober 2025 (1. Woche, KW 42) |
Keine Veranstaltung in der 42. Kalenderwoche. |
| Dienstag, 13. Oktober 2025 (1. Woche, KW 42) |
Keine Veranstaltung in der 42. Kalenderwoche. |