7. Returnanalyse#
Zur Einschätzung der Entwicklung von Portfolien oder Aktienkursen betrachtet man nicht die Aktienkurse selbst, sondern deren Renditen bzw. Returns. Hierzu gibt es verschiedene Definitionen, die teilweise nicht einheitlich verwendet werden. Daher wollen wir Beginn die verschiedenen Renditedefinitionen nochmals aufgreifen. Zunächst betrachten wir nur einzelne Werte, egal ob Aktien oder andere Finanzprodukte und bezeichnen den Kurs zum Zeitpunkt \(t\) mit \(S_t\) und uns interessiert die Wertentwicklung der Aktie vom Anfangszeitpunkt \(a\) nach \(t\).
7.1. Rendite vs. Log-Returns#
👉 Renditen beschreiben den prozentualer Wertzuwachs von \(a\) nach \(t\):
und werden auch als diskrete oder arithmetische Returns bezeichnet. In der Finanzmathematik arbeitet man hingegen häufig mit den Log-Returns:
die teilweise auch als stetige oder geometrische Returns bezeichnet werden Wir werden gleich an einem realen Beispiel sehen, dass sich beide Renditebegriffe nur minimal unterscheiden, wobei mit
beide einfach ineinander umgerechnet werden können.
Das folgende Beispiel zeigt die Berechnung der täglichen Returns:
import yfinance as yf
import pandas as pd
import matplotlib.pyplot as plt
import seaborn as sns
from datetime import datetime
import numpy as np
# Daten von Yahoo-Finance abrufen
ticker = "ALV.DE"
start_date = datetime(year = 2024, month=1, day = 1)
print("Versuche Yahoo Finance für %s:\n" % (ticker))
try:
data = yf.download(ticker, start = start_date, group_by='ticker')
except Exception as e:
print("Fehler bei Yahoo Daten Download: %s \n" % (e))
if not data.empty:
data
print(data.head())
print(data.tail())
else:
print("Probleme bey yfiancne Download von %s" % ticker)
Versuche Yahoo Finance für ALV.DE:
/tmp/ipykernel_2432325/1206153666.py:15: FutureWarning: YF.download() has changed argument auto_adjust default to True
data = yf.download(ticker, start = start_date, group_by='ticker')
[*********************100%***********************] 1 of 1 completed
Ticker ALV.DE
Price Open High Low Close Volume
Date
2024-01-02 221.062960 224.475830 220.880943 222.928665 778095
2024-01-03 224.339317 225.021891 220.061857 220.744431 686416
2024-01-04 221.244983 223.429214 221.199476 223.429214 545050
2024-01-05 222.109576 222.974167 220.198363 221.973053 634842
2024-01-08 221.927555 222.928655 220.334882 222.564621 437610
Ticker ALV.DE
Price Open High Low Close Volume
Date
2026-01-12 380.000000 382.100006 376.500000 380.000000 580440
2026-01-13 379.299988 381.700012 378.399994 379.799988 389494
2026-01-14 377.000000 380.399994 376.000000 378.899994 650126
2026-01-15 379.799988 383.000000 377.700012 382.100006 465516
2026-01-16 382.000000 383.399994 380.600006 381.000000 88228
df = data["ALV.DE"]
#Datum aus Index in Spalte holen:
# nur zur Demonstration, ist hier nicht von Belang ob Date als Index oder Spalte!
df = df.reset_index()
df2 = df[["Date", "Close"]].copy()
print(df2.head())
Price Date Close
0 2024-01-02 222.928665
1 2024-01-03 220.744431
2 2024-01-04 223.429214
3 2024-01-05 221.973053
4 2024-01-08 222.564621
Verschiedene Methoden zur Berechnung beider Renditen:
df2["Rendite"] = df2["Close"].pct_change()
df2['LogReturn'] = np.log(df2['Close']).diff() # = log(C_t) - log(C_{t-1})
#nur zum Vergleich alternative Berechnungsformeln, die natürlich identische Werte liefern!
df2['Rendite2'] = df2['Close'] / df2['Close'].shift(1) - 1
df2["LogReturn2"] = np.log(df2["Close"] / df2["Close"].shift(1))
df2["LogReturn3"] = np.log(df2['Rendite2'] +1)
print(df2.head())
Price Date Close Rendite LogReturn Rendite2 LogReturn2 \
0 2024-01-02 222.928665 NaN NaN NaN NaN
1 2024-01-03 220.744431 -0.009798 -0.009846 -0.009798 -0.009846
2 2024-01-04 223.429214 0.012162 0.012089 0.012162 0.012089
3 2024-01-05 221.973053 -0.006517 -0.006539 -0.006517 -0.006539
4 2024-01-08 222.564621 0.002665 0.002661 0.002665 0.002661
Price LogReturn3
0 NaN
1 -0.009846
2 0.012089
3 -0.006539
4 0.002661
Offensichtlich sind die Spalten Rendite und Rendite2 sowie die drei verschieden berechneten Log-Returns gleich. Mittels plot() können wir den zeitlichen Verlauf darstellen. Da die Schlusskurse und die Renditen völlig verschiedene Wertebereiche haben, ist ein simpler Plot aller Zeitreihen nicht sinnvoll, so dass wir zuvor noch die Schluss-Kurse entfernen. Probieren Sie zum Vergleich einfach mal den folgenden Befehl:
df2.plot()
<Axes: >
#Entfernen der Closing-Kurse
df3 = df2.drop(columns="Close").dropna().copy()
#Durch Indexierung des Datums steht dieses autoamtisch auf der x-Achse, sonst der Integer-Index 0,1,2,..
df3 = df3.set_index("Date")
#plot aller Renditen
print(df3.head())
df3.plot(ylim=(-0.05,0.05))
Price Rendite LogReturn Rendite2 LogReturn2 LogReturn3
Date
2024-01-03 -0.009798 -0.009846 -0.009798 -0.009846 -0.009846
2024-01-04 0.012162 0.012089 0.012162 0.012089 0.012089
2024-01-05 -0.006517 -0.006539 -0.006517 -0.006539 -0.006539
2024-01-08 0.002665 0.002661 0.002665 0.002661 0.002661
2024-01-09 -0.004089 -0.004098 -0.004089 -0.004098 -0.004098
<Axes: xlabel='Date'>
Hinweis: die Pandas Methode pct_change() kann auch auf den kompletten DataFrame angewendet werden, solange das Datum als Index gesetzt ist. Dann werden die prozentualen Veränderungen auch für die Open, High und Low-Kurse berechnet. Ist das Datum allerdings als Spalte gesetzt, so führt der Aufruf zu einer Fehlermeldung, da die Funktion pct_change() nicht auf das Dates-Format angewendet werden kann. Außerdem werden die normalen Kurse überschrieben – möchte man beispielsweise die Closing-Kurse im DataFrame erhalten, sollte wie oben in df2 einfach eine neue Variable / Spalte erzeugt werden.
Hinweis: Für die Berechnung der Renditen mittels der Pandas Funktion pct_change() ist es notwendig entweder eine konkrete Variable (Spalte) das DataFrames anzugeben, so wie das oben realisiert wurde. Ruft man mehrere Ticker gleichzeitig ab und möchte dann beispielsweise die Renditen auch gleichzeitig für alle Kurse berechnen, kann man andernfalls die Funktion pct_change() auch auf den gesamten DateFrame anwenden. Dann sollte man allerdings darauf achten, dass das Datum als Index gesetzt[1] ist. Natürlich ist es auch möglich, die Funktion nur auf eine Teilmenge aller Spalten bzw. Variablen anzuwenden.
data_all = data.pct_change()
data_all.head()
| Ticker | ALV.DE | ||||
|---|---|---|---|---|---|
| Price | Open | High | Low | Close | Volume |
| Date | |||||
| 2024-01-02 | NaN | NaN | NaN | NaN | NaN |
| 2024-01-03 | 0.014821 | 0.002433 | -0.003708 | -0.009798 | -0.117825 |
| 2024-01-04 | -0.013793 | -0.007078 | 0.005170 | 0.012162 | -0.205948 |
| 2024-01-05 | 0.003908 | -0.002037 | -0.004526 | -0.006517 | 0.164741 |
| 2024-01-08 | -0.000820 | -0.000204 | 0.000620 | 0.002665 | -0.310679 |
Obiger Graph der verschieden berechneten Renditen zeigt, dass auch zwischen der klassichen Rendite als prozentuale Veränderung und den Log-Returns keine großartigen Unterschiede mit bloßen Auge erkennbar sind, denn für sehr kleine Zeitabstände (hier 1 Tag) ist der Quotient \(\frac{S_t}{S_{t-1}} \approx 1\) und somit die Unterschiede zwischen Log-Returns und Renditen nur marginal, was sich mit der Taylorapproximation 1. Ordnung der Funktion \(f(x) = \log(x) \approx x-1 \) für \(x\) nahe 1 erklären lässt. Berücksichtigt man höhere Ordnungen der Taylorapproximation \(f(x) = \log(x) = x-1 - \frac 12 (x-1)^2 + \frac13 (x-1)^3 - \frac 14 (x-1)^4 \pm \ldots\) wird deutlich, warum sich aber insbesondere für \(x\neq 1\) beide Return-Begriffe unterscheiden.
# x-Werte
x = np.linspace(0.01, 2, 400) # für f(x) = ln(x), nur positive x
# Funktionen
f = np.log(x)
t = x - 1 #Taylor-Approximation 1. Oridnung
# Plot
plt.figure(figsize=(7,5))
plt.plot(x, f, label="f(x) = ln(x)", color="blue")
plt.plot(x, t, label="t(x) = x - 1", color="red")
# Achsen und Details
plt.axhline(0, color="black", linewidth=0.8) # x-Achse
plt.axvline(0, color="black", linewidth=0.8) # y-Achse
plt.title("f(x) = ln(x) und Taylorapproximation t(x) = x - 1")
plt.xlabel("x")
plt.ylabel("y")
plt.ylim([-2,1])
plt.legend()
plt.grid(True)
plt.show()
Es ist deutlich zu erkennen, dass für x nahe 1 kaum ein Unterschied zwischen beiden Funktionen zu erkennen ist. Zusammenfassend: Log-Returns und arithmetische Renditen unterscheiden sich für Tageskurse wegen \(x= \frac{S_t}{S_{t-1}} \approx 1\)
nur minimal, da die Kursänderungen von Tag zu Tag nicht wesentlich sind. Beide Rendite-Begriffe haben aus finanzmathematischer Sicht Vor- und Nachteile, die wir später nochmals kurz aufgreifen werden. Aus praktischer Sicht macht es hingegen kaum einen Unterschied, ob wir Renditen oder Log-Returns analysieren. Betrachtet man beispielsweise das Histogramm der täglichen Returns ist optisch kein wesentlicher Unterschied zwischen Log-Returns und Renditen erkennbar. Für Tagesrenditen bzw. -Returns schreibt man häufig \(R_t\) bzw. \(r_t\), d. h. lässt den ersten Zeitindex des Anfangsstadiums einfach weg. Außerdem zeigt die Graphik, dass die rote Kurve, welche den prozentualen Zuwächsen und somit Renditen entspricht, immer oberhalb der blaue Kurve verläuft, welche die Log-Returns beschreibt.
7.2. Wertzuwachs über die Zeit: kumulierte Returns vs. Renditen#
Die Log-Returns des Zuwachses von der Anfangsinvestition bis zum Zeitpunkt \(t\) ist wegen
gerade die Summe der täglichen Log-Returns. Somit folgt dann für die Renditen eine Produkt-Struktur
also ähnlich wie beim (geometrischen) Verzinsen mit Zinseszinseffekten.
Zusammenfassend werden wir die kumulierten Tages-Returns von 0 bis zum Zeitpunkt t zur Annualisierung verwenden
bzw.
Die Funktionen cumsum() und cumprod() berechnen für jede Spalte die kumulierten Summen bzw. Produkte, d. h. in der ersten Zeile wird die nur das erste Element und in der zweiten Zeile die ersten beiden Werte usw. in die Summe bzw. das Produkt berücksichtigt. Somit kann die Entwicklung über die Zeit beginnend vom Startwert für beide Returnarten einach berechnet werden.
df3['LogReturns_kum']=df3['LogReturn'].cumsum()
df3['Rendite_kum']=(1+df3['Rendite']).cumprod()-1
print(df3.tail())
df3.LogReturns_kum.plot()
df3.Rendite_kum.plot()
plt.legend(['LogReturns','Rendite'])
Price Rendite LogReturn Rendite2 LogReturn2 LogReturn3 \
Date
2026-01-12 -0.006016 -0.006034 -0.006016 -0.006034 -0.006034
2026-01-13 -0.000526 -0.000526 -0.000526 -0.000526 -0.000526
2026-01-14 -0.002370 -0.002372 -0.002370 -0.002372 -0.002372
2026-01-15 0.008446 0.008410 0.008446 0.008410 0.008410
2026-01-16 -0.002879 -0.002883 -0.002879 -0.002883 -0.002883
Price LogReturns_kum Rendite_kum
Date
2026-01-12 0.533319 0.704581
2026-01-13 0.532793 0.703684
2026-01-14 0.530420 0.699647
2026-01-15 0.538831 0.714001
2026-01-16 0.535948 0.709067
<matplotlib.legend.Legend at 0x740d3f77b790>
Es ist deutlich zu erkennen, dass für die frühen Zeitpunkte \(t\) sich die Log-Returns und Renditen von 0 (also Jahresanfang 2024) bis \(t\) kaum unterscheiden. Mit steigender Zeit \(t\) laufen die beiden Renditekurven allerdings auseinander, da sich für größere Zeitabstände eben beide Returndefinitionen unterscheiden. Wie erwartet liegen die (kumulierten) Renditen immer oberhalb der Log-Returns
7.3. Annualisierte Returns#
Aus Gleichung (7.3) folgt
d. h. die kumulierte Rendite von 0 nach t lässt sich basierend auf der modifizierten Stichprobe der Tages-Renditen \(y_k = R_{k-1,k}+1\) mit Hilfe des geometrischen Mittels für \(n=t\)
aller Tagesrenditen bis zum Zeitpunkt t ausdrücken. Ebenso können wir für die Log-Returns für die Stichprobe der Tages-Returns \(x_k = r_{k-1,k}\) mittels des arithmetischen Mittels \(\bar{x}=\frac 1n \sum\limits_{k=1}^n x_k\) wegen Formel (7.2) schreiben als
Außerdem gilt folgender Zusammenhang zwischen geometrischen Mittel der Renditen und arithmetischen Mittel der Log-Returns für beliebige Stichprobengröße \(n\)
Somit wird aus allen vorhanden Tages-Returns das jeweilige arithmetische und geometrische Mittel geschätzt und dann annualisiert man diese Werte entsprechend obiger Formeln, wobei man typischerweise unterstellt, dass ein Handelsjahr 252 Handelstage hat
sowie
Insbesondere für statistische Analysen werden häufig die Maßzahlen für jährliche Renditen angegeben, um eine bessere Vergleichbarkeit zwischen verschiedenen Anlageprodukten und Anlagezeiträumen durch die entsprechende Skalierung zu erreichen.
In Abschnitt Portfolioanalyse: erwarteter Portfolio-Return und Portfolio-Varianz benötigen wir die Erwartungswerte, Varianzen sowie Kovarianzen zwischen den einzelnen Aktienrenditen, um die erwartete Portfoliorendite und -Varianz zu berechnen. Für die Log-Returns ist dies aufgrund der Linearität des Erwartungswertes sehr einfach. Aus diesem Grund arbeitet man in der Finanzmathematik auch häufig lieber mit den Log-Returns als den Renditen. Unterstellt man, dass die Tages-Returns der \(j\)-ten Aktie \(r_{j,(k-1,k)}\) unabhängig und identisch verteilte Zufallsvariablen (iid) mit \(\mathbb{E} r_{j,(k-1,k)} = \mu_i\) und \(\operatorname{Var} r_{j,(k-1,k)}=\sigma^2_j\) sind, folgt für die erwarteten Jahres-Log-Returns sowie deren Varianzen bzw. Volatilitäten / Standardabweichungen
Zur Annualisierung der Kovarianz der täglichen Log-Returns führen wir folgende Bezeichnung ein: \(X_k\) sei der zufällige Tages-Return der \(i\)-ten Aktie von Tag \((k-1)\)-ten Tag zum \(k\)-ten Tag und für die \(j\)-te Aktie sei \(Y_l\) der Tages-Return vom \((l-1)\)-ten Tag zum \(l\)-ten Tag, d. h.
Mit (7.2) folgt daher für die Jahres-Returns (für \(t=252\))
Unterstellen wir zusätzlich zur Standardannahme (tägliche Returns einer Aktie sind identisch und unabhängig verteilt, d.h. \(X_1, \ldots, X_t\) iid sowie \(Y_1, \ldots, Y_t\) iid), dass ausschließlich die Tages-Returns zweier verschiedener Aktien am selben Tag korrelieren, also genauer
erhalten wir für die Kovarianz der Jahres-Returns zwischen der \(i\)-ten und \(j\)-ten Aktie wegen
dass die Kovarianzen der Returns von 0 bis t einfach mit der Zeit skalieren
und somit die annualisierte Kovarianzmatrix aller Returns unter der Annahme dass ein Jahr 252 Handelstage besitzt
wobei \(\Sigma_\text{daily}\) die Kovarianzmatrix der Tages-Returns bezeichnet.
Die Annualisierung für die prozentualen Zuwächse ist wegen der Nichtlinearität in (7.4) bzw. (7.2) komplizierter, aber unter den obigen Annahmen der Unabhängigkeit der Tages-Renditen verschiedener Tage faktorisiert der Erwartungswert des Produktes. Analog zu den Log-Returns führen wir für die zufälligen Renditen folgende Bezeichnungen ein
wobei analog zu den Log-Returns \(\mathbb{E} R_{i,(k-1,k)} = \tilde{\mu}_i\) und \(\operatorname{Var} R_{i,(k-1,k)} = \tilde{\sigma}^2_i\) sowie
Aus Formel (7.3) bzw. (7.4) folgt dann für die erwartete Jahres-Rendite
zusammengefasst also
und die Varianz skaliert wegen
aus den Tageswerten
Insbesondere die Skalierung der Varianz für die annualisierten Renditen ist demnach also deutlich komplexer und insbesondere auch nichtlinear in der Zeit \(t\). Für die Kovarianzen der Jahres-Renditen zwischen der \(i\)-ten und \(j\)-ten Aktie ergibt sich bei analogen Annahmen zu den Log-Returns
denn
wobei die letzte Gleichung aus
folgt. Prinzipiell können wir also aus mit Formel (7.6) von den täglichen Erwartungswertvektor bzw. Kovarianzmatrix der Renditen übergehen zu den annualisierten Werten, allerdings nicht so einfach wie für die Log-Returns.
7.4. Statistische Analyse der Returns#
Wie oben gesehen sind die Unterschiede zwischen täglichen Log-Returns und Renditen nicht wesentlich. So sehen die Histogrammen, die die Verteilung der täglichen Wertzuwächse wiedergeben sehr ähnlich aus, wie die folgenden beiden Graphiken zeigen. Der folgende Code erzeugt nicht nur ein klassisches Histogramm, sondern fügt noch den Standard-Kerndichteschätzer[2], was man einfach als empirische Dichtefunktion interpretieren kann, sondern auch noch zum Vergleich die angepasste Normalverteilungsdichte[3].
from scipy.stats import norm
#Parameter der NV aus Daten schaetzen
mu_log, std_log = norm.fit (df3.LogReturn)
#Alternative mit selben Schaetzwerten
#mu2 = np.mean(df3['LogReturn'])
#std2 = np.std(df3['LogReturn'])
#print("Schätzer mu=%f vs mu2 =%f" % (mu, mean))
#print("Schätzer std=%f vs std2 =%f" % (std, std2))
# x Werte fuer Dichteplot der Normalverteilung
x = np.linspace(min(df3['LogReturn']), max(df3['LogReturn']), 1000)
#Histogramm mit kernel
sns.histplot(df3['LogReturn'], stat = 'density', kde=True)
#Dichte = pdf mit gefitteten Parametern
y = norm.pdf(x, mu_log, std_log)
#hinzufügen der Dichte zum Histogramm:
plt.plot(x, y, color='red')
#Legende hinzufügen
plt.legend(['Kerndichteschätzer','Normaldichte'])
<matplotlib.legend.Legend at 0x740d3ee80090>
#Analoges Vorgehen für Renditen
mu, std = norm.fit (df3.Rendite)
x = np.linspace(min(df3['Rendite']), max(df3['Rendite']), 1000)
sns.histplot(df3['Rendite'], stat = 'density', kde=True)
y = norm.pdf(x, mu, std)
plt.plot(x, y, color='red')
plt.legend(['Kerndichteschätzer','Normaldichte'])
<matplotlib.legend.Legend at 0x740d40f1e010>
Der Kerndichteschätzer zeigt eine typische glockenförmige Verteilung. Allerdings zeigt der Vergleich zwischen Kerndichteschätzer und Normalverteilungsdichte eine recht deutlichte Abweichung zur Normalverteilung. In den Rändern der empirischen Verteilung liegen deutlich mehr Werte als bei der Normalverteilung üblich. Insbesondere die linke Seite, die starke Verluste repräsentiert, ist stärker ausgeprägt und dies spricht für eine leptokurtsiche Verteilung. Mit Hilfe der 3. und 4. Momente werden wir dies auch mit Hilfe statistischer Maßzahlen in höhere Momente: Schiefe und Kurtosis ausdrücken.
print("mittlere Tages-Rendite: %f Tages-LogReturns: %f" % (mu, mu_log))
print("Standardabweichung Tages-Rendite: %f Tages-LogReturns: %f" % (std, std_log))
mittlere Tages-Rendite: 0.001100 Tages-LogReturns: 0.001037
Standardabweichung Tages-Rendite: 0.011210 Tages-LogReturns: 0.011238
Oben haben wir bereits mittleren Tages-Returns und die Standardabweichungen berechnet. Allerdings kann man dies auch gleich spaltenweise für den gesamten DataFrame. Zu beachten gilt hier natürlich, ob die Maßzahl tatsächlich auch sinnvoll für jede Variable / Spalte ist. Die Mittelung der durchschnittlich kumilierten Returns ist beipspielsweise nicht sinnvoll, da für jede Zeile verschiedene Zeitpunkte betrachtet werden und somit keine stationäre Zeitreihe mehr vorliegt. Daher sollten die letzten beiden Spalten bei der Interpretation ausgelassen (oder noch besser ausgeblendet) werden, wie wir im Folgenden noch demonstrieren.
df3.mean()
Price
Rendite 0.001100
LogReturn 0.001037
Rendite2 0.001100
LogReturn2 0.001037
LogReturn3 0.001037
LogReturns_kum 0.285824
Rendite_kum 0.350337
dtype: float64
df3.std()
Price
Rendite 0.011221
LogReturn 0.011249
Rendite2 0.011221
LogReturn2 0.011249
LogReturn3 0.011249
LogReturns_kum 0.171482
Rendite_kum 0.228257
dtype: float64
Die describe() Funktion liefert eine Übersicht der wichtigsten Statistik-Maßzahlen
df3.describe()
| Price | Rendite | LogReturn | Rendite2 | LogReturn2 | LogReturn3 | LogReturns_kum | Rendite_kum |
|---|---|---|---|---|---|---|---|
| count | 517.000000 | 517.000000 | 517.000000 | 517.000000 | 517.000000 | 517.000000 | 517.000000 |
| mean | 0.001100 | 0.001037 | 0.001100 | 0.001037 | 0.001037 | 0.285824 | 0.350337 |
| std | 0.011221 | 0.011249 | 0.011221 | 0.011249 | 0.011249 | 0.171482 | 0.228257 |
| min | -0.060486 | -0.062393 | -0.060486 | -0.062393 | -0.062393 | -0.021875 | -0.021637 |
| 25% | -0.004881 | -0.004893 | -0.004881 | -0.004893 | -0.004893 | 0.121547 | 0.129243 |
| 50% | 0.001414 | 0.001413 | 0.001414 | 0.001413 | 0.001413 | 0.260017 | 0.296952 |
| 75% | 0.007336 | 0.007310 | 0.007336 | 0.007310 | 0.007310 | 0.447360 | 0.564178 |
| max | 0.043782 | 0.042850 | 0.043782 | 0.042850 | 0.042850 | 0.566194 | 0.761550 |
Mittels apply() können auch einzelne oder mehrere Funktionen auf die Spalten (axis = 0) bzw. Zeilen (axis=1) angewendet werden
df3.apply([np.mean, np.std], axis = 0)
| Price | Rendite | LogReturn | Rendite2 | LogReturn2 | LogReturn3 | LogReturns_kum | Rendite_kum |
|---|---|---|---|---|---|---|---|
| mean | 0.00110 | 0.001037 | 0.00110 | 0.001037 | 0.001037 | 0.285824 | 0.350337 |
| std | 0.01121 | 0.011238 | 0.01121 | 0.011238 | 0.011238 | 0.171316 | 0.228036 |
Natürlich können auch eigene Funktionen angewendet werden. Der folgende Code zeigt beispielhaft die selbstständige Berechnung der ersten beiden empirischen Momente:
def my_mean(x):
return np.sum(x) / x.size
def my_var(x, correction = True):
n = x.size
m = my_mean(x)
ss = ((x-m)**2).sum()
df = n #biased variance estimator!
if correction:
#Bessel correction gives unbiased variance estimate
df = df - 1
return ss/df
def my_var2(x):
n = x.size
m = my_mean(x)
ss = (x**2).sum() - n*m**2
return ss/(n-1)
def my_var_biased(x):
return my_var(x, correction=False)
def my_sd(x):
return np.sqrt(my_var(x))
df3.apply([my_mean, my_var, my_var_biased, my_sd], axis = 0, correction = True)
| Price | Rendite | LogReturn | Rendite2 | LogReturn2 | LogReturn3 | LogReturns_kum | Rendite_kum |
|---|---|---|---|---|---|---|---|
| my_mean | 0.001100 | 0.001037 | 0.001100 | 0.001037 | 0.001037 | 0.285824 | 0.350337 |
| my_var | 0.000126 | 0.000127 | 0.000126 | 0.000127 | 0.000127 | 0.029406 | 0.052101 |
| my_var_biased | 0.000126 | 0.000126 | 0.000126 | 0.000126 | 0.000126 | 0.029349 | 0.052000 |
| my_sd | 0.011221 | 0.011249 | 0.011221 | 0.011249 | 0.011249 | 0.171482 | 0.228257 |
Die Berechnung der statistischen Kennzahlen für die kumulierten Returns (letzten beiden Spalten) macht wie oben bereits erwähnt keinen Sinn, daher schließen wir sie einfach aus der Auswertung aus.
df3.drop(columns=["LogReturns_kum","Rendite_kum"]).apply([my_mean, my_var, my_var_biased, my_sd], axis = 0, correction = True)
| Price | Rendite | LogReturn | Rendite2 | LogReturn2 | LogReturn3 |
|---|---|---|---|---|---|
| my_mean | 0.001100 | 0.001037 | 0.001100 | 0.001037 | 0.001037 |
| my_var | 0.000126 | 0.000127 | 0.000126 | 0.000127 | 0.000127 |
| my_var_biased | 0.000126 | 0.000126 | 0.000126 | 0.000126 | 0.000126 |
| my_sd | 0.011221 | 0.011249 | 0.011221 | 0.011249 | 0.011249 |
Alternativ kann man natürlich einfach die Variablen angeben, die man auswerten möchte: hier bietet sich neben der Funktion drop() auch die Pandas Funktion filter() an, bei der man beispielsweise mittels sogenannter Regular Expressions (siehe auch Regex Cheat Sheet) sehr vielfältige Bedingungen formulieren kann, siehe
Pandas Docu.
Im folgenden Code wollen wir alle Variablen die mit ‘Log’ beginnen (^Log) aber am Ende nicht auf ‘_kum’ enden (negative lookahead: (?!.*_kum$)) auswerten:
df3.filter(regex=r"^Log(?!.*_kum$)").apply([my_mean, my_var, my_var_biased, my_sd], axis = 0, correction = True)
| Price | LogReturn | LogReturn2 | LogReturn3 |
|---|---|---|---|
| my_mean | 0.001037 | 0.001037 | 0.001037 |
| my_var | 0.000127 | 0.000127 | 0.000127 |
| my_var_biased | 0.000126 | 0.000126 | 0.000126 |
| my_sd | 0.011249 | 0.011249 | 0.011249 |
Hinweis: man kann das beliebig individualisieren. In manchen Auswertungen möchte man beispielsweise nur Variablen mit numerischen Werten auswerten, dann ist die Funktion select_dtypes() für die Auswahl bestimmer Datentypen hilfreich.
Ebenso kann die Funktion agg() wie die Funktion apply() angewendet werden:
df3.drop(columns=["LogReturns_kum","Rendite_kum"]).agg([my_mean, np.mean, my_var, my_var2, my_var_biased, my_sd, np.std])
/tmp/ipykernel_2432325/1356242698.py:1: FutureWarning: The provided callable <function mean at 0x740d7815c4a0> is currently using Series.mean. In a future version of pandas, the provided callable will be used directly. To keep current behavior pass the string "mean" instead.
df3.drop(columns=["LogReturns_kum","Rendite_kum"]).agg([my_mean, np.mean, my_var, my_var2, my_var_biased, my_sd, np.std])
/tmp/ipykernel_2432325/1356242698.py:1: FutureWarning: The provided callable <function std at 0x740d7815c5e0> is currently using Series.std. In a future version of pandas, the provided callable will be used directly. To keep current behavior pass the string "std" instead.
df3.drop(columns=["LogReturns_kum","Rendite_kum"]).agg([my_mean, np.mean, my_var, my_var2, my_var_biased, my_sd, np.std])
| Price | Rendite | LogReturn | Rendite2 | LogReturn2 | LogReturn3 |
|---|---|---|---|---|---|
| my_mean | 0.001100 | 0.001037 | 0.001100 | 0.001037 | 0.001037 |
| mean | 0.001100 | 0.001037 | 0.001100 | 0.001037 | 0.001037 |
| my_var | 0.000126 | 0.000127 | 0.000126 | 0.000127 | 0.000127 |
| my_var2 | 0.000126 | 0.000127 | 0.000126 | 0.000127 | 0.000127 |
| my_var_biased | 0.000126 | 0.000126 | 0.000126 | 0.000126 | 0.000126 |
| my_sd | 0.011221 | 0.011249 | 0.011221 | 0.011249 | 0.011249 |
| std | 0.011221 | 0.011249 | 0.011221 | 0.011249 | 0.011249 |
7.4.1. höhere Momente: Schiefe und Kurtosis#
Allgemein kann die Verteilung einer Stichprobe mittels der empirischen zentralen bzw. allgemeinen Momente
beschrieben werden. Während das 1. Moment \(M_1 = \overline x\) den Mittelwert der Verteilung beschreibt, wird die Schwankung mittels des 2. Moments beschrieben und entspricht dem unkorrigierten Varianzschätzer
Die sogenannte Z-Transformation einer Stichprobe \(x_1, x_2, \ldots, x_n\) ist eine Standardisierung[4] der Werte \(z_i = \frac{x_i - M_1}{\sqrt{M_2}} = \frac{x_i - \overline x}{\tilde s}\), so dass diese Stichprobe wegen \(M_1(z) = \frac1n \sum\limits_{i=1}^n z_i = 0\) um die Null schwankt mit Varianz
def my_central_moments(x,k):
n = x.size
m = x.sum()/n
return ((x-m)**k).sum()/n
#2. Moment = Varianz
s2 = my_var(df3['LogReturn'])
s2_1 = my_central_moments(df3['LogReturn'], 2)
s2_2 = my_var_biased(df3['LogReturn'])
print("unbiased var = %f, 2. zentrales Moment = %f, biased var = %f" % (s2,s2_1, s2_2))
unbiased var = 0.000127, 2. zentrales Moment = 0.000126, biased var = 0.000126
Mittels dem 3. Moment wird die (empirische) Schiefe einer Verteilung berechnet
Für symmetrische Verteilungen verschwindet die Schiefe (\(\bar{x} \approx x_{med} \approx x_{mod}\), \(g \approx 0\)), während für linksschiefe (rechtssteil) Verteilungen der Wert negativ wird (\(\bar{x} < x_{med} < x_{mod}\), \(g<0\)) und für rechtsschiefe (linkssteil) Verteilungen (\(\bar{x} > x_{med} > x_{mod}\), \(g>0\)) sich ein postiver Wert ergibt.
def schiefe(x):
m = x.sum()
s = np.sqrt(my_central_moments(x,2))
#s = x.std(ddof=0) # Populations-Std für Normierung
#n = x.size
z = (x-m)/s
return (my_central_moments(z,3))
#3. Moment / Schiefe
m3 = my_central_moments(df3['LogReturn'], 3)
g = schiefe(df3['LogReturn'])
print("Schiefe: g = %f basierend auf 3. zentralen Moment = %f" % (g, m3))
Schiefe: g = -0.663553 basierend auf 3. zentralen Moment = -0.000001
Mittels 4. Moment misst man die Wölbung bzw. Krümmung einer Verteilung
wobei die Verschiebung um 3 für die bessere Interpretierbarkeit bzw. dem Vergleich zur Normalverteilung dient, denn diese Kennzahl vergleicht wie stark der zentrale Bereich und folglich auch wie schwach die ‘tails’ im Vergleich zur Normalverteilung besetzt sind. Werte von \(\gamma \approx 0\) sind typisch für eine Normalverteilung, während positive Werte für eine spitzere Verteilung (\(\gamma > 0\)) mit mehr Maße in den Tails und negative Werte für eine breitere Verteilung (\(\gamma < 0\)) sprechen.
def woelbung(x):
m = x.sum()
s = np.sqrt(my_central_moments(x,2))
#s = x.std(ddof=0) # Populations-Std für Normierung
#n = x.size
z = (x-m)/s
return (my_central_moments(z,4) - 3)
#4. Moment / Krümmung
m4 = my_central_moments(df3['LogReturn'], 4)
k = woelbung(df3['LogReturn'])
print("Kurtosis: gamma = %f basierend auf 4. zentralen Moment = %f" % (k, m4))
Kurtosis: gamma = 3.815042 basierend auf 4. zentralen Moment = 0.000000
df3.drop(columns=["LogReturns_kum","Rendite_kum"]).agg([schiefe, woelbung])
| Price | Rendite | LogReturn | Rendite2 | LogReturn2 | LogReturn3 |
|---|---|---|---|---|---|
| schiefe | -0.573973 | -0.663553 | -0.573973 | -0.663553 | -0.663553 |
| woelbung | 3.563257 | 3.815042 | 3.563257 | 3.815042 | 3.815042 |
Natürlich gibt es auch enstprechende Pakete, um diese Kennzahlen einfach zu berechnen. Hier nutzen wir das Sub-Package scipy.stats
from scipy.stats import skew, kurtosis, moment
#g = schiefe(df3['LogReturn'])
#k = woelbung(df3['LogReturn'])
#Package Version:
g2 = skew(df3['LogReturn'])
k2 = kurtosis(df3['LogReturn'])
m3_sci = moment(df3['LogReturn'], order=3)
print("Schiefe: g = %f, scipy.stats.skew = %f" % (g, g2 ))
print("3. Moment: m3 = %f, scipy.stats.moment = %f" % (m3, m3_sci))
print("Kurtosis: k = %f, Scipy.stats.kurtosis = %f" % (k, k2))
#kompletter DataFrame
print("Skew: %s" % df3.skew())
print("Kurtosis: %s" % df3.kurtosis())
Schiefe: g = -0.663553, scipy.stats.skew = -0.663553
3. Moment: m3 = -0.000001, scipy.stats.moment = -0.000001
Kurtosis: k = 3.815042, Scipy.stats.kurtosis = 3.815042
Skew: Price
Rendite -0.575644
LogReturn -0.665485
Rendite2 -0.575644
LogReturn2 -0.665485
LogReturn3 -0.665485
LogReturns_kum -0.115525
Rendite_kum 0.037596
dtype: float64
Kurtosis: Price
Rendite 3.609655
LogReturn 3.863892
Rendite2 3.609655
LogReturn2 3.863892
LogReturn3 3.863892
LogReturns_kum -1.378723
Rendite_kum -1.418594
dtype: float64
Wir haben hier ausschließlich Tages-Returns ausgewertet, allerdings haben wir in Annualisierte Returns gesehen, wie wir diese zu Jahres-Returns skalieren können. Insbesondere Schiefe und Kurtosis sind im Gegensatz zu den zentrierten 3. bzw. 4. Momenten aber skalierungsfrei, da sich die Skalierungsfaktoren bei der Normierung herauskürzen.
7.4.2. Test auf Normalverteilung#
from scipy import stats
test1 = stats.shapiro(df3['LogReturn'])
print(test1)
test2 = stats.normaltest(df3['LogReturn'])
print(test2)
ShapiroResult(statistic=0.9537797324734574, pvalue=1.207353681574444e-11)
NormaltestResult(statistic=84.51611941150736, pvalue=4.441788280051733e-19)
7.4.3. Abhängigkeiten zwischen Aktien-Returns: Kovarianz und Korrelation#
Zur statistischen Auswertung zählt natürlich auch die Analyse der Abhängigkeiten zwischen verschiedenen Aktien. Im folgenden Abschnitt Portfolio-Returns werden wir aus verschiedenen Aktien ein Portfolio zusammenstellen und desen Entwicklung näher untersuchen. Bevor wir Portfolio-Returns studieren, untersuchen wir noch die Abhängigkeiten zwischen den einzelnen Aktien-Returns. Der Übersichtlichkeit wählen wir hier 4 Aktien und laden deren Kurse bei YahooFinance herunter:
tickers = ["AAPL", "MSFT", "GOOGL", "TSLA"]
# Kurse herunterladen (letztes Jahr)
portfolio_data = yf.download(tickers, period="5y")
#print(data.head())
#wollen nur Schlusskurse untersuchen
close_df = portfolio_data["Close"].copy()
print(close_df.head())
close_df.plot()
/tmp/ipykernel_2432325/3752665698.py:4: FutureWarning: YF.download() has changed argument auto_adjust default to True
portfolio_data = yf.download(tickers, period="5y")
[ 0% ]
[**********************50% ] 2 of 4 completed
[**********************75%*********** ] 3 of 4 completed
[*********************100%***********************] 4 of 4 completed
Ticker AAPL GOOGL MSFT TSLA
Date
2021-01-19 124.436409 88.554405 207.682785 281.516663
2021-01-20 128.524887 93.298553 215.263138 283.483337
2021-01-21 133.236404 93.501038 215.867676 281.663330
2021-01-22 135.378021 93.918373 216.808014 282.213318
2021-01-25 139.125778 94.003723 220.243149 293.600006
<Axes: xlabel='Date'>
Teilweise verlaufen alle 4 Kurse sehr ähnlich, teilweise aber auch individuell. Sinnvoll ist daher der Übergang zu den Renditen und die Analyse derer Abhängigkeiten.
renditen = close_df.pct_change()
print(renditen.head())
renditen.plot(alpha = 0.7)
Ticker AAPL GOOGL MSFT TSLA
Date
2021-01-19 NaN NaN NaN NaN
2021-01-20 0.032856 0.053573 0.036500 0.006986
2021-01-21 0.036658 0.002170 0.002808 -0.006420
2021-01-22 0.016074 0.004463 0.004356 0.001953
2021-01-25 0.027684 0.000909 0.015844 0.040348
<Axes: xlabel='Date'>
Während oben bereits der zeitliche Verlauf unterschiedliche Zusammenhänge verdeutlicht, ist die Darstellung in Scatterplots übersichtlicher:
pd.plotting.scatter_matrix(renditen, figsize=(6, 6), diagonal="hist")
plt.show()
sns.pairplot(renditen)
plt.show()
/HOME1/users/personal/dana/miniconda3/envs/finance/lib/python3.11/site-packages/seaborn/axisgrid.py:123: UserWarning: The figure layout has changed to tight
self._figure.tight_layout(*args, **kwargs)
Natürlich können auch nur einzelne Paare beispielsweise mittels der Seaborn Funktionen scatterplot() oder relplot() dargestellt werden. Auf den ersten Blick unterscheiden sich die Funktionen nicht, allerdings liefert die zweite Funktionen flexiblere Anpassungsmöglichkeiten[5].
sns.scatterplot(data = renditen, x='AAPL', y='TSLA')
<Axes: xlabel='AAPL', ylabel='TSLA'>
sns.relplot(data = renditen, x='AAPL', y='TSLA', kind = 'scatter')
/HOME1/users/personal/dana/miniconda3/envs/finance/lib/python3.11/site-packages/seaborn/axisgrid.py:123: UserWarning: The figure layout has changed to tight
self._figure.tight_layout(*args, **kwargs)
<seaborn.axisgrid.FacetGrid at 0x740d29854690>
Alle Scatter-Plots zeigen einen mehr oder weniger starken positiven Zusammenhang zwischen den Renditen zweier Aktien. Steigt die Rendite der einen Aktie, dann steigt üblicherweise auch die der anderen Aktie und fällt die eine Rendite, dann auch die andere. Die einfachste statistische Maßzahl zur Erfassung des Zusammenhangs sind die (empirische) Kovarianz und Korrelation[6], die allerdings nur den linearen Zusammenhang erfassen. Die (unverzerrte) empirische Kovarianz zweier Stichproben \((x,y)=((x_1,y_1), \ldots, (x_n,y_n))\) wird mittels
berechnet. Die Korrelation entsteht durch Normierung und ist einfacher zu interpretieren
Pandas hat die Berechnung der empirischen Kovarianz- und Korrelation bereits implementiert und fasst alle paarweisen Kombinationen in der Kovarianz- bzw. Korrelationsmatrix zusammen. Auf der Diagonalen der Kovarianzmatrix stehen also die Varianzen.
kov_matrix = renditen.cov()
print(kov_matrix)
Ticker AAPL GOOGL MSFT TSLA
Ticker
AAPL 0.000306 0.000197 0.000178 0.000332
GOOGL 0.000197 0.000383 0.000203 0.000309
MSFT 0.000178 0.000203 0.000262 0.000261
TSLA 0.000332 0.000309 0.000261 0.001449
korr_matrix = renditen.corr()
print(korr_matrix)
Ticker AAPL GOOGL MSFT TSLA
Ticker
AAPL 1.000000 0.575959 0.629608 0.499531
GOOGL 0.575959 1.000000 0.639823 0.414342
MSFT 0.629608 0.639823 1.000000 0.422917
TSLA 0.499531 0.414342 0.422917 1.000000
Zum Abschluss zeichnen wir noch die Regressionsgerade in den Scatterplot ein, um den linearen Zusammenhang zu veranschaulichen. Mit Regressionsmodellen beschäftigen wir und noch ausführlich in Abschnitt Regressionsmodelle
sns.regplot(data=renditen, x="AAPL", y="MSFT", ci = None)
<Axes: xlabel='AAPL', ylabel='MSFT'>
👉Der Zusammenhang der täglichen Log-Returns ist völlig analog zu analysieren und sollte zu Übungszwecken selbstständig durchgeführt werden.
7.4.4. Achtung: Vorsicht bei der Skalierung der ‘zeitlinearen’ Log-Returns um von Tages-Returns zu Jahres-Returns überzugehen#
Wir haben bei der Analyse der Tages-Returns gesehen, dass die Unterscheidung zwischen Log-Returns (zeitstetige Returns) und Renditen (arithmetische Returns, zweitdiskrete Returns) nur unwesentliche Unterschiede aufzeigen, da für Tages-Kurse beide Return-Begriffe zu verschiedenen, aber sehr ähnlichen Werten führen. Beide Definitionen haben entscheidente Vor- aber auch Nachteile. Die Log-Returns werden aufgrund ihrer kumulierenten Summeneigenschaft sowie der damit engen Verbindung mit der Normalverteilung (zentraler Grenzwertsatz) häufig für zeitstetige Modelle oder Modelle mit Normalverteilungsannahmen verwendet. Insbesondere ist der Übergang von täglichen zu jährlichen Returns im Gegensatz zu den Renditen sehr einfach. Wir werden in Abschnitt Portfolio-Returns noch sehen, dass sich die Portfoliorendite von der Anfangsinvestition zum Zeitpunkt 0 bis nach \(t\) einfach als gewichtete Summe der Aktien-Renditen von \(0\) bis \(t\) berechnen lässt, was für Log-Returns nur näherungsweise gilt. Dennoch haben sich aber wegen der einfachereren Skalierbarkeit auch hier die Log-Returns gegenüber den Renditen durchgesetzt.
Werden allgemein die Aktienkurse zu den Zeitpunkten \(t_0, t_1, \ldots, t_n\) gemessen, so kann man die annualisierten Log-Returns (siehe Vorlesungsskript Portfoliooptimierung Prof. Pichler) definieren als
Dann muss allerdings auch der Gesamt-Return von \(t_0\) nach \(t_n\) annualisiert werden
Für äquividistante Tagesdaten wählt man \(t_i = \frac{i}{252}\), so dass \(t_{i}-t_{i-1} = \frac 1 {252}\), für Monatskurse \(\frac{i}{12}\) erhält man entsprechend \(t_i - t_{i-1} = \frac 1{12} \) und für Quartalsdaten \(t_i=\frac{i}{4}\) entsprechend \(t_i - t_{i-1} = \frac 1{4}\).
trading_days = 252
log_returns = np.log(renditen + 1)
mu = log_returns.mean()
mu_tilde = renditen.mean()
geo_mean_renditen = np.exp((np.log(renditen+1)).mean()) - 1
print("mean daily R %s: \n " % mu_tilde)
print("geometric mean daily R %s: \n" % geo_mean_renditen)
print("check: geo mean Rendite = exp(mean daily log)-1 = %s \n" % (np.exp(mu)-1) )
print("Daily log-returns %s: \n" % mu)
mean daily R Ticker
AAPL 0.000734
GOOGL 0.001248
MSFT 0.000759
TSLA 0.001073
dtype: float64:
geometric mean daily R Ticker
AAPL 0.000582
GOOGL 0.001056
MSFT 0.000629
TSLA 0.000354
dtype: float64:
check: geo mean Rendite = exp(mean daily log)-1 = Ticker
AAPL 0.000582
GOOGL 0.001056
MSFT 0.000629
TSLA 0.000354
dtype: float64
Daily log-returns Ticker
AAPL 0.000582
GOOGL 0.001056
MSFT 0.000628
TSLA 0.000354
dtype: float64:
#annualization: from daily means to yearly means
mu_year = mu * trading_days
mu_tilde_year = (mu_tilde+1) ** trading_days - 1
mu_tilde_year_approx1 = mu_tilde * trading_days
mu_tilde_year_approx2 = np.exp(mu_year) -1
#mu_tilde_year_approx3 = mu_year
print("mu year (Log-Returns r) %s: \n " % mu_year)
print("mu_tilde year (Renditen R) %s: \n " % mu_tilde_year)
print("Approximation1 : mu_tilde_year = mu_tilde * trading days %s\n " % (mu_tilde_year_approx1))
print("Approximation2: exp(mu_year) -1 %s: \n" % (mu_tilde_year_approx2))
mu year (Log-Returns r) Ticker
AAPL 0.146694
GOOGL 0.266040
MSFT 0.158339
TSLA 0.089090
dtype: float64:
mu_tilde year (Renditen R) Ticker
AAPL 0.203178
GOOGL 0.369148
MSFT 0.210723
TSLA 0.310290
dtype: float64:
Approximation1 : mu_tilde_year = mu_tilde * trading days Ticker
AAPL 0.185034
GOOGL 0.314385
MSFT 0.191291
TSLA 0.270394
dtype: float64
Approximation2: exp(mu_year) -1 Ticker
AAPL 0.158000
GOOGL 0.304787
MSFT 0.171564
TSLA 0.093179
dtype: float64:
from datetime import datetime
print(log_returns.head())
print(log_returns.tail())
annulalized_log_returns = log_returns.copy()
kalendertage = (annulalized_log_returns.index[-1] - annulalized_log_returns.index[0]).days
print("Tage insgesamt: %s, Jahre: %s" % (kalendertage, kalendertage / 365))
#annulalized_log_returns = annulalized_log_returns.reset_index()
for i in range(1,len(log_returns)):
annulalized_log_returns.iloc[i] = annulalized_log_returns.iloc[i]* 365 / (annulalized_log_returns.index[i] - annulalized_log_returns.index[i-1]).days
print(annulalized_log_returns.head() )
print(annulalized_log_returns.tail() )
mu_annulalized_log_returns = annulalized_log_returns.mean()
print(mu_annulalized_log_returns)
Ticker AAPL GOOGL MSFT TSLA
Date
2021-01-19 NaN NaN NaN NaN
2021-01-20 0.032328 0.052187 0.035849 0.006962
2021-01-21 0.036002 0.002168 0.002804 -0.006441
2021-01-22 0.015946 0.004454 0.004347 0.001951
2021-01-25 0.027307 0.000908 0.015720 0.039555
Ticker AAPL GOOGL MSFT TSLA
Date
2026-01-09 0.001273 0.009572 0.002444 0.020913
2026-01-12 0.003387 0.009963 -0.004391 0.008837
2026-01-13 0.003069 0.012309 -0.013737 -0.003928
2026-01-14 -0.004184 -0.000387 -0.024279 -0.018051
2026-01-15 -0.006755 -0.009153 -0.005939 -0.001435
Tage insgesamt: 1822, Jahre: 4.991780821917808
Ticker AAPL GOOGL MSFT TSLA
Date
2021-01-19 NaN NaN NaN NaN
2021-01-20 11.799627 19.048435 13.085007 2.541024
2021-01-21 13.140901 0.791294 1.023617 -2.350912
2021-01-22 5.820288 1.625528 1.586518 0.712020
2021-01-25 3.322398 0.110517 1.912591 4.812535
Ticker AAPL GOOGL MSFT TSLA
Date
2026-01-09 0.464671 3.493710 0.892124 7.633384
2026-01-12 0.412099 1.212192 -0.534264 1.075169
2026-01-13 1.120260 4.492685 -5.013831 -1.433657
2026-01-14 -1.527223 -0.141265 -8.862008 -6.588626
2026-01-15 -2.465417 -3.340932 -2.167598 -0.523945
Ticker
AAPL 0.199831
GOOGL 0.323416
MSFT 0.234290
TSLA -0.067715
dtype: float64
Sigma_day = log_returns.cov()
Sigma_year = Sigma_day * trading_days
Sigma_tilde_day = renditen.cov()
#Dummy zur simultanen Berechnung von (mu_tilde_i + 1)(mu_tilde_j + 1)
mu_tilde_dummy = np.outer(mu_tilde + 1, mu_tilde + 1)
#print(mu_tilde_dummy)
Sigma_tilde_year = (Sigma_tilde_day + mu_tilde_dummy)**trading_days - mu_tilde_dummy**trading_days
Sigma_tilde_year_approx1 = Sigma_year
Sigma_tilde_year_approx2 = Sigma_tilde_day * trading_days
print("Annualized covarince R (percentege changes)")
print(Sigma_tilde_year)
print("Approx1: Annualized covarince R (percentege changes): Sigma \approx Sigma_tilde")
print(Sigma_tilde_year_approx1)
print("Approx2: Annualized covarince R (percentege changes): yearly cov = daily cov * 252")
print(Sigma_tilde_year_approx2)
print("Annualized covariance r (log retunrs)")
print(Sigma_year)
Annualized covarince R (percentege changes)
Ticker AAPL GOOGL MSFT TSLA
Ticker
AAPL 0.115720 0.083742 0.066778 0.137503
GOOGL 0.083742 0.189629 0.086713 0.144848
MSFT 0.066778 0.086713 0.099847 0.107452
TSLA 0.137503 0.144848 0.107452 0.754362
Approx1: Annualized covarince R (percentege changes): Sigma pprox Sigma_tilde
Ticker AAPL GOOGL MSFT TSLA
Ticker
AAPL 0.076478 0.049462 0.044600 0.083253
GOOGL 0.049462 0.096401 0.050929 0.077505
MSFT 0.044600 0.050929 0.065775 0.065362
TSLA 0.083253 0.077505 0.065362 0.362041
Approx2: Annualized covarince R (percentege changes): yearly cov = daily cov * 252
Ticker AAPL GOOGL MSFT TSLA
Ticker
AAPL 0.077027 0.049688 0.044893 0.083789
GOOGL 0.049688 0.096622 0.051096 0.077839
MSFT 0.044893 0.051096 0.066004 0.065666
TSLA 0.083789 0.077839 0.065666 0.365262
Annualized covariance r (log retunrs)
Ticker AAPL GOOGL MSFT TSLA
Ticker
AAPL 0.076478 0.049462 0.044600 0.083253
GOOGL 0.049462 0.096401 0.050929 0.077505
MSFT 0.044600 0.050929 0.065775 0.065362
TSLA 0.083253 0.077505 0.065362 0.362041
log_returns_scaled = log_returns * trading_days
print(log_returns_scaled.mean())
print(mu_year)
print(log_returns_scaled.cov())
print(Sigma_year)
Ticker
AAPL 0.146694
GOOGL 0.266040
MSFT 0.158339
TSLA 0.089090
dtype: float64
Ticker
AAPL 0.146694
GOOGL 0.266040
MSFT 0.158339
TSLA 0.089090
dtype: float64
Ticker AAPL GOOGL MSFT TSLA
Ticker
AAPL 19.272581 12.464439 11.239304 20.979854
GOOGL 12.464439 24.293015 12.834202 19.531187
MSFT 11.239304 12.834202 16.575393 16.471214
TSLA 20.979854 19.531187 16.471214 91.234214
Ticker AAPL GOOGL MSFT TSLA
Ticker
AAPL 0.076478 0.049462 0.044600 0.083253
GOOGL 0.049462 0.096401 0.050929 0.077505
MSFT 0.044600 0.050929 0.065775 0.065362
TSLA 0.083253 0.077505 0.065362 0.362041
7.5. Portfolio-Returns#
Aus den obigen 4 Aktien stellen wir jetzt ein Portfolio zusammen und investieren 1000$ zu 10% in 1. Aktie (AAPL), 30% in 2. Aktie (MSFT), 40% in 3. Aktie (GOOGL) und die verbleibenden 20% in 4.Aktie (TSLA) und schichten das Portfolio im Folgenden nicht mehr um. Die Gewichtung ist hier übrigens absolut willkürlich gewählt und kann beliebig geändert werden. Uns interessiert die Wertentwicklung des Portfolios und daher betrachten wir die Portfolio-Returns bzw. Renditen.
Achtung wenn der Vektor mit den Aktientickern wie in diesem Beispiel nicht alphabetisch sortiert ist, kann es beim Zugriff auf die Kurs-Daten der Aktien und Returns Probleme mit der Reihenfolge geben, da die Download-Funktion von yfinance diese automatisch sortiert und somit nicht mehr der ursprünglichen Reihenfolge entspricht. Beim Berechnen der Portfoliowerte und -Returns ist die Reihenfolge allerdings wesentlich. Greift man den DataFrame direkt auf dem Array der Ticker ab, erzwingt man die ursprüngliche Reihenfolge.
#vorgegebene Reihenfolge
print(tickers)
#automatische Sortierung
print(close_df.head())
#urspruengliche Reihenfolge
print(close_df[tickers].head())
calender_days = (close_df.index[-1] - close_df.index[0]).days
trading_days_per_year = 252
trading_days = len(close_df)
print("Kalendertage = %s, Handelstage = %s, Jahre (Handelstage) = %s, Jahre (Kalendertage) =%s"
% (calender_days, trading_days, trading_days / trading_days_per_year, calender_days / 365))
['AAPL', 'MSFT', 'GOOGL', 'TSLA']
Ticker AAPL GOOGL MSFT TSLA
Date
2021-01-19 124.436409 88.554405 207.682785 281.516663
2021-01-20 128.524887 93.298553 215.263138 283.483337
2021-01-21 133.236404 93.501038 215.867676 281.663330
2021-01-22 135.378021 93.918373 216.808014 282.213318
2021-01-25 139.125778 94.003723 220.243149 293.600006
Ticker AAPL MSFT GOOGL TSLA
Date
2021-01-19 124.436409 207.682785 88.554405 281.516663
2021-01-20 128.524887 215.263138 93.298553 283.483337
2021-01-21 133.236404 215.867676 93.501038 281.663330
2021-01-22 135.378021 216.808014 93.918373 282.213318
2021-01-25 139.125778 220.243149 94.003723 293.600006
Kalendertage = 1822, Handelstage = 1255, Jahre (Handelstage) = 4.98015873015873, Jahre (Kalendertage) =4.991780821917808
Wir nutzen dann später die Tages-Daten zur Schätzung der Kovarianz-Matrix und des Erwartungswertvektors der Returns, die wir zur Berechnung der erwarteten Portfolio-Returns sowie -Varianz benötigen.
Wird in \(t=0\) das Portfolio aus jeweils \(a_j\) Stocks zum Preis \(S_{j,0}\) zusammengesetzt (\(j=1, \ldots,J\)), gilt für den jeweiligen Portfolioanteil der \(j\)-ten Aktie
mit \(\sum\limits_{j=1}^J w_j = 1\), wobei \(P_0 = a_1 S_{1,0} + \ldots + a_J S_{J,0} = a^T S_0 = S_0^T a\) den investierte Gesamtbetrag beschreibt. Letztere Gleichung gilt für die Vektoren der Anzahl gekaufter Aktien \(a^T = (a_1, \ldots, a_J)\) und den Vektor der Startkurse \(S_0^T=(S_{1,0}, \ldots, S_{J,0})\) zur Investitionszeit in \(t=0\).
print(tickers)
weights = np.array([0.1, 0.3, 0.4, 0.2])
print("Summe der Portfoliogewichte = %f" % weights.sum())
#erzwingen urspruengliche Reihenfolge der Aktien im tickers vektor
portfolio = close_df[tickers].copy()
print(portfolio.head())
#vgl. sortiert
print(close_df.head())
#type pandas dataframe
print("Type: %s" % type(portfolio))
startkapital = 1000
S0 = portfolio.iloc[0] #1. Zeile entspricht Startwerten
stueckzahl = weights / S0 * startkapital
kaufpreis = sum(S0*stueckzahl)
print("kaufen in t=0 Stückzahl %s \n\n zum Preis %s \n\n für insgesamt %.1f Dollar" % (stueckzahl, S0, kaufpreis) )
#alternative Berechnung als Skalarprodukt:
S0.dot(stueckzahl)
['AAPL', 'MSFT', 'GOOGL', 'TSLA']
Summe der Portfoliogewichte = 1.000000
Ticker AAPL MSFT GOOGL TSLA
Date
2021-01-19 124.436409 207.682785 88.554405 281.516663
2021-01-20 128.524887 215.263138 93.298553 283.483337
2021-01-21 133.236404 215.867676 93.501038 281.663330
2021-01-22 135.378021 216.808014 93.918373 282.213318
2021-01-25 139.125778 220.243149 94.003723 293.600006
Ticker AAPL GOOGL MSFT TSLA
Date
2021-01-19 124.436409 88.554405 207.682785 281.516663
2021-01-20 128.524887 93.298553 215.263138 283.483337
2021-01-21 133.236404 93.501038 215.867676 281.663330
2021-01-22 135.378021 93.918373 216.808014 282.213318
2021-01-25 139.125778 94.003723 220.243149 293.600006
Type: <class 'pandas.core.frame.DataFrame'>
kaufen in t=0 Stückzahl Ticker
AAPL 0.803623
MSFT 1.444511
GOOGL 4.516997
TSLA 0.710438
Name: 2021-01-19 00:00:00, dtype: float64
zum Preis Ticker
AAPL 124.436409
MSFT 207.682785
GOOGL 88.554405
TSLA 281.516663
Name: 2021-01-19 00:00:00, dtype: float64
für insgesamt 1000.0 Dollar
1000.0
Damit können wir jetzt natürlich auch den Wert des Portfolios zu jedem späteren Zeitpunkt berechnen. Wird das Portfolio bis zum Zeitpunkt \(t>0\) nicht umgeschichtet, haben die Aktienkurse den Wert \(S_t^T = (S_{1,t}, \ldots, S_{J,t})\) und somit das Portfolio den Wert
Es bietet sich hierfür an die von Pandas bereitgestellten Matrix-Vektor-Operationen zu verwenden, denn die letzte Summe entspricht einfach dem Skalarprodukt zweier Vektoren[7] und die Berechnung der Spalte aller Portfoliowerte über die Zeit entspricht entsprechend einer Matrix-Vektor-Multiplikation, die in Pandas mittels der dot() Funktion bereitgestellt wird (Doku Pandas). Wichtig ist allerdings, dass im DataFrame die Spalten in der gleichen Reihenfolge stehen, wie in den Vektoren - wir haben den DataFrame portfolio extra auf die Ticker-Reihenfolge angepasst, alternativ kann auch immer automatsichen mittels portfolio[tickers] explizit auf die Spalten der Aktien in der enstprechenden Reihenfolge zugegriffen werden.
#Umwandeln in Numpy-Array, um einfacher zu rechnen
print(stueckzahl)
stueckzahl_np = stueckzahl.to_numpy()
print(stueckzahl_np)
portfolio['Portfolio'] = portfolio.dot(stueckzahl_np)
#portfolio['Portfolio'] = portfolio[tickers].dot(stueckzahl_np)
print(portfolio.head())
Ticker
AAPL 0.803623
MSFT 1.444511
GOOGL 4.516997
TSLA 0.710438
Name: 2021-01-19 00:00:00, dtype: float64
[0.80362332 1.44451068 4.5169972 0.71043752]
Ticker AAPL MSFT GOOGL TSLA Portfolio
Date
2021-01-19 124.436409 207.682785 88.554405 281.516663 1000.000000
2021-01-20 128.524887 215.263138 93.298553 283.483337 1037.062001
2021-01-21 133.236404 215.867676 93.501038 281.663330 1041.343166
2021-01-22 135.378021 216.808014 93.918373 282.213318 1046.698383
2021-01-25 139.125778 220.243149 94.003723 293.600006 1063.147314
portfolio.plot()
<Axes: xlabel='Date'>
7.5.1. Berechnung der Portfolio-Rendite#
Für die Portfolio-Rendite, also den prozentualen Zuwachs bis zum Zeitpunkt \(t\) des Portfolios gilt wegen
d. h. die Portfolio-Rendite ergibt sich als die gewichtete Summe der Aktien-Renditen \(R_{j,t}=\frac{S_{j,t}}{S_{j,0}} - 1\) und kann bequem mittels Vektoren \(R_t = (R_{1,t}, \ldots, R_{J,t})^T\) und Gewichtsvektor \(w = (w_1, \ldots, w_J)^T\) auch wieder als Matrix-Vektor Produkt geschrieben werden. Für die Log-Returns gilt diese Beziehung zumindest näherungsweise, wie wir hier für unser Beispiel-Portfolio illustrieren.
#daily returns / taegliche Renditen von t-1, t
print(portfolio.head())
tickers1 = tickers.copy()
tickers1.append("Portfolio")
renditen = portfolio.pct_change()
renditen["Days_Diff"] = renditen.index.to_series().diff().dt.days
renditen[tickers1].plot()
print(renditen.head())
Ticker AAPL MSFT GOOGL TSLA Portfolio
Date
2021-01-19 124.436409 207.682785 88.554405 281.516663 1000.000000
2021-01-20 128.524887 215.263138 93.298553 283.483337 1037.062001
2021-01-21 133.236404 215.867676 93.501038 281.663330 1041.343166
2021-01-22 135.378021 216.808014 93.918373 282.213318 1046.698383
2021-01-25 139.125778 220.243149 94.003723 293.600006 1063.147314
Ticker AAPL MSFT GOOGL TSLA Portfolio Days_Diff
Date
2021-01-19 NaN NaN NaN NaN NaN NaN
2021-01-20 0.032856 0.036500 0.053573 0.006986 0.037062 1.0
2021-01-21 0.036658 0.002808 0.002170 -0.006420 0.004128 1.0
2021-01-22 0.016074 0.004356 0.004463 0.001953 0.005143 1.0
2021-01-25 0.027684 0.015844 0.000909 0.040348 0.015715 3.0
Die Eigenschaft \(R_t^P = w^T R_t\) gilt allerdings nur für die Renditen von 0 bis t und nicht für die täglichen, wie die folgende Rechnung zeigt:
#Greifen explitzit nur die Spalten der Aktien-Ticker ab:
renditen["dot_version"] = renditen[tickers].dot(weights)
print(renditen.head())
#loeschen Spalte wieder (da falsch!)
renditen = renditen.drop(columns = ["dot_version"])
Ticker AAPL MSFT GOOGL TSLA Portfolio Days_Diff \
Date
2021-01-19 NaN NaN NaN NaN NaN NaN
2021-01-20 0.032856 0.036500 0.053573 0.006986 0.037062 1.0
2021-01-21 0.036658 0.002808 0.002170 -0.006420 0.004128 1.0
2021-01-22 0.016074 0.004356 0.004463 0.001953 0.005143 1.0
2021-01-25 0.027684 0.015844 0.000909 0.040348 0.015715 3.0
Ticker dot_version
Date
2021-01-19 NaN
2021-01-20 0.037062
2021-01-21 0.004092
2021-01-22 0.005090
2021-01-25 0.015955
#kumulierte Renditen von 0..t
renditen_kum = renditen.copy()
renditen_kum[tickers1]=(1+renditen_kum[tickers1]).cumprod()-1
renditen_kum["Days"] = renditen_kum["Days_Diff"].cumsum()
renditen_kum["dot_version"] = renditen_kum[tickers].dot(weights)
renditen_kum["check"] = renditen_kum["Portfolio"] - renditen_kum["dot_version"]
renditen_kum["Portfolio-Log-Return"] = np.log(renditen_kum.Portfolio+1)
#print(renditen_kum.tail())
print(renditen_kum[["Portfolio","dot_version","check"]].head())
norm_check_renditen = np.linalg.norm(renditen_kum["check"].dropna(), ord=2) #euklid
##2-norm vs inf-norm
np.linalg.norm(renditen_kum["check"].dropna(), ord=2)
np.linalg.norm(renditen_kum["check"].dropna(), ord=np.inf)
ax = renditen_kum.plot(y=["Portfolio","dot_version","check","Portfolio-Log-Return"])
ax.lines[0].set_linestyle("--")
ax.lines[1].set_linestyle(":")
ax.lines[2].set_linestyle("-.")
ax.lines[3].set_linestyle("solid")
plt.show()
print("kumulierte Renditen: 2-Norm Fehler = %s (gerundet: %10f)" % (norm_check_renditen,np.round(norm_check_renditen, 10)))
Ticker Portfolio dot_version check
Date
2021-01-19 NaN NaN NaN
2021-01-20 0.037062 0.037062 1.526557e-16
2021-01-21 0.041343 0.041343 1.318390e-16
2021-01-22 0.046698 0.046698 1.526557e-16
2021-01-25 0.063147 0.063147 3.747003e-16
kumulierte Renditen: 2-Norm Fehler = 8.501914631478255e-14 (gerundet: 0.000000)
Wir sehen dass die beiden Spalten ‘Portfolio’, bei dem die Zuwachsraten von 0 bis t direkt aus den Portfoliowerten, und die Spalte ‘dot_version’, bei dem die kumulierten Portfolio-Renditen als gewichtete Summe wie in Formel eq-weigthed-ret berechnet wurden bis auf minimale numerische Fehler (Spalte ‘check’ mit Norm nahe Null) tatsächlich übereinstimmen.
renditen_kum.plot(y=["check"])
<Axes: xlabel='Date'>
Ein Plot der kumulierten Returns aller einzelnen Aktien sowie des Portfolios zeigt die Diversifikationseffekte recht deutlich, denn die Volatilität der Tesla-Aktie, in die 20% investiert wurde, wird deutlich ausgeglättet, obwohl alle Renditen einen positiven Zusammenhang aufweisen.
renditen_kum[tickers1].plot()
<Axes: xlabel='Date'>
Die Berechnung der Log-Returns des Portfolios läuft analog (aus Bequemlichkeit rechnen wir hier einfach die Renditen in Log-Returns nach Formel (7.1) um, allerdings kann man wie oben gezeigt auch direkt die Log-Returns mittels diff() Operator ausrechnen
log_returns = renditen.copy()
log_returns[tickers1] = np.log(renditen[tickers1] + 1)
log_returns[tickers1].plot()
plt.show()
print(log_returns.head())
Ticker AAPL MSFT GOOGL TSLA Portfolio Days_Diff
Date
2021-01-19 NaN NaN NaN NaN NaN NaN
2021-01-20 0.032328 0.035849 0.052187 0.006962 0.036392 1.0
2021-01-21 0.036002 0.002804 0.002168 -0.006441 0.004120 1.0
2021-01-22 0.015946 0.004347 0.004454 0.001951 0.005129 1.0
2021-01-25 0.027307 0.015720 0.000908 0.039555 0.015593 3.0
log_returns2 = portfolio.copy()
log_returns2[tickers1] = np.log(log_returns2[tickers1]).diff()
print(log_returns2.head())
Ticker AAPL MSFT GOOGL TSLA Portfolio
Date
2021-01-19 NaN NaN NaN NaN NaN
2021-01-20 0.032328 0.035849 0.052187 0.006962 0.036392
2021-01-21 0.036002 0.002804 0.002168 -0.006441 0.004120
2021-01-22 0.015946 0.004347 0.004454 0.001951 0.005129
2021-01-25 0.027307 0.015720 0.000908 0.039555 0.015593
Übergang von täglichen Returns zu kumulierten Returns:
log_returns_kum = log_returns.copy()
log_returns_kum["Days"] = log_returns_kum["Days_Diff"].cumsum()
log_returns_kum[tickers1] = log_returns_kum[tickers1].cumsum()
log_returns_kum["dot_version"] = log_returns_kum[tickers].dot(weights)
log_returns_kum["check"] = log_returns_kum["Portfolio"] - log_returns_kum["dot_version"]
log_returns_kum["Portfolio-Rendite"] = np.exp(log_returns_kum.Portfolio) - 1
print(log_returns_kum[["Portfolio","dot_version","check"]].head())
norm_check_log_returns = np.linalg.norm(log_returns_kum["check"].dropna(), ord=2) #euklid
##2-norm vs inf-norm
np.linalg.norm(log_returns_kum["check"].dropna(), ord=2)
np.linalg.norm(log_returns_kum["check"].dropna(), ord=np.inf)
ax = log_returns_kum.plot(y=["Portfolio","dot_version","check","Portfolio-Rendite"])
ax.lines[0].set_linestyle("--")
ax.lines[1].set_linestyle(":")
ax.lines[2].set_linestyle("-.")
ax.lines[3].set_linestyle("solid")
plt.show()
print("kumulierte Log-Returns: 2-Norm Fehler = %s (gerundet: %10f)" % (norm_check_log_returns,np.round(norm_check_log_returns, 10)))
#log_returns_kum.head()
Ticker Portfolio dot_version check
Date
2021-01-19 NaN NaN NaN
2021-01-20 0.036392 0.036255 0.000137
2021-01-21 0.040511 0.040275 0.000236
2021-01-22 0.045641 0.045346 0.000295
2021-01-25 0.061234 0.061067 0.000167
kumulierte Log-Returns: 2-Norm Fehler = 1.2281004567191933 (gerundet: 1.228100)
log_returns_kum.plot(y=["check"])
<Axes: xlabel='Date'>
Wir sehen also, dass für die kumulierten Log-Returns des Portfolios zumindest näherungsweise \(r_t^P \approx w^T \cdot r_t\) gilt. Die Graphiken zeigen, dass der Fehler überschaubar ist.
7.5.2. Zufalls-Modell#
Wir haben im vorherigen AAbschnitt gesehen, dass für die Portfolio-Rendite \(R^P_t = w^t R_t\) gilt und für die Log-Returns diese Beziehung in sehr guter Näherung gilt. Aus diesem Grund wird der zufällige Portfolio-Return häufig mittels
unabhängig von der tatsächlich verwendeten Return-Definition angesetzt, wobei der Vektor der Aktien-Returns bis zum Zeitpunkt t als Zufallsvariable modelliert wird. Die Porfolio-Theorie beschäftigt sich mit einer geeigneten Wahl des Gewichtsvektors unter verschiedenen Risiko-Kriterien. Im klassichen Markowitz Modell geht man davon aus, dass die zufällige Rendite \(R_t^T = (R_{1,t},\ldots, R_{J,t}) \sim \mathcal{N}_J(\mu_t, \Sigma_t)\) aller Aktien einer multivariaten Normalverteilung genügt und daher durch die ersten beiden Momente \(\mu_t = \mathbb{E}R_t\) und \(\Sigma_t = \operatorname{cov}(R_t)\) vollständig das Zufallsverhalten charakterisieren. Für beliebig verteilte Zufallsvektoren reichen die ersten beiden Momente der Verteilung nicht. Wir haben oben gesehen, dass Log-Returns (zeitstetige Modelle) und die prozentualen Renditen (zeitdiskrete Modelle, arithmetische Returns) sich zwar leicht unterscheiden und aus mathematischer Sicht jeweils Vor- und Nachteile mitbringen. Während die Log-Returns aufgrund ihrer Additivität eher mit der Normalverteilungsannahme[8] einhergehen, folgen die Renditen dann wegen Formel (7.1) einer Log-Normalverteilung.
Ein weiterer Vorteil der Log-Returns gegenüber den Renditen ist die einfachere Skalierbarkeit der ersten beiden Momente \(\Sigma\) und \(\mu\), so dass diese aus den vorhandenen Tages-Returns geschätzt werden können und dann wie in Abschnitt Annualisierte Returns beschrieben, einfach auf den Anlagezeitraum von 0 bis t skaliert werden können. Daher werden häufig die Log-Returns in der Finanzmathematik und insbesondere in der Portfolio-Theorie verwendet. Häufig unterstellt man für effiziente Finanzmärkte die Unkorreliertheit der Tages-Returns zwischen verschiedenen Handelstagen, wie wir das auch für die Skalierung der annualizierten Momente ausgenutzt haben, so dass alle relevanten und verfügbaren Informationen über die Aktiengesellschaften tatsächlich schon in den aktuellen Kursen eingepreist sind.
7.5.3. Portfolioanalyse: erwarteter Portfolio-Return und Portfolio-Varianz#
Wegen Formel (7.14) können wir die erwartete Rendite \(\mathbb{E} R^P_t = \mu_t ^T w\) sowie die Portfolio-Varianz einfach mittels der ersten beiden Momente des Zufalls-Vektors \(R_t^T = (R_{1,t}, \ldots, R_{J,t})\) der Aktien-Returns \(\mu_t = \mathbb{E} R_t\) sowie \(\Sigma_t = \operatorname(R_t) = \mathbb{E} \left( R_t - \mathbb{E} R_t \right) \left(R_t - \mathbb{E} R_t \right)^T\) ableiten
Üblicherweise werden wie in Annualisierte Returns beschrieben aus den Tages-Log-Returns mit Hilfe des arithmetsichen Mittels die erwarteten Tages-Returns bzw. Renditen geschätzt sowie deren Kovarianzmatrix berechnet und anschließend durch Skalierung annualisiert. Verwendet man die Renditen nutzt den Zusammenhang ziwschen arithmetischen und geometrischen Mittel zur Annualisierung. Da wir streng genommen diese Annualisierung nur für die Log-Returns einfach berechnen können, kann man aber danach wieder zu den Renditen mittels Formel (7.1) übergehen. In der Praxis wird das nicht immer so konsequent unterschieden, aber wir haben ja gesehen, dass die Unterschiede zwischen Log-Returns und Renditen für kleinere Zeiträume nicht so deutlich sind, die folgenden Rechnungen zeigen dennoch die Probleme bei der Approximation auf. Aus diesem Grund wird tatsächlich bevorzugt mit den Log-Returns in der Portfolio-Theorie gearbeitet.
mu_day = log_returns[tickers].mean()
mu_year = mu_day * trading_days_per_year
print(mu_year)
Ticker
AAPL 0.146694
MSFT 0.158339
GOOGL 0.266040
TSLA 0.089090
dtype: float64
mu_tilde_day = renditen[tickers].mean()
geo_mean_renditen = np.exp((np.log(renditen[tickers]+1)).mean()) - 1
print("mean daily R %s: \n " % mu_tilde_day)
print("geometric mean daily R %s: \n" % geo_mean_renditen)
mean daily R Ticker
AAPL 0.000734
MSFT 0.000759
GOOGL 0.001248
TSLA 0.001073
dtype: float64:
geometric mean daily R Ticker
AAPL 0.000582
MSFT 0.000629
GOOGL 0.001056
TSLA 0.000354
dtype: float64:
print("check: geo mean Rendite = exp(mean daily log)-1 = %s \n" % (np.exp(mu_day)-1) )
print("Daily log-returns %s: \n" % mu_day)
check: geo mean Rendite = exp(mean daily log)-1 = Ticker
AAPL 0.000582
MSFT 0.000629
GOOGL 0.001056
TSLA 0.000354
dtype: float64
Daily log-returns Ticker
AAPL 0.000582
MSFT 0.000628
GOOGL 0.001056
TSLA 0.000354
dtype: float64:
Wir sehen Abweichungen zwischen den geometrischen und arithmetischen Mittelwerten der täglichen Renditen bzw. Log-Returns. Außerdem sehen wir den den nichtlineare Zusammenhang zwischen mittleren Log-Returns und geometrischen Mittel der Renditen. Nun werden diese Mittel annualisiert.
mu_tilde_year = (mu_tilde_day[tickers]+1) ** trading_days_per_year - 1
mu_tilde_year_approx1 = mu_tilde_day * trading_days_per_year
mu_tilde_year_approx2 = np.exp(mu_year) -1
print("mu year (Log-Returns r) %s: \n " % mu_year)
print("mu_tilde year (Renditen R) %s: \n " % mu_tilde_year)
print("Approximation1 für Renditen: mu_tilde_year = mu_tilde * trading days_per_year %s\n " % (mu_tilde_year_approx1))
print("Approximation2 für Renditen: exp(mu_year) -1 %s: \n" % (mu_tilde_year_approx2))
mu year (Log-Returns r) Ticker
AAPL 0.146694
MSFT 0.158339
GOOGL 0.266040
TSLA 0.089090
dtype: float64:
mu_tilde year (Renditen R) Ticker
AAPL 0.203178
MSFT 0.210723
GOOGL 0.369148
TSLA 0.310290
dtype: float64:
Approximation1 für Renditen: mu_tilde_year = mu_tilde * trading days_per_year Ticker
AAPL 0.185034
MSFT 0.191291
GOOGL 0.314385
TSLA 0.270394
dtype: float64
Approximation2 für Renditen: exp(mu_year) -1 Ticker
AAPL 0.158000
MSFT 0.171564
GOOGL 0.304787
TSLA 0.093179
dtype: float64:
Die Auswirkungen auf die erwartete jährliche Portfoliorendite je nach Berechnungsart:
print("erwartete annualisierte Portfoliorendite: \n"
" %f (mu_tilde_year -- Rendite correct) \n"
" %f (mu_year -- Log-Returns) \n"
" %f (Approx1 Rendite) \n"
" %f (Approx2 Rendite) \n" %
(mu_tilde_year.dot(weights),mu_year.dot(weights), mu_tilde_year_approx1.dot(weights), mu_tilde_year_approx2.dot(weights)))
erwartete annualisierte Portfoliorendite:
0.293252 (mu_tilde_year -- Rendite correct)
0.186405 (mu_year -- Log-Returns)
0.255723 (Approx1 Rendite)
0.207820 (Approx2 Rendite)
Die 1. Approximation liefert bessere Ergebnisse für die Renditen, allerdings ist dieser Ansatz bei der Approximation der Kovarianz zu grob.
Kovarianz- und Korrelationsmatzrix für Log-Returns
Sigma_day = log_returns[tickers].cov()
Sigma_year = Sigma_day * trading_days_per_year
print("Tages vs. Jahres-Kovarianz für Log-Returns")
print(Sigma_day)
print(Sigma_year)
Tages vs. Jahres-Kovarianz für Log-Returns
Ticker AAPL MSFT GOOGL TSLA
Ticker
AAPL 0.000303 0.000177 0.000196 0.000330
MSFT 0.000177 0.000261 0.000202 0.000259
GOOGL 0.000196 0.000202 0.000383 0.000308
TSLA 0.000330 0.000259 0.000308 0.001437
Ticker AAPL MSFT GOOGL TSLA
Ticker
AAPL 0.076478 0.044600 0.049462 0.083253
MSFT 0.044600 0.065775 0.050929 0.065362
GOOGL 0.049462 0.050929 0.096401 0.077505
TSLA 0.083253 0.065362 0.077505 0.362041
Kovarianz- und Korrelationsmatzrix für Renditen
Sigma_tilde_day = renditen[tickers].cov()
#Dummy zur simultanen Berechnung von (mu_tilde_i + 1)(mu_tilde_j + 1)
mu_tilde_dummy = np.outer(mu_tilde + 1, mu_tilde + 1)
#print(mu_tilde_dummy)
Sigma_tilde_year = (Sigma_tilde_day + mu_tilde_dummy)**trading_days_per_year - mu_tilde_dummy**trading_days_per_year
Sigma_tilde_year_approx1 = Sigma_tilde_day * trading_days_per_year
#Delta Method:
exp_mu_year = np.exp(mu_year)
Sigma_tilde_year_approx2 = (Sigma_year.dot(np.diag(exp_mu_year))).dot(np.diag(exp_mu_year))
#(Sigma_year.dot(weights)).dot(weights)
print("Tages vs. Jahres-Kovarianz für R")
print(Sigma_tilde_day)
print(Sigma_tilde_year)
print("Approx1 für R: Sigma \approx Sigma_tilde")
print(Sigma_tilde_year_approx1)
print("Approx2 für R: cov(R) = cov(e^r - 1) = cov(e^r) approx e^r cov(r) (e^r)^T (Delta-Methode für R_t = exp(r_t) - 1)")
print(Sigma_tilde_year_approx2)
Tages vs. Jahres-Kovarianz für R
Ticker AAPL MSFT GOOGL TSLA
Ticker
AAPL 0.000306 0.000178 0.000197 0.000332
MSFT 0.000178 0.000262 0.000203 0.000261
GOOGL 0.000197 0.000203 0.000383 0.000309
TSLA 0.000332 0.000261 0.000309 0.001449
Ticker AAPL MSFT GOOGL TSLA
Ticker
AAPL 0.115720 0.075479 0.074089 0.137503
MSFT 0.075479 0.127558 0.086713 0.121451
GOOGL 0.074089 0.086713 0.148435 0.128153
TSLA 0.137503 0.121451 0.128153 0.754362
Approx1 für R: Sigma pprox Sigma_tilde
Ticker AAPL MSFT GOOGL TSLA
Ticker
AAPL 0.077027 0.044893 0.049688 0.083789
MSFT 0.044893 0.066004 0.051096 0.065666
GOOGL 0.049688 0.051096 0.096622 0.077839
TSLA 0.083789 0.065666 0.077839 0.365262
Approx2 für R: cov(R) = cov(e^r - 1) = cov(e^r) approx e^r cov(r) (e^r)^T (Delta-Methode für R_t = exp(r_t) - 1)
0 1 2 3
Ticker
AAPL 0.102555 0.061217 0.084208 0.099491
MSFT 0.059808 0.090281 0.086706 0.078110
GOOGL 0.066327 0.069904 0.164119 0.092621
TSLA 0.111640 0.089713 0.131949 0.432653
Die deutlich bessere 2. Approximation basiert auf der Delta-Methode .
Portvoliovarianz berechnet:
Für die Log-Returns
P_log_var_year = (Sigma_year.dot(weights)).dot(weights)
print(P_log_var_year)
#alternative Berechnung mittels matmult
print(np.matmul(weights.transpose(), np.matmul(Sigma_year, weights)))
0.07902068960390213
0.07902068960390213
Für die Renditen
P_var_year = (Sigma_tilde_year.dot(weights)).dot(weights)
print(P_var_year)
0.13840712875596614
P_var_year_approx1 = (Sigma_tilde_year_approx1.dot(weights)).dot(weights)
P_var_year_approx2 = (Sigma_tilde_year_approx2.dot(weights)).dot(weights)
print(P_var_year_approx1)
print(P_var_year_approx2)
0.07939807017311235
0.11341895399999978
print("annualisierte Varianz der Portfolio-Rendite: \n"
" %f (korrekt) \n"
" %f (Approx1) \n"
" %f (Approx2) \n" %
(P_var_year, P_var_year_approx1, P_var_year_approx2))
annualisierte Varianz der Portfolio-Rendite:
0.138407 (korrekt)
0.079398 (Approx1)
0.113419 (Approx2)