Friday 19 May 2017

Exponential Moving Average Risiko Kennzahlen


Exploration der exponentiell gewichteten Moving Average Volatilität ist die häufigste Maßnahme für das Risiko, aber es kommt in mehreren Geschmacksrichtungen. In einem früheren Artikel haben wir gezeigt, wie man einfache historische Volatilität berechnet. (Um diesen Artikel zu lesen, lesen Sie unter Verwenden der Volatilität, um zukünftiges Risiko zu messen.) Wir verwendeten Googles tatsächliche Aktienkursdaten, um die tägliche Volatilität basierend auf 30 Tagen der Bestandsdaten zu berechnen. In diesem Artikel werden wir auf einfache Volatilität zu verbessern und diskutieren den exponentiell gewichteten gleitenden Durchschnitt (EWMA). Historische Vs. Implied Volatility Erstens, lassen Sie diese Metrik in ein bisschen Perspektive. Es gibt zwei breite Ansätze: historische und implizite (oder implizite) Volatilität. Der historische Ansatz geht davon aus, dass Vergangenheit ist Prolog Wir messen Geschichte in der Hoffnung, dass es prädiktive ist. Die implizite Volatilität dagegen ignoriert die Geschichte, die sie für die Volatilität der Marktpreise löst. Es hofft, dass der Markt am besten weiß und dass der Marktpreis, auch wenn implizit, eine Konsensschätzung der Volatilität enthält. (Für verwandte Erkenntnisse siehe Die Verwendungen und Grenzen der Volatilität.) Wenn wir uns auf die drei historischen Ansätze (auf der linken Seite) konzentrieren, haben sie zwei Schritte gemeinsam: Berechnen Sie die Reihe der periodischen Renditen Berechnen die periodische Rendite. Das ist typischerweise eine Reihe von täglichen Renditen, bei denen jede Rendite in kontinuierlich zusammengesetzten Ausdrücken ausgedrückt wird. Für jeden Tag nehmen wir das natürliche Protokoll des Verhältnisses der Aktienkurse (d. H. Preis heute geteilt durch den Preis gestern und so weiter). Dies erzeugt eine Reihe von täglichen Renditen, von u i bis u i-m. Je nachdem wie viele Tage (m Tage) wir messen. Das bringt uns zum zweiten Schritt: Hier unterscheiden sich die drei Ansätze. Wir haben gezeigt, dass die einfache Varianz im Rahmen einiger akzeptabler Vereinfachungen der Mittelwert der quadratischen Renditen ist: Beachten Sie, dass diese Summe die periodischen Renditen zusammenfasst und dann diese Summe durch die Anzahl der Tage oder Beobachtungen (m). Also, seine wirklich nur ein Durchschnitt der quadrierten periodischen kehrt zurück. Setzen Sie einen anderen Weg, jede quadrierte Rückkehr wird ein gleiches Gewicht gegeben. Also, wenn alpha (a) ein Gewichtungsfaktor (speziell eine 1m) ist, dann eine einfache Varianz sieht etwa so aus: Die EWMA verbessert auf einfache Varianz Die Schwäche dieser Ansatz ist, dass alle Renditen das gleiche Gewicht zu verdienen. Yesterdays (sehr jüngste) Rückkehr hat keinen Einfluss mehr auf die Varianz als die letzten Monate zurück. Dieses Problem wird durch Verwendung des exponentiell gewichteten gleitenden Mittelwerts (EWMA), bei dem neuere Renditen ein größeres Gewicht auf die Varianz aufweisen, festgelegt. Der exponentiell gewichtete gleitende Durchschnitt (EWMA) führt Lambda ein. Die als Glättungsparameter bezeichnet wird. Lambda muss kleiner als 1 sein. Unter dieser Bedingung wird anstelle der gleichen Gewichtungen jede quadratische Rendite durch einen Multiplikator wie folgt gewichtet: Beispielsweise neigt die RiskMetrics TM, eine Finanzrisikomanagementgesellschaft, dazu, eine Lambda von 0,94 oder 94 zu verwenden. In diesem Fall wird die erste ( (1 - 0,94) (94) 0 6. Die nächste quadrierte Rückkehr ist einfach ein Lambda-Vielfaches des vorherigen Gewichts in diesem Fall 6 multipliziert mit 94 5,64. Und das dritte vorherige Tagegewicht ist gleich (1-0,94) (0,94) 2 5,30. Das ist die Bedeutung von exponentiell in EWMA: jedes Gewicht ist ein konstanter Multiplikator (d. h. Lambda, der kleiner als eins sein muß) des vorherigen Gewichtes. Dies stellt eine Varianz sicher, die gewichtet oder zu neueren Daten voreingenommen ist. (Weitere Informationen finden Sie im Excel-Arbeitsblatt für die Googles-Volatilität.) Der Unterschied zwischen einfacher Volatilität und EWMA für Google wird unten angezeigt. Einfache Volatilität wiegt effektiv jede periodische Rendite von 0,196, wie in Spalte O gezeigt (wir hatten zwei Jahre täglich Aktienkursdaten, das sind 509 tägliche Renditen und 1509 0,196). Aber beachten Sie, dass die Spalte P ein Gewicht von 6, dann 5,64, dann 5,3 und so weiter. Das ist der einzige Unterschied zwischen einfacher Varianz und EWMA. Denken Sie daran: Nachdem wir die Summe der ganzen Reihe (in Spalte Q) haben wir die Varianz, die das Quadrat der Standardabweichung ist. Wenn wir Volatilität wollen, müssen wir uns daran erinnern, die Quadratwurzel dieser Varianz zu nehmen. Was ist der Unterschied in der täglichen Volatilität zwischen der Varianz und der EWMA im Googles-Fall? Bedeutend: Die einfache Varianz gab uns eine tägliche Volatilität von 2,4, aber die EWMA gab eine tägliche Volatilität von nur 1,4 (Details siehe Tabelle). Offenbar ließ sich die Googles-Volatilität in jüngster Zeit verringern, so dass eine einfache Varianz künstlich hoch sein könnte. Die heutige Varianz ist eine Funktion der Pior Tage Variance Youll bemerken wir benötigt, um eine lange Reihe von exponentiell sinkenden Gewichte zu berechnen. Wir werden die Mathematik hier nicht durchführen, aber eine der besten Eigenschaften der EWMA ist, daß die gesamte Reihe zweckmäßigerweise auf eine rekursive Formel reduziert: Rekursiv bedeutet, daß heutige Varianzreferenzen (d. h. eine Funktion der früheren Tagesvarianz) ist. Sie können diese Formel auch in der Kalkulationstabelle zu finden, und es erzeugt genau das gleiche Ergebnis wie die Langzeitberechnung Es heißt: Die heutige Varianz (unter EWMA) ist gleichbedeutend mit der gestrigen Abweichung (gewichtet durch Lambda) plus der gestern zurückgelegten Rückkehr (gewogen von einem minus Lambda). Beachten Sie, wie wir sind nur das Hinzufügen von zwei Begriffe zusammen: gestern gewichtet Varianz und gestern gewichtet, quadriert zurück. Dennoch ist Lambda unser Glättungsparameter. Ein höheres Lambda (z. B. wie RiskMetrics 94) deutet auf einen langsameren Abfall in der Reihe hin - in relativer Hinsicht werden wir mehr Datenpunkte in der Reihe haben, und sie fallen langsamer ab. Auf der anderen Seite, wenn wir das Lambda reduzieren, deuten wir auf einen höheren Abfall hin: die Gewichte fallen schneller ab, und als direkte Folge des schnellen Zerfalls werden weniger Datenpunkte verwendet. (In der Kalkulationstabelle ist Lambda ein Eingang, so dass Sie mit seiner Empfindlichkeit experimentieren können). Zusammenfassung Volatilität ist die momentane Standardabweichung einer Aktie und die häufigste Risikomessung. Es ist auch die Quadratwurzel der Varianz. Wir können Varianz historisch oder implizit messen (implizite Volatilität). Bei der historischen Messung ist die einfachste Methode eine einfache Varianz. Aber die Schwäche mit einfacher Varianz ist alle Renditen bekommen das gleiche Gewicht. So stehen wir vor einem klassischen Kompromiss: Wir wollen immer mehr Daten, aber je mehr Daten wir haben, desto mehr wird unsere Berechnung durch weit entfernte (weniger relevante) Daten verdünnt. Der exponentiell gewichtete gleitende Durchschnitt (EWMA) verbessert die einfache Varianz durch Zuordnen von Gewichten zu den periodischen Renditen. Auf diese Weise können wir beide eine große Stichprobengröße, sondern auch mehr Gewicht auf neuere Renditen. (Um eine Film-Tutorial zu diesem Thema zu sehen, besuchen Sie die Bionic Turtle.) Ziele und Motivationen Die Ziele sind zweifach: Risikomanagement. Modellierung der Preisverteilung (Schwellen der Verteilung, Schiefe, Kurtosis, Zeitabhängigkeiten) mit dem Ziel, die besten Modelle zur Abschätzung von Risikomaßnahmen wie dem Value at Risk auszuwählen. Es werden verschiedene Modelle untersucht, die das historische VaR, das normale Modell mit unterschiedlichen Volatilitätsmodellen (Risk Metrics, GARCH), die Cornish Fisher VaR, VaR Modelle auf der Grundlage der Extreme Value Theory umfassen. Schließlich werden die verschiedenen Modelle getestet, um das beste Modell auszuwählen und es zu verwenden, um einen Fonds unter dynamischen Risikobeschränkungen zu verwalten. Aktive Portfoliomanagement. Dieses Projekt besteht darin, verschiedene aktive Strategien mit Rebalancing zu studieren (unter Verwendung der so genannten Kelly-Kriterien, stochastische Portfoliotheorie.), Konvergenzstrategien (Handelspaare). Die Projekte werden unter der leistungsstarken statistischen und grafischen Software R-Project r-project. org entwickelt. Das ist die Open-Source-Version von S-plus. Verschiedene Aspekte der Finanzpreise werden behandelt werden: Hypothesenprüfung für Normalität: qq-Plots, Kolmogorov Smirnov, Jarque-Bera. Unabhängigkeitsprüfung: Streudiagramme, Auto-Korrektramme (ACF), Durbin Watson-Test, Testläufe. Anpassung mit verschiedenen bekannten Verteilungen: Student, exponentiell, Zeitreihe Aspekte: auto Korrelationen der Rückkehr und quadratischen Rückgaben, Skalierungseffekte, Gesetz der maximalen und minimalen, Schlagen Zeit. Lineare Regression und Faktoren Modelle Kovarianzmatrix-Filterung, Hauptkomponentenanalyse Stilanalyse Volatilitätsmodelle und - schätzungen: Risikomessgrößen, GARCH-Risikomessungen: Value at Risk, erwarteter Shortfall, maximaler Drawdown, VaR für Portfolio mit Optionen, Delta Gamma und Monte Carlo Methoden Risikobereitschaft Performance Maße: Sharpe Ratio, Morningstar RAPM, Sortino Ratio, GainLoss Ratio, Stutzer Index, CALMAR und Sterling Ratios. Konvergenzhandel, Einheitswurzeltest Dynamisches Portfolio Management, Rebalancing. Alle Anwendungen werden mit aktuellen Marktdaten entwickelt. pdf Prsentation von R-Projekten und Beispielen pdf Stylized Facts pdf Value at Risk und Extreme-Value-Theorie. Pdf Schätzungen der Volatilität und Korrelationen. Exponential Moving Average (RiskMetrics), GARCH, Schätzungen basierend auf Höhen und Tiefen (Garman Klass, Parkinson, Roger Satchell.) Pdf Optimales Wachstumsportfolio. Pdf Kointegration, PaareKonvergenz-Handel. Weitere Präsentationen pdf Automatisierter Handel I pdf Trading Automatique II. Exponentialgewichteter gleitender Durchschnitt (Risk Metrics) und GARCH Ziel ist es, die Volatilitätsschätzung unter Verwendung eines unterschiedlichen Gewichtungsschemas zu untersuchen und zu vergleichen. Stylisierte Fakten: automatische Korrelation von Renditen, quadratischen Renditen, Bereich usw. Schätzung von Glättungsfaktoren unter Verwendung des mittleren quadratischen Fehlers oder maximalen Likelihood-Kriterien, Validierung der Vorhersage durch lineare Regression. Schätzung GARCH-Modelle, Auswahl der besten Modelle mit AIC-und BIC-Kriterien. Value at Risk, Schätzung, Backtesting und Implementierung von Fondsmanagment Der Value at Risk ist sicherlich eines der wichtigsten Instrumente, um das Risiko von Investitionen für aufsichtsrechtliche Standards zu messen. Es wird mehr und mehr im Asset Management verwendet. Ziel dieses Projektes ist es, einen Fonds mit 10 Millionen Euro Under Management mit dem Constraint zu verwalten, um einen konstanten VaR zu halten. Der 19-Tage-VaR auf der Grundlage von 99 entspricht 4 des Nettoinventarwertes. Verschiedene VaR-Modelle werden untersucht und getestet. Einer von ihnen wird ausgewählt und umgesetzt werden und Positionen, die an das Risikoprofil angepasst sind. Finallt wird die Performance des aktiv verwalteten Fonds mit der Buy-and-Hold-Strategie hinsichtlich Perforamnce, Sharpe Ratio etc. verglichen. Ein erster Schritt wird darin bestehen, die verschiedenen VaR-Modelle 13 für die Vermögenswerte, einschließlich Historical VaR, Delta Normal, zu untersuchen Modell mit RiskMetrics und GARCH Volatility, Cornish Fischer VaR, abschließend VaR auf Basis der Extreme Value Theory. Die Studie wird zu den in 10. Diese praktische Arbeit ist es, die Eigenschaften und Statistiken des Maximum Drawdown (MDD) nach der Magdon-Ismail-Arbeit zu studieren (siehe alumnus. caltech. edu amirmdd-risk. pdf). Die Beziehung zwischen der Sharpe (Performance Volatility) und die calmar (Performancedrawdown) - Verhältnisse Diese Arbeit wird auch betonen, die Bedeutung der Kontrolle der MDD durch das Studium der Nassim Taleb Artikel, die ein besser ist, ein Krebs-Patienten oder ein Händler 5-Jahres-Überlebensraten fooledbyrandomnesstradersurvival1.pdf Kelly-Kriterium und Rebalancing-Strategien Kaufen und Halten versus Rebalancing Dieses Projekt soll die Performance einer passiven Buy amp Hold (BampH) Benchmark-Portfoliostrategie und der entsprechenden Constantly Rebalanced Portfolio (CRP) Strategie vergleichen, in der die Gewichte der Vermögenswerte (bzw. Asset-Klassen) werden durch kontinuierliche Handelsanpassungen in Abhängigkeit von Preisschwankungen konstant gehalten. Wir untersuchen das Verhalten von rebalanced Portfolio im Falle eines Vermögenswertes und mehrere Vermögenswerte. Wir studieren die CRP vs BH-Strategie für die verschiedenen EUROSTOXX-Indizes, vergleichen die gleiche gewichtete Strategie in den verschiedenen Sektoren mit der Buy-amp-Hold-Strategie, implementieren und backtest eine Long-Short-beta-neutrale Strategie: lang in gleichgewichteten Sektoren und kurz auf der Eurostoxx 50 (mit Futures) bei dem Versuch, einen konstanten erwarteten maximalen Drawdown aufrechtzuerhalten. Trend - und Mittelwert-Reversting-Strategien Einige Ressourcen auf R: main site: cran. r-project. org. Handbücher cran. r-project. orgmanuals. html. FAQ cran. r-project. orgdocFAQR-FAQ. html Häufig gestellte Fragen cran. r-project. orgsearch. html. Weitere Dokumente cran. r-project. orgother-docs. html Bücher: Modellierung der Financial Time Series mit S-Plus par Eric Zivot, Jiahui Wang und Clarence R. Robbins 16 Einführende Statistik mit R, Peter Dalgaard 8 Programmierung mit Daten: Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, Mathematik, In R: stat. lsa. umich. edufarawaybook Dies ist ein Master-Kurs, der folgende Themen behandelt: Lineare Modelle: Definition, Anpassung, Schlussfolgerung, Interpretation der Ergebnisse, Bedeutung von Regressionskoeffizienten, Identifizierbarkeit, Mangel an Anpassung, Multicollinearität, Kippregression, Prinzipal Gauß-Markov-Theorem, variable Selektion, Diagnostik, Transformationen, einflussreiche Beobachtungen, robuste Verfahren, ANOVA und die Analyse von Kovarianz, randomisiertem Block, faktorielle Designs. Zeitreihe Vorhersage und Prognose massey. ac. nz Rmetrics: itp. phys. ethz. checonophysicsR eine Einführung in die Financial Computing mit R für Bereiche von Datenmanagement, Zeitreihen und Regressionsanalyse, Extremalwert-Theorie und Bewertung von Finanzmarktinstrumenten. Faculty. washington. eduezivotsplus. htm die Homepage von E. Zivot über SPlus et FinMetrics CRAN Aufgabenansicht: Empirische Finanzierung cran. r-project. orgsrccontribViewsFinance. html Andere Pakete Software für Extremwertetheorie: urlmaths. lancs. ac. uk stephenasoftware. html RMetrics itp. phys. ethz. checonophysicsR Praktische Regression und Anova in R doc: cran. r-project. orgdoccontribFaraway-PRA. pdf Paket: stat. lsa. umich. edu1 ARTZNER, P. amp DELBAEN, F. amp EBER, J. - M. Amp HEATH, D. Kohärente Maßnahmen des Risikos. 1998.. 2 ALEXANDER, C. Marktmodelle: ein Leitfaden zur Finanzdatenanalyse. Wiley, 2003. 3 ALEXANDER, C. Marktrisikoanalyse: Praktische Finanzökonometrie. Wiley, 2008. 4 BOUCHAUD, J. P amp POTTERS, M. Theorie der finanziellen Risiken. Cambridge University Press, 2000. 5 CHAMBERS, J. M. Programmierung mit Daten. Springer, New York, 1998. ISBN 0-387-98503-4. 6 CHRISTOFFERSEN, P. Elemente des Finanzrisikomanagements. Academic Press, Juli 2003. 7 CONT, R. Empirische Eigenschaften von Anlagenrenditen - stilisierte Fakten und statistische Fragen. QUANTITATIVE FINANZIERUNG, 2000.. 8 DALGAARD, P. Einleitende Statistik mit R. Springer, 2002. ISBN 0-387-95475-9. 9 GOURIEROUX, C. amp SCAILLET, O. amp SZAFARZ, A. Wirtschaftliche Finanzierung. Economica, 1997. 11 LO. Verstärker CAMPBELL. Amp MACKINLAY. Die Ökonometrie der Finanzmärkte. Princeton University Press, 1997. 12 LO, A. W amp MACKINLAY, A. C. Eine nicht-zufällige Walk Down Wall Street. Princeton University Press, Princeton, NJ, 1999. 13 LINSMEIER, T amp PEARSON, N. D. Risikomessung: Eine Einführung in Value at Risk. März 2000 14 VENABLES, W. N amp RIPLEY, B. D. Moderne Angewandte Statistik mit S. Vierte Auflage. Springer, 2002. ISBN 0-387-95457-0. 16 ZIVOT, E. amp WANG, J. amp ROBBINS, C. R. Modellierung der Financial Time Series mit S-Plus. Springer Verlag, 2004.Exponential Moving Average - EMA BREAKING DOWN Exponential Moving Average - EMA Die 12- und 26-Tage-EMAs sind die beliebtesten Kurzzeitmittelwerte und werden verwendet, um Indikatoren wie die gleitende durchschnittliche Konvergenzdivergenz (MACD) Und dem prozentualen Preisoszillator (PPO). Im Allgemeinen werden die 50- und 200-Tage-EMAs als Signale von langfristigen Trends verwendet. Trader, die technische Analyse verwenden finden fließende Mittelwerte sehr nützlich und aufschlussreich, wenn sie richtig angewendet werden, aber Chaos verursachen, wenn sie falsch verwendet werden oder falsch interpretiert werden. Alle gleitenden Mittelwerte, die gewöhnlich in der technischen Analyse verwendet werden, sind von Natur aus nacheilende Indikatoren. Folglich sollten die Schlussfolgerungen aus der Anwendung eines gleitenden Durchschnitts auf ein bestimmtes Marktdiagramm eine Marktbewegung bestätigen oder ihre Stärke belegen. Sehr oft, bis eine gleitende durchschnittliche Indikatorlinie eine Änderung vorgenommen hat, um eine bedeutende Bewegung auf dem Markt zu reflektieren, ist der optimale Punkt des Markteintritts bereits vergangen. Eine EMA dient dazu, dieses Dilemma zu einem gewissen Grad zu lindern. Da die EMA-Berechnung mehr Gewicht auf die neuesten Daten setzt, umgibt sie die Preisaktion etwas fester und reagiert damit schneller. Dies ist wünschenswert, wenn ein EMA verwendet wird, um ein Handelseintragungssignal abzuleiten. Interpretation der EMA Wie alle gleitenden Durchschnittsindikatoren sind sie für Trendmärkte viel besser geeignet. Wenn der Markt in einem starken und anhaltenden Aufwärtstrend ist. Zeigt die EMA-Indikatorlinie auch einen Aufwärtstrend und umgekehrt einen Abwärtstrend. Ein wachsamer Händler achtet nicht nur auf die Richtung der EMA-Linie, sondern auch auf das Verhältnis der Änderungsgeschwindigkeit von einem Balken zum nächsten. Wenn zum Beispiel die Preisaktion eines starken Aufwärtstrends beginnt, sich zu verflachen und umzukehren, wird die EMA-Rate der Änderung von einem Balken zum nächsten abnehmen, bis zu dem Zeitpunkt, zu dem die Indikatorlinie flacht und die Änderungsrate null ist. Wegen der nacheilenden Wirkung, von diesem Punkt, oder sogar ein paar Takte zuvor, sollte die Preisaktion bereits umgekehrt haben. Daraus folgt, dass die Beobachtung eines konsequenten Abschwächens der Veränderungsrate der EMA selbst als Indikator genutzt werden könnte, der das Dilemma, das durch den nacheilenden Effekt von gleitenden Durchschnittswerten verursacht wird, weiter beheben könnte. Gemeinsame Verwendung der EMA-EMAs werden häufig in Verbindung mit anderen Indikatoren verwendet, um signifikante Marktbewegungen zu bestätigen und deren Gültigkeit zu messen. Für Händler, die intraday und schnelllebigen Märkten handeln, ist die EMA mehr anwendbar. Häufig benutzen Händler EMAs, um eine Handel Bias zu bestimmen. Zum Beispiel, wenn eine EMA auf einem Tages-Chart zeigt einen starken Aufwärtstrend, eine Intraday-Trader-Strategie kann nur von der langen Seite auf einem Intraday-Diagramm handeln.

No comments:

Post a Comment