Thursday, 18 May 2017

Exponentiell Gewichtete Gleitende Durchschnitt Standard Abweichung


Hallo, ich habe seit 3 ​​Jahren einige Prozessdaten gesammelt und möchte eine EWMA-prospektive Analyse nachahmen, um zu sehen, ob mein Set Glättungsparameter alle wichtigen Änderungen ohne allzu viele falsche Alarme erkennen würde. Es scheint, wie die meisten Lehrbücher und Literatur, die ich habe Sahen, dass eine mittlere und Standardabweichung zur Berechnung der Kontrollgrenzen zu verwenden Dies ist in der Regel die In-Control-Mittel-und Standardabweichung von einigen historischen Daten, oder die mittlere und sd der Bevölkerung, aus denen die Proben gezogen werden Ich habe keine Informationen. Gibt es eine andere Möglichkeit, die Kontrollgrenzen zu berechnen. Ist dort eine Variation des EWMA-Diagramms, das keine Mittel - und Standardabweichung verwendet. Jeder kreative Ideen. Danke im Voraus. Um sicherzustellen, dass ich das verstehe, könntest du das EWMA-Mittel und die Varianz berechnen , Aber du hast keine Grundlinie, um sie zu vergleichen Es klingt zu mir wie du eine betreute Technik hast, die davon ausgeht, dass du definieren kannst, wie es aussehen soll, aber du willst eine unbeaufsichtigte Technik, die nur aussieht Für Unterschiede, ohne einen Staat gut und ein anderer schlecht zu nennen Für unsachgemäße Techniken, Clustering kommt in den Sinn, aber es müsste geändert werden, um auf Zeitungen anzuwenden Wie wäre es mit Generalized Likelihood Ratio GLR Jim Pivarski Jun 25 14 bei 2 49.Wenn wir auf I verweisen Kann die Zi für meine gegebene Lambda berechnen, aber wenn es um die Kontrollgrenzen geht, habe ich keine historischen Daten, um die T und S zu berechnen. Danke, ich werde in GLR schauen und auch auf Cross Validated user3295481 Jun 25 14 bei 2 54.Yeah, T und S sind die mittlere und Standardabweichung einer Baseline-Verteilung, die entweder a priori gegeben oder aus einem Trainingsdatensatz ermittelt wird. Das Trainingsdatensatz stellt dar, wie die Daten aussehen sollen, also das ist eine überarbeitete Technik und du willst ein Unbeaufsichtigte Technik GLR isn t exponentiell gewichtet, aber es findet dynamisch eine Pause in den Daten zwischen zwei verschiedenen Verteilungen und kombiniert Daten auf jeder Seite der Pause, um mehr robuste Ergebnisse zu erhalten Es könnte sein, was Sie wollen Jim Piva Rski Jun 25 14 at 3 00. Aus einer praktischen operativen Perspektive ist die Verwendung von statistischen Analysen von historischen Daten allein, selten, ja, es gibt einige Hinweise darauf, wie der Prozess und sein Kontrollsystem durchführen, aber das Wichtigste bei weitem Ist ein gutes Verständnis und Kenntnis der technischen Grenzen zu haben. Ich beziehe mich auf die Betriebsgrenzen, die durch die Spezifikationen und Leistungsmerkmale der verschiedenen Geräte bestimmt sind. Dies ermöglicht es, ein gutes Verständnis dafür zu entwickeln, wie der Prozess soll Verhalten sich im Hinblick auf den optimalen Arbeitspunkt und die oberen unteren Grenzwerte und wo die Bereiche der größten Abweichung vom Optimum sind. Das hat sehr wenig mit der statistischen Analyse historischer Daten zu tun und viel mit der verfahrenstechnischen Metallurgie zu tun - je nach Art Des Prozesses, mit dem Sie sich befassen. Die Kontrollgrenzen werden letztlich bestimmt, was der Prozessmanager Prozessingenieur WANTS ist, was in der Regel aber ist Nicht immer innerhalb der Namensschildkapazität des Gerätes. Wenn Sie innerhalb der Betriebsgrenzen arbeiten und Sie sind im Bereich der Prozessoptimierung, dann ja, ist die statistische Analyse weit verbreitet und kann eine gute Einsicht bieten Abhängig von der Variabilität Ihres Prozesses , Wie gut Ihr Steuerungssystem eingerichtet ist und die Homogenität Ihres Futterprodukts, die oberen unteren Grenzwerte, die ausgewählt werden, variieren Ein guter Ausgangspunkt ist der optimale Betriebspunkt zB 100 m3 hr, dann verwenden Sie eine vernünftige Menge an historischen Daten Um eine Standardabweichung zu berechnen und deine Obergrenze 100 1 Standard Dev zu machen, und deine Untergrenze 100 - 1 Standard Dev Dies ist keineswegs eine harte und schnelle Regel, aber es ist ein sinnvoller Ausgangspunkt. Siehe am 7. Februar 16 um 12 Uhr 12.Exploring Die exponentiell gewichtete Moving Average. Volatility ist die häufigste Maßnahme des Risikos, aber es kommt in mehreren Aromen In einem früheren Artikel haben wir gezeigt, wie man einfache historische Volatilität zu berechnen Um diesen Artikel zu lesen, Sehen Sie Volatilität, um zukünftiges Risiko zu bewerten Wir haben die tatsächlichen Aktienkursdaten von Google verwendet, um die tägliche Volatilität auf der Grundlage von 30 Tagen der Bestandsdaten zu berechnen. In diesem Artikel werden wir die einfache Volatilität verbessern und den exponentiell gewichteten gleitenden Durchschnitt EWMA Historical Vs Implied Volatility diskutieren Zuerst lassen wir diese Metrik in ein bisschen Perspektive bringen Es gibt zwei breite Ansätze historische und implizite oder implizite Volatilität Der historische Ansatz geht davon aus, dass Vergangenheit Prolog ist, die wir die Geschichte in der Hoffnung messen, dass es prädiktiv ist. Implizite Volatilität hingegen ignoriert Geschichte löst es für die Volatilität impliziert durch Marktpreise Es hofft, dass der Markt am besten weiß und dass der Marktpreis enthält, auch wenn implizit, ein Konsens Schätzung der Volatilität Für verwandte Lesung, siehe die Verwendungen und Grenzen der Volatilität. Wenn wir uns auf nur konzentrieren Die drei historischen Ansätze auf der linken Seite oben, haben sie zwei Schritte gemeinsam. Calculate die Reihe der periodischen returns. Apply ein Gewichtungsschema. Zuerst berechnen wir die periodische Rendite Das ist typischerweise eine Reihe von täglichen Renditen, bei denen jede Rendite in kontinuierlich zusammengesetzten Begriffen ausgedrückt wird. Für jeden Tag nehmen wir das natürliche Protokoll des Verhältnisses der Aktienkurse, dh des Preises heute geteilt durch den Preis gestern, und so weiter. Dies produziert eine Reihe von täglichen Renditen, von ui zu u im abhängig davon, wie viele Tage m Tage, die wir messen. Das bekommt uns zum zweiten Schritt Dies ist, wo die drei Ansätze unterscheiden Im vorherigen Artikel Mit Volatility To Gauge Future Risk, Wir haben gezeigt, dass unter ein paar akzeptablen Vereinfachungen die einfache Varianz der Durchschnitt der quadratischen Rückkehr ist. Nichts, dass dies jede der periodischen Renditen summiert, dann teilt diese Summe durch die Anzahl der Tage oder Beobachtungen m Also, es ist wirklich nur ein Durchschnitt der quadrierten periodischen Renditen Setzen Sie einen anderen Weg, jede quadratische Rückkehr wird ein gleiches Gewicht gegeben Also, wenn Alpha a ist ein Gewichtungsfaktor speziell, ein 1 m, dann eine einfache Varianz sieht so etwas aus. Die EWMA verbessert sich Auf Einfache Abweichung Die Schwäche dieses Ansatzes ist, dass alle Renditen das gleiche Gewicht verdienen. Gestern hat die sehr jüngste Rückkehr keinen Einfluss mehr auf die Varianz als im letzten Monat zurückgegeben. Dieses Problem wird durch die Verwendung des exponentiell gewichteten gleitenden durchschnittlichen EWMA, in dem neuere, Renditen haben ein größeres Gewicht auf die Varianz. Der exponentiell gewichtete gleitende Durchschnitt EWMA führt Lambda ein, der als Glättungsparameter bezeichnet wird. Lambda muss kleiner als eins sein. Unter dieser Bedingung wird anstelle von gleichen Gewichten jede quadratische Rückkehr mit einem Multiplikator wie folgt gewichtet , RiskMetrics TM, ein Finanzrisikomanagement-Unternehmen, neigt dazu, ein Lambda von 0 94 oder 94 zu verwenden. In diesem Fall wird die erste jüngste quadrierte periodische Rückkehr um 1 bis 0 bewertet. 94 94 0 6 Die nächste quadratische Rückkehr ist einfach ein Lambda - Mehrfache des vorherigen Gewichts in diesem Fall 6 multipliziert mit 94 5 64 Und das dritte Vorjahresgewicht ist gleich 1-0 94 0 94 2 5 30.Das ist die Bedeutung von Exponential in EWMA jedes Gewicht ist eine Konstante Multiplikator dh Lambda, der kleiner sein muss als eines der Tage des vorherigen Tages Dies stellt eine Abweichung sicher, die gewichtet oder voreingenommen auf neuere Daten ist. Um mehr zu erfahren, schau dir das Excel-Arbeitsblatt für Google an Volatilität Der Unterschied zwischen einfacher Volatilität und EWMA für Google ist unten gezeigt. Simple Volatilität wirkt effektiv jede periodische Rendite um 0 196 wie in Spalte O gezeigt haben wir zwei Jahre täglich Aktienkursdaten Das ist 509 tägliche Renditen und 1 509 0 196 Aber beachten Sie, dass Spalte P ein Gewicht von 6, dann 5 64, dann 5 3 und so weiter Das ist der einzige Unterschied zwischen einfacher Varianz und EWMA. Remember Nachdem wir die ganze Serie in Spalte Q zusammengefasst haben wir die Varianz, die das Quadrat der Standardabweichung ist Wenn wir Volatilität wollen , Müssen wir uns daran erinnern, die Quadratwurzel dieser Varianz zu nehmen. Was ist der Unterschied in der täglichen Volatilität zwischen der Varianz und EWMA in Google s Fall Es ist wichtig Die einfache Varianz gab uns eine tägliche Volatilität von 2 4 aber die EWMA gav Ea tägliche Volatilität von nur 1 4 siehe die Kalkulationstabelle für Details Anscheinend hat sich die Volatilität von Google in jüngster Zeit niedergelassen, eine einfache Varianz könnte künstlich hoch sein. Heute ist die Abweichung eine Funktion der Pior Day s Abweichung Sie werden bemerken, dass wir eine Berechnung berechnen müssen Lange Reihe von exponentiell abnehmenden Gewichten Wir haben hier die Mathematik gewonnen, aber eines der besten Eigenschaften der EWMA ist, dass die ganze Serie bequem auf eine rekursive Formulierung reduziert wird. Ausgezeichnet bedeutet, dass heute die Varianzreferenzen dh eine Funktion des vorherigen Tages sind S Varianz Sie finden diese Formel auch in der Kalkulationstabelle, und es produziert genau das gleiche Ergebnis wie die Langzeitberechnung Es heißt Heute ist die Abweichung unter EWMA gleich gestern abweichend von Lambda plus gestern s quadrierte Rückkehr gewogen von einem minus lambda Hinweis, wie wir Sind nur Hinzufügen von zwei Begriffen zusammen gestern s gewichtete Varianz und gestern gewichtet, quadriert return. Even so, lambda ist unser Glättungsparameter Ein höheres Lambda zB wie Ri SkMetric s 94 zeigt langsameren Zerfall in der Serie - in relativer Hinsicht werden wir mehr Datenpunkte in der Serie haben und sie werden langsam abfallen. Auf der anderen Seite, wenn wir das Lambda reduzieren, geben wir einen höheren Zerfall an Gewichte fallen schneller ab, und als direkte Folge des schnellen Zerfalls werden weniger Datenpunkte verwendet. In der Kalkulationstabelle ist Lambda ein Eingang, so dass man mit seiner Empfindlichkeit experimentieren kann. Zusammenfassung Die Volatilität ist die momentane Standardabweichung eines Bestandes und der Die häufigsten Gefahrenmetrik Es ist auch die Quadratwurzel der Varianz Wir können die Varianz historisch oder implizit implizite Volatilität messen Wenn man historisch misst, ist die einfachste Methode einfacher Abweichung. Aber die Schwäche mit einfacher Varianz ist alles Rückkehr das gleiche Gewicht. So stehen wir einem klassischen Handel gegenüber - Wir wollen immer mehr Daten, aber je mehr Daten wir haben, desto mehr wird unsere Berechnung durch weit weniger relevante Daten verdünnt. Der exponentiell gewichtete gleitende Durchschnitt EWMA verbessert die einfache Varianz Zuordnung von Gewichten zu den periodischen Renditen Auf diese Weise können wir beide eine große Stichprobengröße verwenden, aber auch ein größeres Gewicht auf neuere Renditen geben. Um ein Film-Tutorial zu diesem Thema zu sehen, besuchen Sie die Bionic Turtle. A Umfrage von der United States Bureau of Labor Statistics durchgeführt, um zu helfen, Stellenangebote zu sammeln Es sammelt Daten von Arbeitgebern. Die maximale Höhe der Gelder der Vereinigten Staaten können leihen Die Schulden Decke war Erstellt unter dem Zweiten Liberty Bond Act. Der Zinssatz, bei dem ein Depotinstitut die Gelder in der Federal Reserve an eine andere Depotbank leiht.1 Ein statistisches Maß für die Verteilung der Renditen für einen bestimmten Wertpapier oder Marktindex Volatilität kann entweder gemessen werden. Eine Handlung der US-Kongress verabschiedet 1933 als Banking Act, die Geschäftsbanken von der Teilnahme an der Investition verboten. Nonfarm Lohn-und Gehaltsliste bezieht sich auf jeden Job außerhalb der landwirtschaftlichen Betriebe, private Haushalte und die gemeinnützige Sektor Die US Bureau of Labor. The Material auf dieser Website Ist nur zu Informationszwecken vorgesehen und stellt weder ein Verkaufsangebot, eine Kaufanforderung noch eine Empfehlung oder eine Empfehlung für jeden Wert dar Rität oder Strategie, noch stellt sie ein Angebot zur Bereitstellung von Anlageberatungsdiensten durch Quantopian dar. Darüber hinaus bietet das Material keine Stellungnahme in Bezug auf die Eignung von Sicherheit oder spezifische Investition Quantopian übernimmt keine Gewähr für die Richtigkeit und Vollständigkeit der gesprochenen Ansichten In der Website Die Ansichten sind freibleibend und können aus verschiedenen Gründen unzuverlässig geworden sein, einschließlich Änderungen der Marktbedingungen oder der wirtschaftlichen Umstände Alle Investitionen beinhalten Risiken, einschließlich Verlust des Auftraggebers Sie sollten sich bei einem Anlageberater vor einer Investitionsentscheidung wenden Ich möchte nur darauf hinweisen, dass ich diesen Algo nicht treibe oder irgendetwas, aber es hat einen guten Ausgangspunkt für die Art von naivem Risiko Parität Position Größe Rob Carver beschreibt in seinem Buch. Danke für interessante Algo Ich lese Carver's Buch Als auch und wie sein Ansatz zur Bestimmung der Position Größe auf der Grundlage der gewünschten volatily, zugrunde liegenden Volatilität und die Prognose Aber es sieht aus wie die schlechte Leistung negativ Sharp der Algo kommt aus Unter-Investition Die Algo investiert nur 0 008 der Hauptstadt oder 8000 von 1M In denke, die Idee in Carver Buch war die Volatilität anpassen die Positionen, um die optimale Volatilität zu erreichen Des Gesamtportfolios So, wenn die Volatilität von SP 12 8 beträgt, sollte der Algo 100 in Aktien investieren, um zB 0 008 täglich oder 12 8 jährlich zu erreichen. In deinem Algo liegt die Volatilität des Portfolios bei 0.

No comments:

Post a Comment