Wednesday 18 October 2017

Leiten Sie Die Varianz Des Exponentiell Gewichteten Gleitenden Durchschnitts Ab


Ich habe ein Problem, ein Stück Papier zu verstehen. Sehr schätzen jeden Hinweis oder Hilfe. Es sagt: Ein Sensor zeichnet Z (i) in Intervallen von 1 Sekunde auf und berechnet die Hintergrundwerte U (i) nach Formel: wobei R ein konstanter Faktor ist und U (0) aus Vormessdaten berechnet wird. Nun, jede Idee, wenn diese Formel berühmt ist Ist es ein zweidimensionales Gauß-Mischungsrauschen, so sagt es genau so: Die Varianz U (i) dieser Werte wird aus den berechneten Werten U (i) berechnet: wobei k sigma ist Faktor und T ist die gegebene Messzeit. Ich habe keine Ahnung, wie die Varianz wurde so etwas. Ich verstehe den Begriff T und die Funktion sqrt aber die allgemeine Formel, keine idea. whuber - Das ist falsch, wie Sie vermutet haben. Es ist richtig, wenn die Gewichte selbst Frequenzen sind. Aber obwohl Frequenzen in die Berechnung der Prozentsätze in diesem Fall die Gewichte gehen, wenn auch nicht spezifiziert, sind nicht Häufigkeiten des Auftretens, sondern etwas anderes zu tun, mit quotdata volumequot. Das ist also die falsche Antwort. Ndash Rex Kerr Die Formeln sind verfügbar verschiedene Orte, einschließlich Wikipedia. Der Schlüssel ist zu bemerken, dass es hängt davon ab, was die Gewichte bedeuten. Insbesondere erhalten Sie verschiedene Antworten, wenn es sich bei den Gewichten um Frequenzen handelt (dh Sie versuchen nur, die Summe nicht zu addieren), wenn die Gewichte in der Tat die Abweichung der einzelnen Messungen sind oder wenn nur einige externe Werte auferlegt werden deine Daten. In Ihrem Fall, es oberflächlich sieht aus wie die Gewichte sind Frequenzen, aber theyre nicht. Sie generieren Ihre Daten aus Frequenzen, aber es ist nicht einfach, mit 45 Datensätze von 3 und 15 Datensätze von 4 in Ihrem Datensatz. Stattdessen müssen Sie die letzte Methode verwenden. (Eigentlich ist das alles Müll - Sie müssen wirklich ein anspruchsvolleres Modell des Prozesses verwenden, der diese Zahlen erzeugt. Anscheinend haben Sie nicht etwas, das ausspucken Normalverteilte Zahlen, so dass das System mit der Standardabweichung charakterisiert wird Nicht das Richtige.) In jedem Fall ist die Formel für die Varianz (mit der Sie die Standardabweichung auf normale Weise berechnen) mit Zuverlässigkeitsgewichten, wobei x sum wi xi / sum wi der gewichtete Mittelwert ist. Sie haben nicht eine Schätzung für die Gewichte, die Im vorausgesetzt, Sie wollen, um proportional zur Zuverlässigkeit werden. Unter den Prozentsätzen, wie Sie sind, wird die Analyse schwierig zu machen, auch wenn theyre von einem Bernoulli-Prozess generiert, denn wenn Sie eine Punktzahl von 20 und 0 erhalten, haben Sie unendlichen Prozentsatz. Die Gewichtung durch das Inverse des SEM ist eine gemeinsame und manchmal optimale Sache zu tun. Sie sollten vielleicht eine Bayessche Schätzung oder Wilson Score Intervall. Antwortete am 8. September um 17:48 1. Die Diskussion der verschiedenen Bedeutungen der Gewichte war, was ich in diesem Thread die ganze Zeit gesucht wurde. Es ist ein wichtiger Beitrag zu all diesen Fragen zu gewichteten Statistiken. (Ich bin ein wenig besorgt über die Klammern Bemerkungen über normale Verteilungen und Standardabweichungen, aber weil sie fälschlicherweise deuten darauf hin, dass SDs haben keinen Gebrauch außerhalb eines Modells auf der Grundlage der Normalität.) Ndash whuber 9830 Sep 8 15 um 18:23 whuber - Nun, Aber das, was das OP tat, versucht, diesen Satz von Zahlen mit einer mittleren und Standardabweichung zu charakterisieren, scheint außerordentlich nicht ratsam zu sein. Und in der Regel für viele Anwendungen die Standardabweichung endet locken ein in ein falsches Gefühl des Verstehens. Zum Beispiel, wenn die Verteilung ist alles andere als normal (oder eine gute Annäherung davon), verlassen Sie sich auf die Standardabweichung geben Ihnen eine schlechte Vorstellung von der Form der Schwänze, wenn es genau die Schwänze, die Sie wahrscheinlich am meisten Sorge in der statistischen testen. Ndash Rex Kerr Wir können schwerlich Standard-Abweichung Schuld, wenn die Menschen Interpretationen auf sie, die unverdient sind. Aber lassen Sie39s weg von der Normalität und betrachten die viel breitere Klasse von stetigen, symmetrischen unimodalen Verteilungen mit endlichen Varianz (zum Beispiel). Dann liegen zwischen 89 und 100 Prozent der Verteilung innerhalb von zwei Standardabweichungen. Das ist oft ziemlich nützlich, um zu wissen (und 95 liegt ziemlich viel in der Mitte, also ist es nie mehr als etwa 7 aus) mit vielen gemeinsamen Verteilungen, die Symmetrie Aspekt doesn39t viel ändern (z. B. Blick auf die Exponential, zum Beispiel). Ctd ndash Glenb 9830 Okt 1 15 um 23: 57Exponential Moving Average - EMA Laden des Spielers. BREAKING DOWN Exponential Moving Average - EMA Die 12- und 26-Tage-EMAs sind die beliebtesten Kurzzeitmittelwerte und werden verwendet, um Indikatoren wie die gleitende durchschnittliche Konvergenzdivergenz (MACD) und den prozentualen Preisoszillator (PPO) zu erzeugen. Im Allgemeinen werden die 50- und 200-Tage-EMAs als Signale von langfristigen Trends verwendet. Trader, die technische Analyse verwenden finden fließende Mittelwerte sehr nützlich und aufschlussreich, wenn sie richtig angewendet werden, aber Chaos verursachen, wenn sie falsch verwendet werden oder falsch interpretiert werden. Alle gleitenden Durchschnitte, die gewöhnlich in der technischen Analyse verwendet werden, sind von Natur aus nacheilende Indikatoren. Folglich sollten die Schlussfolgerungen aus der Anwendung eines gleitenden Durchschnitts auf ein bestimmtes Marktdiagramm eine Marktbewegung bestätigen oder ihre Stärke belegen. Sehr oft, bis eine gleitende durchschnittliche Indikatorlinie eine Änderung vorgenommen hat, um eine bedeutende Bewegung auf dem Markt zu reflektieren, ist der optimale Punkt des Markteintritts bereits vergangen. Eine EMA dient dazu, dieses Dilemma zu einem gewissen Grad zu lindern. Da die EMA-Berechnung mehr Gewicht auf die neuesten Daten setzt, umgibt sie die Preisaktion etwas fester und reagiert damit schneller. Dies ist wünschenswert, wenn ein EMA verwendet wird, um ein Handelseintragungssignal abzuleiten. Interpretation der EMA Wie alle gleitenden Durchschnittsindikatoren sind sie für Trendmärkte viel besser geeignet. Wenn der Markt in einem starken und anhaltenden Aufwärtstrend ist. Zeigt die EMA-Indikatorlinie auch einen Aufwärtstrend und umgekehrt einen Abwärtstrend. Ein wachsamer Händler achtet nicht nur auf die Richtung der EMA-Linie, sondern auch auf das Verhältnis der Änderungsgeschwindigkeit von einem Balken zum nächsten. Wenn zum Beispiel die Preisaktion eines starken Aufwärtstrends beginnt, sich zu verflachen und umzukehren, wird die EMA-Rate der Änderung von einem Balken zum nächsten abnehmen, bis zu dem Zeitpunkt, zu dem die Indikatorlinie flacht und die Änderungsrate null ist. Wegen der nacheilenden Wirkung, von diesem Punkt, oder sogar ein paar Takte zuvor, sollte die Preisaktion bereits umgekehrt haben. Daraus folgt, dass die Beobachtung eines konsequenten Abschwächens der Veränderungsrate der EMA selbst als Indikator genutzt werden könnte, der das Dilemma, das durch den nacheilenden Effekt von gleitenden Durchschnittswerten verursacht wird, weiter beheben könnte. Gemeinsame Verwendung der EMA-EMAs werden häufig in Verbindung mit anderen Indikatoren verwendet, um signifikante Marktbewegungen zu bestätigen und deren Gültigkeit zu messen. Für Händler, die intraday und schnelllebigen Märkten handeln, ist die EMA mehr anwendbar. Häufig benutzen Händler EMAs, um eine Handel Bias zu bestimmen. Zum Beispiel, wenn eine EMA auf einer Tages-Chart zeigt einen starken Aufwärtstrend, eine Intraday-Trader-Strategie kann nur von der langen Seite auf einem Intraday-Diagramm handeln. Moving-Durchschnitte Verschieben von Durchschnitten Mit herkömmlichen Datasets der Mittelwert ist oft die erste, und Eine der nützlichsten, zusammenfassenden Statistiken zu berechnen. Wenn die Daten in Form einer Zeitreihe vorliegen, ist das Serienmittel ein nützliches Maß, spiegelt aber nicht die dynamische Natur der Daten wider. Meanwerte, die über kurzgeschlossene Perioden berechnet werden, die entweder der aktuellen Periode vorangehen oder auf die aktuelle Periode zentriert sind, sind oft nützlicher. Weil solche Mittelwerte sich ändern oder sich bewegen, wenn sich die aktuelle Periode von der Zeit t & sub2 ;, t & sub3; usw. bewegt, werden sie als gleitende Durchschnittswerte (Mas) bezeichnet. Ein einfacher gleitender Durchschnitt ist (üblicherweise) der ungewichtete Durchschnitt von k vorherigen Werten. Ein exponentiell gewichteter gleitender Durchschnitt ist im Wesentlichen derselbe wie ein einfacher gleitender Durchschnitt, aber mit Beiträgen zum Mittelwert, der durch ihre Nähe zur aktuellen Zeit gewichtet wird. Da es keine einzige, sondern eine ganze Reihe von gleitenden Mittelwerten für eine beliebige Reihe gibt, kann der Satz von Mas selbst auf Graphen aufgetragen, als Serie analysiert und in der Modellierung und Prognose verwendet werden. Eine Reihe von Modellen kann mit gleitenden Durchschnitten konstruiert werden, und diese sind als MA-Modelle bekannt. Wenn solche Modelle mit autoregressiven (AR) Modellen kombiniert werden, sind die resultierenden zusammengesetzten Modelle als ARMA - oder ARIMA-Modelle bekannt (die I ist für integriert). Einfache gleitende Mittelwerte Da eine Zeitreihe als ein Satz von Werten betrachtet werden kann, können t 1,2,3,4, n der Mittelwert dieser Werte berechnet werden. Wenn wir annehmen, daß n ziemlich groß ist, so wählen wir eine ganze Zahl k, die viel kleiner als n ist. Können wir einen Satz von Blockdurchschnitten oder einfache Bewegungsdurchschnitte (der Ordnung k) berechnen: Jede Messung repräsentiert den Durchschnitt der Datenwerte über einem Intervall von k Beobachtungen. Man beachte, daß das erste mögliche MA der Ordnung kgt0 dasjenige für tk ist. Allgemeiner können wir den zusätzlichen Index in die obigen Ausdrücke schreiben und schreiben: Dies bedeutet, daß der geschätzte Mittelwert zum Zeitpunkt t der einfache Mittelwert des beobachteten Wertes zum Zeitpunkt t und den vorhergehenden k -1 Zeitschritten ist. Wenn Gewichte angewandt werden, die den Beitrag von Beobachtungen verringern, die weiter weg in der Zeit sind, wird der gleitende Durchschnitt als exponentiell geglättet. Gleitende Mittelwerte werden häufig als eine Form der Prognose verwendet, wobei der Schätzwert für eine Reihe zum Zeitpunkt t 1, S t1. Wird als MA für den Zeitraum bis einschließlich der Zeit t genommen. z. B. Die heutige Schätzung basiert auf einem Durchschnitt der bisherigen aufgezeichneten Werte bis einschließlich gestern (für tägliche Daten). Einfache gleitende Mittelwerte können als eine Form der Glättung gesehen werden. In dem nachfolgend dargestellten Beispiel wurde der in der Einleitung zu diesem Thema gezeigte Luftverschmutzungs-Datensatz um eine 7-tägige gleitende Linie (MA) ergänzt, die hier in Rot dargestellt ist. Wie man sehen kann, glättet die MA-Linie die Spitzen und Täler in den Daten und kann sehr hilfreich sein, um Trends zu identifizieren. Die Standard-Vorwärtsberechnungsformel bedeutet, dass die ersten k-1-Datenpunkte keinen MA-Wert haben, aber danach rechnen sich die Berechnungen bis zum Enddatenpunkt in der Reihe. PM10 tägliche Mittelwerte, Greenwich Quelle: London Air Quality Network, www. londonair. org. uk Ein Grund für die Berechnung einfacher gleitender Mittelwerte in der beschriebenen Weise ist, dass sie Werte für alle Zeitschlitze von der Zeit tk bis zur Gegenwart berechnen lässt , Und wenn eine neue Messung für die Zeit t 1 erhalten wird, kann die MA für die Zeit t 1 zu der bereits berechneten Menge addiert werden. Dies bietet eine einfache Vorgehensweise für dynamische Datensätze. Allerdings gibt es einige Probleme mit diesem Ansatz. Es ist vernünftig zu argumentieren, dass sich der Mittelwert der letzten 3 Perioden zum Zeitpunkt t -1, nicht zur Zeit t, befinden sollte. Und für eine MA über eine gerade Anzahl von Perioden vielleicht sollte sie sich in der Mitte zwischen zwei Zeitintervallen befinden. Eine Lösung für dieses Problem besteht darin, zentrierte MA-Berechnungen zu verwenden, bei denen der MA zum Zeitpunkt t der Mittelwert einer symmetrischen Menge von Werten um t ist. Trotz seiner offensichtlichen Verdienste wird dieser Ansatz nicht allgemein verwendet, weil er erfordert, dass Daten für zukünftige Ereignisse verfügbar sind, was möglicherweise nicht der Fall sein kann. In Fällen, in denen die Analyse vollständig aus einer bestehenden Serie besteht, kann die Verwendung von zentriertem Mas bevorzugt sein. Einfache gleitende Mittelwerte können als eine Form von Glättung, Entfernen einiger Hochfrequenzkomponenten einer Zeitreihe und Hervorhebung (aber nicht Entfernen) von Trends in einer ähnlichen Weise wie der allgemeine Begriff der digitalen Filterung betrachtet werden. Tatsächlich sind die gleitenden Mittelwerte eine Form eines linearen Filters. Es ist möglich, eine gleitende Durchschnittsberechnung auf eine Reihe anzuwenden, die bereits geglättet worden ist, d. h. Glätten oder Filtern einer bereits geglätteten Reihe. Zum Beispiel können wir mit einem gleitenden Mittelwert der Ordnung 2 die Berechnungen unter Verwendung von Gewichten betrachten, so daß die MA bei x 2 0,5 x 1 0,5 x 2 gilt. Ebenso ist die MA bei x 3 0,5 x 2 0,5 x 3 Eine zweite Glättungs - oder Filterstufe anwenden, so haben wir 0,5 x 2 0,5 x 3 0,5 (0,5 x 1 0,5 x 2) 0,5 (0,5 x 2 0,5 x 3) 0,25 x 1 0,5 x 2 0,25 x 3, dh die zweistufige Filterung Prozess (oder Faltung) einen variabel gewichteten symmetrischen gleitenden Durchschnitt mit Gewichten erzeugt hat. Mehrere Windungen können sehr komplexe gewichtete gleitende Durchschnittswerte erzeugen, von denen einige speziell in Spezialgebieten, wie etwa in Lebensversicherungsberechnungen, gefunden wurden. Bewegungsdurchschnitte können verwendet werden, um periodische Effekte zu entfernen, wenn sie mit der Länge der Periodizität als bekannt berechnet werden. Zum Beispiel können mit monatlichen Daten saisonale Schwankungen oft entfernt werden (wenn dies das Ziel ist), indem Sie eine symmetrische 12-monatigen gleitenden Durchschnitt mit allen Monaten gleichmäßig gewichtet, mit Ausnahme der ersten und letzten, die mit 1/2 gewichtet werden. Dies liegt daran, dass es 13 Monate im symmetrischen Modell (aktuelle Zeit, t / / 6 Monate). Die Gesamtzahl wird durch 12 geteilt. Ähnliche Verfahren können für jede wohldefinierte Periodizität angenommen werden. Exponentiell gewichtete Bewegungsdurchschnitte (EWMA) Mit der einfachen gleitenden Durchschnittsformel werden alle Beobachtungen gleich gewichtet. Wenn wir diese Gleichgewichte, alpha t. Würde jedes der k Gewichte gleich 1 / k sein. So dass die Summe der Gewichte würde 1, und die Formel wäre: Wir haben bereits gesehen, dass mehrere Anwendungen dieses Prozesses in die Gewichte variieren führen. Bei exponentiell gewichteten Bewegungsdurchschnitten wird der Beitrag zum Mittelwert aus mehr zeitlich entfernten Beobachtungen verringert, wodurch neuere (lokale) Ereignisse hervorgehoben werden. Im wesentlichen wird ein Glättungsparameter 0lt alpha lt1 eingeführt und die Formel überarbeitet: Eine symmetrische Version dieser Formel würde die Form haben: Wenn die Gewichte im symmetrischen Modell als die Ausdrücke der Terme der Binomialdehnung ausgewählt werden, (1/21/2) 2q. Sie summieren sich auf 1, und wenn q groß wird, nähert sich die Normalverteilung. Dies ist eine Form der Kerngewichtung, wobei das Binomial als Kernfunktion dient. Die im vorigen Teilabschnitt beschriebene zweistufige Faltung ist genau diese Anordnung, wobei q 1 die Gewichte ergibt. Bei der exponentiellen Glättung ist es notwendig, einen Satz von Gewichten zu verwenden, die auf 1 summieren und die geometrisch verkleinern. Die verwendeten Gewichte haben typischerweise die Form: Um zu zeigen, daß diese Gewichte zu 1 summieren, betrachten wir die Ausdehnung von 1 / als Folge. Wir können den Ausdruck in Klammern schreiben und erweitern, indem wir die binomische Formel (1- x) p verwenden. Wobei x (1-) und p-1, was ergibt, ergibt sich daraus eine Form des gewichteten gleitenden Mittelwerts der Form: Diese Summation kann als eine Rekursionsrelation geschrieben werden, die die Berechnung erheblich vereinfacht und das Problem der Gewichtsregelung vermeidet Sollte strikt unendlich sein, damit die Gewichte auf 1 summieren (für kleine Werte von Alpha ist dies typischerweise nicht der Fall). Die von verschiedenen Autoren verwendete Schreibweise variiert. Einige verwenden den Buchstaben S, um anzuzeigen, daß die Formel im wesentlichen eine geglättete Variable ist, und schreiben: während die kontrolltheoretische Literatur oft Z anstelle von S für die exponentiell gewichteten oder geglätteten Werte verwendet (siehe z. B. Lucas und Saccucci, 1990, LUC1) , Und die NIST-Website für weitere Details und bearbeitete Beispiele). Die Formeln, die oben zitiert wurden, stammen aus der Arbeit von Roberts (1959, ROB1), aber Hunter (1986, HUN1) verwendet einen Ausdruck der Form, die für die Verwendung in einigen Kontrollverfahren geeigneter sein kann. Bei alpha 1 ist die mittlere Schätzung einfach ihr gemessener Wert (oder der Wert des vorherigen Datenelements). Bei 0,5 ist die Schätzung der einfache gleitende Durchschnitt der aktuellen und vorherigen Messungen. In Prognosemodellen wird der Wert S t. Wird oft als Schätzwert oder Prognosewert für die nächste Zeitperiode, dh als Schätzung für x zum Zeitpunkt t 1, verwendet. Somit haben wir: Dies zeigt, dass der Prognosewert zum Zeitpunkt t 1 eine Kombination des vorherigen exponentiell gewichteten gleitenden Durchschnitts ist Plus eine Komponente, die den gewichteten Vorhersagefehler darstellt, epsilon. Zum Zeitpunkt t. Wenn eine Zeitreihe gegeben wird und eine Prognose erforderlich ist, ist ein Wert für alpha erforderlich. Dies kann aus den vorhandenen Daten abgeschätzt werden, indem die Summe der quadrierten Prädiktionsfehler, die mit variierenden Werten von alpha für jedes t 2,3 erhalten werden, ausgewertet wird. Wobei der erste Schätzwert der erste beobachtete Datenwert x ist. Bei Steueranwendungen ist der Wert von alpha wichtig, da er bei der Bestimmung der oberen und unteren Steuergrenzen verwendet wird und die erwartete durchschnittliche Lauflänge (ARL) beeinflusst Bevor diese Kontrollgrenzen unterbrochen werden (unter der Annahme, dass die Zeitreihe eine Menge von zufälligen, identisch verteilten unabhängigen Variablen mit gemeinsamer Varianz darstellt). Unter diesen Umständen ist die Varianz der Kontrollstatistik: (Lucas und Saccucci, 1990): Kontrollgrenzen werden gewöhnlich als feste Vielfache dieser asymptotischen Varianz festgelegt, z. B. / - das Dreifache der Standardabweichung. Wenn beispielsweise & alpha; 0,25 angenommen wird und die zu überwachenden Daten eine Normalverteilung, N (0,1) haben, wenn sie in der Steuerung sind, werden die Steuergrenzen / - 1,134 sein, und der Prozess wird eine oder andere Grenze in 500 erreichen Schritte im Durchschnitt. Lucas und Saccucci (1990 LUC1) leiten die ARLs für eine breite Palette von Alpha-Werten und unter verschiedenen Annahmen unter Verwendung von Markov-Chain-Prozeduren ab. Sie tabellieren die Ergebnisse, einschließlich der Bereitstellung von ARLs, wenn der Mittelwert des Kontrollprozesses um ein Vielfaches der Standardabweichung verschoben worden ist. Beispielsweise beträgt bei einer 0,5-Verschiebung mit alpha 0,25 die ARL weniger als 50 Zeitschritte. Die oben beschriebenen Ansätze sind als einzelne exponentielle Glättung bekannt. Da die Prozeduren einmal auf die Zeitreihe angewendet werden und dann Analysen oder Steuerprozesse auf dem resultierenden geglätteten Datensatz durchgeführt werden. Wenn der Datensatz einen Trend und / oder saisonale Komponenten enthält, kann eine zweidimensionale oder dreistufige Exponentialglättung angewendet werden, um diese Effekte zu entfernen (explizit modellieren) (siehe weiter unten im Abschnitt "Vorhersage" und "NIST") ). CHA1 Chatfield C (1975) Die Analyse der Zeitreihen: Theorie und Praxis. Chapman und Hall, London HUN1 Hunter J S (1986) Der exponentiell gewichtete gleitende Durchschnitt. J von Qualitätstechnologie, 18, 203-210 LUC1 Lucas J M, Saccucci M S (1990) Exponentiell gewichtete gleitende durchschnittliche Kontrollschemata: Eigenschaften und Verbesserungen. Technometrics, 32 (1), 1-12 ROB1 Roberts S W (1959) Kontrolltests auf der Grundlage geometrischer Bewegungsdurchschnitte. Technometrics, 1, 239-250von Nong Ye, Senior Member, Sean Vilbert, Qiang Chen - IEEE Trans. Rel. 2003. AbstractRelability und Servicequalität aus Informationssystemen sind durch Cyberintrusionen bedroht. Um Informationssysteme vor Intrusionen zu schützen und somit Zuverlässigkeit und Servicequalität zu gewährleisten, ist es höchst wünschenswert, Techniken zu entwickeln, die Intrusionen detektieren. Viele Einbrüche manife. AbstractRelability und Servicequalität aus Informationssystemen sind durch Cyberintrusionen bedroht. Um Informationssysteme vor Intrusionen zu schützen und somit Zuverlässigkeit und Servicequalität zu gewährleisten, ist es höchst wünschenswert, Techniken zu entwickeln, die Intrusionen detektieren. Viele Intrusionen manifestieren sich in anomalen Veränderungen in der Intensität der Ereignisse, die in Informationssystemen auftreten. In dieser Studie werden zwei EWMA-Techniken angewandt, getestet und verglichen, um anomale Veränderungen der Ereignisintensität für die Intrusion Detection zu erkennen: EWMA für autokorrelierte Daten und EWMA für nicht korrelierte Daten. Verschiedene Parametereinstellungen und deren Auswirkungen auf die Leistungsfähigkeit dieser EWMA-Techniken werden ebenfalls untersucht, um Leitlinien für die praktische Anwendung dieser Techniken zu liefern. Index-BegriffeAnomalie-Erkennung, Computer-Audit-Daten, exponentiell gewichteter gleitender Durchschnitt (EWMA), Informationssicherung, Intrusion Detection. Intensität als Anomalien oder mögliche Intrusionen. Shewhart-Steuerkarten, CUSUM-Steuerkarten und EWMA-Steuerkarten sind univariate SPC-Techniken, die typischerweise verwendet werden, um mittlere Verschiebungen 36-42 zu erkennen. Die EWMV-Steuerdiagramme 37, 43 sind zum Erfassen von Varianzänderungen ausgelegt, können aber auch für mittlere Verschiebungen empfindlich sein. EWMA-Regelkarten sind robust gegenüber der - Normalität der Daten 37, 39. Da die - n. Von Hsin-min Lu, Daniel Zeng, Senior Member, Hsinchun Chen - IEEE-Transaktionen zu Wissen ampamp Data Engineering. 2010. AbstractAccurate und rechtzeitige Erkennung von Infektionskrankheiten Ausbrüchen liefert wertvolle Informationen, die Beamten der öffentlichen Gesundheit zu ermöglichen, auf erhebliche Bedrohungen der öffentlichen Gesundheit in einer fristgerechten Weise zu reagieren. Allerdings sind Krankheitsausbrüche oft nicht direkt zu beobachten. Für Überwachungssysteme. AbstractAccurate und rechtzeitige Erkennung von Infektionskrankheiten Ausbrüchen liefert wertvolle Informationen, die Beamten der öffentlichen Gesundheit zu ermöglichen, auf erhebliche Bedrohungen der öffentlichen Gesundheit in einer fristgerechten Weise zu reagieren. Allerdings sind Krankheitsausbrüche oft nicht direkt zu beobachten. Für Überwachungssysteme, die verwendet werden, um Ausbrüche zu detektieren, können Rauschen, die durch Routineverhaltensmuster und durch spezielle Ereignisse verursacht werden, die Erkennungsaufgabe weiter komplizieren. Die meisten bestehenden Erkennungsmethoden kombinieren eine Zeitreihenfilterung, gefolgt von einer statistischen Überwachungsmethode. Die Leistung dieser zweistufigen Detektionsmethode wird durch die unrealistische Annahme behindert, dass die Trainingsdaten ausbrechungsfrei sind. Darüber hinaus sind bestehende Ansätze empfindlich gegenüber Extremwerten, die in realen Datensätzen üblich sind. Wir betrachteten das Problem der Identifizierung Ausbruch Muster in einer Syndromzählung Zeitreihen mit Markov Switching-Modelle. Die Krankheitsausbruchzustände werden als verborgene Zustandsgrößen modelliert, die die beobachteten Zeitreihen steuern. Eine Sprungkomponente wird eingeführt, um sporadische Extremwerte zu absorbieren, die ansonsten die Fähigkeit zum Erfassen von sich langsam bewegenden Krankheitsausbrüchen schwächen. Unser Ansatz übertraf bei der Detektionsempfindlichkeit mit Hilfe modernster Detektionsmethoden sowohl die simulierten als auch die realen Daten. Index TermsMarkov Schaltmodelle, syndrome Überwachung, Gibbs Probenahme, Ausbruch-Erkennung. 1 ähnlich wie die CUSUM-Methode, sind höhere Ausbrüche in der Regel mit einem höheren Risiko verbunden mit einem Ausbruch. Die Schwelle kann aus theoretischen Analysen oder empirischen Studien 43, -44- bestimmt werden. Einige syndrome Surveillance-Studien verwenden ein gleitendes Durchschnittsschema, um Prognosefehler 8, 9 zu akkumulieren. Ihre Studien haben gezeigt, dass ein linearerhöhendes Gewichtungssystem die besten Ergebnisse von Christian Sonesson, Christian Sonesson, durchführte. 2001. Mehrere Versionen des EWMA-Verfahrens ( "Exponential Weighted Moving Average") zur Überwachung eines Prozesses mit dem Ziel, eine Verschiebung im Mittel zu detektieren, werden sowohl für den einseitigen als auch den zweiseitigen Fall untersucht. Die Auswirkungen der Verwendung von Barrieren für die einseitige Alarmstatistik werden ebenfalls untersucht. Ein Important. Mehrere Versionen des EWMA-Verfahrens ( "Exponential Weighted Moving Average") zur Überwachung eines Prozesses mit dem Ziel, eine Verschiebung im Mittel zu detektieren, werden sowohl für den einseitigen als auch den zweiseitigen Fall untersucht. Die Auswirkungen der Verwendung von Barrieren für die einseitige Alarmstatistik werden ebenfalls untersucht. Ein wichtiges Thema ist die Wirkung verschiedener Arten von Alarmgrenzen. Es werden verschiedene Bewertungsmaßstäbe wie die erwartete Verzögerung, die ARLI, die Wahrscheinlichkeit einer erfolgreichen Detektion und der prädiktive Wert eines Alarms betrachtet, um ein breites Bild der Merkmale der Verfahren zu liefern. Die Ergebnisse werden sowohl für einen festen ARLO als auch für eine feste Wahrscheinlichkeit eines falschen Alarms dargestellt. Die Unterschiede unterstreichen das wesentliche Problem, wie die Vergleichbarkeit zwischen den Überwachungsmethoden zu definieren ist. Die Ergebnisse stammen aus einer umfangreichen Simulationsstudie. Besondere Aufmerksamkeit gilt der Wirkung auf das Vertrauen in die Endergebnisse durch die stochastische Variation der Kalibrierung der Methoden. Es scheint, dass zwischen den ein - und zweiseitigen Versionen der Methoden wichtige Unterschiede zu einem inferentiellen Gesichtspunkt bestehen. Es wird gezeigt, dass die Methode, die in der Regel als eine bequeme Approximation betrachtet wird, in vieler Hinsicht gegenüber der exakten Version bevorzugt ist. Von Michael B. C. Khoo. Zusammenfassung Die univariate Exponential Weighted Moving Average (EWMA) - Regelkarte, die nachstehend als EWMA-Diagramm bezeichnet wird, ist eine gute Alternative zur Shewhart-Kontrollkarte, wenn man daran interessiert ist, kleine Verschiebungen schnell zu erkennen. Die Performance der EWMA-Regelkarte ist mit t vergleichbar. Zusammenfassung Die univariate Exponential Weighted Moving Average (EWMA) - Regelkarte, die nachstehend als EWMA-Diagramm bezeichnet wird, ist eine gute Alternative zur Shewhart-Kontrollkarte, wenn man daran interessiert ist, kleine Verschiebungen schnell zu erkennen. Die Leistung der EWMA-Regelkarte ist vergleichbar mit der kumulativen Summen - (CUSUM) - Regelkarte, die erste ist jedoch einfacher einzurichten und zu betreiben. In diesem Beitrag wird ein Ansatz anhand einer Transformation der Verwendung des EWMA-Diagramms in einer multivariaten Prozessüberwachung erörtert. Roll-Schema empfindlicher für Anlaufprobleme. Andere Ansätze, um die schnelle anfängliche Antwort-Feature, um die EWMA gehören die Werke von Rhoads, Montgomery und Mastrangelo 5 und Steiner -6-. MacGregor und Harris 7 diskutieren die Verwendung von EWMA-basierten Statistiken zur Überwachung der Prozessstandardabweichung. Borror, Champ und Rigdon 8 beschreiben ein Verfahren zur Verwendung des EWMA-Diagramms für monito. Von Spencer Graves, Sren Bisgaard, Murat Kulachi, Spencer Graves, Sren Bisgaard, Murat Kulahci. Wir ermitteln einen exponentiell gewichteten gleitenden Durchschnitt (EWMA) als das Bayessche Mittel für eine zufällige Wanderung, die bei normalem Fehler beobachtet wurde. Diese Ableitung zeigt, wie das Gewicht auf die letzte Beobachtung im Laufe der Zeit variiert. Dieses Gewicht hängt von der Migrationsrate der zufälligen Wanderung und der Rauschvarianz ab, die. Wir ermitteln einen exponentiell gewichteten gleitenden Durchschnitt (EWMA) als das Bayessche Mittel für eine zufällige Wanderung, die bei normalem Fehler beobachtet wurde. Diese Ableitung zeigt, wie das Gewicht auf die letzte Beobachtung im Laufe der Zeit variiert. Dieses Gewicht hängt von der Migrationsrate der zufälligen Wanderung und der Rauschvarianz ab, die aus Zuverlässigkeitsdaten und Studien der Wiederholbarkeit und Reproduzierbarkeit der Reproduzierbarkeit abgeschätzt werden kann. Die Variationen des Gewichts bei der letzten Beobachtung liefern eine Lösung für das schnelle Anfangsantwortproblem, von dem wir glauben, dass es intuitiver ist als die gegenwärtige Standardlösung. Von Shannon Elizabeth Fraker, Jeffrey B. Birch, Marion R. Reynolds, G. Geoffrey Vining. 2007. Mit der jüngsten Zunahme der Bedrohung durch den biologischen Terrorismus sowie dem andauernden Risiko anderer Krankheiten ist die Forschung im Bereich der öffentlichen Gesundheitsüberwachung und der Krankheitsüberwachung enorm gewachsen. Es gibt eine Fülle von Daten in allen möglichen Formen zur Verfügung. Krankenhäuser, Bundes-und Kommunalverwaltung. Mit der jüngsten Zunahme der Bedrohung durch den biologischen Terrorismus sowie dem andauernden Risiko anderer Krankheiten ist die Forschung im Bereich der öffentlichen Gesundheitsüberwachung und der Krankheitsüberwachung enorm gewachsen. Es gibt eine Fülle von Daten in allen möglichen Formen zur Verfügung. Krankenhäuser, Bundes - und Kommunalverwaltungen und Industrien sammeln Daten und entwickeln neue Methoden, um bei der Erkennung von Anomalien eingesetzt zu werden. Viele dieser Methoden werden entwickelt, auf einen realen Datensatz angewendet und in Software integriert. Diese Forschung nimmt jedoch einen anderen Blick auf die Bewertung dieser Methoden. Wir glauben, dass es eine stabile statistische Bewertung der vorgeschlagenen Methoden geben muss, unabhängig vom beabsichtigten Anwendungsbereich. Mit Hilfe von Proof-by-example scheint nicht sinnvoll als die einzigen Bewertungskriterien vor allem über Methoden, die das Potenzial haben, einen großen Einfluss haben iii in unserem Leben. Aus diesem Grund konzentriert sich diese Forschung auf die Bestimmung der Eigenschaften von einigen der häufigsten Anomalie-Erkennung Methoden. Es wird unterschieden zwischen Metriken, die für die retrospektive historische Überwachung verwendet werden, und denen, die für die prospektive laufende Überwachung mit der ractice verwendet werden. Die Einzelheiten dieser Tabellen sind in Roberts (1959) und Seite (1954), respektive angegeben. Die Eigenschaften dieser Kontrolldiagramme wurden im Detail untersucht (siehe Reynolds andsStoumbos, 1999 und - Steiner, 1999- für Beispiele). Die öffentlichen Gesundheitsbehörden verwenden auch Kontrollkarten in der Krankheitsüberwachung (siehe Woodall 2006).sOften, Anpassungen der traditionellen Müssen Kontrollkarten erstellt werden. Dies ist aufgrund der Tatsache. Von Taylor Francis, Basierend auf, Marianne Frisn, Christian Sonesson. Dieses Papier wurde Peer-Review, aber nicht die endgültige Korrektur von Korrekturbüchern oder Zeitschrift pagining. Zitat für die veröffentlichte Zeitschrift: Frisn, M. und Sonesson, C. Optimale Überwachung auf der Grundlage exponentiell gleitender Durchschnitte. Dieses Papier wurde Peer-Review, aber nicht die endgültige Korrektur von Korrekturbüchern oder Zeitschrift pagining. Zitat für die veröffentlichte Zeitschrift: Frisn, M. und Sonesson, C. Optimale Überwachung auf der Grundlage exponentiell gleitender Durchschnitte. Von Marianne Frisen, Marianne Frisen. Verschiedene Kriterien der Optimalität werden in verschiedenen Subkulturen der statistischen Überwachung verwendet. Ein Ziel dieser Überprüfung ist es, die Kluft zwischen den verschiedenen Bereichen zu überbrücken. Die Unzulänglichkeiten einiger Kriterien der Optimalität werden durch ihre Implikationen bewiesen. Einige häufig verwendete Methoden werden untersucht. Verschiedene Kriterien der Optimalität werden in verschiedenen Subkulturen der statistischen Überwachung verwendet. Ein Ziel dieser Überprüfung ist es, die Kluft zwischen den verschiedenen Bereichen zu überbrücken. Die Unzulänglichkeiten einiger Kriterien der Optimalität werden durch ihre Implikationen bewiesen. Einige häufig verwendete Methoden werden hinsichtlich der Optimalität im Detail untersucht. Die Prüfung wird für eine Standardsituation durchgeführt, um sich auf die inferentiellen Prinzipien zu konzentrieren. Eine einheitliche Darstellung von Methoden, durch Ausdrücke von Wahrscheinlichkeitsverhältnissen, erleichtert den Vergleich zwischen Methoden. Die Korrespondenzen zwischen Kriterien der Optimalität und Methoden werden untersucht. Die Situationen und Parameterwerte, für die einige häufig verwendete Methoden Optimalitätseigenschaften aufweisen, werden somit bestimmt. Eine lineare Approximation der Methode der vollständigen Wahrscheinlichkeitsverteilung, die mehrere Kriterien der Optimalität erfüllt, wird vorgestellt. Diese lineare Näherung wird verwendet, um zu untersuchen, wann lineare Verfahren annähernd optimal sind. Methoden für komplizierte Situationen werden hinsichtlich Optimalität und Robustheit überprüft.

No comments:

Post a Comment