Monday, January 9, 2017

Déviation Standard Moyenne Mobile Pondérée Exponentiellement

Salut, j'ai recueilli quelques données de processus pendant 3 ans et je veux imiter une analyse prospective EWMA, pour voir si mon paramètre de lissage set aurait détecter tous les changements importants (sans trop de fausses alarmes). Il semble que la plupart des manuels scolaires et la littérature que j'ai regardé qui utilisent une moyenne et écart type pour calculer les limites de contrôle. Il s'agit habituellement de la moyenne sous-contrôle et de l'écart-type par rapport à certaines données historiques, ou la moyenne et la densité de la population à partir de laquelle les échantillons sont tirés. Je n'ai pas d'information. Existe-t-il une autre façon de calculer les limites de contrôle Existe-t-il une variante du graphique EWMA qui n'utilise pas la moyenne et l'écart type Toutes les idées créatives Merci à l'avance Pour m'assurer que je comprends cela: vous pouvez calculer la moyenne EWMA et la variance, Don39t ont une ligne de base pour les comparer à Il me semble que vous avez une technique supervisée (qui suppose que vous pouvez définir ce que quotshouldquot ressembler), mais vous voulez une technique non supervisée (qui ne cherche que les différences sans appeler un état quotgoodquot et un autre Quotbadquot). Pour les techniques non supervisées, le clustering vient à l'esprit, mais il devrait être modifié pour s'appliquer aux timeseries. Que diriez-vous de Ratio de vraisemblance généralisé (GLR) ndash Jim Pivarski Jun 25 14 at 2:49 Si nous nous référons à fr. wikipedia. orgwikiEWMAchart. Je peux calculer le Zi pour mon lambda donné, mais quand il vient aux limites de contrôle, je don39t ont des données historiques pour calculer le T et le S. Je vous remercie je vais regarder dans GLR et aussi publier sur Cross Validated. Oui, T et S sont la moyenne et l'écart-type d'une distribution de base, qui est soit donné a priori ou déterminé à partir d'un ensemble de données d'apprentissage. L'ensemble de données d'apprentissage représente ce que les données devront ressembler, donc il s'agit d'une technique supervisée et vous voulez une technique non supervisée. GLR n'est pas pondéré exponentiellement, mais il trouve dynamiquement une rupture dans les données entre deux distributions différentes et combine les données de chaque côté de la coupure pour obtenir des résultats plus robustes. Ce pourrait être ce que vous voulez. Ndash Jim Pivarski Jun 25 14 at 3:00 Du point de vue opérationnel pratique, l'utilisation de l'analyse statistique des données historiques seules, est rare. Oui, il fournit quelques conseils sur la façon dont le processus (et son système de contrôle) sont performants, mais la chose la plus importante de loin est d'avoir une bonne compréhension et la connaissance des limites d'ingénierie. Je me réfère aux limites opérationnelles, qui sont déterminées par les spécifications et les caractéristiques de performance des différents équipements. Cela permet de développer une bonne compréhension de la façon dont le processus est censé se comporter (en termes de point de fonctionnement optimal et les limites de contrôle upperlower) et où les zones de plus grande écart par rapport à optimal sont. Cela a très peu à voir avec l'analyse statistique des données historiques, et beaucoup à faire avec la métallurgie de processus de la métallurgie - en fonction du type de processus que vous traitez. Les limites de contrôle sont déterminées en définitive à partir de ce que l'ingénieur de processus Process Manager WANTS, qui sont généralement (mais pas toujours) dans la capacité de la plaque signalétique de l'équipement. Si vous travaillez dans les limites opérationnelles, et vous êtes dans le domaine de l'optimisation des processus, alors oui, l'analyse statistique est plus largement utilisé et peut offrir un bon aperçu. En fonction de la variabilité de votre procédé, de la façon dont votre système de contrôle est configuré et de l'homogénéité de votre produit d'alimentation, les limites de contrôle supérieures sélectionnées varient. Un bon point de départ est le point de fonctionnement optimal (par exemple 100 m3hr), puis utiliser une quantité raisonnable de données historiques pour calculer un écart type, et faire votre limite supérieure 100 1 dev standard, et votre limite inférieure 100 - 1 dev standard. Ce n'est pas une règle dure et rapide, mais c'est un point de départ raisonnable. Répondue 7 février à 12: 12whuber - C'est mal, comme vous soupçonniez. Il est correct si les poids eux-mêmes sont des fréquences. Mais bien que les fréquences entrent dans le calcul des pourcentages dans ce cas les poids, bien que non spécifiés, ne sont pas des fréquences d'occurrence, mais quelque chose d'autre à faire avec quotdata volumequot. C'est donc la mauvaise réponse. Ndash Rex Kerr Sep 8 15 at 17:50 Les formules sont disponibles à divers endroits, y compris Wikipedia. La clé est de noter que cela dépend de ce que les poids signifie. En particulier, vous obtiendrez des réponses différentes si les poids sont des fréquences (c'est-à-dire que vous essayez simplement d'éviter d'additionner votre somme entière), si les poids sont en fait la variance de chaque mesure, ou si elles ne sont que quelques valeurs externes que vous imposez vos données. Dans votre cas, il semble superficiellement que les poids sont des fréquences, mais theyre pas. Vous générez vos données à partir de fréquences, mais ce n'est pas une simple question d'avoir 45 enregistrements de 3 et 15 enregistrements de 4 dans votre ensemble de données. Au lieu de cela, vous devez utiliser la dernière méthode. (En fait, tout cela est des ordures - vous avez vraiment besoin d'utiliser un modèle plus sophistiqué du processus qui génère ces nombres Vous n'avez apparemment pas quelque chose qui crache des nombres normalement distribués, de sorte caractérisation du système avec l'écart-type est Pas la bonne chose à faire.) En tout cas, la formule de la variance (à partir de laquelle vous calculez l'écart type de la manière normale) avec des poids de fiabilité est où x somme wi xi somme wi est la moyenne pondérée. Vous n'avez pas une estimation pour les poids, qui Im supposer que vous voulez prendre pour être proportionnelle à la fiabilité. Prendre des pourcentages de la façon dont vous êtes va rendre l'analyse délicate même si theyre généré par un processus Bernoulli, parce que si vous obtenez un score de 20 et 0, vous avez un pourcentage infini. La pondération par l'inverse du SEM est une chose commune et parfois optimale à faire. Vous devriez peut-être utiliser une estimation bayésienne ou un intervalle de score de Wilson. Réponse Sep 8 15 à 17:48 1. La discussion des différentes significations des poids était ce que je cherchais dans ce fil tout le long. C'est une contribution importante à toutes les questions de ce site sur les statistiques pondérées. (Je suis un peu préoccupé par les remarques entre parenthèses concernant les distributions normales et les écarts-types, cependant, parce qu'ils suggèrent à tort que les SD n'ont pas d'utilisation à l'extérieur d'un modèle basé sur la normalité.) Whuber 9830 Sep 8 15 at 18:23 whuber - Théorème de la limite centrale au sauvetage, bien sûr Mais pour ce que faisait l'OP, essayer de caractériser cet ensemble de nombres avec une moyenne et une déviation standard semble excessivement déconseillée. Et en général, pour de nombreuses utilisations, l'écart-type finit par attirer l'un dans un faux sentiment de compréhension. Par exemple, si la distribution est normale (ou une bonne approximation de celle-ci), en s'appuyant sur l'écart-type vous donnera une mauvaise idée de la forme des queues, quand ce sont exactement les que vous probablement le plus dans les statistiques essai. Ndash Rex Kerr Sep 8 15 à 19:44 RexKerr Nous ne pouvons pas blâmer l'écart-type si les gens placent des interprétations sur elle qui sont imméritées. Mais les individus s'éloignent de la normalité et considèrent la classe beaucoup plus large de distributions unimodales symétriques continues avec une variance finie (par exemple). Ensuite, entre 89 et 100 pour cent de la distribution se trouve dans deux écarts types. Cela est souvent assez utile de savoir (et 95 se trouve à peu près au milieu, donc il n'est jamais plus d'environ 7 off) avec de nombreuses distributions communes, l'aspect de symétrie de chute ne change pas beaucoup (par exemple, regarder l'exponentielle, par exemple). Ctd ndash Glenb 9830 Oct 1 15 à 23: 57La moyenne mobile exponentiellement pondérée (EWMA) est une statistique pour surveiller le processus qui fait la moyenne des données d'une manière qui donne de moins en moins de poids aux données car elles sont plus loin dans le temps. Comparaison du diagramme de contrôle de Shewhart et des techniques du diagramme de contrôle EWMA Pour la technique de contrôle du diagramme de Shewhart, la décision concernant l'état de contrôle du processus à tout moment (t) dépend uniquement de la mesure la plus récente du processus et, bien sûr, Le degré d'exactitude des estimations des limites de contrôle par rapport aux données historiques. Pour la technique de contrôle EWMA, la décision dépend de la statistique EWMA, qui est une moyenne exponentiellement pondérée de toutes les données antérieures, y compris la mesure la plus récente. Par le choix du facteur de pondération (lambda), la procédure de contrôle EWMA peut être rendue sensible à une dérive petite ou progressive dans le processus, tandis que la procédure de contrôle Shewhart ne peut réagir que lorsque le dernier point de données est en dehors d'une limite de contrôle. Définition de EWMA La statistique qui est calculée est: mbox t lambda Yt (1-lambda) mbox ,,, mbox ,,, t 1,, 2,, ldots ,, n. (Mbox 0) est la moyenne des données historiques (cible) (Yt) est l'observation au temps (t) (n) est le nombre d'observations à surveiller, y compris (mbox 0) (0 Interprétation du tableau de contrôle EWMA Le rouge Les points sont les données brutes la ligne déchiquetée est la statistique EWMA au fil du temps. Le graphique nous indique que le processus est en contrôle parce que tous (mbox t) se situent entre les limites de contrôle. Toutefois, il semble y avoir une tendance à la hausse pour les 5 derniers Périodes.


No comments:

Post a Comment