1 / 70

Mod lisation g om trique des syst mes poly-articul s

Objectifs. Prsentation de techniques non-dterministes pour la modlisation et le calcul des variations gomtriques;Complmentarit avec les techniques de calcul des tolrances (arithmtiques ou au pire des cas);Prsentation de travaux de recherche antrieurs ou en cours autour du thme; Princi

misty
Download Presentation

Mod lisation g om trique des syst mes poly-articul s

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


    1. Modélisation géométrique des systèmes poly-articulés Approches statistiques et techniques de simulation Monte-Carlo Nabil ANWER - MCF LURPA/ENS Cachan Université Paris Nord 13 anwer@lurpa.ens-cachan.fr

    2. Objectifs Présentation de techniques non-déterministes pour la modélisation et le calcul des variations géométriques; Complémentarité avec les techniques de calcul des tolérances (arithmétiques ou au pire des cas); Présentation de travaux de recherche antérieurs ou en cours autour du thème; Principe de calcul de logiciels commerciaux (Tolmate, CeTol, …); Méthodes pour l’analyse des erreurs cinématiques.

    3. Variations géométriques des pièces mécaniques (répartition des caractéristiques) Comportement statistique d’une spécification (lot de pièces) Comportement statistique d’une spécification (pièce)

    4. Variations géométriques des pièces mécaniques (répartition des caractéristiques)

    5. Variations géométriques des ensembles mécaniques (position d’un point, jeu)

    6. Techniques de résolution

    7. Rappels de statistiques

    8. Introduction Statistiques Décrivent des populations Estiment des paramètres Testent des hypothèses Statistiques descriptives Visent à explorer les données et à en tirer un certain nombre de mesures et d'indices, ou des représentations graphiques Variables aléatoires Probabilités et lois de distribution

    9. Statistiques descriptives Vocabulaire : Population : Ensemble des objets de l’étude (pièces mécaniques) Individu : Élément de la population (pièce mécanique) Échantillon : Partie de la population Taille : Nombre d ’individus dans la population/échantillon Variable : Application associant à chaque individu un caractère (valeur d’une cote mesurée). On associe à un caractère une variable statistique X qui donne la valeur du caractère pour un individu ( ex : la variable X donne la taille d'un élève; la variable Y donne le poids d'un élève) Variables qualitatives Vs. Variables quantitatives

    10. Étude d ’une variable Effectifs et Fréquences n : taille de la population xi : i-ème modalité de la variable X ni : nombre d ’individus ayant xi comme modalité (effectif de la modalité xi) fi : fréquence de la modalité xi (fi = ni/n) Pour un caractère donné une population peut être répartie en classes Le centre d'une classe [ai, ai+1[ est la valeur (ai + ai+1)/2 ex : le centre de la classe [150, 170[ est (150 + 170)/2 = 320/2 = 160 L'amplitude d'une classe [ai, ai+1[ est (ai+1 - ai)

    11. Combien de classes doit-on réaliser ? Absence de règles universelles, solutions empiriques et pragmatiques. l'objectif est de conserver à la distribution sa forme générale Critère de Brooks-Carruthers, le nombre de classes Kt : Kt < 5 log10 n Critère de Huntsberger-Sturges, le nombre de classes Kt : Kt = 1 + (10 log10 n)/3 Formule empirique : Intervalle de classe ht : Wt = Xmax - Xmin (étendue) ht = Wt/Kt

    12. Exemple

    13. Paramètres caractéristiques

    14. Variables aléatoires Une variable aléatoire X est une variable qui prend ses valeurs au hasard parmi un ensemble de n valeurs possibles (n fini ou infini). Une valeur particulière de X est désignée par xi n valeurs x1, x2, x3, ... , xn d ’une variable aléatoire X peuvent être caractérisées par :

    15. Loi de distribution d’une variable aléatoire continue Densité de probabilité : Propriétés :

    16. Exemples de distributions Distribution Normale : Distribution Uniforme :

    17. Moyenne et écart-type (Estimation) Dans la pratique, m et s d’une variable aléatoire X sont rarement connus. Ils sont estimés à partir des observations dont on dispose sur un échantillon.

    18. Théorème de la limite centrale La moyenne d ’une variable aléatoire X calculée sur des échantillons de même taille n est une variable aléatoire notée

    19. Théorème de la limite centrale Illustration par l’exemple (10000 essais)

    20. Comment lier les variations géométriques aux distributions statistiques ? Hypothèse : Connaissance à priori de la distribution sous-jacente Limites : Forte hypothèse de normalité (mythe de la loi normale) Tests de normalité pas souvent effectuées Modèle utilisé : t=ks t : caractéristique observée ou mesurée (ex. tolérance, jeu, position d’un point, variable articulaire) : écart-type de la distribution sous-jacente k : coefficient qui dépend de la nature de la distribution et de la proportion d’acceptation en général 99,73% (approche 6s) (risque)

    21. Lien fort avec les capabilités : point de vue MSP

    22. Capabilités : court terme vs. long terme

    23. Capabilités : indices

    24. Tolérancement statistique Amélioration du modèle arithmétique

    25. Étude d’un mécanisme élémentaire

    26. Méthode au pire des cas Forme mini-maxi : a – ( b + c+ d + e + f ) + (ta + tb + tc + td + te + tf )/2 ? X maxi a – (b + c+ d + e + f) - (ta + tb + tc + td + te + tf)/2 ? X mini. Forme moyenne et IT : a – ( b + c+ d + e + f) = X moyen ta + tb + tc + td + te + tf ? ITx Les valeurs encadrées a, b, c, d, e, f sont supposées connues. La condition à respecter ne concerne que les tolérances. Application numérique : la répartition uniforme des tolérances (ta = tb = …) donne : ta = tb = tc = td = te = tf = ITx /6 = 0,12/6 = 0,02.

    27. Synthèse sur les méthodes au pire des cas Il est peu probable que les pièces soient aux limites des tolérances et que toutes les pièces soient maximales/minimales en même temps. En milieu industriel, l’approche au pire des cas est jugée trop sévère, des méthode statistiques sont utilisées dès que le nombre de pièces de la chaîne de cotes devient important. Les méthodes statistiques de répartition des tolérances des méthodes de calculs prévisionnels (le tolérancement statistique se fait en bureau d'études, bien avant que les fabricants ne réalisent les pièces). Il n’est donc pas toujours possible de tenir compte des résultats de production pour faire des optimisations (approches robustes).

    28. Modèles statistiques

    29. Modèles statistiques

    30. Calcul

    31. Conclusions

    32. Prise en compte du décentrage

    33. Autres modèles (Anselmetti)

    34. Modèle générale pour le tolérancement statistique De nombreuses conditions fonctionnelles s'écrivent comme combinaison linéaire des composantes indépendantes : Les coefficients ai peuvent être dus à une symétrie, à une projection ou à un effet de bras de levier… En général,

    35. Problème de l’indépendance La condition d'indépendance n'est pas toujours vérifiée : - Assemblage comportant deux pièces identiques tirées du même lot (deux entretoises ou deux flasques de chaque côté d'un mécanisme symétrique, plaque tirées dans la même tôle…). - Pièces symétriques issues du même moule (s'il y a un écart de fermeture du moule, les deux pièces subiront la même variation). - Influence d'un paramètre extérieur qui modifie la dimension des pièces (usure, température, déformation...). Liens dus au processus de fabrication (deux gorges identiques réalisées par le même outil, usinage en commande numérique avec le même outil, même montage d'assemblage...).

    36. Influence de plusieurs spécifications sur une même pièce

    37. Prise en compte des contacts

    38. Conclusions Le tolérancement statistique permet une réduction considérable des coûts. Les modèles statistiques se basent sur des hypothèses fortes de pseudo-normalité et manquent de formalisme rigoureux. Le cas de variables indépendantes est très souvent rencontrés en milieu industriel. La superposition de plusieurs spécifications rend le problème plus complexe. La prise en compte des contacts se base sur des approches expérimentales pour lesquelles les identifications de modèles sont à améliorer. Le bouclage contrôle/fabrication/conception est le seul moyen de garantir la robustesse et l’optimum. Il reste à intégrer les aspects 3D (tolérancement statistique radial) La caractérisation statistique des zones de tolérances à travers les travaux en géométrie probabiliste et en simulation est une nouvelle alternative.

    39. Caractérisation statistique des défauts Apports de la métrologie Apports des techniques de simulation

    40. Caractérisation statistique des défauts

    41. Caractérisation statistique des défauts

    42. Approches de simulation Techniques de monte carlo

    43. Présentation de la méthode Exemple illustratif

    44. Présentation de la méthode Estimation de Soit p(u) une fonction de densité de probabilité uniforme sur [a, b] Soit Ui la i ème variable aléatoire uniforme de densité p(u) Alors, si n est grand :

    45. Principe de simulation monte carlo Principe Pour effectuer des simulations probabilistes sur ordinateur, on utilise un générateur de nombres pseudo-aléatoires (une suite (xn)n de nombres réels compris entre 0 et 1) qui imitent une réalisation d'une suite de variables aléatoires indépendantes et identiquement distribuées suivant la loi uniforme sur [0;1]. Loi uniforme sur [a,b] Si U est une variable uniforme sur [0;1] alors Loi normale N(m,s) Si U1 et U2 sont deux variables uniformes indépendantes sur [0;1] alors

    46. Approches à base de simulation Tirage aléatoire de caractéristiques Connaissance à priori des distributions des caractéristiques (point, droite, plan) Estimation de la résultante Utilisation de logiciels statistiques (Minitab)

    47. Analyse statistique des zones de tolérances

    48. Analyse statistique des zones de tolérances

    51. Statistiques sur la normale

    52. Empilage de pièces 2D

    53. Analyse statistique des zones de tolérances

    54. Analyse statistique des zones de tolérances

    58. Analyse statistique des zones de tolérances

    59. Analyse statistique des zones de tolérances

    60. Position Error in Assemblies and Mechanisms Travaux de Jonathan Wittwer

    61. Position Error in Assemblies

    62. Direct Linearization (DLM) [That is – the Direct Linearization Method, or DLM] It’s a good thing this session is before lunch, or these next few slides would put you all to sleep. This method is based upon finding the sensitivities of the various parameters on the output error. First, we start with the closed loop and expand it into two equations – the summation of the vector components in the x and y directions. This is a nonlinear system of equations since the unknown variables are theta 3 and theta 4. However, we can linearize them by taking a taylor’s series expansion and dropping higher order terms. X is a vector of primary random variables and U is a vector secondary random variables. A and B are matrices of partial derivatives. We then solve for the variations in the unknown variables. We could stop here if all we wanted to know was the variation in angles theta 3 or theta 4[That is – the Direct Linearization Method, or DLM] It’s a good thing this session is before lunch, or these next few slides would put you all to sleep. This method is based upon finding the sensitivities of the various parameters on the output error. First, we start with the closed loop and expand it into two equations – the summation of the vector components in the x and y directions. This is a nonlinear system of equations since the unknown variables are theta 3 and theta 4. However, we can linearize them by taking a taylor’s series expansion and dropping higher order terms. X is a vector of primary random variables and U is a vector secondary random variables. A and B are matrices of partial derivatives. We then solve for the variations in the unknown variables. We could stop here if all we wanted to know was the variation in angles theta 3 or theta 4

    63. Solving for Assembly Variation But that would be too easy, so we need to include the open loop equation also. Here, we expand the open loop equation to describe the position of the point on our mechanism. We then take the taylor’s expansion of the open loop equations, substitute in for the secondary variables, perform a little linear algebra magic, And wallah, we have the position variation in terms of a friendly sensitivity matrix and our known variables. The sensitivity matrix can then be used to obtain both deterministic and probabilistic results.But that would be too easy, so we need to include the open loop equation also. Here, we expand the open loop equation to describe the position of the point on our mechanism. We then take the taylor’s expansion of the open loop equations, substitute in for the secondary variables, perform a little linear algebra magic, And wallah, we have the position variation in terms of a friendly sensitivity matrix and our known variables. The sensitivity matrix can then be used to obtain both deterministic and probabilistic results.

    64. Worst-Case vs. Statistical These equations are somewhat familiar – they are just another way of writing the equations that Dr. Chase presented in his presentation this morning. For the worst-case situation, the error is simply the sum of the tolerances multiplied by the magnitude of their respective sensitivities. For statistical cases, the error is the root sum square.These equations are somewhat familiar – they are just another way of writing the equations that Dr. Chase presented in his presentation this morning. For the worst-case situation, the error is simply the sum of the tolerances multiplied by the magnitude of their respective sensitivities. For statistical cases, the error is the root sum square.

    65. Deterministic Methods: Worst-Case Direct Linearization: Uses the methods just discussed. Vertex Analysis: Finds the position error using all combinations of extreme tolerance values. Optimization: Determines the maximum error using tolerances as constraints. Here, this is a little better. Less math, but more words. In order to validate the worst-case direct linearization method, it will be compared to two other deterministic methods: Vertex analysis and Optimization. The vertex analysis finds … [This kind of analysis is usually used to validate other worst-case approaches. For every set of initial conditions, the set of nonlinear equations is solved. Although the results of a vertex analysis are often used in statistical studies, the data itself is deterministic because it is based on fixed tolerance values.] Optimization determines… The optimization routine ideally searches out the whole design space to discover the absolute maximum error. The third method is to use Optimization to determine … Using an optimization that searches the whole design space is the ultimate test of worst-case deterministic methods ]Here, this is a little better. Less math, but more words. In order to validate the worst-case direct linearization method, it will be compared to two other deterministic methods: Vertex analysis and Optimization. The vertex analysis finds … [This kind of analysis is usually used to validate other worst-case approaches. For every set of initial conditions, the set of nonlinear equations is solved. Although the results of a vertex analysis are often used in statistical studies, the data itself is deterministic because it is based on fixed tolerance values.] Optimization determines… The optimization routine ideally searches out the whole design space to discover the absolute maximum error. The third method is to use Optimization to determine … Using an optimization that searches the whole design space is the ultimate test of worst-case deterministic methods ]

    66. Deterministic Results So, when we look at the results for the position error of a mechanism, it is important to compare these different methods. This graph represents the position error for the 4-bar at a given configuration using deterministic methods, where the path slope is shown by this blue line. The dots are the results of the vertex analysis The dashed box is the result of the W-C DLM analysis The Star is the result of the optimization routine. First, our optimization routine did not find a way out of the room. In other words, the actual absolute maximum error corresponds to one of the vertex points. The amount that the vertex points and optimization are outside the worst-case “box” represents the error in linearizing the equations. The Worst Case DLM seems very conservative in some places, especially since the vertex points seem to be clustered around a slope of 45 degrees.So, when we look at the results for the position error of a mechanism, it is important to compare these different methods. This graph represents the position error for the 4-bar at a given configuration using deterministic methods, where the path slope is shown by this blue line. The dots are the results of the vertex analysis The dashed box is the result of the W-C DLM analysis The Star is the result of the optimization routine. First, our optimization routine did not find a way out of the room. In other words, the actual absolute maximum error corresponds to one of the vertex points. The amount that the vertex points and optimization are outside the worst-case “box” represents the error in linearizing the equations. The Worst Case DLM seems very conservative in some places, especially since the vertex points seem to be clustered around a slope of 45 degrees.

    67. Statistical Methods Monte Carlo Simulation Thousands to millions of individual models are created by randomly choosing the values for the random variables. Direct Linearization: RSS Uses the methods discussed previously. Bivariate DLM Statistical method for position error where x and y error are not independent. Now we come to the statistical methods: First, a very common method is Monte Carlo Simulation, where thousands … This method is the statistical corollary to the Vertex Analysis method. Instead of fixed values for the tolerances, the variables are chosen randomly based upon a given probability density function (such as uniform or normal). The model is then solved using some nonlinear solver. The second method is the Root-Sum-Square direct linearization methods, where the position … This method is the statistical corollary to the Worst-Case DLM method, where standard deviations are used instead of tolerance limits. Third is the bivariate DLM method. This is a statistical …. This is what I’d call the optimum statistical method for determining position error. It ends up being the best description of the actual error zone.Now we come to the statistical methods: First, a very common method is Monte Carlo Simulation, where thousands … This method is the statistical corollary to the Vertex Analysis method. Instead of fixed values for the tolerances, the variables are chosen randomly based upon a given probability density function (such as uniform or normal). The model is then solved using some nonlinear solver. The second method is the Root-Sum-Square direct linearization methods, where the position … This method is the statistical corollary to the Worst-Case DLM method, where standard deviations are used instead of tolerance limits. Third is the bivariate DLM method. This is a statistical …. This is what I’d call the optimum statistical method for determining position error. It ends up being the best description of the actual error zone.

    68. Bivariate Normal Position Error The key to using the bivariate distribution is to analyze the assembly variances, including the correlation between the x and y position variance. Vx is the variance in the x-direction Vy is the variance in the y-direction Vxy is the covariance, where the sensitivities are combined in this manner. These variances form a symmetric matrix, or variance tensor. The eigenvalues of this tensor are the principle variances that represent the major and minor diameters of the ellipse. The angular rotation of the ellipse can also be determined. The key to using the bivariate distribution is to analyze the assembly variances, including the correlation between the x and y position variance. Vx is the variance in the x-direction Vy is the variance in the y-direction Vxy is the covariance, where the sensitivities are combined in this manner. These variances form a symmetric matrix, or variance tensor. The eigenvalues of this tensor are the principle variances that represent the major and minor diameters of the ellipse. The angular rotation of the ellipse can also be determined.

    69. Statistical Method Results The result is an elliptic position zone oriented at some angle. The mass of little x’s is the result of Monte Carlo The ellipse is the result of the bivariate model The box is the result of the RSS DLM method. So, what significance can you see from this graph? Notice that the bivariate model is verified by the Monte Carlo results. The DLM statistical method without considering the correlation between x and y results in a box. The 3-sigma tolerance zone is most closely approximated using the bivariate model, whereas the straight R.S.S. method is more conservative. It turns out that Red box represents a true 3-sigma, while the ellipse slightly underpredicts it. This was found by comparison to Monte Carlo. After 100,000 points, the ellipse contained 98.84% and the Box contained 99.73%.The result is an elliptic position zone oriented at some angle. The mass of little x’s is the result of Monte Carlo The ellipse is the result of the bivariate model The box is the result of the RSS DLM method. So, what significance can you see from this graph? Notice that the bivariate model is verified by the Monte Carlo results. The DLM statistical method without considering the correlation between x and y results in a box. The 3-sigma tolerance zone is most closely approximated using the bivariate model, whereas the straight R.S.S. method is more conservative. It turns out that Red box represents a true 3-sigma, while the ellipse slightly underpredicts it. This was found by comparison to Monte Carlo. After 100,000 points, the ellipse contained 98.84% and the Box contained 99.73%.

    70. Comparison of both deterministic and probabilistic methods. Here is an example of how the maximum normal position error varies for one complete revolution of a four-bar crank. This plot which analyzes the mechanism at 100 different points was generated in seconds. Here is an example of how the maximum normal position error varies for one complete revolution of a four-bar crank. This plot which analyzes the mechanism at 100 different points was generated in seconds.

    71. Benefits of Bivariate DLM Accurate representation of the error zone. Easily automated. CE/TOL already uses the method for assemblies. Extremely efficient compared to Monte Carlo and Vertex Analysis. Can be used as a substitute for worst-case methods by using a large sigma-level First, …. Second, …. Fourth, …. AND this is as far as I’ve gotten so far, so there’s not much of a conclusion.First, …. Second, …. Fourth, …. AND this is as far as I’ve gotten so far, so there’s not much of a conclusion.

More Related