Création le 11 février 2002 d'un groupe de travail "optimisation". Ce GT concerne les personnes intéressées par l'optimisation tant au niveau méthodologique que des applications ou des mises en oeuvre informatiques. Il s'agit de partager l'ensemble des connaissances -- par nature transversales -- utiles à l'optimisation, la conception optimale, l'identification, le contrôle optimal, ... . Des exposés sur des travaux réalisés sont généralement proposés. Sauf contre-indication, les réunions ont lieu en salle 514 à l'espace Fauriel.
Contacts : E. Touboul (
)
ou R. Le Riche (
).
Mardi 25 mars 2003 (séminaire
DOPC) :
Analyse par intervalles : application à l'optimisation globale
par Luc Jaulin
(LISA, univ. d'Angers) et Pascal Roustant (Acsystème)
L'analyse par intervalles remplace les nombres réels par des
intervalles. Les opérations élémentaires (+,-,/,...)
sont
redéfinies sur les objets intervalles. Des algorithmes spécifiques
aux intervalles, de plus haut niveau, peuvent ensuite être introduits.
Il est alors possible d'obtenir des résultats numériques
garantis
sur des problèmes aussi difficiles que ceux d'optimisation globale.
transparents théorie, transparents
toolbox.
Jeudi 13 février 2003 (séminaire
DOPC) :
Automatisation du scale-up par algorithmes génétiques
par Thierry Dubuis (SCC)
Une application des algorithmes génétiques est présentée
autour d'un problème d'extrusion, le scale-up. Il s'agit
d'identifier une vis d'extrusion de grande échelle à
partir
d'une vis de laboratoire.
transparents (3Mo)
Vendredi 21 juin 2002 :
Une comparaison de stratégies de discrimination des masses
de véhicules automobiles
par R. Le Riche (collaboration avec A. Rakotomamonjy, INSA de Rouen
et D. Gualandris, PSA)
(transparents ici)
Les mesures en clientèle visent à mieux connaître
le comportement des conducteurs automobiles.
Elles fournissent en particulier des mesures d'accélérations
et de vitesses. Cette étude a pour
objet l'identification de la masse du véhicule à partir
de ces mesures. La difficulté vient du fait
que la route n'est pas connue. Dans un cadre de modélisation
déterministe, ce problème est mal
posé car une condition limite, la route, est inconnue.
Des stratégies probabilistes sont proposées et comparées
pour la discrimination des mesures en
classes de masses. Une combinaison optimale entre traitement des signaux
mesurés et algorithmes
de discrimination est recherchée.
Vendredi 24 mai 2002 :
Multidisciplinary Optimization of Composite Laminates with Resin
Transfer Molding
par Chung Hae PARK (collaboration avec Woo Suck Han, Alain Vautrin
et Woo Il Lee de l'Université Nationale de Séoul)
(transparents ici)
In this study, a multidisciplinary optimisation methodology of composite structures with the Resin Transfer Moulding (RTM) process is suggested in order to satisfy both the structural and process requirements. Among the composite manufacturing techniques, the RTM process is distinguished for its own many advantages such as low manufacturing costs, complex shapes, high productivity, and good mechanical performances. In designing the composite structures with the RTM process, tailoring the fibre perform architecture plays an important role as well as deciding the injection strategy. With some proper assumptions, a simplified optimisation method is suggested to find a near optimal design configuration. At first, the number of fibre mat, the stacking sequence of layer angles and the injection gate locations are found in order to satisfy the structural criteria, such as the stiffness requirement, and the process criteria, such as the mould filling time. Then, the thickness of composite laminate and the fibre volume fraction are determined so as to reduce the weight keeping all the design criteria satisfied. This problem is a multi-objective optimisation problem and hence an objective function is properly formulated. As an optimisation technique, a genetic algorithm is used. The reliability of the present design methodology is assessed with some examples
Dans la présente étude, une méthodologie d'optimisation
multidisciplinaire de structures composites en RTM (Resin Transfer Moulding)
est proposée en vue de satisfaire à la fois les critères
structuraux et de procédé de fabrication. Parmi les procédés
de fabrication des composites, le RTM est plus avantageux pour le coût
de fabrication, les formes complexes, la productivité élevée,
et la performance mécanique remarquable. Lors de la conception des
structures composites en RTM, le contrôle de l?architecture des fibres
joue un rôle aussi important que la décision sur la stratégie
de l?injection. Avec quelques hypothèses propres, une méthode
d?optimisation simplifiée est proposée afin de trouver une
solution de conception optimale approchée. Dans un premier temps,
le nombre de plis, l?empilement des plis et la localisation des points
d?injection sont résolus en vue de satisfaire le critère
structural (la rigidité) ainsi que le critère du procédé
(le temps de remplissage). Ensuite, l?épaisseur de la plaque stratifiée
et le volume de fraction sont déterminés en vue de réduire
le poids tout en gardant les critères de conception satisfaits.
Ce problème est un problème d?optimisation multi-objectif
et une fonction objective est donc formulée proprement. Comme méthode
d'optimisation, un algorithme génétique est employé.
La performance de la présente méthodologie est validée
à travers quelques exemples.
Mardi 23 avril 2002 :
Un algorithme de Nelder-Mead globalisé et borné pour
les problèmes de l'ingénieur
par Marco Luersen, Lab. de Mécanique de Rouen.
(transparents ici)
Une des difficultés fondamentales des problèmes de conception
est l'existence
d'optima locaux, ce qui a engendré d'importants efforts pour
le développement
de méthodes d'optimisation globales. Néanmoins, la globalité
n'est atteinte
qu'à des coûts numériques souvent prohibitifs pour
les problèmes de l'ingénieur
(plusieurs milliers d'analyses).
Dans cet exposé, une méthode d'optimisation à
coût fini, essentiellement locale,
mais qui devient globale lorsque le nombre d'analyses croît est
présentée. La
"globalisation" vient de ré-initialisations probabilisées
de recherches locales.
Une densité de probabilité de ré-initialisation
des recherches locales est
construite à partir des recherches locales passées. L'algorithme
d'optimisation
local est une version améliorée de la méthode
de Nelder-Mead, où les variables
sont bornées, où les contraintes non-linéaires
sont prises en compte par
pénalisation adaptative, et où les échecs de Nelder-Mead
par dégénérescence du
simplexe sont détectés et traités. Cette nouvelle
version de Nelder-Mead,
appelée Globalized and Bounded Nelder-Mead (GBNM) s'avère
d'un intérêt
pratique important pour les problèmes en variables continues,
où les sensibilités ne
sont pas aisément calculables, et pour lesquels il n'est pas
certain que le coût
d'une recherche global soit accessible. Des exemples sont donnés
sur des fonctions
tests et sur des problèmes de conception de stratifiés
composites.
Réunion du 25 mars 2002 :
Une méthode d'optimisation stochastique
par Olivier Roustant : (transparents
ici)
"Pour cette deuxième rencontre, nous proposons la présentation
d'un
algorithme d'optimisation globale de l'approche aléatoire, dit
de recherche
aléatoire adaptative (RAA). Il procède par tirage aléatoire
à plusieurs
"échelles" par alternance de deux phases de sélection
et d'exploitation de
variance. Sa description est donnée dans (Walter, Pronzato,
1994).
Après une présentation de l'algorithme, on fera la démonstration
- en
direct - de son efficacité sur un exemple, avant de conclure
sur son
intérêt et ses limites d'emploi.
--
Walter E., Pronzato L. (1994). Identification de Modèles Paramétriques
à
partir de données expérimentales. Masson."
Réunion du 11 février 2002 :
Changement de variables en optimisation statistique de stratifiés
composites
Laurent Grosset a parlé de l'optimisation statistique, de l'effet
des
changements de variables sur le couplage des variables, et a montré
des applications aux structures composites (transparents
ici).