12 resultados para Desktop simulator
em Université de Montréal, Canada
Resumo:
La réalisation de dispositifs à des dimensions sous-micrométriques et nanométriques demande une maîtrise parfaite des procédés de fabrication, notamment ceux de gravure. La réalisation des ces dispositifs est complexe et les exigences en termes de qualité et de géométrie des profils de gravure imposent de choisir les conditions opératoires les mieux adaptées. Les simulations de l'évolution spatio-temporelle des profils de gravure que nous proposons dans cette thèse s'inscrivent parfaitement dans ce contexte. Le simulateur que nous avons réalisé offre la possibilité de mieux comprendre les processus qui entrent en jeu lors de la gravure par plasma de profils dans divers matériaux. Il permet de tester l'influence des paramètres du plasma sur la forme du profil et donc de déterminer les conditions opératoires optimales. La mise au point de ce simulateur s'appuie sur les concepts fondamentaux qui gouvernent la gravure par plasma. À partir de l'état des lieux des différentes approches numériques pouvant être utilisées, nous avons élaboré un algorithme stable et adaptable permettant de mettre en évidence l'importance de certains paramètres clés pour la réalisation de profils de gravure par un plasma à haute densité et à basse pression. Les capacités de cet algorithme ont été testées en étudiant d'une part la pulvérisation de Si dans un plasma d'argon et d'autre part, la gravure chimique assistée par les ions de SiO2/Si dans un plasma de chlore. Grâce aux comparaisons entre profils simulés et expérimentaux, nous avons montré l'importance du choix de certains paramètres, comme la nature du gaz utilisé et la pression du plasma, la forme initiale du masque, la sélectivité masque/matériau, le rapport de flux neutre/ion, etc. Nous avons aussi lié ces paramètres à la formation de défauts dans les profils, par exemple celle de facettes sur le masque, de parois concaves, et de micro-tranchées. Enfin, nous avons montré que le phénomène de redépôt des atomes pulvérisés entre en compétition avec la charge électrique de surface pour expliquer la formation de profils en V dans le Pt pulvérisé par un plasma d'argon.
Resumo:
Les systèmes Matériels/Logiciels deviennent indispensables dans tous les aspects de la vie quotidienne. La présence croissante de ces systèmes dans les différents produits et services incite à trouver des méthodes pour les développer efficacement. Mais une conception efficace de ces systèmes est limitée par plusieurs facteurs, certains d'entre eux sont: la complexité croissante des applications, une augmentation de la densité d'intégration, la nature hétérogène des produits et services, la diminution de temps d’accès au marché. Une modélisation transactionnelle (TLM) est considérée comme un paradigme prometteur permettant de gérer la complexité de conception et fournissant des moyens d’exploration et de validation d'alternatives de conception à des niveaux d’abstraction élevés. Cette recherche propose une méthodologie d’expression de temps dans TLM basée sur une analyse de contraintes temporelles. Nous proposons d'utiliser une combinaison de deux paradigmes de développement pour accélérer la conception: le TLM d'une part et une méthodologie d’expression de temps entre différentes transactions d’autre part. Cette synergie nous permet de combiner dans un seul environnement des méthodes de simulation performantes et des méthodes analytiques formelles. Nous avons proposé un nouvel algorithme de vérification temporelle basé sur la procédure de linéarisation des contraintes de type min/max et une technique d'optimisation afin d'améliorer l'efficacité de l'algorithme. Nous avons complété la description mathématique de tous les types de contraintes présentées dans la littérature. Nous avons développé des méthodes d'exploration et raffinement de système de communication qui nous a permis d'utiliser les algorithmes de vérification temporelle à différents niveaux TLM. Comme il existe plusieurs définitions du TLM, dans le cadre de notre recherche, nous avons défini une méthodologie de spécification et simulation pour des systèmes Matériel/Logiciel basée sur le paradigme de TLM. Dans cette méthodologie plusieurs concepts de modélisation peuvent être considérés séparément. Basée sur l'utilisation des technologies modernes de génie logiciel telles que XML, XSLT, XSD, la programmation orientée objet et plusieurs autres fournies par l’environnement .Net, la méthodologie proposée présente une approche qui rend possible une réutilisation des modèles intermédiaires afin de faire face à la contrainte de temps d’accès au marché. Elle fournit une approche générale dans la modélisation du système qui sépare les différents aspects de conception tels que des modèles de calculs utilisés pour décrire le système à des niveaux d’abstraction multiples. En conséquence, dans le modèle du système nous pouvons clairement identifier la fonctionnalité du système sans les détails reliés aux plateformes de développement et ceci mènera à améliorer la "portabilité" du modèle d'application.
Resumo:
La consommation de cannabis et la conduite sous l’influence du cannabis sont des préoccupations grandissantes dans la société d’aujourd’hui. Le but de la présente étude est d’examiner plus en profondeur la relation entre la fréquence de consommation de cannabis chez les jeunes adultes et la prise de risque sur la route. Les participants (n=48) sont tous des hommes âgés de 18 à 26 ans. Ils ont complété une batterie de questionnaires ainsi qu’une tâche sur simulateur de conduite. Les résultats indiquent que la fréquence de consommation de cannabis est associée positivement avec la prise de risque auto rapportée et suggèrent une tendance positive avec les comportements risqués observés lors de la simulation de conduite en laboratoire. Lorsque les différents groupes de consommateurs sont comparés, ceux qui font un usage quotidien ou multihebdomadaire de cannabis semblent prendre plus de risques au volant que ceux qui consomment une fois semaine et moins ou encore une fois par mois et moins. De plus, il semble que plus les individus consomment fréquemment de la marijuana, plus ils ont tendance à adopter des attitudes permissives en lien avec la conduite sous l’influence de cannabis. Les implications quant à l’intervention sont discutées.
Resumo:
La conception de systèmes hétérogènes exige deux étapes importantes, à savoir : la modélisation et la simulation. Habituellement, des simulateurs sont reliés et synchronisés en employant un bus de co-simulation. Les approches courantes ont beaucoup d’inconvénients : elles ne sont pas toujours adaptées aux environnements distribués, le temps d’exécution de simulation peut être très décevant, et chaque simulateur a son propre noyau de simulation. Nous proposons une nouvelle approche qui consiste au développement d’un simulateur compilé multi-langage où chaque modèle peut être décrit en employant différents langages de modélisation tel que SystemC, ESyS.Net ou autres. Chaque modèle contient généralement des modules et des moyens de communications entre eux. Les modules décrivent des fonctionnalités propres à un système souhaité. Leur description est réalisée en utilisant la programmation orientée objet et peut être décrite en utilisant une syntaxe que l’utilisateur aura choisie. Nous proposons ainsi une séparation entre le langage de modélisation et la simulation. Les modèles sont transformés en une même représentation interne qui pourrait être vue comme ensemble d’objets. Notre environnement compile les objets internes en produisant un code unifié au lieu d’utiliser plusieurs langages de modélisation qui ajoutent beaucoup de mécanismes de communications et des informations supplémentaires. Les optimisations peuvent inclure différents mécanismes tels que le regroupement des processus en un seul processus séquentiel tout en respectant la sémantique des modèles. Nous utiliserons deux niveaux d’abstraction soit le « register transfer level » (RTL) et le « transaction level modeling » (TLM). Le RTL permet une modélisation à bas niveau d’abstraction et la communication entre les modules se fait à l’aide de signaux et des signalisations. Le TLM est une modélisation d’une communication transactionnelle à un plus haut niveau d’abstraction. Notre objectif est de supporter ces deux types de simulation, mais en laissant à l’usager le choix du langage de modélisation. De même, nous proposons d’utiliser un seul noyau au lieu de plusieurs et d’enlever le bus de co-simulation pour accélérer le temps de simulation.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
En lien avec l’avancée rapide de la réduction de la taille des motifs en microfabrication, des processus physiques négligeables à plus grande échelle deviennent dominants lorsque cette taille s’approche de l’échelle nanométrique. L’identification et une meilleure compréhension de ces différents processus sont essentielles pour améliorer le contrôle des procédés et poursuivre la «nanométrisation» des composantes électroniques. Un simulateur cellulaire à l’échelle du motif en deux dimensions s’appuyant sur les méthodes Monte-Carlo a été développé pour étudier l’évolution du profil lors de procédés de microfabrication. Le domaine de gravure est discrétisé en cellules carrées représentant la géométrie initiale du système masque-substrat. On insère les particules neutres et ioniques à l’interface du domaine de simulation en prenant compte des fonctions de distribution en énergie et en angle respectives de chacune des espèces. Le transport des particules est effectué jusqu’à la surface en tenant compte des probabilités de réflexion des ions énergétiques sur les parois ou de la réémission des particules neutres. Le modèle d’interaction particule-surface tient compte des différents mécanismes de gravure sèche telle que la pulvérisation, la gravure chimique réactive et la gravure réactive ionique. Le transport des produits de gravure est pris en compte ainsi que le dépôt menant à la croissance d’une couche mince. La validité du simulateur est vérifiée par comparaison entre les profils simulés et les observations expérimentales issues de la gravure par pulvérisation du platine par une source de plasma d’argon.
Resumo:
L’innovation pédagogique pour elle-même s’avère parfois discutable, mais elle se justifie quand les enseignants se heurtent aux difficultés d’apprentissage de leurs étudiants. En particulier, certaines notions de physique sont réputées difficiles à appréhender par les étudiants, comme c’est le cas pour l’effet photoélectrique qui n’est pas souvent compris par les étudiants au niveau collégial. Cette recherche tente de déterminer si, dans le cadre d’un cours de physique, la simulation de l’effet photoélectrique et l’utilisation des dispositifs mobiles et en situation de collaboration favorisent une évolution des conceptions des étudiants au sujet de la lumière. Nous avons ainsi procédé à l’élaboration d’un scénario d’apprentissage collaboratif intégrant une simulation de l’effet photoélectrique sur un ordinateur de poche. La conception du scénario a d’abord été influencée par notre vision socioconstructiviste de l’apprentissage. Nous avons effectué deux études préliminaires afin de compléter notre scénario d’apprentissage et valider la plateforme MobileSim et l’interface du simulateur, que nous avons utilisées dans notre expérimentation : la première avec des ordinateurs de bureau et la seconde avec des ordinateurs de poche. Nous avons fait suivre à deux groupes d’étudiants deux cours différents, l’un portant sur une approche traditionnelle d’enseignement, l’autre basé sur le scénario d’apprentissage collaboratif élaboré. Nous leur avons fait passer un test évaluant l’évolution conceptuelle sur la nature de la lumière et sur le phénomène de l’effet photoélectrique et concepts connexes, à deux reprises : la première avant que les étudiants ne s’investissent dans le cours et la seconde après la réalisation des expérimentations. Nos résultats aux prétest et post-test sont complétés par des entrevues individuelles semi-dirigées avec tous les étudiants, par des enregistrements vidéo et par des traces récupérées des fichiers logs ou sur papier. Les étudiants du groupe expérimental ont obtenu de très bons résultats au post-test par rapport à ceux du groupe contrôle. Nous avons enregistré un gain moyen d’apprentissage qualifié de niveau modéré selon Hake (1998). Les résultats des entrevues ont permis de repérer quelques difficultés conceptuelles d’apprentissage chez les étudiants. L’analyse des données recueillies des enregistrements des séquences vidéo, des questionnaires et des traces récupérées nous a permis de mieux comprendre le processus d’apprentissage collaboratif et nous a dévoilé que le nombre et la durée des interactions entre les étudiants sont fortement corrélés avec le gain d’apprentissage. Ce projet de recherche est d’abord une réussite sur le plan de la conception d’un scénario d’apprentissage relatif à un phénomène aussi complexe que l’effet photoélectrique, tout en respectant de nombreux critères (collaboration, simulation, dispositifs mobiles) qui nous paraissaient extrêmement utopiques de réunir dans une situation d’apprentissage en classe. Ce scénario pourra être adapté pour l’apprentissage d’autres notions de la physique et pourra être considéré pour la conception des environnements collaboratifs d’apprentissage mobile innovants, centrés sur les besoins des apprenants et intégrant les technologies au bon moment et pour la bonne activité.
Resumo:
L'un des principaux défis de l'interprétation radiographique réside dans la compréhension de l’anatomie radiographique, laquelle est intrinsèquement liée à la disposition tridimensionnelle des structures anatomiques et à l’impact du positionnement du tube radiogène vis-à -vis de ces structures lors de l'acquisition de l'image. Traditionnellement, des radiographies obtenues selon des projections standard sont employées pour enseigner l'anatomie radiographique en médecine vétérinaire. La tomodensitométrie − ou communément appelée CT (Computed Tomography) − partage plusieurs des caractéristiques de la radiographie en ce qui a trait à la génération des images. À l’aide d'un plug-in spécialement développé (ORS Visual ©), la matrice contenant les images CT est déformée pour reproduire les effets géométriques propres au positionnement du tube et du détecteur vis-à -vis du patient radiographié, tout particulièrement les effets de magnification et de distorsion. Afin d'évaluer le rendu des images simulées, différentes régions corporelles ont été imagées au CT chez deux chiens, un chat et un cheval, avant d'être radiographiées suivant des protocoles d'examens standards. Pour valider le potentiel éducatif des simulations, dix radiologistes certifiés ont comparé à l'aveugle neuf séries d'images radiographiques simulées aux séries radiographiques standard. Plusieurs critères ont été évalués, soient le grade de visualisation des marqueurs anatomiques, le réalisme et la qualité radiographique des images, le positionnement du patient et le potentiel éducatif de celles-ci pour différents niveaux de formation vétérinaire. Les résultats généraux indiquent que les images radiographiques simulées à partir de ce modèle sont suffisamment représentatives de la réalité pour être employées dans l’enseignement de l’anatomie radiographique en médecine vétérinaire.
Resumo:
Nous étudions la gestion de centres d'appels multi-compétences, ayant plusieurs types d'appels et groupes d'agents. Un centre d'appels est un système de files d'attente très complexe, où il faut généralement utiliser un simulateur pour évaluer ses performances. Tout d'abord, nous développons un simulateur de centres d'appels basé sur la simulation d'une chaîne de Markov en temps continu (CMTC), qui est plus rapide que la simulation conventionnelle par événements discrets. À l'aide d'une méthode d'uniformisation de la CMTC, le simulateur simule la chaîne de Markov en temps discret imbriquée de la CMTC. Nous proposons des stratégies pour utiliser efficacement ce simulateur dans l'optimisation de l'affectation des agents. En particulier, nous étudions l'utilisation des variables aléatoires communes. Deuxièmement, nous optimisons les horaires des agents sur plusieurs périodes en proposant un algorithme basé sur des coupes de sous-gradients et la simulation. Ce problème est généralement trop grand pour être optimisé par la programmation en nombres entiers. Alors, nous relaxons l'intégralité des variables et nous proposons des méthodes pour arrondir les solutions. Nous présentons une recherche locale pour améliorer la solution finale. Ensuite, nous étudions l'optimisation du routage des appels aux agents. Nous proposons une nouvelle politique de routage basé sur des poids, les temps d'attente des appels, et les temps d'inoccupation des agents ou le nombre d'agents libres. Nous développons un algorithme génétique modifié pour optimiser les paramètres de routage. Au lieu d'effectuer des mutations ou des croisements, cet algorithme optimise les paramètres des lois de probabilité qui génèrent la population de solutions. Par la suite, nous développons un algorithme d'affectation des agents basé sur l'agrégation, la théorie des files d'attente et la probabilité de délai. Cet algorithme heuristique est rapide, car il n'emploie pas la simulation. La contrainte sur le niveau de service est convertie en une contrainte sur la probabilité de délai. Par après, nous proposons une variante d'un modèle de CMTC basé sur le temps d'attente du client à la tête de la file. Et finalement, nous présentons une extension d'un algorithme de coupe pour l'optimisation stochastique avec recours de l'affectation des agents dans un centre d'appels multi-compétences.
Resumo:
Le cubitus proximal détient une courbe sagittale unique pour chaque individu, nommée « Proximal Ulna Dorsal Angulation (PUDA) ». Une reconstruction non-anatomique du cubitus proximal, suite à une fracture complexe peut engendrer une malunion, de l’arthrose et de l’instabilité. L’objectif de cette étude était d’évaluer la magnitude de malalignement au niveau de l’angulation proximale dorsale du cubitus qui causerait un malalignement radio-capitellaire, avec et sans un ligament annulaire intact. Afin d’atteindre cet objectif, une étude biomécanique fut conduite sur six spécimens frais congelés avec un simulateur de mouvement du coude. Des fractures simulées au niveau du PUDA, furent stabilisées avec une fixation interne dans cinq configurations différentes. Des images fluoroscopiques furent prises dans différentes positions du coude et de l’avant-bras, avec le ligament annulaire intact, puis relâché. Le déplacement de la tête radiale fut quantifié avec le ratio radio-capitellaire. Une interaction significative fut découverte entre les positions du coude, les angles de malalignement et l’intégrité du ligament annulaire. La subluxation de la tête radiale fut accentuée lors de la déchirure du ligament annulaire. Une augmentation de la subluxation antérieure de la tête radiale fut observée lorsque le malalignement était fixé en extension et lors de mouvements de flexion progressive du coude. D’autre part, un malalignement en flexion et une extension graduelle du coude occasionnait une subluxation postérieure. En conclusion, les résultats ont démontré l’importance d’une reconstruction anatomique du cubitus proximal, car un malalignement de 5 degrés engendre une subluxation de la tête radiale, surtout lors d’une déchirure du ligament annulaire.
Resumo:
A method for the construction of a patient-specific model of a scoliotic torso for surgical planning via inter- patient registration is presented. Magnetic Resonance Images (MRI) of a generic model are registered to surface topography (TP) and X-ray data of a test patient. A partial model is first obtained via thin-plate spline registration between TP and X-ray data of the test patient. The MRIs from the generic model are then fit into the test patient using articulated model registration between the vertebrae of the generic model’s MRIs in prone position and the test patient’s X-rays in standing position. A non-rigid deformation of the soft tissues is performed using a modified thin-plate spline constrained to maintain bone rigidity and to fit in the space between the vertebrae and the surface of the torso. Results show average Dice values of 0.975 ± 0.012 between the MRIs following inter-patient registration and the surface topography of the test patient, which is comparable to the average value of 0.976 ± 0.009 previously obtained following intra-patient registration. The results also show a significant improvement compared to rigid inter-patient registration. Future work includes validating the method on a larger cohort of patients and incorporating soft tissue stiffness constraints. The method developed can be used to obtain a geometric model of a patient including bone structures, soft tissues and the surface of the torso which can be incorporated in a surgical simulator in order to better predict the outcome of scoliosis surgery, even if MRI data cannot be acquired for the patient.