12 resultados para Formação Monte Alegre
em Université de Montréal, Canada
Resumo:
Rapport de recherche
Resumo:
The technique of Monte Carlo (MC) tests [Dwass (1957), Barnard (1963)] provides an attractive method of building exact tests from statistics whose finite sample distribution is intractable but can be simulated (provided it does not involve nuisance parameters). We extend this method in two ways: first, by allowing for MC tests based on exchangeable possibly discrete test statistics; second, by generalizing the method to statistics whose null distributions involve nuisance parameters (maximized MC tests, MMC). Simplified asymptotically justified versions of the MMC method are also proposed and it is shown that they provide a simple way of improving standard asymptotics and dealing with nonstandard asymptotics (e.g., unit root asymptotics). Parametric bootstrap tests may be interpreted as a simplified version of the MMC method (without the general validity properties of the latter).
Resumo:
Il est très commun d’entendre dans les discussions sur l’urbanisme que la participation du public est nécessaire, mais la manière de faire participer reste encore sujette à énormément d’expérimentation et d’incertitudes. Cette étude s’intéresse au design institutionnel des processus de participation en urbanisme, sous l’angle de leurs effets de démocratisation. L’étude cherchera à identifier les aspects déterminants des processus de participation en urbanisme afin d’offrir, à ceux qui les conçoivent, un éclairage sur les implications des choix qu’ils effectuent. L’analyse se construira à partir de l’étude du fonctionnement concret d’une opération de planification concertée à Porto Alegre, dans le secteur Lomba do Pinheiro. Elle s’appuiera sur un découpage des modalités du processus élaboré à partir d’une revue des ouvrages techniques sur la participation en aménagement. Après avoir décrit la culture de la participation et de planification propre à Porto Alegre et comment celle-ci s’est construite, l’analyse décrira, à partir d’observations sur l’évolution du processus et de ses résultats, les effets du processus en termes d’impact sur l’espace bâti, de transformation des relations sociales et de possibilité de faire apparaître des conflits. Les conclusions feront voir l’importance des modalités plus informelles du travail des organisateurs, de même que la nécessité de mettre le projet au centre du processus afin d’établir un terrain commun. Le rôle crucial de la sélection des participants sera souligné. De fortes réserves seront exprimées quant à la pertinence de la transformation des relations sociales comme objectif pour les processus de planification concertée.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
En rivière à lit de graviers, le transport des sédiments en charge de fond est un processus intermittent qui dépend de plusieurs variables du système fluvial dont la prédiction est encore aujourd’hui inexacte. Les modèles disponibles pour prédire le transport par charriage utilisent des variables d’écoulement moyen et la turbulence n’est généralement pas considérée malgré que les tourbillons contenus dans les écoulements possèdent une quantité d’énergie importante. L’utilisation de nouvelles approches pour étudier la problématique du transport par charriage pourrait nous permettre d’améliorer notre connaissance de ce processus déterminant en rivière alluviale. Dans ce mémoire, nous documentons ces composantes de la dynamique fluviale dans un cours d’eau graveleux en période de crue. Les objectifs du projet de recherche sont : 1) d’examiner l’effet du débit sur les variables turbulentes et les caractéristiques des structures turbulentes cohérentes, 2) d’investiguer l’effet du débit sur les caractéristiques des événements de transport de sédiments individuels détectés à l’aide d’un nouvel algorithme développé et testé et 3) de relier les caractéristiques de l’écoulement turbulent aux événements de transport de sédiments individuels. Les données de turbulence montrent qu’à haut niveau d’eau, l’écoulement décéléré est peu cohérent et a une turbulence plus isotrope où les structures turbulentes cohérentes sont de courte durée. Ces observations se distinguent de celles faites à faible niveau d’eau, en écoulement accéléré, où la plus grande cohérence de l’écoulement correspond à ce qui est généralement observé dans les écoulements uniformes en rivières graveleuses. Les distributions de fréquence des variables associées aux événements de transport individuel (intensité de transport moyenne, durée d’événement et intervalle entre événements successifs) ont des formes différentes pour chaque intensité de crue. À haut niveau d’eau, le transport est moins intermittent qu’à faible débit où les événements rares caractérisent davantage les distributions. L’accélération de l’écoulement à petite échelle de temps joue un rôle positif sur le transport, mais surtout lorsque la magnitude de la crue mobilisatrice est en dessous du niveau plein bord. Les résultats de l’étude montrent que les caractéristiques de la turbulence ainsi que les liens complexes entre l’écoulement et le transport par charriage sont fonction du débit.
Resumo:
Notre progiciel PoweR vise à faciliter l'obtention ou la vérification des études empiriques de puissance pour les tests d'ajustement. En tant que tel, il peut être considéré comme un outil de calcul de recherche reproductible, car il devient très facile à reproduire (ou détecter les erreurs) des résultats de simulation déjà publiés dans la littérature. En utilisant notre progiciel, il devient facile de concevoir de nouvelles études de simulation. Les valeurs critiques et puissances de nombreuses statistiques de tests sous une grande variété de distributions alternatives sont obtenues très rapidement et avec précision en utilisant un C/C++ et R environnement. On peut même compter sur le progiciel snow de R pour le calcul parallèle, en utilisant un processeur multicœur. Les résultats peuvent être affichés en utilisant des tables latex ou des graphiques spécialisés, qui peuvent être incorporés directement dans vos publications. Ce document donne un aperçu des principaux objectifs et les principes de conception ainsi que les stratégies d'adaptation et d'extension.
Resumo:
En radiothérapie, la tomodensitométrie (CT) fournit l’information anatomique du patient utile au calcul de dose durant la planification de traitement. Afin de considérer la composition hétérogène des tissus, des techniques de calcul telles que la méthode Monte Carlo sont nécessaires pour calculer la dose de manière exacte. L’importation des images CT dans un tel calcul exige que chaque voxel exprimé en unité Hounsfield (HU) soit converti en une valeur physique telle que la densité électronique (ED). Cette conversion est habituellement effectuée à l’aide d’une courbe d’étalonnage HU-ED. Une anomalie ou artefact qui apparaît dans une image CT avant l’étalonnage est susceptible d’assigner un mauvais tissu à un voxel. Ces erreurs peuvent causer une perte cruciale de fiabilité du calcul de dose. Ce travail vise à attribuer une valeur exacte aux voxels d’images CT afin d’assurer la fiabilité des calculs de dose durant la planification de traitement en radiothérapie. Pour y parvenir, une étude est réalisée sur les artefacts qui sont reproduits par simulation Monte Carlo. Pour réduire le temps de calcul, les simulations sont parallélisées et transposées sur un superordinateur. Une étude de sensibilité des nombres HU en présence d’artefacts est ensuite réalisée par une analyse statistique des histogrammes. À l’origine de nombreux artefacts, le durcissement de faisceau est étudié davantage. Une revue sur l’état de l’art en matière de correction du durcissement de faisceau est présentée suivi d’une démonstration explicite d’une correction empirique.
Resumo:
Cette thèse, composée de quatre articles scientifiques, porte sur les méthodes numériques atomistiques et leur application à des systèmes semi-conducteurs nanostructurés. Nous introduisons les méthodes accélérées conçues pour traiter les événements activés, faisant un survol des développements du domaine. Suit notre premier article, qui traite en détail de la technique d'activation-relaxation cinétique (ART-cinétique), un algorithme Monte Carlo cinétique hors-réseau autodidacte basé sur la technique de l'activation-relaxation nouveau (ARTn), dont le développement ouvre la voie au traitement exact des interactions élastiques tout en permettant la simulation de matériaux sur des plages de temps pouvant atteindre la seconde. Ce développement algorithmique, combiné à des données expérimentales récentes, ouvre la voie au second article. On y explique le relâchement de chaleur par le silicium cristallin suite à son implantation ionique avec des ions de Si à 3 keV. Grâce à nos simulations par ART-cinétique et l'analyse de données obtenues par nanocalorimétrie, nous montrons que la relaxation est décrite par un nouveau modèle en deux temps: "réinitialiser et relaxer" ("Replenish-and-Relax"). Ce modèle, assez général, peut potentiellement expliquer la relaxation dans d'autres matériaux désordonnés. Par la suite, nous poussons l'analyse plus loin. Le troisième article offre une analyse poussée des mécanismes atomistiques responsables de la relaxation lors du recuit. Nous montrons que les interactions élastiques entre des défauts ponctuels et des petits complexes de défauts contrôlent la relaxation, en net contraste avec la littérature qui postule que des "poches amorphes" jouent ce rôle. Nous étudions aussi certains sous-aspects de la croissance de boîtes quantiques de Ge sur Si (001). En effet, après une courte mise en contexte et une introduction méthodologique supplémentaire, le quatrième article décrit la structure de la couche de mouillage lors du dépôt de Ge sur Si (001) à l'aide d'une implémentation QM/MM du code BigDFT-ART. Nous caractérisons la structure de la reconstruction 2xN de la surface et abaissons le seuil de la température nécessaire pour la diffusion du Ge en sous-couche prédit théoriquement par plus de 100 K.
Resumo:
L’apparition et la montée du fascisme en Italie sont des faits marquants du XXe siècle et plus précisément de l’entre-deux-guerres. Ce nouveau phénomène social a rapidement attiré l’attention de la communauté internationale. Il vient frapper les mentalités européennes dans le contexte de sociétés déjà polarisées par divers courants idéologiques. La Première Guerre mondiale a fait place à de fondamentales divergences d’opinions sur ce que devait être le futur, autant social qu’économique, des sociétés industrielles. S’étant imposé en Italie, le fascisme représente un de ses mouvements. Ce travail s’intéresse à la manière dont la société française a perçu la montée du fascisme italien. Pour ce faire, il retrace l’approche de plusieurs journaux français de 1919 à 1926 à l’égard de l’expérience italienne. L’analyse des grands journaux Le Temps, L'Humanité, Le Figaro et L'Action française permet un survol de l’opinion politique en France. La problématique avancée dans ce travail nous aide à en apprendre plus, non seulement sur l’apparition d’un phénomène majeur du siècle précédent, mais aussi, plus précisément, sur le regard porté sur lui par les grands courants politiques français. On a pu déceler plusieurs thèmes de prédilection abordés par la presse française. Premièrement, celle-ci a tenté de définir le fascisme, son origine et sa composition ainsi que le phénomène de la violence qui touchait la péninsule. Puis, le fascisme ayant accédé au pouvoir, elle a réfléchi sur le coup de force et ses répercussions. Finalement, elle a analysé la politique intérieure et extérieure du nouveau régime. Il en ressort une perspective unique grâce à l'analyse de quatre organes majeurs qui représentent et façonnent l'opinion publique en France. Notre analyse montre que le fascisme est un sujet préoccupant pour les contemporains par son caractère nouveau. Tous les journaux ont suivi l'évolution de ce mouvement avec attention. Les réactions en témoignent: ce fut, entre autres, l'exemple frappant d'une répression brutale pour les uns et l'émergence d'une idéologie susceptible de mettre fin à la terreur du bolchevisme pour les autres. Ce fut aussi un terrain d'affrontement idéologique.
Resumo:
Le travail de modélisation a été réalisé à travers EGSnrc, un logiciel développé par le Conseil National de Recherche Canada.
Resumo:
Problématique. L'utilisation d'un chien d'assistance à la mobilité (CAM) représente une option novatrice pour préserver l’intégrité des membres supérieurs (MSs) chez les utilisateurs de fauteuil roulant manuel (FRM). Aucune étude biomécanique n’a quantifié les effets du CAM sur les efforts aux MSs lors de la montée d’un plan incliné. Objectif. Cette étude quasi-expérimentale vise à comparer les efforts aux MSs lors de la montée d’un plan incliné avec et sans l’assistance d’un CAM. Méthodologie. Dix participants avec une lésion de la moelle épinière (LME) qui utilisent un FRM et possèdent un CAM ont monté un plan incliné à trois reprises avec et sans l’assistance du CAM. Les forces appliquées sur les cerceaux, mesurées avec des roues instrumentées, et les mouvements du FRM et des MSs, enregistrés avec un système d'analyse du mouvement, ont permis de mesurer les efforts mécaniques aux MSs. Simultanément, l'activité électromyographique (EMG) des muscles grand pectoral, deltoïde antérieur, biceps et triceps a été enregistrée et normalisée avec sa valeur maximale pour mesurer les efforts musculaires aux MSs. Résultats. En général, le CAM réduit significativement les valeurs moyennes et maximales de la force totale appliquée aux cerceaux et de sa composante tangentielle, des moments nets de flexion, de rotation interne et d’adduction aux épaules et des taux d’utilisation musculaire du deltoïde antérieur, du biceps et du triceps. Conclusion. L’assistance d’un CAM réduit les efforts aux MSs lors de la montée d’un plan incliné chez les utilisateurs d’un FRM ayant une LME.
Resumo:
Corteo is a program that implements Monte Carlo (MC) method to simulate ion beam analysis (IBA) spectra of several techniques by following the ions trajectory until a sufficiently large fraction of them reach the detector to generate a spectrum. Hence, it fully accounts for effects such as multiple scattering (MS). Here, a version of Corteo is presented where the target can be a 2D or 3D image. This image can be derived from micrographs where the different compounds are identified, therefore bringing extra information into the solution of an IBA spectrum, and potentially significantly constraining the solution. The image intrinsically includes many details such as the actual surface or interfacial roughness, or actual nanostructures shape and distribution. This can for example lead to the unambiguous identification of structures stoichiometry in a layer, or at least to better constraints on their composition. Because MC computes in details the trajectory of the ions, it simulates accurately many of its aspects such as ions coming back into the target after leaving it (re-entry), as well as going through a variety of nanostructures shapes and orientations. We show how, for example, as the ions angle of incidence becomes shallower than the inclination distribution of a rough surface, this process tends to make the effective roughness smaller in a comparable 1D simulation (i.e. narrower thickness distribution in a comparable slab simulation). Also, in ordered nanostructures, target re-entry can lead to replications of a peak in a spectrum. In addition, bitmap description of the target can be used to simulate depth profiles such as those resulting from ion implantation, diffusion, and intermixing. Other improvements to Corteo include the possibility to interpolate the cross-section in angle-energy tables, and the generation of energy-depth maps.