854 resultados para Calcul parallèle
Resumo:
De par leurs activités, les aéroports engendrent des impacts environnementaux non négligeables. Un des moyens utilisés pour diminuer leurs impacts environnementaux et sociaux est de réévaluer les exigences dans les appels d’offres et contrats lors de l’acquisition d’un bien ou d’un service pour y intégrer des clauses liées au développement durable. L’approvisionnement responsable est récent en milieu aéroportuaire et possède beaucoup de potentiel compte tenu de l’ampleur et de la diversité des achats qui y sont effectués. Afin de permettre une amélioration continue dans ce domaine, des lignes directrices pour l’élaboration d’un plan d’action d’approvisionnement responsable sont développées. Pour ce faire, un portrait de la situation du développement durable, et plus particulièrement de l’approvisionnement responsable, effectué en analysant le cas de différents aéroports, notamment celui d’Aéroports de Montréal, indique que la responsabilité sociétale d’entreprise est de plus en plus présente et qu’ils sont donc plus conscients de l’importance de connaitre leurs diverses parties prenantes. En ayant connaissance de ses forces et faiblesses en développement durable, grâce à une évaluation BNQ 21000, un plan d’action d’approvisionnement responsable adapté à la réalité d’Aéroports de Montréal est élaboré. Pour ce faire, trois stratégies sont retenues : promouvoir les pratiques d'approvisionnement responsable, favoriser l’implantation de nouvelles pratiques et responsabiliser l'entièreté de la chaîne d'approvisionnement. La première orientation vise principalement à augmenter la communication des efforts et progrès accomplis, la deuxième consiste à apporter quelques ajustements organisationnels pour optimiser les possibilités et la troisième permet d’influencer les fournisseurs à considérer l’approvisionnement responsable dans leur gestion. Néanmoins, certaines pratiques recensées et jugées applicables au sein d’Aéroports de Montréal requièrent plus de temps ou de ressources que sur une période de cinq ans. Ainsi, une stratégie à plus long terme est nécessaire pour assurer une amélioration continue dans le temps. Pour ce faire, il est recommandé de constituer un comité d’approvisionnement responsable pour favoriser une multidisciplinarité et une progression plus rapide. Des pratiques telles que le calcul de coût de propriété, les audits des fournisseurs et de la sensibilisation dans le but de favoriser une plus grande collaboration, nécessitent d’être planifiées dans la stratégie pour optimiser leur implantation avec succès. Le plan d’action intègre les ressources humaines et financières devant être mobilisées afin de préparer les différents départements à la mise en œuvre des pratiques d’approvisionnement proposées.
Resumo:
Résumé : En raison de sa grande étendue, le Nord canadien présente plusieurs défis logistiques pour une exploitation rentable de ses ressources minérales. La TéléCartographie Prédictive (TCP) vise à faciliter la localisation de gisements en produisant des cartes du potentiel géologique. Des données altimétriques sont nécessaires pour générer ces cartes. Or, celles actuellement disponibles au nord du 60e parallèle ne sont pas optimales principalement parce qu’elles sont dérivés de courbes à équidistance variable et avec une valeur au mètre. Parallèlement, il est essentiel de connaître l'exactitude verticale des données altimétriques pour être en mesure de les utiliser adéquatement, en considérant les contraintes liées à son exactitude. Le projet présenté vise à aborder ces deux problématiques afin d'améliorer la qualité des données altimétriques et contribuer à raffiner la cartographie prédictive réalisée par TCP dans le Nord canadien, pour une zone d’étude située au Territoire du Nord-Ouest. Le premier objectif était de produire des points de contrôles permettant une évaluation précise de l'exactitude verticale des données altimétriques. Le second objectif était de produire un modèle altimétrique amélioré pour la zone d'étude. Le mémoire présente d'abord une méthode de filtrage pour des données Global Land and Surface Altimetry Data (GLA14) de la mission ICESat (Ice, Cloud and land Elevation SATellite). Le filtrage est basé sur l'application d'une série d'indicateurs calculés à partir d’informations disponibles dans les données GLA14 et des conditions du terrain. Ces indicateurs permettent d'éliminer les points d'élévation potentiellement contaminés. Les points sont donc filtrés en fonction de la qualité de l’attitude calculée, de la saturation du signal, du bruit d'équipement, des conditions atmosphériques, de la pente et du nombre d'échos. Ensuite, le document décrit une méthode de production de Modèles Numériques de Surfaces (MNS) améliorés, par stéréoradargrammétrie (SRG) avec Radarsat-2 (RS-2). La première partie de la méthodologie adoptée consiste à faire la stéréorestitution des MNS à partir de paires d'images RS-2, sans point de contrôle. L'exactitude des MNS préliminaires ainsi produits est calculée à partir des points de contrôles issus du filtrage des données GLA14 et analysée en fonction des combinaisons d’angles d'incidences utilisées pour la stéréorestitution. Ensuite, des sélections de MNS préliminaires sont assemblées afin de produire 5 MNS couvrant chacun la zone d'étude en totalité. Ces MNS sont analysés afin d'identifier la sélection optimale pour la zone d'intérêt. Les indicateurs sélectionnés pour la méthode de filtrage ont pu être validés comme performant et complémentaires, à l’exception de l’indicateur basé sur le ratio signal/bruit puisqu’il était redondant avec l’indicateur basé sur le gain. Autrement, chaque indicateur a permis de filtrer des points de manière exclusive. La méthode de filtrage a permis de réduire de 19% l'erreur quadratique moyenne sur l'élévation, lorsque que comparée aux Données d'Élévation Numérique du Canada (DNEC). Malgré un taux de rejet de 69% suite au filtrage, la densité initiale des données GLA14 a permis de conserver une distribution spatiale homogène. À partir des 136 MNS préliminaires analysés, aucune combinaison d’angles d’incidences des images RS-2 acquises n’a pu être identifiée comme étant idéale pour la SRG, en raison de la grande variabilité des exactitudes verticales. Par contre, l'analyse a indiqué que les images devraient idéalement être acquises à des températures en dessous de 0°C, pour minimiser les disparités radiométriques entre les scènes. Les résultats ont aussi confirmé que la pente est le principal facteur d’influence sur l’exactitude de MNS produits par SRG. La meilleure exactitude verticale, soit 4 m, a été atteinte par l’assemblage de configurations de même direction de visées. Par contre, les configurations de visées opposées, en plus de produire une exactitude du même ordre (5 m), ont permis de réduire le nombre d’images utilisées de 30%, par rapport au nombre d'images acquises initialement. Par conséquent, l'utilisation d'images de visées opposées pourrait permettre d’augmenter l’efficacité de réalisation de projets de SRG en diminuant la période d’acquisition. Les données altimétriques produites pourraient à leur tour contribuer à améliorer les résultats de la TCP, et augmenter la performance de l’industrie minière canadienne et finalement, améliorer la qualité de vie des citoyens du Nord du Canada.
Resumo:
Un moyen permettant d'identifier expérimentalement les phases du gaz d'électrons bidimensionnel de la bicouche de graphène en empilement bernal au remplissage $\nu = 3$ est recherché lorsque le biais électrique entre les couches est varié. À ce remplissage, si on se concentre aux basses énergies, il est possible de ne s'intéresser qu'aux deux niveaux de Landau composant le niveau $N=0$ qui sont de même spin et de même vallée, mais d'orbitale différente. Puisque la texture du pseudospin orbital de ce système change selon la phase, il est attendu que le couplage avec le champ électrique de la lumière devrait changer. La dispersion des modes collectifs de chaque phase est calculée dans l'approximation GRPA (generalized random-phase approximation) dans le domaine en biais où chacune domine respectivement. L'absorption optique pour des polarisations linéaires en direction x et en direction y ainsi que pour des polarisations circulaires gauche et droite est calculée. La rotation de Faraday et l'effet Kerr sont également calculés. Des différences entre les phases sont remarquées au niveaux de la fréquence des photons qui sont absorbés, de l'amplitude de l'absorption et de la rotation de la polarisation ainsi que la sensibilité à certains types de polarisation. L'effet des modes collectifs dans les phases considérées est cependant moindre que celui qui est prédit dans un calcul qui ne tient pas compte de l'interaction de Coulomb.
Resumo:
Résumé: L’Institut pour l'étude de la neige et des avalanches en Suisse (SLF) a développé SNOWPACK, un modèle thermodynamique multi-couches de neige permettant de simuler les propriétés géophysiques du manteau neigeux (densité, température, taille de grain, teneur en eau, etc.) à partir desquelles un indice de stabilité est calculé. Il a été démontré qu’un ajustement de la microstructure serait nécessaire pour une implantation au Canada. L'objectif principal de la présente étude est de permettre au modèle SNOWPACK de modéliser de manière plus réaliste la taille de grain de neige et ainsi obtenir une prédiction plus précise de la stabilité du manteau neigeux à l’aide de l’indice basé sur la taille de grain, le Structural Stability Index (SSI). Pour ce faire, l’erreur modélisée (biais) par le modèle a été analysée à l’aide de données précises sur le terrain de la taille de grain à l’aide de l’instrument IRIS (InfraRed Integrated Sphere). Les données ont été recueillies durant l’hiver 2014 à deux sites différents au Canada : parc National des Glaciers, en Colombie-Britannique ainsi qu’au parc National de Jasper. Le site de Fidelity était généralement soumis à un métamorphisme à l'équilibre tandis que celui de Jasper à un métamorphisme cinétique plus prononcé. Sur chacun des sites, la stratigraphie des profils de densités ainsi des profils de taille de grain (IRIS) ont été complétés. Les profils de Fidelity ont été complétés avec des mesures de micropénétromètre (SMP). L’analyse des profils de densité a démontré une bonne concordance avec les densités modélisées (R[indice supérieur 2]=0.76) et donc la résistance simulée pour le SSI a été jugée adéquate. Les couches d’instabilités prédites par SNOWPACK ont été identifiées à l’aide de la variation de la résistance dans les mesures de SMP. L’analyse de la taille de grain optique a révélé une surestimation systématique du modèle ce qui est en accord avec la littérature. L’erreur de taille de grain optique dans un environnement à l’équilibre était assez constante tandis que l’erreur en milieux cinétique était plus variable. Finalement, une approche orientée sur le type de climat représenterait le meilleur moyen pour effectuer une correction de la taille de grain pour une évaluation de la stabilité au Canada.
Resumo:
Résumé : Malgré le nombre croissant de capteurs dans les domaines de la chimie et la biologie, il reste encore à étudier en profondeur la complexité des interactions entre les différentes molécules présentes lors d’une détection à l’interface solide-liquide. Dans ce cadre, il est de tout intérêt de croiser différentes méthodes de détection afin d’obtenir des informations complémentaires. Le principal objectif de cette étude est de dimensionner, fabriquer et caractériser un détecteur optique intégré sur verre basé sur la résonance plasmonique de surface, destiné à terme à être combiné avec d’autres techniques de détection, dont un microcalorimètre. La résonance plasmonique de surface est une technique reconnue pour sa sensibilité adaptée à la détection de surface, qui a l’avantage d’être sans marquage et permet de fournir un suivi en temps réel de la cinétique d’une réaction. L’avantage principal de ce capteur est qu’il a été dimensionné pour une large gamme d’indice de réfraction de l’analyte, allant de 1,33 à 1,48. Ces valeurs correspondent à la plupart des entités biologiques associées à leurs couches d’accroche dont les matrices de polymères, présentés dans ce travail. Étant donné que beaucoup d’études biologiques nécessitent la comparaison de la mesure à une référence ou à une autre mesure, le second objectif du projet est d’étudier le potentiel du système SPR intégré sur verre pour la détection multi-analyte. Les trois premiers chapitres se concentrent sur l’objectif principal du projet. Le dimensionnement du dispositif est ainsi présenté, basé sur deux modélisations différentes, associées à plusieurs outils de calcul analytique et numérique. La première modélisation, basée sur l’approximation des interactions faibles, permet d’obtenir la plupart des informations nécessaires au dimensionnement du dispositif. La seconde modélisation, sans approximation, permet de valider le premier modèle approché et de compléter et affiner le dimensionnement. Le procédé de fabrication de la puce optique sur verre est ensuite décrit, ainsi que les instruments et protocoles de caractérisation. Un dispositif est obtenu présentant des sensibilités volumiques entre 1000 nm/RIU et 6000 nm/RIU suivant l’indice de réfraction de l’analyte. L’intégration 3D du guide grâce à son enterrage sélectif dans le verre confère au dispositif une grande compacité, le rendant adapté à la cointégration avec un microcalorimètre en particulier. Le dernier chapitre de la thèse présente l’étude de plusieurs techniques de multiplexage spectral adaptées à un système SPR intégré, exploitant en particulier la technologie sur verre. L’objectif est de fournir au moins deux détections simultanées. Dans ce cadre, plusieurs solutions sont proposées et les dispositifs associés sont dimensionnés, fabriqués et testés.
Resumo:
Abstract : Images acquired from unmanned aerial vehicles (UAVs) can provide data with unprecedented spatial and temporal resolution for three-dimensional (3D) modeling. Solutions developed for this purpose are mainly operating based on photogrammetry concepts, namely UAV-Photogrammetry Systems (UAV-PS). Such systems are used in applications where both geospatial and visual information of the environment is required. These applications include, but are not limited to, natural resource management such as precision agriculture, military and police-related services such as traffic-law enforcement, precision engineering such as infrastructure inspection, and health services such as epidemic emergency management. UAV-photogrammetry systems can be differentiated based on their spatial characteristics in terms of accuracy and resolution. That is some applications, such as precision engineering, require high-resolution and high-accuracy information of the environment (e.g. 3D modeling with less than one centimeter accuracy and resolution). In other applications, lower levels of accuracy might be sufficient, (e.g. wildlife management needing few decimeters of resolution). However, even in those applications, the specific characteristics of UAV-PSs should be well considered in the steps of both system development and application in order to yield satisfying results. In this regard, this thesis presents a comprehensive review of the applications of unmanned aerial imagery, where the objective was to determine the challenges that remote-sensing applications of UAV systems currently face. This review also allowed recognizing the specific characteristics and requirements of UAV-PSs, which are mostly ignored or not thoroughly assessed in recent studies. Accordingly, the focus of the first part of this thesis is on exploring the methodological and experimental aspects of implementing a UAV-PS. The developed system was extensively evaluated for precise modeling of an open-pit gravel mine and performing volumetric-change measurements. This application was selected for two main reasons. Firstly, this case study provided a challenging environment for 3D modeling, in terms of scale changes, terrain relief variations as well as structure and texture diversities. Secondly, open-pit-mine monitoring demands high levels of accuracy, which justifies our efforts to improve the developed UAV-PS to its maximum capacities. The hardware of the system consisted of an electric-powered helicopter, a high-resolution digital camera, and an inertial navigation system. The software of the system included the in-house programs specifically designed for camera calibration, platform calibration, system integration, onboard data acquisition, flight planning and ground control point (GCP) detection. The detailed features of the system are discussed in the thesis, and solutions are proposed in order to enhance the system and its photogrammetric outputs. The accuracy of the results was evaluated under various mapping conditions, including direct georeferencing and indirect georeferencing with different numbers, distributions and types of ground control points. Additionally, the effects of imaging configuration and network stability on modeling accuracy were assessed. The second part of this thesis concentrates on improving the techniques of sparse and dense reconstruction. The proposed solutions are alternatives to traditional aerial photogrammetry techniques, properly adapted to specific characteristics of unmanned, low-altitude imagery. Firstly, a method was developed for robust sparse matching and epipolar-geometry estimation. The main achievement of this method was its capacity to handle a very high percentage of outliers (errors among corresponding points) with remarkable computational efficiency (compared to the state-of-the-art techniques). Secondly, a block bundle adjustment (BBA) strategy was proposed based on the integration of intrinsic camera calibration parameters as pseudo-observations to Gauss-Helmert model. The principal advantage of this strategy was controlling the adverse effect of unstable imaging networks and noisy image observations on the accuracy of self-calibration. The sparse implementation of this strategy was also performed, which allowed its application to data sets containing a lot of tie points. Finally, the concepts of intrinsic curves were revisited for dense stereo matching. The proposed technique could achieve a high level of accuracy and efficiency by searching only through a small fraction of the whole disparity search space as well as internally handling occlusions and matching ambiguities. These photogrammetric solutions were extensively tested using synthetic data, close-range images and the images acquired from the gravel-pit mine. Achieving absolute 3D mapping accuracy of 11±7 mm illustrated the success of this system for high-precision modeling of the environment.
Resumo:
Ce mémoire présente une comparaison internationale d'un modèle américain de calcul des dépenses marketing et publicitaire appelé: ADVISOR (ADVertising Industrial product: Study of Operating Relationship) (Lilien; 1973, 1976,1984). Cette étude compare les résultats d'un échantillon de 45 produits provenant de 33 entreprises industrielles à travers le Québec avec ceux de l'échantillon américaine et européen d'ADVISOR. L'objectif de cette étude est de fournir un support décisionnel aux gestionnaires. Les résultats de notre étude convergent avec celles réalisées aux États-Unis et en Europe. Les coefficients de régression ainsi que les prédictions budgétaires dans l'étude d'ADVISOR-QUEBEC sont de même ordre de grandeur que ceux d'ADVISOR-USA et d'ADVISOR-EUROPE. Ces résultats suggèrent ainsi une uniformité dans les pratiques de gestion des responsables marketing face à l'élaboration budgétaire. Par ailleurs, nos résultats indiquent que le modèle ADVISOR a une grande stabilité temporelle et structurelle.
Resumo:
Cette étude examine l'effet de la révision du chapitre 3480 du Manuel de l'I.C.C.A. relatif aux éléments extraordinaires sur la valeur prédictive du bénéfice avant éléments extraordinaires. Le choix du critère de la valeur prédictive repose sur le fait que l'I.C.C.A. reconnaît qu'il s'agit ici d'une caractéristique essentielle à l'obtention d'une information comptable utile. Ainsi, le resserrement de la définition des éléments extraordinaires par l'ajout d'un troisième critère a contribué à une réduction du nombre de ces éléments dans les états financiers des entreprises canadiennes. En effet, la description de l'échantillon a montré que plusieurs catégories d'éléments extraordinaires considérées avant la révision de la norme canadienne dans la partie non courante de l'état des résultats sont déplacées, par l'effet de la révision, à la partie courante de cet état. L'examen des éléments inhabituels après la révision a permis de retrouver la majorité des éléments qui auraient pus être qualifiés d'extraordinaires si on avait appliqué l'ancienne définition. Les éléments qui ne satisfont pas les trois critères sont, en fait, considérés dans le calcul du bénéfice mais sont maintenant présentés dans la partie courante de l'état des résultats. Le bénéfice avant éléments extraordinaires incluera dorénavant un plus grand nombre d'éléments non récurrents. Par conséquent, il est possible que l'ajout du troisième critère à la définition des éléments extraordinaires entraine une diminution de la valeur prédictive du bénéfice avant éléments extraordinaires. La période d'analyse s'étale sur les six années qui entourent la révision, soit trois ans avant la révision (1987, 1988 et 1989) et trois ans après la révision (1990, 1991 et 1992). Le modèle auto régressif de premier ordre a été retenu pour la prédiction des bénéfices par action avant éléments extraordinaires de chaque période. Les résultats obtenus suggèrent que la valeur prédictive du bénéfice par action avant éléments extraordinaires a diminué à la suite de la révision du chapitre 3480 du Manuel. Il ressort de cette étude que les débats sur la manière dont les éléments extraordinaires devraient être définis et présentés dans les états des résultats des entreprises canadiennes ne sont pas résolus par cette révision.
Resumo:
La mondialisation de l'économie et la globalisation des marchés ont modifié la relation entre l'entreprise et le consommateur. Alors que ce dernier profite d'une réduction des prix, d'une amélioration de la qualité des produits et d'une foule d'autres avantages issus de la concurrence internationale, les entreprises doivent travailler fort pour conserver ou augmenter leurs parts de marché dans cet environnement hautement concurrentiel. Dans un tel contexte, les études sur l'influence du pays d'origine d'un produit sur la perception des consommateurs sont d'une grande utilité. Elles permettent aux gestionnaires de mieux comprendre les consommateurs dans leurs choix, d'identifier les attributs du produit qu'ils considèrent importants et d'augmenter les ventes de l'entreprise. Dans le cadre du récent accord de libre-échange entre le Canada, le Mexique et les États-Unis (ALENA), cette étude menée au Mexique permet de répondre aux besoins des entreprises qui désirent exporter dans ce pays en les renseignant sur les caractéristiques des produits qui influencent le jugement des consommateurs mexicains. Les effets du pays de conception, du pays d'assemblage et de la provenance des pièces sur la qualité perçue ainsi que sur la valeur de l'achat sont étudiés à l'aide de profils de produits présentés aux consommateurs mexicains. Les produits utilisés sont l'automobile, le magnétoscope et les chaussures. Les résultats indiquent que les consommateurs utilisent surtout le pays de conception pour évaluer la qualité ou la valeur des automobiles et la provenance des pièces pour l'évaluation des magnétoscopes. Lorsqu'il s'agit d'évaluer la valeur d'achat des chaussures, les Mexicains se basent davantage sur la garantie. On observe, entre autres, que les Mexicains préfèrent davantage les produits assemblés au Mexique que ceux provenant du Canada. Enfin, le parallèle avec les résultats d'études antérieures permet de confirmer ou d'infirmer certains résultats. Les implications de ces derniers sont discutées par la suite.
Resumo:
Une méthode optimale pour identifier les zones problématiques de drainage dans les champs de canneberges est d’un intérêt pratique pour les producteurs. Elle peut aider au développement de stratégies visant à améliorer le rendement des cultures. L’objectif de cette étude était de développer une méthodologie non intrusive de diagnostic d’un système de drainage en utilisant l’imagerie du géoradar ou Ground Penetrating Radar (GPR) ayant pour finalité de localiser les zones restrictives au drainage et de lier les scans du GPR à des propriétés du sol. Un système GPR muni d’une antenne monostatique a été utilisé pour acquérir des données dans deux champs de canneberges : un construit sur sol organique et l’autre sur sol minéral. La visualisation en trois dimensions de la stratification du champ a été possible après l’interpolation et l’analyse des faciès. La variabilité spatiale du rendement des cultures et la conductivité hydraulique saturée du sol ont été comparées aux données GPR par deux méthodes : calcul du pourcentage de différence et estimation de l’entropie. La visualisation des données couplée à leur analyse a permis de mettre en évidence la géométrie souterraine et des discontinuités importantes des champs. Les résultats montrent qu’il y a bonne corrélation entre les zones où la couche restrictive est plus superficielle et celle de faible rendement. Le niveau de similarité entre la conductivité hydraulique saturée et la profondeur de la couche restrictive confirme la présence de cette dernière. L’étape suivante a été la reconstruction de l’onde électromagnétique et son ajustement par modélisation inverse. Des informations quantitatives ont été extraites des scans : la permittivité diélectrique, la conductivité électrique et l’épaisseur des strates souterraines. Les permittivités diélectriques modélisées sont concordantes avec celles mesurées in-situ et celles de la littérature. Enfin, en permettant la caractérisation des discontinuités du sous-sol, les zones les plus pertinentes pour l’amélioration du drainage et d’irrigation ont été localisées, afin de maximiser le rendement.
Resumo:
Dans le contexte où les routes non revêtues sont susceptibles de subir des charges importantes, une méthode rigoureuse pour la conception de ces chaussées basée sur des principes mécanistes-empiriques et sur le comportement mécanique des sols support est souhaitable. La conception mécaniste combinée à des lois d’endommagement permet l’optimisation des structures de chaussées non revêtues ainsi que la réduction des coûts de construction et d’entretien. Le but de ce projet est donc la mise au point d’une méthode de conception mécaniste-empirique adaptée aux chaussées non revêtues. Il a été question tout d’abord de mettre au point un code de calcul pour la détermination des contraintes et des déformations dans la chaussée. Ensuite, des lois d’endommagement empiriques pour les chaussées non revêtues ont été développées. Enfin, les méthodes de calcul ont permis la création d’abaques de conception. Le développement du code de calcul a consisté en une modélisation de la chaussée par un système élastique multi-couches. La modélisation a été faite en utilisant la transformation d’Odemark et les équations de Boussinesq pour le calcul des déformations sous la charge. L’élaboration des fonctions de transfert empiriques adaptées aux chaussées non revêtues a également été effectuée. Le développement des fonctions de transfert s’est fait en deux étapes. Tout d’abord, l’établissement de valeurs seuil d’orniérage considérant des niveaux jugés raisonnables de conditions fonctionnelle et structurale de la chaussée. Ensuite, le développement de critères de déformation admissible en associant les déformations théoriques calculées à l’aide du code de calcul à l’endommagement observé sur plusieurs routes en service. Les essais ont eu lieu sur des chaussées typiques reconstituées en laboratoire et soumises à un chargement répété par simulateur de charge. Les chaussées ont été instrumentées pour mesurer la déformation au sommet du sol d’infrastructure et les taux d’endommagements ont été mesurés au cours des essais.
Resumo:
Cette recherche entre dans le cadre d'une expérimentation portant sur le concept de soi des enfants mésadaptés socio-affectifs intégrés en classe régulière. Les enfants étudiés se situent dans des classes de 4ème, 5ème et 6ème années. Le concept de soi de ces enfants sera comparé à celui de leurs pairs. Ce parallèle s'effectuera à l'aide de l'échelle du concept de soi des enfants de Fiers et Harris (1969). Nous tenterons de vérifier si l'enfant mésadapté socio-affectif a un concept de soi plus dévalorisé que l'enfant dit "normal". Le premier chapitre essaiera de définir l'enfant mésadapté socio-affectif ainsi que ses principales caractéristiques. Nous aborderons aussi la littérature portant sur l'enfant mésadapté socioaffectif intégré dans une classe régulière. Le concept de soi de l'enfant mésadapté sera ensuite abordé d'une façon générale. Le second chapitre décrira l'instrument de mesure, son historique et son administration. Nous expliquerons le choix de l'échantillonnage, le déroulement de l'expérience ainsi que sa justification. Enfin, le troisième chapitre donnera les méthodes d'analyse et présentera les résultats du test.
Resumo:
L’insuffisance mitrale (IM) fonctionnelle est une complication fréquente des cardiopathies, causée par la dilatation du ventricule gauche (VG) qui empêche la valve de se fermer. L’insuffisance aortique (IA) est une condition associée à des valves mitrales (VM) inhabituellement grandes, et relativement peu d’IM malgré des VG très dilatés. Cet élargissement de la VM a le potentiel de prévenir l’IM dans les VG dilatés. Les mécanismes sont cependant peu compris : il n’est pas clair s’il s’agit d’une croissance active ou d’un étirement passif des feuillets. Également, le timing de l’adaptation valvulaire n’est pas connu. Notre hypothèse est que l’agrandissement de la valve mitrale en IA est un phénomène actif avec réactivation des mécanismes de croissance embryonnaire. Cent-onze rats ont été divisés en deux groupes : IA (perforation aortique) et contrôle. Les animaux ont été sacrifiés à 48 h, 1 semaine et 3 mois après la création du modèle. Des échocardiographies ont évalué la sévérité de l’IA, la présence d’IM et les dimensions du VG. Les valves ont été prélevées pour analyses microscopiques et moléculaires. La création de l’insuffisance aortique a entrainé une dilatation et une hypertrophie du VG. Malgré cette dilatation rapide du VG, aucun animal n’a développé de l’IM fonctionnelle. À l’échographie, le feuillet antérieur mitral était significativement plus long dans les groupes IA. Par microscopie, les feuillets étaient plus épais dés la première semaine. L’IA était associée à une surexpression de collagène α-SMA (un marqueur de myofibroblastes), TGF-β1 et MMP-2 dans le tissu valvulaire dès la première semaine. Les valves exposées à l’IA étaient également positives pour ces différents facteurs dés les premiers jours. L’agrandissement de la VM est un phénomène actif qui survient rapidement après la création de l’IA, en parallèle de la dilatation du VG. La stimulation de cette croissance dans d’autres pathologies pourrait contribuer à prévenir l’IM fonctionnelle.
Resumo:
Les éléments des ponts en acier sont exposés à de sévères conditions environnementales, tel l’épandage de sels déglaçant sur les routes. Ces éléments ont besoin d’un niveau suffisant de protection contre la corrosion afin de préserver leur intégrité à long terme. Une solution efficace, devenue populaire au Canada, est la métallisation. La métallisation est un revêtement anticorrosion formé par projection thermique de métal, généralement du zinc, sur la surface à protéger. La protection fournie au substrat d’acier est assurée par une barrière physique et une protection galvanique. Pour le calcul des assemblages boulonnés antiglissement, les codes de conception, tel le code Canadien sur le calcul des ponts routiers CAN/CSA S6-14, spécifient, en fonction des conditions des surfaces de contact désirées, un coefficient de glissement à utiliser. Actuellement, ces codes ne fournissent aucun coefficient de glissement entre deux surfaces métallisées. Donc, il est pratique courante pour les fabricants de ponts en acier de masquer les surfaces de contact des joints boulonnés avant de métalliser, ce qui est très couteux pour l’industrie puisque ce travail doit se faire manuellement. Récemment, des études ont évalué la résistance au glissement à court terme d’assemblages antiglissement ayant des surfaces de contact métallisées. Les résultats ont révélé une résistance au glissement supérieure aux assemblages sur acier nu grenaillés. Dans la présente recherche, la performance en fluage des assemblages antiglissement métallisés a été caractérisée pour s’assurer qu’une résistance en glissement de Classe B soit toujours valide à long terme. L’effet de la relaxation de la force de serrage sur la charge de glissement a aussi été évalué. Les résultats ont démontré une bonne performance en fluage. Aussi, les résultats ont révélé que la relaxation de la force de serrage n’a pas d’impact significatif sur la résistance au glissement des assemblages antiglissement métallisés. Les conclusions de cette étude pourraient bien influencer de futures révisions des codes de conception et avoir un impact sur l’industrie de l’acier en Amérique du Nord.Mots clés : Assemblage boulonné antiglissement, métallisation, pont routier en acier, fluage, relaxation
Resumo:
Depuis vingt-cinq ans, le Québec a connu dans le monde de l'éducation un nombre assez impressionnant de changements, de réformes, de mises au point et de renouvellements de programme. Du rapport Parent à l'école québécoise, notre système éducatif a vécu toutes sortes de situations qui nous ont conduits à une structure éducationnelle plus cohérente, plus apte à répondre à la majorité des besoins des citoyens et de la société. Cependant, les années 1968-1976 ont vu se développer un système d'éducation parallèle créant tout un réseau à double voie : la voie régulière et la voie de l'exceptionnel. Le rapport Celdic et le rapport Copex sont venus ébranler cette structure à double voie et les intervenants dans le monde de l'éducation ont refait une partie des devoirs élaborés è l'occasion du rapport Parent. La Commission Scolaire Régionale Blainville Deux-Montagnes n'a pas vécu à l'écart de ces changements et elle est actuellement tributaire de deux voies parallèles dans son système d'éducation. Elle refait également ses devoirs et étudie présentement la possibilité d'intégrer dans ses classes régulières les élèves qui présentent des difficultés d'adaptation et d'apprentissage et qui ont été exclus des classes régulières pour être placés sur ce que plusieurs appellent une voie d’évitement. L'intégration est devenue le sujet d'étude des comités d'école, du comité de parents et des diverses tables de gestion de la commission scolaire, tant celle des écoles que celle des divers services. En tant qu'administrateur dans une des polyvalentes de cette commission scolaire, j'aurai à prendre part aux discussions et aux études qui seront faites et j'aurai, également, à participer aux diverses prises de décisions qu'entraînera cette opération. [...]