992 resultados para Méthode des cibles obscures
Resumo:
L’ionomycine est un ionophore produit par la bactérie gram-positive streptomyces conglobatus. Sa synthèse représente un défi, car il possède plusieurs centres chiraux dans un motif polypropylène. De plus, la grande densité d’oxygène sur celui-ci oblige l’utilisation de plusieurs protections orthogonales. Notre stratégie divise l’ionomycine en quatre fragments, trois possédant le motif polypropylène, ainsi qu’un quatrième, bis-tétrahydrofuranne. Les trois premiers sont synthétisés en utilisant une méthodologie puissante développée dans le laboratoire du Pr Spino, qui utilise l’addition d’alkylcyanocuprates sur les carbonates allyliques dérivés de la menthone. Celle-ci permet l’introduction d’une unité propylène, avec un excellent contrôle du centre chiral introduit. Cette méthode est utilisée de manière itérative, afin d’introduire plusieurs unités propylènes. De plus, notre stratégie est hautement convergente, puisque des intermédiaires des fragments plus courts servent de produit de départ pour la synthèse des fragments plus longs. Le dernier fragment, bis-tétrahydrofuranne, a été fabriqué à partir de l’acétate de géranyle, par une polycyclisation d’un diépoxyde chiral, les époxydes ayant été introduits par une époxydation de Shi. Cette synthèse, si complétée, serait la plus courte publiée, avec 24 étapes pour la séquence linéaire la plus longue (51 au total).
Resumo:
Résumé : En raison de sa grande étendue, le Nord canadien présente plusieurs défis logistiques pour une exploitation rentable de ses ressources minérales. La TéléCartographie Prédictive (TCP) vise à faciliter la localisation de gisements en produisant des cartes du potentiel géologique. Des données altimétriques sont nécessaires pour générer ces cartes. Or, celles actuellement disponibles au nord du 60e parallèle ne sont pas optimales principalement parce qu’elles sont dérivés de courbes à équidistance variable et avec une valeur au mètre. Parallèlement, il est essentiel de connaître l'exactitude verticale des données altimétriques pour être en mesure de les utiliser adéquatement, en considérant les contraintes liées à son exactitude. Le projet présenté vise à aborder ces deux problématiques afin d'améliorer la qualité des données altimétriques et contribuer à raffiner la cartographie prédictive réalisée par TCP dans le Nord canadien, pour une zone d’étude située au Territoire du Nord-Ouest. Le premier objectif était de produire des points de contrôles permettant une évaluation précise de l'exactitude verticale des données altimétriques. Le second objectif était de produire un modèle altimétrique amélioré pour la zone d'étude. Le mémoire présente d'abord une méthode de filtrage pour des données Global Land and Surface Altimetry Data (GLA14) de la mission ICESat (Ice, Cloud and land Elevation SATellite). Le filtrage est basé sur l'application d'une série d'indicateurs calculés à partir d’informations disponibles dans les données GLA14 et des conditions du terrain. Ces indicateurs permettent d'éliminer les points d'élévation potentiellement contaminés. Les points sont donc filtrés en fonction de la qualité de l’attitude calculée, de la saturation du signal, du bruit d'équipement, des conditions atmosphériques, de la pente et du nombre d'échos. Ensuite, le document décrit une méthode de production de Modèles Numériques de Surfaces (MNS) améliorés, par stéréoradargrammétrie (SRG) avec Radarsat-2 (RS-2). La première partie de la méthodologie adoptée consiste à faire la stéréorestitution des MNS à partir de paires d'images RS-2, sans point de contrôle. L'exactitude des MNS préliminaires ainsi produits est calculée à partir des points de contrôles issus du filtrage des données GLA14 et analysée en fonction des combinaisons d’angles d'incidences utilisées pour la stéréorestitution. Ensuite, des sélections de MNS préliminaires sont assemblées afin de produire 5 MNS couvrant chacun la zone d'étude en totalité. Ces MNS sont analysés afin d'identifier la sélection optimale pour la zone d'intérêt. Les indicateurs sélectionnés pour la méthode de filtrage ont pu être validés comme performant et complémentaires, à l’exception de l’indicateur basé sur le ratio signal/bruit puisqu’il était redondant avec l’indicateur basé sur le gain. Autrement, chaque indicateur a permis de filtrer des points de manière exclusive. La méthode de filtrage a permis de réduire de 19% l'erreur quadratique moyenne sur l'élévation, lorsque que comparée aux Données d'Élévation Numérique du Canada (DNEC). Malgré un taux de rejet de 69% suite au filtrage, la densité initiale des données GLA14 a permis de conserver une distribution spatiale homogène. À partir des 136 MNS préliminaires analysés, aucune combinaison d’angles d’incidences des images RS-2 acquises n’a pu être identifiée comme étant idéale pour la SRG, en raison de la grande variabilité des exactitudes verticales. Par contre, l'analyse a indiqué que les images devraient idéalement être acquises à des températures en dessous de 0°C, pour minimiser les disparités radiométriques entre les scènes. Les résultats ont aussi confirmé que la pente est le principal facteur d’influence sur l’exactitude de MNS produits par SRG. La meilleure exactitude verticale, soit 4 m, a été atteinte par l’assemblage de configurations de même direction de visées. Par contre, les configurations de visées opposées, en plus de produire une exactitude du même ordre (5 m), ont permis de réduire le nombre d’images utilisées de 30%, par rapport au nombre d'images acquises initialement. Par conséquent, l'utilisation d'images de visées opposées pourrait permettre d’augmenter l’efficacité de réalisation de projets de SRG en diminuant la période d’acquisition. Les données altimétriques produites pourraient à leur tour contribuer à améliorer les résultats de la TCP, et augmenter la performance de l’industrie minière canadienne et finalement, améliorer la qualité de vie des citoyens du Nord du Canada.
Resumo:
Les systèmes de communication optique avec des formats de modulation avancés sont actuellement l’un des sujets de recherche les plus importants dans le domaine de communication optique. Cette recherche est stimulée par les exigences pour des débits de transmission de donnée plus élevés. Dans cette thèse, on examinera les techniques efficaces pour la modulation avancée avec une détection cohérente, et multiplexage par répartition en fréquence orthogonale (OFDM) et multiples tonalités discrètes (DMT) pour la détection directe et la détection cohérente afin d’améliorer la performance de réseaux optiques. Dans la première partie, nous examinons la rétropropagation avec filtre numérique (DFBP) comme une simple technique d’atténuation de nonlinéarité d’amplificateur optique semiconducteur (SOA) dans le système de détection cohérente. Pour la première fois, nous démontrons expérimentalement l’efficacité de DFBP pour compenser les nonlinéarités générées par SOA dans un système de détection cohérente porteur unique 16-QAM. Nous comparons la performance de DFBP avec la méthode de Runge-Kutta quatrième ordre. Nous examinons la sensibilité de performance de DFBP par rapport à ses paramètres. Par la suite, nous proposons une nouvelle méthode d’estimation de paramètre pour DFBP. Finalement, nous démontrons la transmission de signaux de 16-QAM aux taux de 22 Gbaud sur 80km de fibre optique avec la technique d’estimation de paramètre proposée pour DFBP. Dans la deuxième partie, nous nous concentrons sur les techniques afin d’améliorer la performance des systèmes OFDM optiques en examinent OFDM optiques cohérente (CO-OFDM) ainsi que OFDM optiques détection directe (DDO-OFDM). Premièrement, nous proposons une combinaison de coupure et prédistorsion pour compenser les distorsions nonlinéaires d’émetteur de CO-OFDM. Nous utilisons une interpolation linéaire par morceaux (PLI) pour charactériser la nonlinéarité d’émetteur. Dans l’émetteur nous utilisons l’inverse de l’estimation de PLI pour compenser les nonlinéarités induites à l’émetteur de CO-OFDM. Deuxièmement, nous concevons des constellations irrégulières optimisées pour les systèmes DDO-OFDM courte distance en considérant deux modèles de bruit de canal. Nous démontrons expérimentalement 100Gb/s+ OFDM/DMT avec la détection directe en utilisant les constellations QAM optimisées. Dans la troisième partie, nous proposons une architecture réseaux optiques passifs (PON) avec DDO-OFDM pour la liaison descendante et CO-OFDM pour la liaison montante. Nous examinons deux scénarios pour l’allocations de fréquence et le format de modulation des signaux. Nous identifions la détérioration limitante principale du PON bidirectionnelle et offrons des solutions pour minimiser ses effets.
Resumo:
Abstract : The structural build-up of fresh cement-based materials has a great impact on their structural performance after casting. Accordingly, the mixture design should be tailored to adapt the kinetics of build-up given the application on hand. The rate of structural build-up of cement-based suspensions at rest is a complex phenomenon affected by both physical and chemical structuration processes. The structuration kinetics are strongly dependent on the mixture’s composition, testing parameters, as well as the shear history. Accurate measurements of build-up rely on the efficiency of the applied pre-shear regime to achieve an initial well-dispersed state as well as the applied stress during the liquid-solid transition. Studying the physical and chemical mechanisms of build-up of cement suspensions at rest can enhance the fundamental understanding of this phenomenon. This can, therefore, allow a better control of the rheological and time-dependent properties of cement-based materials. The research focused on the use of dynamic rheology in investigating the kinetics of structural build-up of fresh cement pastes. The research program was conducted in three different phases. The first phase was devoted to evaluating the dispersing efficiency of various disruptive shear techniques. The investigated shearing profiles included rotational, oscillatory, and combination of both. The initial and final states of suspension’s structure, before and after disruption, were determined by applying a small-amplitude oscillatory shear (SAOS). The difference between the viscoelastic values before and after disruption was used to express the degree of dispersion. An efficient technique to disperse concentrated cement suspensions was developed. The second phase aimed to establish a rheometric approach to dissociate and monitor the individual physical and chemical mechanisms of build-up of cement paste. In this regard, the non-destructive dynamic rheometry was used to investigate the evolutions of both storage modulus and phase angle of inert calcium carbonate and cement suspensions. Two independent build-up indices were proposed. The structural build-up of various cement suspensions made with different cement contents, silica fume replacement percentages, and high-range water reducer dosages was evaluated using the proposed indices. These indices were then compared to the well-known thixotropic index (Athix.). Furthermore, the proposed indices were correlated to the decay in lateral pressure determined for various cement pastes cast in a pressure column. The proposed pre-shearing protocol and build-up indices (phases 1 and 2) were then used to investigate the effect of mixture’s parameters on the kinetics of structural build-up in phase 3. The investigated mixture’s parameters included cement content and fineness, alkali sulfate content, and temperature of cement suspension. Zeta potential, calorimetric, spectrometric measurements were performed to explore the corresponding microstructural changes in cement suspensions, such as inter-particle cohesion, rate of Brownian flocculation, and nucleation rate. A model linking the build-up indices and the microstructural characteristics was developed to predict the build-up behaviour of cement-based suspensions The obtained results showed that oscillatory shear may have a greater effect on dispersing concentrated cement suspension than the rotational shear. Furthermore, the increase in induced shear strain was found to enhance the breakdown of suspension’s structure until a critical point, after which thickening effects dominate. An effective dispersing method is then proposed. This consists of applying a rotational shear around the transitional value between the linear and non-linear variations of the apparent viscosity with shear rate, followed by an oscillatory shear at the crossover shear strain and high angular frequency of 100 rad/s. Investigating the evolutions of viscoelastic properties of inert calcite-based and cement suspensions and allowed establishing two independent build-up indices. The first one (the percolation time) can represent the rest time needed to form the elastic network. On the other hand, the second one (rigidification rate) can describe the increase in stress-bearing capacity of formed network due to cement hydration. In addition, results showed that combining the percolation time and the rigidification rate can provide deeper insight into the structuration process of cement suspensions. Furthermore, these indices were found to be well-correlated to the decay in the lateral pressure of cement suspensions. The variations of proposed build-up indices with mixture’s parameters showed that the percolation time is most likely controlled by the frequency of Brownian collisions, distance between dispersed particles, and intensity of cohesion between cement particles. On the other hand, a higher rigidification rate can be secured by increasing the number of contact points per unit volume of paste, nucleation rate of cement hydrates, and intensity of inter-particle cohesion.
Resumo:
Abstract : Images acquired from unmanned aerial vehicles (UAVs) can provide data with unprecedented spatial and temporal resolution for three-dimensional (3D) modeling. Solutions developed for this purpose are mainly operating based on photogrammetry concepts, namely UAV-Photogrammetry Systems (UAV-PS). Such systems are used in applications where both geospatial and visual information of the environment is required. These applications include, but are not limited to, natural resource management such as precision agriculture, military and police-related services such as traffic-law enforcement, precision engineering such as infrastructure inspection, and health services such as epidemic emergency management. UAV-photogrammetry systems can be differentiated based on their spatial characteristics in terms of accuracy and resolution. That is some applications, such as precision engineering, require high-resolution and high-accuracy information of the environment (e.g. 3D modeling with less than one centimeter accuracy and resolution). In other applications, lower levels of accuracy might be sufficient, (e.g. wildlife management needing few decimeters of resolution). However, even in those applications, the specific characteristics of UAV-PSs should be well considered in the steps of both system development and application in order to yield satisfying results. In this regard, this thesis presents a comprehensive review of the applications of unmanned aerial imagery, where the objective was to determine the challenges that remote-sensing applications of UAV systems currently face. This review also allowed recognizing the specific characteristics and requirements of UAV-PSs, which are mostly ignored or not thoroughly assessed in recent studies. Accordingly, the focus of the first part of this thesis is on exploring the methodological and experimental aspects of implementing a UAV-PS. The developed system was extensively evaluated for precise modeling of an open-pit gravel mine and performing volumetric-change measurements. This application was selected for two main reasons. Firstly, this case study provided a challenging environment for 3D modeling, in terms of scale changes, terrain relief variations as well as structure and texture diversities. Secondly, open-pit-mine monitoring demands high levels of accuracy, which justifies our efforts to improve the developed UAV-PS to its maximum capacities. The hardware of the system consisted of an electric-powered helicopter, a high-resolution digital camera, and an inertial navigation system. The software of the system included the in-house programs specifically designed for camera calibration, platform calibration, system integration, onboard data acquisition, flight planning and ground control point (GCP) detection. The detailed features of the system are discussed in the thesis, and solutions are proposed in order to enhance the system and its photogrammetric outputs. The accuracy of the results was evaluated under various mapping conditions, including direct georeferencing and indirect georeferencing with different numbers, distributions and types of ground control points. Additionally, the effects of imaging configuration and network stability on modeling accuracy were assessed. The second part of this thesis concentrates on improving the techniques of sparse and dense reconstruction. The proposed solutions are alternatives to traditional aerial photogrammetry techniques, properly adapted to specific characteristics of unmanned, low-altitude imagery. Firstly, a method was developed for robust sparse matching and epipolar-geometry estimation. The main achievement of this method was its capacity to handle a very high percentage of outliers (errors among corresponding points) with remarkable computational efficiency (compared to the state-of-the-art techniques). Secondly, a block bundle adjustment (BBA) strategy was proposed based on the integration of intrinsic camera calibration parameters as pseudo-observations to Gauss-Helmert model. The principal advantage of this strategy was controlling the adverse effect of unstable imaging networks and noisy image observations on the accuracy of self-calibration. The sparse implementation of this strategy was also performed, which allowed its application to data sets containing a lot of tie points. Finally, the concepts of intrinsic curves were revisited for dense stereo matching. The proposed technique could achieve a high level of accuracy and efficiency by searching only through a small fraction of the whole disparity search space as well as internally handling occlusions and matching ambiguities. These photogrammetric solutions were extensively tested using synthetic data, close-range images and the images acquired from the gravel-pit mine. Achieving absolute 3D mapping accuracy of 11±7 mm illustrated the success of this system for high-precision modeling of the environment.
Resumo:
L’usine Niobec traite un minerai de pyrochlore porteur de niobium pour produire le ferro-niobium utilisé pour la fabrication d’acier. L’usine récupère environ 60% des minéraux de niobium. Les rejets contiennent du niobium et d’autres espèces minérales potentiellement valorisables. Les travaux présentés dans ce mémoire visent à identifier les espèces pouvant être valorisées dans les rejets de Niobec dont les plus prometteurs sont les éléments de terres rares, les minéraux de niobium et l’apatite. Dans le but de concentrer l’apatite des rejets de l’usine, une analyse chimique des rejets a permis de cibler comme flux d’intérêt les particules de dimension supérieure à 0,038mm dans le concentré de carbonates et les rejets du circuit de flottation du pyrochlore. La méthode utilisée pour valoriser les phosphates est la flottation. Les meilleurs résultats ont été obtenus par flottation directe des minéraux de phosphate du concentré de carbonates dans les rejets de Niobec. Le collecteur utilisé est un acide gras de type AERO 6493 avec un mélange d’amidon de tapioca et de NaOH utilisé comme déprimant pour les carbonates. Ces conditions ont permis de produire un concentré d’apatite titrant entre 30 à 32 % P2O5 avec un rendement de 50 à 60% du P2O5 contenue dans le concentré de carbonates. La teneur en MgO dans le concentré d’apatite est comprise entre 3 et 4% comparativement à 15% dans l’alimentation. Puisque le MgO est principalement associé à la dolomie ces résultats confirment une bonne dépression de ce minéral lors de la flottation de l’apatite du concentré de carbonates. La flottation de l’apatite à partir des rejets du pyrochlore n’a pas permis d’obtenir un concentré de valeur commerciale. Le meilleur résultat obtenu lors des essais de flottation sur les rejets pyrochlore correspond à une teneur de 14%avec un rendement de 53% P2O5. Les résultats obtenus montrent toutefois le potentiel associé à la récupération des minéraux de phosphates et justifient la poursuite des travaux, cette fois, moins exploratoires que les travaux rapportés dans ce mémoire.
Resumo:
Étant donné l'étroitesse du marché canadien, la compagnie BHF Recherche de Bromptonville envisage d'aborder le plus tôt possible le marché américain. Le but de ce travail était donc de prendre certaines décisions de base et d'établir un cadre de travail théorique et une méthodologie qui permettent d'orienter efficacement la planification et l'exécution de ce projet de vente à l'étranger. Compte tenu de la position géographique de BHF, de ses moyens financiers et de la concentration des populations, le Nord-Est des États-Unis et plus particulièrement le Massachusetts semble être l'état idéal pour débuter les activités américaines. Avant d'attaquer cet état, BHF devra amasser des données lui permettant de mieux cerner la taille du marché, son degré de permissivité aux nouveaux produits et son fonctionnement (processus décisionnel quant à l'achat). Certaines améliorations techniques seraient profitables pour contrer la présence de quatre principaux concurrents, dont le MultiRanger Plus qui domine effrontément le marché. Comme BHF désire concentrer ses efforts sur la recherche et le développement, elle devra confier les tâches de distribution et de promotion à un intermédiaire. Ce dernier devra être sélectionné en tenant compte de sa réputation dans le milieu et du temps qu'il peut consacrer à la vente du Vérificateur. Les barrières tarifaires sont relativement restreintes pour le Vérificateur puisque les douanes américaines ne représentent qu'environ 5% du prix de vente de l'appareil. Ce prix fixé à 5 500$ US permet de dégager une marge bénéficiaire de 71,7%, et ce en excluant la commission de l'intermédiaire et les frais de promotion. Ces derniers sont heureusement partagés avec l'agent-distributeur et seront orientés vers deux pôles: le développement de contacts personnels avec la clientèle par le biais d'évènements spéciaux et la publicité dans les publications spécialisées. L'exportation constituant un projet d'investissement, des sorties de fonds seront nécessaires. Une évaluation primaire permet de chiffrer des besoins annuels variant de 14 000$ à 35 000$ entre 1990 et 1994. Heureusement, le projet pourrait s'autofinancer dès la deuxième année. Quant à la première année, une injection de 15 000$ devrait suffire, ce qui devrait être facilité par une aide gouvernementale au fédéral. Relativement au risque de crédit international habituellement lié à l'exportation, il apparaît que la clientèle des municipalités visées par BHF en soit pratiquement exempte, ce qui évitera le recours au crédit documentaire. Quant à la protection contre le risque de change, sa nécessité ne semble évidente que pour les ventes de plusieurs appareils à la fois, et ce à cause des frais reliés à cette protection.
Resumo:
Alors que la pratique de redresser les états financiers pour les rendre conformes à la méthode de l'impôt exigible semble répandue parmi les analystes financiers, les organismes de normalisation en Amérique du Nord s'attachent à la formule d'application de la méthode du report intégral d'impôt. De son côté, la présente étude vise à contribuer au débat, toujours en cours, entre cette dernière méthode et celle de l'impôt exigible. Conséquemment, la première hypothèse posée est à l'effet que le contenu informationnel de la méthode du report d'impôt intégral et fixe, en vigueur au Canada, est plus grand que celui de la méthode de l'impôt exigible. Selon la deuxième hypothèse, les renseignements sur les écarts temporaires fournis par voie de notes aux états financiers ont un contenu informationnel. Ces deux hypothèses sont testées empiriquement en s'intéressant, plus spécifiquement, aux réactions individuelles d'un échantillon d'utilisateurs d'états financiers, lors d'une expérimentation en laboratoire utilisant un devis intra-groupes. Au total, 152 questionnaires ont été reçus, dont 119 pour les comptables agréés du secteur industriel et affaires de la région de Montréal et 33 pour les membres de l'Association des analystes financiers de Montréal. Les résultats permettent de conclure que la méthode du report d'impôt intégral et fixe implique un contenu informationnel plus grand que la méthode de l'impôt exigible. Toutefois, les renseignements sur les écarts temporaires fournis par voie de notes aux états financiers ne montrent un contenu informationnel, d'une façon statistiquement significative, que pour une des variables dépendantes de l'expérimentation. Globalement, les résultats semblent démontrer la nécessité d'un certain degré de répartition des impôts et indiquer un besoin de renseignements complémentaires sur les écarts temporaires. De plus, on peut raisonnablement avancer que les résultats appuient le SFAS No 109 du FASB, promulgué en 1992 aux États-Unis, exigeant la méthode dite de l'actif et du passif. Les résultats mitigés de l'expérimentation en laboratoire et surtout la diversité des réponses, aux mesures directes explicites et implicites de l'utilisation des informations sur les écarts temporaires, semblent confirmer qu'il y a également une très grande diversité dans la façon de considérer ces dernières informations en pratique. La présente étude soulève plusieurs avenues de recherches dont celle, apparaissant particulièrement prometteuse, sur les écarts temporaires causés par les différences entre l'amortissement comptable et fiscal, mais cette fois-ci, en contexte de décroissance d'une entreprise. On peut donc conclure que la comptabilisation des impôts est loin d'avoir fini de faire couler de l'encre...
Resumo:
Comme les résultats obtenus relativement à la relation entre l'utilisation de la capitalisation et le niveau d'endettement de l'entreprise sont difficiles à généraliser, ils ne permettent pas de conclure à l'existence d'une telle relation. Or, il a été démontré dans la littérature comptable, qu'en absence de normalisation, les entreprises endettées favorisent la méthode de capitalisation. Cela suggère donc que les critères énoncés par l'ICCA limitent le recours à la capitalisation. Les résultats obtenus relativement à la proportion des frais de développement capitalisés suggèrent qu'aucune relation n'existe entre la proportion capitalisée et le niveau d'endettement de l'entreprise. Cela suggère que les critères énoncés limitent le montant des frais de développement capitalisés. Par ailleurs, une association négative a été observée entre le recours à l'imputation et la taille des entreprises. Ce résultat est surprenant car les grandes entreprises sont vraisemblablement fructueuses et ont de bonnes chances de satisfaire les critères énoncés par l'ICCA. Cela suggère que les grandes entreprises se soustraient à l'obligation de capitaliser leurs frais de développement et que cela est vraisemblablement toléré par l'ICCA.
Resumo:
Une méthode optimale pour identifier les zones problématiques de drainage dans les champs de canneberges est d’un intérêt pratique pour les producteurs. Elle peut aider au développement de stratégies visant à améliorer le rendement des cultures. L’objectif de cette étude était de développer une méthodologie non intrusive de diagnostic d’un système de drainage en utilisant l’imagerie du géoradar ou Ground Penetrating Radar (GPR) ayant pour finalité de localiser les zones restrictives au drainage et de lier les scans du GPR à des propriétés du sol. Un système GPR muni d’une antenne monostatique a été utilisé pour acquérir des données dans deux champs de canneberges : un construit sur sol organique et l’autre sur sol minéral. La visualisation en trois dimensions de la stratification du champ a été possible après l’interpolation et l’analyse des faciès. La variabilité spatiale du rendement des cultures et la conductivité hydraulique saturée du sol ont été comparées aux données GPR par deux méthodes : calcul du pourcentage de différence et estimation de l’entropie. La visualisation des données couplée à leur analyse a permis de mettre en évidence la géométrie souterraine et des discontinuités importantes des champs. Les résultats montrent qu’il y a bonne corrélation entre les zones où la couche restrictive est plus superficielle et celle de faible rendement. Le niveau de similarité entre la conductivité hydraulique saturée et la profondeur de la couche restrictive confirme la présence de cette dernière. L’étape suivante a été la reconstruction de l’onde électromagnétique et son ajustement par modélisation inverse. Des informations quantitatives ont été extraites des scans : la permittivité diélectrique, la conductivité électrique et l’épaisseur des strates souterraines. Les permittivités diélectriques modélisées sont concordantes avec celles mesurées in-situ et celles de la littérature. Enfin, en permettant la caractérisation des discontinuités du sous-sol, les zones les plus pertinentes pour l’amélioration du drainage et d’irrigation ont été localisées, afin de maximiser le rendement.
Resumo:
Depuis le début des années '30, nous remarquons un intérêt marqué de la part de certains chercheurs pour explorer la fiabilité et la validité de l'analyse de l'écriture; toutefois, nous constatons que la méthode de la graphologie demeure jusqu'à présent la plus étudiée et la plus répandue. Comme principal champs d'intérêt, ces études n'ont jusqu'alors tenté que de démontrer si l'analyse de l'écriture se voyait un instrument de mesure valide 1). pour la sélection du personnel, 2). comme prédicteur de succès pour un poste donné, ou encore, 3). comme substitut aux tests de personnalité. Cependant, à notre connaissance, aucune recherche scientifique n'a présenté d'étude comparative entre l'analyse de l'écriture (graphoanalyse) et les tests dits d'aptitudes, couramment utilisés par les conseillers et conseillères d'orientation. Le présent essai soulève donc essentiellement cette interrogation: la graphoanalyse peut-elle servir d'instrument de mesure valide comme test d'aptitudes pour les conseillers et conseillères d'orientation? De façon plus précise, nous comparerons la graphoanalyse à la Batterie Générale des Tests d'Aptitudes (B.G.T.A.); test bien connu des conseillers et conseillères d'orientation.
Resumo:
L'école d'hier faisait de la grammaire et de l'analyse un usage prépondérant dans l'apprentissage de la langue. Une longue série de règles appliquées dans des exercices structurés préparait une certaine élite d'étudiants à "faire leurs humanités". Le temps passe, les choses évoluent, la grammaire se transforme. Lorsque nous avons commencé à enseigner au niveau élémentaire, les cours de grammaire et d'analyse ne différaient pas tellement de ceux des générations antérieures. Puis vinrent les années '70. Un programme cadre est instauré. Les maîtres endossent la responsabilité de la méthode utilisée et de son application. Une période d'instabilité se creuse, dont les élèves sont les plus grandes victimes. Nous atteignons la période critique où l'on constate que peu d'enfants maîtrisent leur orthographe d'usage à la fin de leur cours primaire. À qui imputer la faute? Devons-nous revenir à un enseignement systématique de la grammaire? Cette période nous aura permis de constater l'inefficacité de nos leçons traditionnelles en vue d'acquisitions orthographiques chez nos enfants; préférence accordée à l'induction des règles grammaticales usuelles; élimination des connaissances grammaticales inutiles aux besoins immédiats des élèves. Telle Tut notre option en ce qui concerne la grammaire. Mais que dire de l'analyse logique? […]
Resumo:
Ce mémoire s’intéresse à l’étude du critère de validation croisée pour le choix des modèles relatifs aux petits domaines. L’étude est limitée aux modèles de petits domaines au niveau des unités. Le modèle de base des petits domaines est introduit par Battese, Harter et Fuller en 1988. C’est un modèle de régression linéaire mixte avec une ordonnée à l’origine aléatoire. Il se compose d’un certain nombre de paramètres : le paramètre β de la partie fixe, la composante aléatoire et les variances relatives à l’erreur résiduelle. Le modèle de Battese et al. est utilisé pour prédire, lors d’une enquête, la moyenne d’une variable d’intérêt y dans chaque petit domaine en utilisant une variable auxiliaire administrative x connue sur toute la population. La méthode d’estimation consiste à utiliser une distribution normale, pour modéliser la composante résiduelle du modèle. La considération d’une dépendance résiduelle générale, c’est-à-dire autre que la loi normale donne une méthodologie plus flexible. Cette généralisation conduit à une nouvelle classe de modèles échangeables. En effet, la généralisation se situe au niveau de la modélisation de la dépendance résiduelle qui peut être soit normale (c’est le cas du modèle de Battese et al.) ou non-normale. L’objectif est de déterminer les paramètres propres aux petits domaines avec le plus de précision possible. Cet enjeu est lié au choix de la bonne dépendance résiduelle à utiliser dans le modèle. Le critère de validation croisée sera étudié à cet effet.
Resumo:
Dans le contexte où les routes non revêtues sont susceptibles de subir des charges importantes, une méthode rigoureuse pour la conception de ces chaussées basée sur des principes mécanistes-empiriques et sur le comportement mécanique des sols support est souhaitable. La conception mécaniste combinée à des lois d’endommagement permet l’optimisation des structures de chaussées non revêtues ainsi que la réduction des coûts de construction et d’entretien. Le but de ce projet est donc la mise au point d’une méthode de conception mécaniste-empirique adaptée aux chaussées non revêtues. Il a été question tout d’abord de mettre au point un code de calcul pour la détermination des contraintes et des déformations dans la chaussée. Ensuite, des lois d’endommagement empiriques pour les chaussées non revêtues ont été développées. Enfin, les méthodes de calcul ont permis la création d’abaques de conception. Le développement du code de calcul a consisté en une modélisation de la chaussée par un système élastique multi-couches. La modélisation a été faite en utilisant la transformation d’Odemark et les équations de Boussinesq pour le calcul des déformations sous la charge. L’élaboration des fonctions de transfert empiriques adaptées aux chaussées non revêtues a également été effectuée. Le développement des fonctions de transfert s’est fait en deux étapes. Tout d’abord, l’établissement de valeurs seuil d’orniérage considérant des niveaux jugés raisonnables de conditions fonctionnelle et structurale de la chaussée. Ensuite, le développement de critères de déformation admissible en associant les déformations théoriques calculées à l’aide du code de calcul à l’endommagement observé sur plusieurs routes en service. Les essais ont eu lieu sur des chaussées typiques reconstituées en laboratoire et soumises à un chargement répété par simulateur de charge. Les chaussées ont été instrumentées pour mesurer la déformation au sommet du sol d’infrastructure et les taux d’endommagements ont été mesurés au cours des essais.
Resumo:
Dans la Fonction publique, cependant, il existe une certaine forme de maximum mérite depuis la mise en application en 1978 d'une méthode dite par "attentes signifiées". Officiellement, le système sert à établir les hausses annuelles de traitement. En pratique, comme les crédits budgétaires du gouvernement sont limités, une fois les hausses minimales de traitement accordées à tous, il ne reste pas suffisamment d'argent pour rendre significative l'appréciation du rendement des cadres jugés exceptionnels. Si, comme système de rémunération au mérite, tous les experts s'entendent pour dire que le système par attentes signifiées fut un échec, cependant, comme outil de gestion (planification et support à la définition d'objectifs opérationnels), le système a fini peu à peu par réussir une implantation satisfaisante, étant reconnu comme facilitateur de la cohérence organisationnelle grâce à l'énoncé d'objectifs clairs, connus et mesurables. Le secteur de l'Éducation pour sa part utilise une structure de classification et de rémunération de ses cadres reposant principalement sur le niveau d'enseignement dispensé et la clientèle scolaire. Les systèmes d'évaluation du rendement des cadres en place dans les commissions scolaires et les collèges ne servent généralement pas à distinguer les performances des individus aux fins de détermination de l'annualité; ils visent plutôt, comme nous le verrons plus loin, des objectifs de maintien ou d'amélioration du rendement des individus.