942 resultados para Paiement pour les services écosystémiques
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Cette thèse développe des méthodes bootstrap pour les modèles à facteurs qui sont couram- ment utilisés pour générer des prévisions depuis l'article pionnier de Stock et Watson (2002) sur les indices de diffusion. Ces modèles tolèrent l'inclusion d'un grand nombre de variables macroéconomiques et financières comme prédicteurs, une caractéristique utile pour inclure di- verses informations disponibles aux agents économiques. Ma thèse propose donc des outils éco- nométriques qui améliorent l'inférence dans les modèles à facteurs utilisant des facteurs latents extraits d'un large panel de prédicteurs observés. Il est subdivisé en trois chapitres complémen- taires dont les deux premiers en collaboration avec Sílvia Gonçalves et Benoit Perron. Dans le premier article, nous étudions comment les méthodes bootstrap peuvent être utilisées pour faire de l'inférence dans les modèles de prévision pour un horizon de h périodes dans le futur. Pour ce faire, il examine l'inférence bootstrap dans un contexte de régression augmentée de facteurs où les erreurs pourraient être autocorrélées. Il généralise les résultats de Gonçalves et Perron (2014) et propose puis justifie deux approches basées sur les résidus : le block wild bootstrap et le dependent wild bootstrap. Nos simulations montrent une amélioration des taux de couverture des intervalles de confiance des coefficients estimés en utilisant ces approches comparativement à la théorie asymptotique et au wild bootstrap en présence de corrélation sérielle dans les erreurs de régression. Le deuxième chapitre propose des méthodes bootstrap pour la construction des intervalles de prévision permettant de relâcher l'hypothèse de normalité des innovations. Nous y propo- sons des intervalles de prédiction bootstrap pour une observation h périodes dans le futur et sa moyenne conditionnelle. Nous supposons que ces prévisions sont faites en utilisant un ensemble de facteurs extraits d'un large panel de variables. Parce que nous traitons ces facteurs comme latents, nos prévisions dépendent à la fois des facteurs estimés et les coefficients de régres- sion estimés. Sous des conditions de régularité, Bai et Ng (2006) ont proposé la construction d'intervalles asymptotiques sous l'hypothèse de Gaussianité des innovations. Le bootstrap nous permet de relâcher cette hypothèse et de construire des intervalles de prédiction valides sous des hypothèses plus générales. En outre, même en supposant la Gaussianité, le bootstrap conduit à des intervalles plus précis dans les cas où la dimension transversale est relativement faible car il prend en considération le biais de l'estimateur des moindres carrés ordinaires comme le montre une étude récente de Gonçalves et Perron (2014). Dans le troisième chapitre, nous suggérons des procédures de sélection convergentes pour les regressions augmentées de facteurs en échantillons finis. Nous démontrons premièrement que la méthode de validation croisée usuelle est non-convergente mais que sa généralisation, la validation croisée «leave-d-out» sélectionne le plus petit ensemble de facteurs estimés pour l'espace généré par les vraies facteurs. Le deuxième critère dont nous montrons également la validité généralise l'approximation bootstrap de Shao (1996) pour les regressions augmentées de facteurs. Les simulations montrent une amélioration de la probabilité de sélectionner par- cimonieusement les facteurs estimés comparativement aux méthodes de sélection disponibles. L'application empirique revisite la relation entre les facteurs macroéconomiques et financiers, et l'excès de rendement sur le marché boursier américain. Parmi les facteurs estimés à partir d'un large panel de données macroéconomiques et financières des États Unis, les facteurs fortement correlés aux écarts de taux d'intérêt et les facteurs de Fama-French ont un bon pouvoir prédictif pour les excès de rendement.
Resumo:
La description des termes dans les ressources terminologiques traditionnelles se limite à certaines informations, comme le terme (principalement nominal), sa définition et son équivalent dans une langue étrangère. Cette description donne rarement d’autres informations qui peuvent être très utiles pour l’utilisateur, surtout s’il consulte les ressources dans le but d’approfondir ses connaissances dans un domaine de spécialité, maitriser la rédaction professionnelle ou trouver des contextes où le terme recherché est réalisé. Les informations pouvant être utiles dans ce sens comprennent la description de la structure actancielle des termes, des contextes provenant de sources authentiques et l’inclusion d’autres parties du discours comme les verbes. Les verbes et les noms déverbaux, ou les unités terminologiques prédicatives (UTP), souvent ignorés par la terminologie classique, revêtent une grande importance lorsqu’il s’agit d’exprimer une action, un processus ou un évènement. Or, la description de ces unités nécessite un modèle de description terminologique qui rend compte de leurs particularités. Un certain nombre de terminologues (Condamines 1993, Mathieu-Colas 2002, Gross et Mathieu-Colas 2001 et L’Homme 2012, 2015) ont d’ailleurs proposé des modèles de description basés sur différents cadres théoriques. Notre recherche consiste à proposer une méthodologie de description terminologique des UTP de la langue arabe, notamment l’arabe standard moderne (ASM), selon la théorie de la Sémantique des cadres (Frame Semantics) de Fillmore (1976, 1977, 1982, 1985) et son application, le projet FrameNet (Ruppenhofer et al. 2010). Le domaine de spécialité qui nous intéresse est l’informatique. Dans notre recherche, nous nous appuyons sur un corpus recueilli du web et nous nous inspirons d’une ressource terminologique existante, le DiCoInfo (L’Homme 2008), pour compiler notre propre ressource. Nos objectifs se résument comme suit. Premièrement, nous souhaitons jeter les premières bases d’une version en ASM de cette ressource. Cette version a ses propres particularités : 1) nous visons des unités bien spécifiques, à savoir les UTP verbales et déverbales; 2) la méthodologie développée pour la compilation du DiCoInfo original devra être adaptée pour prendre en compte une langue sémitique. Par la suite, nous souhaitons créer une version en cadres de cette ressource, où nous regroupons les UTP dans des cadres sémantiques, en nous inspirant du modèle de FrameNet. À cette ressource, nous ajoutons les UTP anglaises et françaises, puisque cette partie du travail a une portée multilingue. La méthodologie consiste à extraire automatiquement les unités terminologiques verbales et nominales (UTV et UTN), comme Ham~ala (حمل) (télécharger) et taHmiyl (تحميل) (téléchargement). Pour ce faire, nous avons adapté un extracteur automatique existant, TermoStat (Drouin 2004). Ensuite, à l’aide des critères de validation terminologique (L’Homme 2004), nous validons le statut terminologique d’une partie des candidats. Après la validation, nous procédons à la création de fiches terminologiques, à l’aide d’un éditeur XML, pour chaque UTV et UTN retenue. Ces fiches comprennent certains éléments comme la structure actancielle des UTP et jusqu’à vingt contextes annotés. La dernière étape consiste à créer des cadres sémantiques à partir des UTP de l’ASM. Nous associons également des UTP anglaises et françaises en fonction des cadres créés. Cette association a mené à la création d’une ressource terminologique appelée « DiCoInfo : A Framed Version ». Dans cette ressource, les UTP qui partagent les mêmes propriétés sémantiques et structures actancielles sont regroupées dans des cadres sémantiques. Par exemple, le cadre sémantique Product_development regroupe des UTP comme Taw~ara (طور) (développer), to develop et développer. À la suite de ces étapes, nous avons obtenu un total de 106 UTP ASM compilées dans la version en ASM du DiCoInfo et 57 cadres sémantiques associés à ces unités dans la version en cadres du DiCoInfo. Notre recherche montre que l’ASM peut être décrite avec la méthodologie que nous avons mise au point.
Resumo:
Cette thèse concerne la modélisation des interactions fluide-structure et les méthodes numériques qui s’y rattachent. De ce fait, la thèse est divisée en deux parties. La première partie concerne l’étude des interactions fluide-structure par la méthode des domaines fictifs. Dans cette contribution, le fluide est incompressible et laminaire et la structure est considérée rigide, qu’elle soit immobile ou en mouvement. Les outils que nous avons développés comportent la mise en oeuvre d’un algorithme fiable de résolution qui intégrera les deux domaines (fluide et solide) dans une formulation mixte. L’algorithme est basé sur des techniques de raffinement local adaptatif des maillages utilisés permettant de mieux séparer les éléments du milieu fluide de ceux du solide que ce soit en 2D ou en 3D. La seconde partie est l’étude des interactions mécaniques entre une structure flexible et un fluide incompressible. Dans cette contribution, nous proposons et analysons des méthodes numériques partitionnées pour la simulation de phénomènes d’interaction fluide-structure (IFS). Nous avons adopté à cet effet, la méthode dite «arbitrary Lagrangian-Eulerian» (ALE). La résolution fluide est effectuée itérativement à l’aide d’un schéma de type projection et la structure est modélisée par des modèles hyper élastiques en grandes déformations. Nous avons développé de nouvelles méthodes de mouvement de maillages pour aboutir à de grandes déformations de la structure. Enfin, une stratégie de complexification du problème d’IFS a été définie. La modélisation de la turbulence et des écoulements à surfaces libres ont été introduites et couplées à la résolution des équations de Navier-Stokes. Différentes simulations numériques sont présentées pour illustrer l’efficacité et la robustesse de l’algorithme. Les résultats numériques présentés attestent de la validité et l’efficacité des méthodes numériques développées.
Resumo:
Cette thèse est constituée de deux parties : Dans la première partie nous étudions l’existence de solutions périodiques, de periode donnée, et à variations bornées, de l’équation de van der Pol en présence d’impulsions. Nous étudions, en premier, le cas où les impulsions ne dépendent pas de l’état. Ensuite, nous considèrons le cas où les impulsions dépendent de la moyenne de l’état et enfin, nous traitons le cas général où les impulsions dépendent de l’état. La méthode de résolution est basée sur le principe de point fixe de type contraction. Nous nous intéressons ensuite à l’étude d’un problème avec trois points aux limites, associé à certaines équations différentielles impulsives du second ordre. Nous obtenons un premier résultat d’existence de solutions en appliquant le théorème de point fixe de Schaefer. Un deuxième résultat est obtenu en utilisant le théorème de point fixe de Sadovskii. Pour le résultat d’unicité des solutions nous appliquons, enfin, un théorème de point fixe de type contraction. La deuxième partie est consacrée à la justification de la technique de moyennisation dans le cadre des équations différentielles floues. Les conditions sur les données que nous imposons sont moins restrictives que celles de la littérature.
Resumo:
Le bilan de compétences permet à l’adulte de faire le point sur les compétences développées, notamment au fil de sa vie professionnelle, et d’établir un plan d’action qui en tient compte. Au Québec, cet outil intéresse autant les adultes, pour mieux valoriser leurs expériences de travail et les aider dans des décisions d’orientation, que les acteurs du domaine de l’orientation. Cependant, nombreux sont les adultes qui, lorsqu’ils veulent effectuer une démarche de bilan de compétences s’ils en connaissent l’existence, ne savent pas à qui s’adresser. Cet essai vise donc à répondre à la question : Comment le monde de l’orientation fait-il la promotion du bilan de compétences? L’analyse de contenu quantitative et qualitative de 49 sites Web de conseillères et conseillers d’orientation annonçant, dans le cadre de leur pratique privée, offrir le service de bilan de compétences a mené à trois principaux constats. Tout d’abord, non seulement le bilan de compétences n’est pas promu auprès de la population sur les sites Web, mais c’est aussi le cas pour les services d’orientation en général. Ensuite, malgré que peu ou pas de stratégies de communication soient utilisées pour faire la promotion du bilan de compétences, certaines le sont pour la promotion des services de façon générale. Enfin, l’autre constat est la grande variété dans la forme et le contenu des sites Web analysés. Il y a de petits et de grands sites, des modernes et des conventionnels. Certains sont très détaillés, d’autres sont plutôt sommaires.
Resumo:
La compréhension et la modélisation de l’interaction de l’onde électromagnétique avec la neige sont très importantes pour l’application des technologies radars à des domaines tels que l’hydrologie et la climatologie. En plus de dépendre des propriétés de la neige, le signal radar mesuré dépendra aussi des caractéristiques du capteur et du sol. La compréhension et la quantification des différents processus de diffusion du signal dans un couvert nival s’effectuent à travers les théories de diffusions de l’onde électromagnétique. La neige, dans certaines conditions, peut être considérée comme un milieu dense lorsque les particules de glace qui la composent y occupent une fraction volumique considérable. Dans un tel milieu, les processus de diffusion par les particules ne se font plus de façon indépendante, mais de façon cohérente. L’approximation quasi-cristalline pour les milieux denses est une des théories élaborées afin de prendre en compte ces processus de diffusions cohérents. Son apport a été démontré dans de nombreuses études pour des fréquences > 10 GHz où l’épaisseur optique de la neige est importante et où la diffusion de volume est prédominante. Par contre, les capteurs satellitaires radar présentement disponibles utilisent les bandes L (1-2GHz), C (4-8GHz) et X (8-12GHz), à des fréquences principalement en deçà des 10 GHz. L’objectif de la présente étude est d’évaluer l’apport du modèle de diffusion issu de l’approximation quasi-cristalline pour les milieux denses (QCA/DMRT) dans la modélisation de couverts de neige sèches en bandes C et X. L’approche utilisée consiste à comparer la modélisation de couverts de neige sèches sous QCA/DMRT à la modélisation indépendante sous l’approximation de Rayleigh. La zone d’étude consiste en deux sites localisés sur des milieux agricoles, près de Lévis au Québec. Au total 9 champs sont échantillonnés sur les deux sites afin d’effectuer la modélisation. Dans un premier temps, une analyse comparative des paramètres du transfert radiatif entre les deux modèles de diffusion a été effectuée. Pour des paramètres de cohésion inférieurs à 0,15 à des fractions volumiques entre 0,1 et 0,3, le modèle QCA/DMRT présentait des différences par rapport à Rayleigh. Un coefficient de cohésion optimal a ensuite été déterminé pour la modélisation d’un couvert nival en bandes C et X. L’optimisation de ce paramètre a permis de conclure qu’un paramètre de cohésion de 0,1 était optimal pour notre jeu de données. Cette très faible valeur de paramètre de cohésion entraîne une augmentation des coefficients de diffusion et d’extinction pour QCA/DMRT ainsi que des différences avec les paramètres de Rayleigh. Puis, une analyse de l’influence des caractéristiques du couvert nival sur les différentes contributions du signal est réalisée pour les 2 bandes C et X. En bande C, le modèle de Rayleigh permettait de considérer la neige comme étant transparente au signal à des angles d’incidence inférieurs à 35°. Vu l’augmentation de l’extinction du signal sous QCA/DMRT, le signal en provenance du sol est atténué d’au moins 5% sur l’ensemble des angles d’incidence, à de faibles fractions volumiques et fortes tailles de grains de neige, nous empêchant ainsi de considérer la transparence de la neige au signal micro-onde sous QCA/DMRT en bande C. En bande X, l’augmentation significative des coefficients de diffusion par rapport à la bande C, ne nous permet plus d’ignorer l’extinction du signal. La part occupée par la rétrodiffusion de volume peut dans certaines conditions, devenir la part prépondérante dans la rétrodiffusion totale. Pour terminer, les résultats de la modélisation de couverts de neige sous QCA/DMRT sont validés à l’aide de données RADARSAT-2 et TerraSAR-X. Les deux modèles présentaient des rétrodiffusions totales semblables qui concordaient bien avec les données RADARSAT-2 et TerraSAR-X. Pour RADARSAT-2, le RMSE du modèle QCA/DMRT est de 2,52 dB en HH et 2,92 dB en VV et pour Rayleigh il est de 2,64 dB en HH et 3,01 dB en VV. Pour ce qui est de TerraSAR-X, le RMSE du modèle QCA/DMRT allait de 1,88 dB en HH à 2,32 dB en VV et de 2,20 dB en HH à 2,71 dB en VV pour Rayleigh. Les valeurs de rétrodiffusion totales des deux modèles sont assez similaires. Par contre, les principales différences entre les deux modèles sont bien évidentes dans la répartition des différentes contributions de cette rétrodiffusion totale.
Resumo:
Les systèmes de communication optique avec des formats de modulation avancés sont actuellement l’un des sujets de recherche les plus importants dans le domaine de communication optique. Cette recherche est stimulée par les exigences pour des débits de transmission de donnée plus élevés. Dans cette thèse, on examinera les techniques efficaces pour la modulation avancée avec une détection cohérente, et multiplexage par répartition en fréquence orthogonale (OFDM) et multiples tonalités discrètes (DMT) pour la détection directe et la détection cohérente afin d’améliorer la performance de réseaux optiques. Dans la première partie, nous examinons la rétropropagation avec filtre numérique (DFBP) comme une simple technique d’atténuation de nonlinéarité d’amplificateur optique semiconducteur (SOA) dans le système de détection cohérente. Pour la première fois, nous démontrons expérimentalement l’efficacité de DFBP pour compenser les nonlinéarités générées par SOA dans un système de détection cohérente porteur unique 16-QAM. Nous comparons la performance de DFBP avec la méthode de Runge-Kutta quatrième ordre. Nous examinons la sensibilité de performance de DFBP par rapport à ses paramètres. Par la suite, nous proposons une nouvelle méthode d’estimation de paramètre pour DFBP. Finalement, nous démontrons la transmission de signaux de 16-QAM aux taux de 22 Gbaud sur 80km de fibre optique avec la technique d’estimation de paramètre proposée pour DFBP. Dans la deuxième partie, nous nous concentrons sur les techniques afin d’améliorer la performance des systèmes OFDM optiques en examinent OFDM optiques cohérente (CO-OFDM) ainsi que OFDM optiques détection directe (DDO-OFDM). Premièrement, nous proposons une combinaison de coupure et prédistorsion pour compenser les distorsions nonlinéaires d’émetteur de CO-OFDM. Nous utilisons une interpolation linéaire par morceaux (PLI) pour charactériser la nonlinéarité d’émetteur. Dans l’émetteur nous utilisons l’inverse de l’estimation de PLI pour compenser les nonlinéarités induites à l’émetteur de CO-OFDM. Deuxièmement, nous concevons des constellations irrégulières optimisées pour les systèmes DDO-OFDM courte distance en considérant deux modèles de bruit de canal. Nous démontrons expérimentalement 100Gb/s+ OFDM/DMT avec la détection directe en utilisant les constellations QAM optimisées. Dans la troisième partie, nous proposons une architecture réseaux optiques passifs (PON) avec DDO-OFDM pour la liaison descendante et CO-OFDM pour la liaison montante. Nous examinons deux scénarios pour l’allocations de fréquence et le format de modulation des signaux. Nous identifions la détérioration limitante principale du PON bidirectionnelle et offrons des solutions pour minimiser ses effets.
Resumo:
Introduction. Le don d’organes chez la clientèle pédiatrique demeure un domaine peu étudié. Malgré que la population pédiatrique représente moins de 10 % de l’ensemble des donneurs au Québec, il demeure que des donneurs potentiels ne sont pas identifiés et le taux de refus des familles demeure élevé. Les infirmières sont les seules professionnelles constamment au chevet des patients et, selon leurs dires, elles manquent de connaissances sur ce sujet. La formation des infirmières pourrait amener une meilleure connaissance du processus de don d’organes et un meilleur accompagnement des familles dans ce contexte. Par ailleurs, les formations sont peu nombreuses, coûteuses et ne sont pas basées sur une évaluation des besoins de formation identifiés par les infirmières elles-mêmes. Objectifs. Cette recherche avait pour but de développer et d’évaluer une activité de formation continue concernant le don d’organes pédiatrique et destinée aux infirmières de ce domaine de soins. Les objectifs étaient : 1) de décrire les composantes essentielles d’une formation continue concernant le processus de don d’organes, 2) valider ces composantes essentielles auprès des détenteurs d’enjeux, 3) construire une activité de formation basée sur ces composantes, 4) d’évaluer les connaissances et les intérêts avant et après l’activité de formation continue, et 5) d’évaluer la satisfaction des participants après la formation. Méthodologie. Le modèle de Michaud, Dionne et Beaulieu (2007) a servi de cadre conceptuel de la compétence dans cette étude et s’inspire du devis qualitatif évaluatif de 4e génération de Guba et Lincoln (1989). D’abord, pour l’évaluation des besoins, des données quantitatives issues d’un questionnaire préliminaire en ligne, suivi d’un forum de discussion virtuel, furent utilisés. Une activité de formation continue modulaire en ligne fut créée, combinée à un pré-test et post-test. À ce dernier était greffé un questionnaire de satisfaction des participants. Résultats. Au départ, 51 participants contribuèrent à l’établissement des besoins de formation. Pour la formation, 13 infirmières l’ont suivie et ont montré une amélioration de leurs connaissances, notamment au niveau du soutien aux familles et sur le concept de mort cérébrale. Le sentiment augmenté d’auto-efficacité, associé aux ressources internes furent partagés par les participants lors du questionnaire de satisfaction.
Resumo:
Le marché des accumulateurs lithium-ion est en expansion. Cette croissance repose partiellement sur la multiplication des niches d’utilisation et l’amélioration constante de leurs performances. En raison de leur durabilité exceptionnelle, de leur faible coût, de leur haute densité de puissance et de leur fiabilité, les anodes basées sur les titanates de lithium, et plus particulièrement le spinelle Li4Ti5O12, présentent une alternative d’intérêt aux matériaux classiques d’anodes en carbone pour de multiples applications. Leur utilisation sous forme de nanomatériaux permet d’augmenter significativement la puissance disponible par unité de poids. Ces nanomatériaux ne sont typiquement pas contraints dans une direction particulière (nanofils, nanoplaquettes), car ces formes impliquent une tension de surface plus importante et requièrent donc généralement un mécanisme de synthèse dédié. Or, ces nanostructures permettent des réductions supplémentaires dans les dimensions caractéristiques de diffusion et de conduction, maximisant ainsi la puissance disponible, tout en affectant les propriétés habituellement intrinsèques des matériaux. Par ailleurs, les réacteurs continus reposant sur la technologie du plasma thermique inductif constituent une voie de synthèse démontrée afin de générer des volumes importants de matériaux nanostructurés. Il s’avère donc pertinent d’évaluer leur potentiel dans la production de titanates de lithium nanostructurés. La pureté des titanates de lithium est difficile à jauger. Les techniques de quantification habituelles reposent sur la fluorescence ou la diffraction en rayons X, auxquelles le lithium élémentaire se prête peu ou pas. Afin de quantifier les nombreuses phases (Li4Ti5O12, Li2Ti3O7, Li2TiO3, TiO2, Li2CO3) identifiées dans les échantillons produits par plasma, un raffinement de Rietveld fut développé et validé. La présence de γ-Li2TiO3 fut identifiée, et la calorimétrie en balayage différentiel fut explorée comme outil permettant d’identifier et de quantifier la présence de β-Li2TiO3. Différentes proportions entre les phases produites et différents types de morphologies furent observés en fonction des conditions d’opération du plasma. Ainsi, des conditions de trempe réductrice et d’ensemencement en Li4Ti5O12 nanométrique semblent favoriser l’émergence de nanomorphologies en nanofils (associés à Li4Ti5O12) et en nanoplaquette (associées à Li2TiO3). De plus, l’ensemencement et les recuits augmentèrent significativement le rendement en la phase spinelle Li4Ti5O12 recherchée. Les recuits sur les poudres synthétisées par plasma indiquèrent que la décomposition du Li2Ti3O7 produit du Li4Ti5O12, du Li2TiO3 et du TiO2 (rutile). Afin d’approfondir l’investigation de ces réactions de décomposition, les paramètres cristallins du Li2Ti3O7 et du γ-Li2TiO3 furent définis à haute température. Des mesures continues en diffraction en rayon X à haute température furent réalisées lors de recuits de poudres synthétisées par plasma, ainsi que sur des mélanges de TiO2 anatase et de Li2CO3. Celles-ci indiquent la production d’un intermédiaire Li2Ti3O7 à partir de l’anatase et du carbonate, sa décomposition en Li4Ti5O12 et TiO2 (rutile) sur toute la plage de température étudiée, et en Li2TiO3 et TiO2 (rutile) à des températures inférieures à 700°C.
Resumo:
L'objectif de cet essai est donc de recenser les divers facteurs favorables et nuisibles à l'implantation de programmes de pairs aidant auprès des élèves des écoles secondaires, ainsi que les impacts de ces programmes qui sont mentionnés dans la documentation. Cette recension permettra aux psychoéducateurs ou aux autres intervenants scolaires désireux d'implanter un tel programme, de maximiser le processus d'implantation à entreprendre ainsi que les effets souhaités.
Resumo:
Récemment, beaucoup d’efforts ont été investis afin de développer des modulateurs sur silicium pour les télécommunications optiques et leurs domaines d’applications. Ces modulateurs sont utiles pour les centres de données à courte portée et à haut débit. Ainsi, ce travail porte sur la caractérisation de deux types de modulateurs à réseau de Bragg intégré sur silicium comportant une jonction PN entrelacée dont le but est de réaliser une modulation de la longueur d’onde de Bragg par le biais de l’application d’un tension de polarisation inverse réalisant une déplétion des porteurs au sein du guide d’onde. Pour le premier modulateur à réseau de Bragg, la période de la jonction PN est différente de celle du réseau de Bragg tandis que le deuxième modulateur à réseau de Bragg a la période de sa jonction PN en accord avec celle du réseau de Bragg. Ces différences apporteront un comportement différent du modulateur impliquant donc une transmission de données de qualité différente et c’est ce que nous cherchons à caractériser. L’avantage de ce modulateur à réseau de Bragg est qu’il est relativement simple à designer et possède un réseau de Bragg uniforme dont on connaît déjà très bien les caractéristiques. La première étape dans la caractérisation de ces modulateurs fut de réaliser des mesures optiques, uniquement, afin de constater la réponse spectrale en réflexion et en transmission. Par la suite, nous sommes passé par l’approche usuelle, c’est à dire en réalisant des mesures DC sur les modulateurs. Ce mémoire montre également les résultats pratiques sur le comportement des électrodes et de la jonction PN. Mais il rend compte également des résultats de la transmission de données de ces modulateurs par l’utilisation d’une modulation OOK et PAM-4 et permet de mettre en évidence les différences en terme d’efficacité de modulation de ces deux modulateurs. Nous discutons alors de la pertinence de ce choix de design par rapport à ce que l’on peut trouver actuellement dans la littérature.
Resumo:
Nous voilà rendus à l'aube du troisième millénaire. Que de changements se sont produits depuis la révolution industrielle. Selon plusieurs auteurs cités par Defrenne et Delvaux (1990), nous sommes maintenant arrivés à la société postindustrielle que certains appellent la société super-industrielle, la post-civilisation, la société technétronique, la société technicisée et, pour Defrenne et Delvaux (1990), il s'agit de la société de l'incertitude. Pour eux, elle est une réplique du chaos planétaire où l'organisation se fait, se défait et se refait, jamais tout à fait semblable. Il nous apparaît important de définir ce que nous entendons par "organisation". Il s'agit d'un «groupement, association en général d'une certaine ampleur, qui se propose des buts déterminés» (Dictionnaire Petit Larousse, 1993) comme les organisations privées, publiques et para-publiques. Dans les organisations, ce véritable chaos se traduit par des processus de restructuration où l'on accorde souvent davantage d'importance à l'organisation et ses structures, et ce au détriment des individus qui y travaillent. Il en résulte une perte du potentiel des travailleurs, ce qui occasionne un déficit au plan des ressources humaines dont on ne soupçonne pas les conséquences pour l'organisation et les individus. Les propos qu'entretiennent les deux auteurs sont assez éloquents à ce sujet: «Les points de repères disparaissent sans être remplacés par d'autres, imprévus et imprévisibles, ils s'avèrent impuissants à faire face au changement, dont les composantes non gérées deviennent synonymes de facteurs de désordre. C'est pourquoi l'univers professionnel et la vulnérabilité des travailleurs reproduisent la fragilité de l'organisation. Ce désordre se traduit à l'intérieur des entreprises par des vécus désadaptatifs et des conduites dysfonctionnelles, de tous genres au travail. Ils entraînent des coûts psychologiques, sociaux, financiers et économiques importants. Ils peuvent aller jusqu'à ruiner les politiques, les stratégies et détruire l'image de l'organisation. À l'extérieur, les faits divers rapportent des incidents qui témoignent de fautes de gestion ou de spéculations douteuses, dévoilent les carences en matière d'intervention efficace, placent l'ensemble des entreprises dans un environnement mouvant et mutant par rapport auquel elles sont sommées de se réajuster perpétuellement.» (Defrenne et Delvaux 1990, p. 23) Cette société de l'incertitude, que nous décrivent ces deux auteurs, n'est pas sans conséquences pour les différents acteurs des organisations face à de futurs scénarios multiples, irréversibles et imprévisibles, engendrant des coûts dont on ne peut soupçonner l'ampleur. Devant de tels changements, la plupart des travailleurs vivront des transitions au cours de leur vie personnelle et professionnelle. Le conseiller d'orientation, un travailleur faisant partie de ce monde en mutation, est lui aussi touché. Il voit sa pratique se modifier, ses champs d'intervention traditionnelle se transforment peu à peu et d'autres commencent à s'ouvrir. À la différence de bien des travailleurs, le conseiller d'orientation possède des compétences et des connaissances qui lui seront très utiles dans un tel contexte de changement. En outre, il pourra les mettre au service des organisations aux prises avec de nouveaux besoins organisationnels engendrés par la société postindustrielle. Comme il devient impératif de tenir compte de plus en plus des besoins de l'individu dans une nouvelle gestion des ressources humaines, on ne doit pas seulement gérer les effectifs mais l'on doit également les développer et les mobiliser autour d'objectifs communs que sont ceux de l'organisation et des individus. Pour en arriver à mobiliser les travailleurs et les gestionnaires autour d'une même vision de l'organisation, certaines pratiques dans la gestion des ressources humaines doivent être renouvelées et appuyées par des programmes de développement de carrière, de formation de la main-d'oeuvre, d'aide aux transitions personnelles et professionnelles et par le développement des politiques de gestion des ressources humaines. Un grand défi demeure pour les organisations: comment faire face à de tels changements qui affectent à la fois la culture de l'organisation, les politiques, les méthodes de travail, les relations entre les travailleurs et le personnel cadre. Tout se bouscule pour eux à une vitesse qui est hors de contrôle, d'où l'importance pour les dirigeants de s'ouvrir à de nouvelles formes de gestion et de s'entourer de professionnels spécialisés dans les problématiques de l'individu au travail. La présente étude vise à tracer le portrait de la situation actuelle au Québec concernant la pratique des conseillers d'orientation dans les organisations. Ce document se divise en trois parties. Dans un premier temps, vous prendrez connaissance au chapitre 1 de la problématique dans laquelle vous retrouverez des informations concernant l'historique et l'évolution de la profession de conseiller d'orientation au coeur des transformations du marché du travail. Au chapitre 2, nous abordons la méthodologie utilisée pour la réalisation de cette enquête. Au chapitre 3, nous terminons enfin par l'analyse des résultats et l'interprétation. Cette consultation menée auprès des conseillers pratiquant dans les organisations, à titre soit d'employé, soit de consultant, nous a permis de recueillir plusieurs données concernant leurs caractéristiques, leurs pratiques et leurs besoins. Pour terminer, nous vous faisons part de nos conclusions.
Resumo:
La métaphore-interaction est présentée comme point de jonction entre la science et la théologie ou plus concrètement entre le scientifique et le monde religieux. La dimension analogique des modèles et des théories montre bien la place de la métaphore dans le discours scientifique. À l’instar de la réalité amoureuse, esthétique et poétique, la réalité religieuse ne peut être dite qu’en utilisant des symboles et des métaphores. Cette étude comparée montre également qu’un glissement de la métaphore vers une lecture littérale ou absolue entraîne une déviation herméneutique qui généralement ferme toute accès vers la nouveauté donc vers la vérité ineffable. Pour éviter cette absolutisation et cette dogmatisation, nous affirmons qu’il faut conserver aux mythes et aux métaphores religieuses leur polysémanticité et donc refuser de les réduire à un sens unique, univoque et bien défini de la lecture littérale. Nous espérons par cette mise au point, que des scientifiques et des habitants de la culture scientifique contemporaine en rupture avec les croyances chrétiennes, pourront trouver dans la théopoésie un nouveau paradigme permettant de ouvrir un nouveau dialogue avec l’univers religieux.
Resumo:
Dans la Fonction publique, cependant, il existe une certaine forme de maximum mérite depuis la mise en application en 1978 d'une méthode dite par "attentes signifiées". Officiellement, le système sert à établir les hausses annuelles de traitement. En pratique, comme les crédits budgétaires du gouvernement sont limités, une fois les hausses minimales de traitement accordées à tous, il ne reste pas suffisamment d'argent pour rendre significative l'appréciation du rendement des cadres jugés exceptionnels. Si, comme système de rémunération au mérite, tous les experts s'entendent pour dire que le système par attentes signifiées fut un échec, cependant, comme outil de gestion (planification et support à la définition d'objectifs opérationnels), le système a fini peu à peu par réussir une implantation satisfaisante, étant reconnu comme facilitateur de la cohérence organisationnelle grâce à l'énoncé d'objectifs clairs, connus et mesurables. Le secteur de l'Éducation pour sa part utilise une structure de classification et de rémunération de ses cadres reposant principalement sur le niveau d'enseignement dispensé et la clientèle scolaire. Les systèmes d'évaluation du rendement des cadres en place dans les commissions scolaires et les collèges ne servent généralement pas à distinguer les performances des individus aux fins de détermination de l'annualité; ils visent plutôt, comme nous le verrons plus loin, des objectifs de maintien ou d'amélioration du rendement des individus.