998 resultados para Organisation des États Américains (OEA)
Resumo:
La présente thèse vise à évaluer le degré d’implantation et d’utilisation de systèmes de mesure de la performance (SMP) par les décideurs des organisations de réadaptation et à comprendre les facteurs contextuels ayant influencé leur implantation. Pour ce faire, une étude de cas multiples a été réalisée comprenant deux sources de données: des entrevues individuelles avec des cadres supérieurs des organisations de réadaptation du Québec et des documents organisationnels. Le cadre conceptuel Consolidated Framework for Implementation Research a été utilisé pour guider la collecte et l’analyse des données. Une analyse intra-cas ainsi qu’une analyse inter-cas ont été réalisées. Nos résultats montrent que le niveau de préparation organisationnelle à l’implantation d’un SMP était élevé et que les SMP ont été implantés avec succès et utilisés de plusieurs façons. Les organisations les ont utilisés de façon passive (comme outil d’information), de façon ciblée (pour tenter d’améliorer des domaines sous-performants) et de façon politique (comme outil de négociation auprès des autorités gouvernementales). Cette utilisation diversifiée des SMP est suscitée par l’interaction complexe de facteurs provenant du contexte interne propre à chaque organisation, des caractéristiques du SMP, du processus d’implantation appliqué et du contexte externe dans lequel évoluent ces organisations. Au niveau du contexte interne, l’engagement continu et le leadership de la haute direction ont été décisifs dans l’implantation du SMP de par leur influence sur l’identification du besoin d’un SMP, l’engagement des utilisateurs visés dans le projet, la priorité organisationnelle accordée au SMP ainsi que les ressources octroyées à son implantation, la qualité des communications et le climat d’apprentissage organisationnel. Toutefois, même si certains de ces facteurs, comme les ressources octroyées à l’implantation, la priorité organisationnelle du SMP et le climat d’apprentissage se sont révélés être des barrières à l’implantation, ultimement, ces barrières n’étaient pas suffisamment importantes pour entraver l’utilisation du SMP. Cette étude a également confirmé l’importance des caractéristiques du SMP, particulièrement la perception de qualité et d’utilité de l’information. Cependant, à elles seules, ces caractéristiques sont insuffisantes pour assurer le succès d’implantation. Cette analyse d’implantation a également révélé que, même si le processus d’implantation ne suit pas des étapes formelles, un plan de développement du SMP, la participation et l’engagement des décideurs ainsi que la désignation d’un responsable de projet ont tous facilité son implantation. Cependant, l’absence d’évaluation et de réflexion collective sur le processus d’implantation a limité le potentiel d’apprentissage organisationnel, un prérequis à l’amélioration de la performance. Quant au contexte externe, le soutien d’un organisme externe s’est avéré un facilitateur indispensable pour favoriser l’implantation de SMP par les organisations de réadaptation malgré l’absence de politiques et incitatifs gouvernementaux à cet effet. Cette étude contribue à accroître les connaissances sur les facteurs contextuels ainsi que sur leurs interactions dans l’utilisation d’innovations tels les SMP et confirme l’importance d’aborder l’analyse de l’implantation avec une perspective systémique.
Resumo:
Depuis une vingtaine d’années, les systèmes d’enseignement de très nombreux pays sont engagés dans des transformations profondes de leurs politiques éducatives. D’une part, on assiste progressivement à une globalisation et à une européanisation des politiques éducatives. Si elles restent formellement définies par les États, ces dernières sont de plus en plus enchâssées dans des procédures de mise en comparaison de leurs résultats (via par exemple les classements des pays produits par l’enquête Pisa de l’OCDE ; Lingard/Rawolle/Taylor, 2005 ; Mangez/Cattonar, 2009) et dans des procédures de coordination de leurs objectifs. Ainsi en Europe, les ministres de l’éducation des États-membres, avec l’aide de la Commission européenne, se sont mis d’accord sur un “Cadre européen Éducation et formation tout au long de la vie” (CEEFTLV)1. Les objectifs sont formulés en s’appuyant sur la définition d’indicateurs et de niveaux de référence de ces indicateurs (benchmark) que chaque pays s’engage à essayer d’atteindre. Les objectifs opérationnels sont formulés sous forme de “chiffres” de référence. Comme l’avance Ozga (2009), on gouverne par les “nombres”. Cette construction progressive d’un “espace européen de l’éducation” s’opère notamment par la mise en place de dispositifs de “coordination” basés sur ces outils (Lawn/Grek, 2012).
Resumo:
Les ouvrages de transport d’électricité ont d’abord été pensés un par un, reliant un excédent de production à un besoin de consommation. Ils ont ainsi parfois très naturellement et dès l’origine traversé les frontières des États pour répondre à leur raison d’être. Les secteurs électriques se structurant fortement lorsque le virage électrique fut pris, les interconnexions entre pays furent conçues par les techniciens comme une mesure élémentaire de sûreté et d’équilibre de ce produit atypique qu’est l’électricité. En France plus particulièrement, lorsque la production électronucléaire se développa à partir des années 1970, ces interconnexions devinrent petit à petit sources de revenus pour l’entreprise nationale, et d’équilibre pour la balance commerciale nationale. L’intérêt grandissant porté au secteur électrique par les institutions européennes à la fin des années 1990 vient ébranler les acteurs économiques géographiques verticaux, et rebat les cartes des enjeux à adresser à une maille plus large que l’État nation. Dans ces transformations successives, les interconnexions aux frontières, et particulièrement aux frontières françaises, jouent ainsi un rôle tout à fait spécifique et de plus en plus structurant pour les économies ouvertes des pays européens. Les réseaux de transport électriques continuent ainsi une mutation entamée dans les années 1970 qui les a conduits de la condition de mal nécessaire à celle de vecteurs indispensables de transformation des économies européennes. L’objet de ce mémoire est d’illustrer la très grande capacité d’adaptation de ces organes industriels, économiques, sociétaux et politiques, dont on pourrait faussement penser qu’ils sont immobilisés par leur nature capitalistique, à travers les enjeux portés par les interconnexions aux frontières françaises. Les sources sont à la fois issues de données des opérateurs techniques, de la documentation – encore peu fréquente – sur ces sujets, ainsi que des statistiques officielles du ministère français. Cette capacité d’innovation et de développement de « couches de services » permet aujourd’hui aux grands réseaux de transport de traverser les époques et la variabilité des orientations de leurs environnements, durablement.
Resumo:
Cette thèse étudie la façon dont trois romans latino-canadiens utilisent le trope de l’exil comme allégorie d’un trauma historique qui comprend plus que l’expérience individuelle de ses protagonistes : la transition forcée de l’État vers le Marché en Amérique latine effectuée par les dictatures. Cobro revertido (1992) de José Leandro Urbina; Le pavillon des miroirs (1994) Sergio Kokis; et Rojo, amarillo y verde (2003) de Alejandro Saravia, explorent divers aspects de ce processus à travers les exercices de mémoire de leurs personnages. L’exil oblige les protagonistes de ces oeuvres à se confronter aux limites des structures sémiotiques par lesquelles ils essaient de donner un fondement idéologique à leur existence sociale. Ils découvrent ainsi qu’il n’est pas possible de reproduire des hiérarchies, des valeurs, ni des relations de pouvoir de leur pays d’origine dans leur pays d’accueil, non seulement à cause des différences culturelles, mais aussi à cause d’un changement historique qui concerne la relation du sujet avec la collectivité et le territoire. Ces œuvres abordent l’expérience de ce changement par un dialogue avec différents genres littéraires comme le roman de fondation, la méta-fiction historique du Boom, le roman de formation et le testimonio, mis en relation avec divers moments historiques, de la période nationale-populaire aux transitions, en passant par les dictatures. Cela permet aux auteurs de réfléchir aux mécanismes narratifs que plusieurs œuvres latino-américaines du XXème siècle ont utilisé pour construire et naturaliser des subjectivités favorables aux projets hégémoniques des États nationaux. Ces exercices méta-narratifs comprennent le rôle de l’écriture comme support privilégié pour l’articulation d’une identité avec le type de communauté imaginaire qu’est la nation. Ils servent aussi à signaler les limites de l’écriture dans le moment actuel du développement technologique des médias et de l’expansion du capitalisme transnational. Ainsi, les auteurs de ces œuvres cherchent d’autres formes de représentation pour rendre visibles les traces d’autres histoires qui n’ont pas pu être incorporées dans le discours historique officiel.
Resumo:
Depuis une vingtaine d’années, les systèmes d’enseignement de très nombreux pays sont engagés dans des transformations profondes de leurs politiques éducatives. D’une part, on assiste progressivement à une globalisation et à une européanisation des politiques éducatives. Si elles restent formellement définies par les États, ces dernières sont de plus en plus enchâssées dans des procédures de mise en comparaison de leurs résultats (via par exemple les classements des pays produits par l’enquête Pisa de l’OCDE ; Lingard/Rawolle/Taylor, 2005 ; Mangez/Cattonar, 2009) et dans des procédures de coordination de leurs objectifs. Ainsi en Europe, les ministres de l’éducation des États-membres, avec l’aide de la Commission européenne, se sont mis d’accord sur un “Cadre européen Éducation et formation tout au long de la vie” (CEEFTLV)1. Les objectifs sont formulés en s’appuyant sur la définition d’indicateurs et de niveaux de référence de ces indicateurs (benchmark) que chaque pays s’engage à essayer d’atteindre. Les objectifs opérationnels sont formulés sous forme de “chiffres” de référence. Comme l’avance Ozga (2009), on gouverne par les “nombres”. Cette construction progressive d’un “espace européen de l’éducation” s’opère notamment par la mise en place de dispositifs de “coordination” basés sur ces outils (Lawn/Grek, 2012).
Resumo:
Cette thèse examine l’interprétation et l’application, par l’Haute Cour d'Israël (HCJ), de principes du droit international de l’occupation et du droit international des droits de la personne dans le traitement de requêtes judiciaires formulées par des justiciables palestiniens. Elle s’intéresse plus particulièrement aux jugements rendus depuis le déclenchement de la deuxième Intifada (2000) suite à des requêtes mettant en cause la légalité des mesures adoptées par les autorités israéliennes au nom d’un besoin prétendu d’accroitre la sécurité des colonies et des colons israéliens dans le territoire occupé de la Cisjordanie. La première question sous étude concerne la mesure dans laquelle la Cour offre un recours effectif aux demandeurs palestiniens face aux violations alléguées de leurs droits internationaux par l’occupant. La recherche fait sienne la position de la HJC selon laquelle le droit de l’occupation est guidé par une logique interne tenant compte de la balance des intérêts en cause, en l’occurrence le besoin de sécurité de l’occupant, d’une part, et les droits fondamentaux de l’occupé, d’autre part. Elle considère, en outre, que cette logique se voit reflétée dans les principes normatifs constituant la base de ce corpus juridique, soit que l’occupation est par sa nature temporaire, que de l’occupation découle un rapport de fiduciaire et, finalement, que l’occupant n’acquiert point de souveraineté sur le territoire. Ainsi, la deuxième question qui est posée est de savoir si l’interprétation du droit par la Cour (HCJ) a eu pour effet de promouvoir ces principes normatifs ou, au contraire, de leur porter préjudice. La réunion de plusieurs facteurs, à savoir la durée prolongée de l’occupation de la Cisjordanie par Israël, la menace accrue à la sécurité depuis 2000 ainsi qu’une politique de colonisation israélienne active, soutenue par l’État, présentent un cas de figure unique pour vérifier l’hypothèse selon laquelle les tribunaux nationaux des États démocratiques, généralement, et ceux jouant le rôle de la plus haute instance judiciaire d’une puissance occupante, spécifiquement, parviennent à assurer la protection des droits et libertés fondamentaux et de la primauté du droit au niveau international. Le premier chapitre présente une étude, à la lumière du premier principe normatif énoncé ci-haut, des jugements rendus par la HCJ dans les dossiers contestant la légalité de la construction du mur à l’intérieur de la Cisjordanie et de la zone dite fermée (Seam Zone), ainsi que des zones de sécurité spéciales entourant les colonies. Le deuxième chapitre analyse, cette fois à la lumière du deuxième principe normatif, des jugements dans les dossiers mettant en cause des restrictions sur les déplacements imposées aux Palestiniens dans le but allégué de protéger la sécurité des colonies et/ou des colons. Le troisième chapitre jette un regard sur les jugements rendus dans les dossiers mettant en cause la légalité du tracé du mur à l’intérieur et sur le pourtour du territoire annexé de Jérusalem-Est. Les conclusions découlant de cette recherche se fondent sur des données tirées d’entrevues menées auprès d’avocats israéliens qui s’adressent régulièrement à la HCJ pour le compte de justiciables palestiniens.
Resumo:
Cette thèse développe des méthodes bootstrap pour les modèles à facteurs qui sont couram- ment utilisés pour générer des prévisions depuis l'article pionnier de Stock et Watson (2002) sur les indices de diffusion. Ces modèles tolèrent l'inclusion d'un grand nombre de variables macroéconomiques et financières comme prédicteurs, une caractéristique utile pour inclure di- verses informations disponibles aux agents économiques. Ma thèse propose donc des outils éco- nométriques qui améliorent l'inférence dans les modèles à facteurs utilisant des facteurs latents extraits d'un large panel de prédicteurs observés. Il est subdivisé en trois chapitres complémen- taires dont les deux premiers en collaboration avec Sílvia Gonçalves et Benoit Perron. Dans le premier article, nous étudions comment les méthodes bootstrap peuvent être utilisées pour faire de l'inférence dans les modèles de prévision pour un horizon de h périodes dans le futur. Pour ce faire, il examine l'inférence bootstrap dans un contexte de régression augmentée de facteurs où les erreurs pourraient être autocorrélées. Il généralise les résultats de Gonçalves et Perron (2014) et propose puis justifie deux approches basées sur les résidus : le block wild bootstrap et le dependent wild bootstrap. Nos simulations montrent une amélioration des taux de couverture des intervalles de confiance des coefficients estimés en utilisant ces approches comparativement à la théorie asymptotique et au wild bootstrap en présence de corrélation sérielle dans les erreurs de régression. Le deuxième chapitre propose des méthodes bootstrap pour la construction des intervalles de prévision permettant de relâcher l'hypothèse de normalité des innovations. Nous y propo- sons des intervalles de prédiction bootstrap pour une observation h périodes dans le futur et sa moyenne conditionnelle. Nous supposons que ces prévisions sont faites en utilisant un ensemble de facteurs extraits d'un large panel de variables. Parce que nous traitons ces facteurs comme latents, nos prévisions dépendent à la fois des facteurs estimés et les coefficients de régres- sion estimés. Sous des conditions de régularité, Bai et Ng (2006) ont proposé la construction d'intervalles asymptotiques sous l'hypothèse de Gaussianité des innovations. Le bootstrap nous permet de relâcher cette hypothèse et de construire des intervalles de prédiction valides sous des hypothèses plus générales. En outre, même en supposant la Gaussianité, le bootstrap conduit à des intervalles plus précis dans les cas où la dimension transversale est relativement faible car il prend en considération le biais de l'estimateur des moindres carrés ordinaires comme le montre une étude récente de Gonçalves et Perron (2014). Dans le troisième chapitre, nous suggérons des procédures de sélection convergentes pour les regressions augmentées de facteurs en échantillons finis. Nous démontrons premièrement que la méthode de validation croisée usuelle est non-convergente mais que sa généralisation, la validation croisée «leave-d-out» sélectionne le plus petit ensemble de facteurs estimés pour l'espace généré par les vraies facteurs. Le deuxième critère dont nous montrons également la validité généralise l'approximation bootstrap de Shao (1996) pour les regressions augmentées de facteurs. Les simulations montrent une amélioration de la probabilité de sélectionner par- cimonieusement les facteurs estimés comparativement aux méthodes de sélection disponibles. L'application empirique revisite la relation entre les facteurs macroéconomiques et financiers, et l'excès de rendement sur le marché boursier américain. Parmi les facteurs estimés à partir d'un large panel de données macroéconomiques et financières des États Unis, les facteurs fortement correlés aux écarts de taux d'intérêt et les facteurs de Fama-French ont un bon pouvoir prédictif pour les excès de rendement.
Resumo:
La vallée du fleuve Saint-Laurent, dans l’est du Canada, est l’une des régions sismiques les plus actives dans l’est de l’Amérique du Nord et est caractérisée par de nombreux tremblements de terre intraplaques. Après la rotation rigide de la plaque tectonique, l’ajustement isostatique glaciaire est de loin la plus grande source de signal géophysique dans l’est du Canada. Les déformations et les vitesses de déformation de la croûte terrestre de cette région ont été étudiées en utilisant plus de 14 ans d’observations (9 ans en moyenne) de 112 stations GPS fonctionnant en continu. Le champ de vitesse a été obtenu à partir de séries temporelles de coordonnées GPS quotidiennes nettoyées en appliquant un modèle combiné utilisant une pondération par moindres carrés. Les vitesses ont été estimées avec des modèles de bruit qui incluent les corrélations temporelles des séries temporelles des coordonnées tridimensionnelles. Le champ de vitesse horizontale montre la rotation antihoraire de la plaque nord-américaine avec une vitesse moyenne de 16,8±0,7 mm/an dans un modèle sans rotation nette (no-net-rotation) par rapport à l’ITRF2008. Le champ de vitesse verticale confirme un soulèvement dû à l’ajustement isostatique glaciaire partout dans l’est du Canada avec un taux maximal de 13,7±1,2 mm/an et un affaissement vers le sud, principalement au nord des États-Unis, avec un taux typique de −1 à −2 mm/an et un taux minimum de −2,7±1,4 mm/an. Le comportement du bruit des séries temporelles des coordonnées GPS tridimensionnelles a été analysé en utilisant une analyse spectrale et la méthode du maximum de vraisemblance pour tester cinq modèles de bruit: loi de puissance; bruit blanc; bruit blanc et bruit de scintillation; bruit blanc et marche aléatoire; bruit blanc, bruit de scintillation et marche aléatoire. Les résultats montrent que la combinaison bruit blanc et bruit de scintillation est le meilleur modèle pour décrire la partie stochastique des séries temporelles. Les amplitudes de tous les modèles de bruit sont plus faibles dans la direction nord et plus grandes dans la direction verticale. Les amplitudes du bruit blanc sont à peu près égales à travers la zone d’étude et sont donc surpassées, dans toutes les directions, par le bruit de scintillation et de marche aléatoire. Le modèle de bruit de scintillation augmente l’incertitude des vitesses estimées par un facteur de 5 à 38 par rapport au modèle de bruit blanc. Les vitesses estimées de tous les modèles de bruit sont statistiquement cohérentes. Les paramètres estimés du pôle eulérien de rotation pour cette région sont légèrement, mais significativement, différents de la rotation globale de la plaque nord-américaine. Cette différence reflète potentiellement les contraintes locales dans cette région sismique et les contraintes causées par la différence des vitesses intraplaques entre les deux rives du fleuve Saint-Laurent. La déformation de la croûte terrestre de la région a été étudiée en utilisant la méthode de collocation par moindres carrés. Les vitesses horizontales interpolées montrent un mouvement cohérent spatialement: soit un mouvement radial vers l’extérieur pour les centres de soulèvement maximal au nord et un mouvement radial vers l’intérieur pour les centres d’affaissement maximal au sud, avec une vitesse typique de 1 à 1,6±0,4 mm/an. Cependant, ce modèle devient plus complexe près des marges des anciennes zones glaciaires. Basées selon leurs directions, les vitesses horizontales intraplaques peuvent être divisées en trois zones distinctes. Cela confirme les conclusions d’autres chercheurs sur l’existence de trois dômes de glace dans la région d’étude avant le dernier maximum glaciaire. Une corrélation spatiale est observée entre les zones de vitesses horizontales intraplaques de magnitude plus élevée et les zones sismiques le long du fleuve Saint-Laurent. Les vitesses verticales ont ensuite été interpolées pour modéliser la déformation verticale. Le modèle montre un taux de soulèvement maximal de 15,6 mm/an au sud-est de la baie d’Hudson et un taux d’affaissement typique de 1 à 2 mm/an au sud, principalement dans le nord des États-Unis. Le long du fleuve Saint-Laurent, les mouvements horizontaux et verticaux sont cohérents spatialement. Il y a un déplacement vers le sud-est d’une magnitude d’environ 1,3 mm/an et un soulèvement moyen de 3,1 mm/an par rapport à la plaque l’Amérique du Nord. Le taux de déformation verticale est d’environ 2,4 fois plus grand que le taux de déformation horizontale intraplaque. Les résultats de l’analyse de déformation montrent l’état actuel de déformation dans l’est du Canada sous la forme d’une expansion dans la partie nord (la zone se soulève) et d’une compression dans la partie sud (la zone s’affaisse). Les taux de rotation sont en moyenne de 0,011°/Ma. Nous avons observé une compression NNO-SSE avec un taux de 3.6 à 8.1 nstrain/an dans la zone sismique du Bas-Saint-Laurent. Dans la zone sismique de Charlevoix, une expansion avec un taux de 3,0 à 7,1 nstrain/an est orientée ENE-OSO. Dans la zone sismique de l’Ouest du Québec, la déformation a un mécanisme de cisaillement avec un taux de compression de 1,0 à 5,1 nstrain/an et un taux d’expansion de 1.6 à 4.1 nstrain/an. Ces mesures sont conformes, au premier ordre, avec les modèles d’ajustement isostatique glaciaire et avec la contrainte de compression horizontale maximale du projet World Stress Map, obtenue à partir de la théorie des mécanismes focaux (focal mechanism method).
Resumo:
Vers la fin des années 1990 et au début des années 2000, l’idée que l’ARN puisse interagir directement avec de petits métabolites pour contrôler l’expression de certains gènes devient de plus en plus acceptée. Des recherches menées à cette époque ont permis la découverte de plusieurs structures d’ARN hautement conservées nommées riborégulateurs. La structure de ces ARN leur permet de reconnaître spécifiquement un ligand. La reconnaissance du ligand entraîne ensuite un changement de conformation dans l’ARN responsable du contrôle de l’expression génétique. Le but de cette thèse est d’étudier la structure et les changements de conformation du riborégulateur associé au gène add liant l’adénine chez Vibrio vulnificus. Ce riborégulateur étant relativement simple, les informations recueillies lors de cette étude pourront servir à comprendre le fonctionnement de riborégulateurs plus complexes. Dans l’introduction, la découverte des riborégulateurs sera décrite en plus des caractéristiques particulières et de l’importance de ces ARN. Par la suite, quelques exemples démontrant l’importance des structures d’ARN seront abordés. Ensuite, les techniques de fluorescence utilisées pour étudier les structures d’ARN au cours de cette thèse seront présentées. Enfin, les recherches effectuées sur les riborégulateurs adénine seront détaillées afin d’aider le lecteur à bien comprendre le type de riborégulateur au centre de cette thèse. Le chapitre 1 traite du repliement de l’aptamère suite à la liaison avec l’adénine. Dans ce chapitre, il est démontré que l’aptamère peut adopter trois conformations. Une modification de la séquence de l’aptamère de type sauvage a permis d’isoler ces trois conformations. Il a ensuite été possible d’identifier les caractéristiques propres à chacun des états. Le chapitre 2 s’intéresse à une région précise du riborégulateur adénine. Dans ce chapitre, la conformation du cœur de l’aptamère est étudiée plus en profondeur. Il y est possible de constater que le repliement du cœur de l’aptamère influence l’interaction boucle-boucle en présence de magnésium et de ligand. De plus, la présence de ligand, en concentration suffisante, permet le repliement du cœur et favorise le rapprochement des tiges P2 et P3 dans un aptamère muté pour empêcher la formation de l’interaction boucle-boucle. Il semble donc que le repliement du cœur de l’aptamère influence la structure globale de l’aptamère. Finalement, les travaux présentés dans les chapitres 1 et 2 seront mis en contexte avec la littérature scientifique disponible. Cette discussion tentera de réconcilier certaines observations contradictoires. Il sera ensuite question de l’impact que les travaux présentés dans cette thèse peuvent avoir dans le domaine de l’ARN. Enfin, quelques études à réaliser en continuité avec ces travaux seront proposées.
Resumo:
Cette thèse présente les étapes de fabrication et les résultats de la caractérisation des modèles de tissu biologique fabriqués en utilisant des cristaux liquides et des polymères qui permettent de contrôler la diffusion et la transmission de la lumière par un champ électrique. Ce champ électrique entraîne un changement d’orientation des molécules de cristaux liquides, ce qui induit des variations locales de l’indice de réfraction dans ces matériaux. Nous avons utilisé ce contrôle de l’indice de réfraction pour contrôler le niveau de diffusion et de transmission dans différents types d’échantillons. Les échantillons utilisés sont faits a) de cristaux liquides purs, b) de sphères de polymère dans un environnement de cristaux liquides, c) de cristaux liquides ou de gouttelettes de cristaux liquides dans un environnement de polymère. Les travaux réalisés nous ont permis de proposer une méthode électro-optique pour simuler, à l’aide de cristaux liquides, des milieux diffusants tels que les tissus biologiques. Dans la recherche de modèles, nous avons montré qu’il est possible de contrôler, par la fréquence du champ électrique, des gouttelettes de cristaux liquides dispersées dans une matrice de polymère contenant des ions lithium. Une sensibilité sélective à la fréquence de la tension électrique appliquée en fonction de la taille des gouttelettes est observée. Par la suite, nous avons démontré l’effet de « quenching » interférentiel de la diffusion pour une sonde optique cohérente en étudiant des modèles non alignés (clustérisés) de cristaux liquides. Nous avons aussi démontré des applications potentielles de ce phénomène tel le filtrage en longueur d’onde par l’ajustement d’un champ électrique. Nous avons ensuite démontré que l’utilisation des cristaux liquides - dits « dual-frequency » - permet une modulation rapide des états ou des structures du matériau ainsi que de la transmission et de la diffusion de lumière de ce dernier. Enfin, nous avons aussi découvert que ces modèles peuvent être contrôlés pour retrouver le degré de polarisation de la lumière diffusée.
Resumo:
L’objet de cette thèse est la « Responsabilité de protéger » (RdP), son émergence et les processus de légitimation qui ont contribué à son acceptation dans les arènes de la politique globale. Le principe d’une intervention militaire à des fins humanitaires gagne en légitimité dans les années 1990, bien qu’il soit marqué par d’intenses polémiques dans la pratique. Les situations de conflits où les civils sont brutalement persécutés et les interventions demandées et organisées pour y répondre sont maintenant largement justifiées dans les termes de la RdP. Est donc apparu d’abord un changement normatif. Ce changement s’est cristallisé dans le rapport de la Commission internationale sur l’intervention et la souveraineté des États (CIISE) qui a forgé l’expression « responsabilité de protéger ». Le point de départ ici est cependant que la RdP marque un changement discursif dans la manière de parler et de justifier ces pratiques. Je montre comment les termes de la RdP en sont venus à être ceux qui dégagent le plus large consensus autour de la question de l’intervention à des fins humanitaires. La thèse centrale de cette recherche est que le relatif succès de la RdP tient au fait que les architectes de la CIISE et les entrepreneurs de la RdP ont déployé un sens pratique aiguisé du champ de la politique globale. Le procédé principal employé est de mettre en lumière les processus de légitimation activement mis en oeuvre pour stimuler ce changement discursif. J’avance que les agents ont su placer la RdP, et par extension le principe de l’intervention à des fins humanitaires, dans le domaine du non problématique en déployant un langage et des pratiques vus comme ne posant pas problème. Concrètement, il s’est agi de choisir les agents à qui serait accordée la reconnaissance de parler, mais qui seraient aussi en mesure de proposer une solution d’une manière considérée comme légitime dans les arènes de la politique globale. Traquer les processus de légitimation est un procédé analytique qui permet de comprendre le succès de la RdP, mais qui révèle également des éléments fondamentaux du fonctionnement formel et informel de la politique globale.
Resumo:
Étant donné l'étroitesse du marché canadien, la compagnie BHF Recherche de Bromptonville envisage d'aborder le plus tôt possible le marché américain. Le but de ce travail était donc de prendre certaines décisions de base et d'établir un cadre de travail théorique et une méthodologie qui permettent d'orienter efficacement la planification et l'exécution de ce projet de vente à l'étranger. Compte tenu de la position géographique de BHF, de ses moyens financiers et de la concentration des populations, le Nord-Est des États-Unis et plus particulièrement le Massachusetts semble être l'état idéal pour débuter les activités américaines. Avant d'attaquer cet état, BHF devra amasser des données lui permettant de mieux cerner la taille du marché, son degré de permissivité aux nouveaux produits et son fonctionnement (processus décisionnel quant à l'achat). Certaines améliorations techniques seraient profitables pour contrer la présence de quatre principaux concurrents, dont le MultiRanger Plus qui domine effrontément le marché. Comme BHF désire concentrer ses efforts sur la recherche et le développement, elle devra confier les tâches de distribution et de promotion à un intermédiaire. Ce dernier devra être sélectionné en tenant compte de sa réputation dans le milieu et du temps qu'il peut consacrer à la vente du Vérificateur. Les barrières tarifaires sont relativement restreintes pour le Vérificateur puisque les douanes américaines ne représentent qu'environ 5% du prix de vente de l'appareil. Ce prix fixé à 5 500$ US permet de dégager une marge bénéficiaire de 71,7%, et ce en excluant la commission de l'intermédiaire et les frais de promotion. Ces derniers sont heureusement partagés avec l'agent-distributeur et seront orientés vers deux pôles: le développement de contacts personnels avec la clientèle par le biais d'évènements spéciaux et la publicité dans les publications spécialisées. L'exportation constituant un projet d'investissement, des sorties de fonds seront nécessaires. Une évaluation primaire permet de chiffrer des besoins annuels variant de 14 000$ à 35 000$ entre 1990 et 1994. Heureusement, le projet pourrait s'autofinancer dès la deuxième année. Quant à la première année, une injection de 15 000$ devrait suffire, ce qui devrait être facilité par une aide gouvernementale au fédéral. Relativement au risque de crédit international habituellement lié à l'exportation, il apparaît que la clientèle des municipalités visées par BHF en soit pratiquement exempte, ce qui évitera le recours au crédit documentaire. Quant à la protection contre le risque de change, sa nécessité ne semble évidente que pour les ventes de plusieurs appareils à la fois, et ce à cause des frais reliés à cette protection.
Resumo:
Les espèces végétales exotiques peuvent devenir envahissantes une fois naturalisées sur un nouveau territoire. La méthode de lutte la plus efficace étant la prévention, il est primordial de pouvoir prédire à l’avance si une nouvelle espèce introduite deviendra envahissante. Afin d’en arriver à un outil d’aide à la décision facile d’utilisation, il importe de développer des modèles plus simples, ayant peut-être un pouvoir explicatif moins grand, mais qui seront par contre plus faciles à comprendre et à utiliser. Il est possible de simplifier un modèle en utilisant moins de variables mais en les choisissant mieux, sur une base théorique. Le but de ce mémoire est donc de tester la force de la relation liant l’aire de répartition d’origine eurasiatique avec l’abondance et l’étendue de l’aire de répartition d’introduction en Amérique du Nord. La variable explicative principale, l’aire de répartition d’origine eurasiatique, a été utilisée avec deux autres covariables, soit le temps de résidence sur le continent nord-américain et le cycle de vie des espèces afin de bâtir un modèle statistique. Ce dernier a été testé à deux échelles géographiques, soit à l’échelle d’un pays entier, les États-Unis, et à une échelle plus régionale. L’utilisation de spécimens d’herbier et d’autres sources de données disponibles en ligne a permis de construire une base de données comportant un grand nombre d’espèces (N = 481). Les modèles ont révélé qu’avec peu de variables explicatives, il est possible d’expliquer une proportion importante du phénomène d’envahissement et d’abondance (> 40 %) dans certaines régions des États-Unis. Cette recherche contribue au développement d’un outil d’aide à la décision simple et démontre qu’il est possible d’expliquer une partie importante le phénomène d’abondance et d’étendue des espèces exotiques grâce à des données disponibles et à un petit nombre de variables bien sélectionnées.
Resumo:
Le monde du travail est en constante évolution : changement rapide des nouvelles technologies, mondialisation, bureaucratisation, restructurations organisationnelles, etc. Les pratiques en orientation scolaire et professionnelle se doivent donc d'être adaptées à ces nouvelles réalités. «Ce qui auparavant s'avérait comme une aide à la définition du parcours scolaire s'est complexifiée pour devenir une aide à construire des compétences qui permettront à l'individu de s'orienter dans un contexte d'incertitude et de s'adapter constamment à de nouvelles réalités.» (Ordre professionnel des conseillers et conseillères d'orientation du Québec, 1997, p. 7). La situation des jeunes en matière d'orientation révèle de nombreux besoins non comblés, plus particulièrement au secondaire où plusieurs phénomènes démontrent l'importance de ces besoins : nombre alarmant d'échecs et d'abandons de cours, décrochage scolaire, démotivation, nombreuses réorientations et indécision vocationnelle. «Au cours des dix dernières années, nous observons une augmentation constante des difficultés d'orientation vécues par les jeunes et ce, tant en ce qui concerne la fréquence que le degré de complexité des difficultés.» (Landry, 1995, p. 21). Malgré l'importance des besoins en orientation, les services actuellement offerts dans les écoles secondaires présentent certaines lacunes. Le programme d'éducation au choix de carrière recueille peu d'intérêt chez les jeunes, les services d'orientation et d'informations scolaires et professionnelles sont insuffisants et la relation entre l'école et le marché du travail n'est pas assez évidente. Une réflexion sur les services d'orientation et d'information scolaires et professionnelles offerts dans les écoles secondaires est donc nécessaire. C'est en ce sens que la Commission des états généraux sur l’éducation s'est penchée sur cette question en 1995. L'une des principales conclusions issues de ces travaux était que «Les acteurs du milieu scolaire voudraient que la fonction d'orientation soit reconnue comme faisant partie de la mission éducative, que toute l'école soit orientante par les cheminements et les activités qu'elle offre et que chacun et chacune s'en occupe.» (tiré de Moisan, 2000, p. 23). À la suite de la tenue de ces travaux et d'autres études ou consultations publiques, une réforme scolaire a été amorcée au Québec. Entre autres, cette réforme inclut le concept d'approche orientante qui favorise l'intégration de l'orientation à l'ensemble des activités de l'école. Dès à présent et au cours des prochaines années, nos institutions scolaires devront donc incorporer un contenu d'ordre vocationnel à leur projet éducatif. Selon cette perspective, les activités instaurées par les écoles pourront être de divers ordres compte tenu de la clientèle desservie, des problématiques rencontrées et des ressources disponibles. Cependant, toutes ces activités devront faire l'objet d'une évaluation afin de répondre aux exigences du ministère de l’éducation. De quelle manière est-il possible d'évaluer l'approche orientante? C'est la question à laquelle nous nous attardons dans le cadre de cet essai. La réforme de l'éducation sera d'abord expliquée selon son historique, son contenu et ses modalités d'actualisation et d'évaluation. Par la suite, l'approche orientante ainsi que des conceptions théoriques connexes (éducation à la carrière et développement de carrière) seront abordées. Les éléments recueillis grâce à une recension d'écrits en lien avec ces concepts seront finalement analysés afin de mettre en lumière différentes façons d'évaluer l'approche orientante.
Resumo:
C'est au début du siècle que la médecine, la psychiatrie et la psychologie commencent à s'intéresser à l'éducation des enfants déficients. Les travaux de Binet et Simon publiés entre 1900 et 1910, de même que ceux de Spearman (1927), contribuent à établir une mesure de l'intelligence tandis que Montessori (1900) met sur pied une pédagogie pour l'enfant déficient. Plus récemment certains organismes se sont préoccupés du problème de la déficience mentale. L'Organisation des Nations Unies adoptait, le 20 décembre 1971, la déclaration des droits généraux et particuliers des déficients mentaux. Cette déclaration, rapportée à l'Appendice A, mentionne que le déficient mental doit, dans la mesure du possible, jouir des mêmes droits que toute autre personne. Plus près de nous, le Ministère de l'Éducation forme en 1976 le Comité Provincial de l'Enfance Exceptionnelle (COPEX) et lui donne comme mandat de faire le bilan du système d'éducation de l'enfant en difficulté d'adaptation et d'apprentissage. Ce rapport souligne le droit de l'enfant à l'éducation en ces termes : « L'enfant en difficulté d'adaptation et d'apprentis sage mérite le respect, l'attention et l'assistance qui correspond à ses aspirations, à ses besoins généraux et spécifiques. Les droits et libertés reconnus à la personne humaine, et en particulier à l'enfant, doivent également s'appliquer à l'égard de l'enfant en difficulté » (p. 550). C'est dans cet esprit que certaines commissions scolaires ont offert des services spécialisés à cette clientèle. Présentement, nous retrouvons dans les classes d'adaptation scolaire, de plus en plus d'enfants déficients dont l'âge de développement mental dépasse à peine 24 mois. Pour certains enfants, cette déficience intellectuelle est associée à un deuxième handicap d'ordre physique (I.M.C., maladie organique, épilepsie, etc.) ou d'une déviation grave d'apprentissage (problèmes de langage, de lecture, etc...).[…]