64 resultados para calculs théoriques
Resumo:
La recherche sur la conception de nouveaux matériaux, dits intelligents, est en constant progrès depuis plus de 30 ans. Historiquement, les premiers matériaux utilisés et transformés par l’homme étaient le bois, les minéraux et ses dérivés (pierre, métaux, etc.). C’est à la fin du 19e siècle que la synthèse des polymères organiques et inorganiques ainsi que leurs utilisations se développèrent. Ce progrès continue de nos jours. Ainsi, c’est dans cette direction que cette thèse fut rédigée, l’étude de polymères de coordination basés sur le cuivre(I). Elle s’orchestra en six principales sections de recherche. La première section, i.e. le chapitre 2 traite de la coordination de différents ligands monothioéthers sur du CuX (X = I, Br) pour former plusieurs types de polymères de coordination (CPs). Ainsi, le CP 1D [(Me[indice inférieur 2]S)[indice inférieur 3]{Cu[indice inférieur 2]([mu]-I)[indice inférieur 2}][indice inférieur n] est obtenu quand CuI et Sme[indice inférieur 2] réagissent ensemble dans le n-heptane, alors qu’ils entrainent la formation du CP 2D [(Me[indice inférieur 2]S) [indice inférieur 3] {Cu[indice inférieur 4]([mu]-I) [indice inférieur 4]}] [indice inférieur n] dans le MeCN. Ce dernier contient des unités de construction secondaire (SBU ; Secondary Building Units en anglais) en forme de cluster Cu[indice inférieur 4]I[indice inférieur 4] « cubane partiellement ouvert ». En faisant réagir le MeSEt avec du CuI, le CP 2D [(MeSEt) [indice inférieur 2]{Cu[indice inférieur 4] ([mu][indice inférieur 3]-I) [indice inférieur 2] ([mu][indice inférieur 2]-I) [indice inférieur 2]}(MeCN) [indice inférieur 2]] [indice inférieur n] contenant des SBUs de type Cu[indice inférieur 4]I[indice inférieur 4] « cubanes en escalier » a été isolé dans MeCN, alors qu’ils entrainent l’obtention du polymère 1D [(MeSEt) [indice inférieur 3]{Cu[indice inférieur 4] ([mu][indice inférieur 3]-I) [indice inférieur 4]}] [indice inférieur n] dans le n-heptane contenant quant à lui des clusters de types Cu[indice inférieur 4]I[indice inférieur 4] « cubanes fermés ». Alors que le traitement de MeSPr avec du CuI forme le CP 1D [(MeSPr) [indice inférieur 3]{Cu[indice inférieur 4] ([mu][indice inférieur 3]-I) [indice inférieur 4]}] [indice inférieur n], les composés [(L) [indice inférieur 4]{Cu[indice inférieur 4] ([mu][indice inférieur 3]-I) [indice inférieur 4]}] (L = EtSPr, Pr[indice inférieur 2]S) sont respectivement obtenus avec le EtSPr et le Pr[indice inférieur 2]S. À partir du [indice supérieur i]Pr[indice inférieur 2]S et de CuI, le cluster [([indice supérieur i]Pr[indice inférieur 2]S) [indice inférieur 6]{Cu[indice inférieur 8] ([mu][indice inférieur 3]-I) [indice inférieur 3]}([mu][indice inférieur 4]-I) [indice inférieur 2]}] est obtenu alors que l’on forme un CP 2D [(Cu[indice inférieur 3]Br[indice inférieur 3])(MeSEt) [indice inférieur 3]] [indice inférieur n] à partir de CuBr et MeSEt dans l’heptane. Ce dernier incorpore à la fois des Cu([mu][indice inférieur 2]-Br) [indice inférieur 2]Cu rhomboédriques et des SBUs de type Cu[indice inférieur 4]Br[indice inférieur 4] « cubanes ouverts ». Le MeSPr forme, quant à lui avec le CuBr dans l’heptane, le CP 1D [(Cu[indice inférieur 3]Br[indice inférieur 3])(MeSPr) [indice inférieur 3]] [indice inférieur n] qui, après recristallisation dans le MeCN, est converti en un CP 2D [(Cu[indice inférieur 5]Br[indice inférieur 5])([mu][indice inférieur 2]-MeSPr) [indice inférieur 3]] [indice inférieur n] incorporant des SBUs [(Cu[indice inférieur 5] ([mu][indice inférieur 4]-Br)([mu][indice inférieur 2]-Br)]. Les propriétés de stabilités thermiques et photophysiques de ces matériaux ont aussi été reportées. Dans la section 2, i.e. au chapitre 3, les réactions entre des ligands dithioétherbutanes (1,4-bis(phénylthio)butane et 1,4-bis(cyclohexylthio)butane) avec CuX (X = Br, I) ont été étudiées. En faisant réagir les CuX avec le 1,4-bis(cyclohexylthio)butane, dans le ratio (1:1), les CPs 1D, peu luminescents, isostructuraux [(Cu[indice inférieur 2]X[indice inférieur 2])([mu]-CyS(CH[indice inférieur 2]) [indice inférieur 4])SCy) [indice inférieur 2]] [indice inférieur n] (X = Br, I) sont obtenus. Inversement, quand CuI réagit avec 1,4-bis(phénylthio)butane, dans le ratio (2:1), il se forme le préalablement reporté CP 2D [(Cu[indice inférieur 4]I[indice inférieur 4])([mu]- PhS(CH[indice inférieur 2]) [indice inférieur 4])SPh) [indice inférieur 2]] [indice inférieur n], alors qu’avec le CyS(CH[indice inférieur 2]) [indice inférieur 4])SCy, un nouveau composé luminescent est obtenu, mais sa structure n’a pas pu être résolue.(1) Les caractérisations habituelles en photophysique et en stabilité thermique ont été menées sur ces matériaux. Dans la troisième section, i.e. dans le chapitre 4, les réactions de coordination de CuX (Br, I) sur les ligands dithioétherbutènes E- et Z-PhS(CH[indice inférieur 2]CH=CHCH[indice inférieur 2])SPh, E- et Z-pTolS(CH[indice inférieur 2]CH=CHCH[indice inférieur 2])S-pTol ont été comparées. Quand les sels CuX réagissent avec E-PhS(CH[indice inférieur 2]CH=CHCH[indice inférieur 2])SPh les CP 2D [Cu[indice inférieur 2]X[indice inférieur 2]{[mu]-E-PhS(CH[indice inférieur 2]CH=CHCH[indice inférieur 2])SPh}[indice inférieur 2]] [indice inférieur n] (X = I, Br), composés isostructuraux, sont obtenus. Incorporant une structure sans-précédente, ces réseaux sont formés à partir de couches 2D en alternance ABAB, contenants des SBUs Cu[indice inférieur 2] ([mu][indice inférieur 2]-X) [indice inférieur 2] rhomboédriques. Inversement, quand l’isomère Z-PhS(CH[indice inférieur 2]CH=CHCH[indice inférieur 2])SPh réagit avec des sels de CuX, deux structures différentes sont obtenues : le CP 2D [Cu[indice inférieur 4] ([mu][indice inférieur 3]-I) [indice inférieur 4] ([mu]-Z-PhS(CH[indice inférieur 2]CH=CHCH[indice inférieur 2])SPh}[indice inférieur 2]] [indice inférieur n] contenant des SBUs de type « cubane fermé » et le complexe 0D [Cu[indice inférieur 2]Br[indice inférieur 2]{[mu]-Z-PhS(CH[indice inférieur 2]CH=CHCH[indice inférieur 2])SPh}[indice inférieur 2]]. De par la réaction de E-pTolS(CH[indice inférieur 2]CH=CHCH[indice inférieur 2])S-pTol avec CuI, le CP 2D [{Cu([mu][indice inférieur 3]-I)} [indice inférieur 2] ([mu]-E-pTolS(CH[indice inférieur 2]CH=CHCH[indice inférieur 2])S-pTol)]n contenant des rubans parallèles en escalier est obtenu, alors que la structure issue de CuBr n’a pas pu être résolue. Finalement, quand CuX réagit avec Z-pTolS(CH[indice inférieur 2]CH=CHCH[indice inférieur 2])S-pTol, les CPs 2D iso-structuraux [Cu[indice inférieur 2]X[indice inférieur 2]{[mu]-Z-pTolS(CH[indice inférieur 2]CH=CHCH[indice inférieur 2])S-pTol}[indice inférieur 2]] (X = I, Br) sont formés. Dans ce cas, contrairement, aux premières structures obtenues, les couches de ces CPs sont composées de grilles incorporant des SBUs rhomboédriques Cu[indice inférieur 2] ([mu][indice inférieur 2]-X) [indice inférieur 2] dont les distances Cu···Cu sont identiques d’une couche à l’autre. Les caractérisations habituelles en photophysique et en stabilités thermiques ont été menées sur ces matériaux. De plus, des calculs théoriques ont été réalisés afin de mieux comprendre les propriétés photophysiques de ces composés. La quatrième section, i.e. le chapitre 5, traite des réactions de CuX (Br, I, Cl) sur des ligands dithioétherbutynes (1,4-bis(pTolthio)but-2-yne et 1,4-bis(benzylthio)but-2-yne. Quand CuBr réagit avec 1,4-bis(pTolthio)but-2-yne, le CP 1D [{Cu([mu][indice inférieur 2]-Br) [indice inférieur 2]Cu}([mu]-pTolSCH[indice inférieur 2]C≡CCH[indice inférieur 2]S-pTol) [indice inférieur 2]] [indice inférieur n] est obtenu, alors que le CP 2D [{Cu[indice inférieur 4] ([mu][indice inférieur 3]-I) [indice inférieur 4]}([mu]-pTolSCH[indice inférieur 2]C≡CCH[indice inférieur 2]S-pTol) [indice inférieur 2]] [indice inférieur n], préalablement reporté, est formé.(2) La réaction des sels CuI et CuCl avec 1,4-bis(benzylthio)but-2-yne engendre la formation de complexes isomorphes 0D [{Cu([mu][indice inférieur 2]-X) [indice inférieur 2]Cu}([mu]-PhCH[indice inférieur 2]SCH[indice inférieur 2]C≡CCH[indice inférieur 2]SCH[indice inférieur 2]Ph) [indice inférieur 2]] (X = I, Br). Contrairement à l’utilisation de CuCl, qui avec PhCH[indice inférieur 2]SCH[indice inférieur 2]C≡CCH[indice inférieur 2]SCH[indice inférieur 2]Ph forme le CP 2D [{Cu[indice inférieur 2] ([mu][indice inférieur 2]-Cl)([mu] [indice inférieur 3]-Cl)}([mu]-PhCH[indice inférieur 2]SCH[indice inférieur 2]C≡CCH[indice inférieur 2]SCH[indice inférieur 2]Ph)] [indice inférieur n]. Notons que ce CP présente des propriétés de photophysique peu communes pour un dérivé chloré, car il émet de la lumière autour de 600 nm. La cinquième section, i.e. le chapitre 6, traite des réactions de CuI avec PhS(CH[indice inférieur 2]) [indice inférieur 8]SPh et pTolS(CH[indice inférieur 2]) [indice inférieur 8]S-pTol qui génèrent respectivement les CPs luminescents 1D [Cu[indice inférieur 4]I[indice inférieur 4]{[mu][indice inférieur 2]-PhS(CH[indice inférieur 2]) [indice inférieur 8]SPh}[indice inférieur 2]] [indice inférieur n] et 2D [Cu8I8{[mu]2-pTolS(CH2)8S-pTol}3(MeCN)2]n. Le CP 2D [Cu8I8{[mu]2-pTolS(CH2)8S-pTol}3 (MeCN)2]n présente un réseau qui n’avait jamais été rencontré dans la littérature auparavant, c.-à-d., des couches de polymère construites à partir de deux cubanes fermés pontés ensemble par un rhomboèdre comme SBUs. Leurs propriétés physiques et de stabilités thermiques ont été étudiées et présentent quelques différences notables. La sixième section, i.e. le chapitre 7, traite des réactions entre CuI avec le ligand flexible pTolS(CH[indice inférieur 2]) [indice inférieur 8]S-pTol dans le MeCN ou EtCN et p-[indice supérieur t]BuC[indice inférieur 6]H[indice inférieur 4]S(CH[indice inférieur 2]) [indice inférieur 8]SC[indice inférieur 6]H[indice inférieur 4]-p-[indice supérieur t]Bu L2 dans EtCN. Les synthèses issues de pTolS(CH[indice inférieur 2]) [indice inférieur 8]S-pTol permettent l’obtention de CPs 2D [Cu[indice inférieur 8]I[indice inférieur 8]{pTolS(CH[indice inférieur 2]) [indice inférieur 8]S-pTol}[indice inférieur 3] (solvant) [indice inférieur 2]] [indice inférieur n] (1•MeCN et 1•EtCN) contenant des nœuds de connexion de type Cu[indice inférieur 8]I[indice inférieur 8]. Par opposition, l’utilisation du ligand p-[indice supérieur t]BuC[indice inférieur 6]H[indice inférieur 4]S(CH[indice inférieur 2]) [indice inférieur 8]SC[indice inférieur 6]H[indice inférieur 4]-p-[indice supérieur t]Bu dans EtCN entraine la formation d’un CP 1D [Cu[indice inférieur 4]I[indice inférieur 4]{p-[indice supérieur t]BuC[indice inférieur 6]H[indice inférieur 4]S(CH[indice inférieur 2]) [indice inférieur 8]SC[indice inférieur 6]H[indice inférieur 4]-p-[indice supérieur t]Bu}[indice inférieur 2] (EtCN) [indice inférieur 2]] [indice inférieur n] incorporant les SBUs de type cubane fermé. Les CPs 2D 1•MeCN et 1•EtCN, contrairement à 2•EtCN, présentent l’habilité de pouvoir perdre le solvant initialement incorporé dans leur structure sous vide et de le readsorber ou d’adsorber un autre solvant, chose qui peut être suivie à l’aide de la variation de la luminescence, la stabilité thermique, ou encore par diffraction des rayons X sur poudre. La septième section, i.e. le chapitre 8 traite des réactions, une fois encore, entre un ligand dithioéther, contenant un pont flexible butane (EtS(CH[indice inférieur 2]) [indice inférieur 4]SEt) et les sels CuX (X = I, Br). Dans ce cas, il se forme avec le CuI un CP luminescent 2D [Cu[indice inférieur 4]I[indice inférieur 4]{[mu]-EtS(CH[indice inférieur 2]) [indice inférieur 4]SEt}[indice inférieur 2]] [indice inférieur n], alors qu’il génère avec CuBr, le CP 3D [(Cu[indice inférieur 2]Br[indice inférieur 2]){[mu]-EtS(CH[indice inférieur 2]) [indice inférieur 4]SEt}][indice inférieur n] faiblement luminescent, construit sur des couches en parallèle pontées par les soufres doublement n-donneurs. Il est intéressant de remarquer qu’une migration de l’énergie d’excitation se produit dans le CP 3D (dérivé bromé) contrairement au CP 2D (dérivé iodé) sous excitation de haute intensité. Très peu d’exemples présentent ce type de processus parmi tous les CPs ( < 10). Pour conclure, les réactions entre les sels CuX (X = Cl, Br, I) avec des ligands thioéthers de types différents (mono-, di-thio, rigide ou flexible) peuvent offrir des matériaux de structures variables (CP 0D, 1D, 2D, 3D avec et sans cavités) présentant leurs propres spécificités (luminescence, stabilité thermique, adsorption de gaz, solvatochromisme, etc.). Le résultat le plus important à noter, en comparaison avec la littérature est, qu’il est très difficile, voire impossible, de pouvoir prédire la dimensionnalité, la structure et les propriétés dont résultera la coordination des ligands thioéthers sur des sels de CuX (X = Cl, Br, I). Par conséquent, de nombreuses combinaisons et études restent encore à être menées pour mieux comprendre ces matériaux et trouver la, ou les meilleures combinaisons possibles pour concevoir des MOFs luminescents à partir de CuX.
Resumo:
L'analyse de la situation financière de l'entreprise sert à la prise de décision pour les parties intéressées à l'intérieur de l'entreprise, soit le gestionnaire et parfois le propriétaire et les autres qui se trouvent à l'extérieur, tels l'investisseur, le ministère du revenu, le banquier et le consultant. Dépendamment de l'utilisateur, l'information disponible n'est pas la même. L'investisseur, le banquier et le ministère du revenu doivent analyser l'entreprise à partir des données comptables publiées. Mais, les états financiers cachent parfois certaines réalités, tel un exercice financier ne représentant pas la saisonnalité des activités. De même les stocks de fin d'exercice ne représentent pas nécessairement le niveau du stock moyen. Les échéances de paiement surviennent peut-être au début plutôt qu'uniformément au cours de l'exercice. La signature de contrats importants pourra avoir des répercussions qu'au cours de l'exercice suivant. L'information interne seule peut répondre à ces questions. De plus, le résultat net publié dans les états financiers renferme certaines lacunes dont l'analyste doit tenir compte : 1- L'amortissement et l'évaluation des comptes-clients comportent une bonne part de subjectivité; 2- L'existence de plusieurs méthodes d'évaluation des stocks amène des problèmes de comparabilité, surtout lorsque ces postes ont une relative importance; 3- La dépréciation monétaire non prise en compte dans les états financiers diminue la comparabilité d'un exercice à l'autre et n'assure pas la préservation du patrimoine. Ainsi, les dividendes peuvent être versés au-delà de ce qu'il serait prudent de verser pour assurer la capacité de fonctionnement; 4- En période de prospérité, l'entreprise tentera de minimiser son bénéfice comptable afin de diminuer sa charge fiscale alors qu'en période de déficit, elle tentera de maximiser son bénéfice comptable pour rassurer les propriétaires et les prêteurs; 5- L'inflation accentue les difficultés de comparaison. Il faudra donc tenir compte de l'inflation pour apprécier l'évolution réelle du résultat; 6- La comparaison avec plusieurs entreprises est quelque peu biaisée dû au choix des pratiques comptables exercées sur plusieurs postes. Les critères de comparaison devront donc être le moins possible dépendants de choix de pratiques comptables. Malgré l'existence de ces déformations comptables, les états financiers demeurent une source importante d'informations. Mais les forces et les faiblesses de l'entreprise s'en trouvent plus ou moins cachées. Comme le gestionnaire et le consultant ont accès aux données non publiées par l'entreprise, les résultats des activités et les données sur la qualité de la gestion interne peuvent donc être plus détaillés, et plus proches de la réalité. L'information publique, ne permet que de détecter les grandes lignes de la situation financière de l'entreprise. Les ouvrages en finance ne traitent que très peu de ces facteurs internes et du lien entre l'information interne et l'information externe. Le but de notre étude a été de créer un modèle de diagnostic de la situation financière, dans un premier temps, issu de la théorie et reposant sur les données externes et internes à l'entreprise. Dans un deuxième temps, nous avons construit un modèle plus complet qui tienne compte des interrelations des postes des états financiers et de l'interprétation faite par les praticiens, et dont la théorie ne fait pas état. L'intégration des connaissances des praticiens au modèle théorique initial et l'utilisation des données internes à l'entreprise, devraient permettre de porter un diagnostic plus éclairé de la situation financière de l'entreprise.
Resumo:
Ce mémoire compte deux parties distinctes, chacune étant toutefois rattachée à une étude du régime des entreprises entièrement exportatrices de la Tunisie, à laquelle nous avons participé. Ce régime instauré en 1972, avec des modifications depuis, avait pour but d'établir des conditions favorables à la venue d'investissements étrangers dans les secteurs d'exportation. Ce type de régime correspond, dans ses grandes lignes, à ce qu'il est convenu d'appeler les zones industrielles d'exportation. La première partie de ce mémoire est une revue de la littérature sur le sujet, une étude du pour et du contre autant d'un point de vue théorique que pratique. Nous tenterons par la suite d'en dégager des points de réflexion sur l'expérience tunisienne. Celle-ci a-t-elle rencontré des conditions qui favorisait sa réussite? Toujours dans le cadre de l'étude du régime tunisien, il a été nécessaire d'utiliser le concept de "taux de change de référence"(TCR), afin d'évaluer les avantages et les coûts de l'établissement de tels incitatifs. Il s'agit en quelque sorte de calculer le prix de référence (shadow price) des devises utilisées dans ce régime ou générées par lui. La seconde partie de ce mémoire consiste, dans un premier temps, à expliquer les bases théoriques du taux de change de référence, c'est-à-dire à en établir la définition selon deux différentes approches, et à en donner les formes d'évaluation. Dans un deuxième temps, nous tentons d'estimer le TCR de la Tunisie. Cet exercice avait déjà été tenté par l'Institut d'Économie Quantitative de la Tunisie en 1988 sur la base de la protection commerciale existante en 1983. Cependant, la fiabilité du résultat pouvait être améliorée en ce qui concerne l'estimation de l'élasticité des demandes d'importation. Nous avons refait ces estimations en utilisant un plus grand nombre de données. De plus nous avons basé nos calculs du TCR sur la base de la protection existante en 1990.
Resumo:
Ce mémoire s'intéresse à la réception critique de Né à Québec, première œuvre d'Alain Grandbois et aux relectures de ce récit à travers le temps. Cette étude a pour point de départ le paradoxe entre le futur prometteur de l'œuvre que laissait augurer la réception initiale et le rôle bien secondaire que joue désormais Né à Québec dans l'histoire de la littérature québécoise. Le mémoire est divisé en trois chapitres structurés chronologiquement et couvre la réception de l'œuvre de sa publication en 1933 jusqu'à nos jours. Le premier chapitre se penche sur le contexte de réception initial ainsi que sur l'élaboration d'un discours critique dominant sur Né à Québec. Cette partie de l'étude a aussi pour but de rappeler les conclusions de Marcel Fortin sur la réception immédiate de l'œuvre en question telles que décrites dans son ouvrage Histoire d'une célébration, publié il y a maintenant plus de vingt ans. Ce rappel est primordial afin de bien comprendre comment la pensée critique a évolué au-delà de la décennie 1930. À noter que l'analyse présente dans ce mémoire offre une perspective différente que celle de Fortin sur les commentaires de cette période puisqu'elle s'organise autour de concepts théoriques nouveaux, en particulier la notion de stéréotype telle que définie par Jean-Louis Dufays. Les deux autres chapitres traitent de textes critiques sur Né à Québec qui n'ont jamais dans le passé été directement le sujet d'une étude de réception. Tout au long de cette étude, le discours sur l'œuvre de Grandbois est décrit, analysé et comparé afin de comprendre comment ce récit historique en est venu à être aujourd'hui délaissé par le public et les littérateurs du Québec et d'ailleurs.
Resumo:
Problématique Les réformes du système québécois de la santé et des services sociaux débutées en 2003 visent à le transformer en profondeur. La mise en œuvre de réseaux intégrés de services destinés aux personnes âgées en perte d’autonomie fonctionnelle s’inscrit dans ce mouvement de réformes. L’intégration des services nécessite toutefois des changements importants dans les modalités de régulation des systèmes sociosanitaires afin d’être en mesure d’assurer une meilleure réponse aux problèmes multidimensionnels et chroniques des personnes âgées en perte d’autonomie fonctionnelle vivant à domicile. La standardisation des pratiques professionnelles vise ainsi à réguler l’action des multiples acteurs et organisations concernés par la prise en charge des problèmes sociosanitaires. Nous avons analysé le contexte politique dans lequel s’inscrit ce mouvement de standardisation au moyen de deux logiques de performance. La première, la logique managériale, correspond à l’adoption par l’État social de principes néolibéraux s’inscrivant dans la nouvelle gestion publique. La deuxième logique, dite clinique, est construite autour de la standardisation des pratiques professionnelles par l’entremise des pratiques fondées sur des résultats probants. L’arrimage parfois complémentaire et parfois contradictoire entre ces deux logiques rend le débat sur la standardisation des professions particulièrement complexe, particulièrement dans les métiers relationnels comme le travail social (TS). Pour ses promoteurs, la standardisation fait en sorte de rendre le travail social plus scientifique et plus rationnel ce qui constitue un gage de qualité, d’efficacité et d’efficience. Pour ses détracteurs, la standardisation se présente comme une menace à l’autonomie des TS. Elle est considérée comme une attaque contre le praticien réflexif autonome qui n’est pas conciliable avec les fondements de la profession. Ainsi la compréhension du rapport des TS à la standardisation constitue un enjeu particulièrement important non seulement pour soutenir la mise en œuvre de réseaux de services intégrés destinés aux personnes âgées (RSIPA), mais aussi pour comprendre l’évolution en cours du travail social. L’usage d’outils cliniques standardisés s’accompagne de plusieurs formes de standardisations, soit des standards de conception, des standards terminologiques, des standards de performance et des standards procéduraux. Objectifs L’objectif général de cette thèse est de comprendre le rapport des TS aux différentes dimensions de la standardisation de leur pratique professionnelle en contexte de RSIPA. Plus spécifiquement, nous voulons : 1) Décrire les formes de standardisation émergentes en contexte de RSIPA; 2) Dégager les éléments de contexte et les caractéristiques perçues des outils standardisés qui influent sur leur appropriation par les TS; 3) Élucider la participation des TS au processus de régulation des pratiques professionnelles; et 4) Repérer les composantes des outils standardisés qui agissent comme des conditions structurantes de la pratique et celles qui se caractérisent par leur adaptabilité. Cadre théorique Cette thèse s’appuie sur deux perspectives théoriques complémentaires. La première, la théorie de la régulation sociale (Reynaud, 1997) nous permet d’analyser la standardisation comme un processus de régulation, afin de mettre à jour les ensembles de règles avec lesquelles les TS doivent composer ainsi que les adaptations et la part de jeu stratégique que l’on retrouve dans l’usage de ces règles. Notre deuxième perspective théorique, la sociologie des usages (Vedel, 1994), que nous en avons adaptée en appui sur la composition technique de Nélisse (1998) s’intéresse à l’activité sociale des acteurs relativement à leur utilisation des technologies. L’analyse des usages dans un contexte donné permet de comprendre de quelle manière les formes de standardisation qui accompagnent l’usage des outils cliniques standardisés peuvent potentiellement structurer la pratique professionnelle des TS, soit en la soutenant, soit en l’entravant. Méthodologie Cette thèse s’appuie sur une méthodologie qualitative, compréhensive et exploratoire. En appuie sur les principes de l’ergonomie cognitive (Falzon, 2004), nous avons examiné les prescriptions relatives aux usages des outils cliniques avec les usages de ces outils standardisés dans l’activité des intervenantes sociales (IS) formées en travail social. Nous avons opté pour une étude de cas multiples imbriquée comportant deux cas, en l’occurrence les équipes de programme perte d’autonomie liée au vieillissement (PALV), dans deux Centres de santé et de services sociaux (CSSS) où ont été implantés des réseaux de services intégrés destinés aux personnes âgées. Dans le premier, la mise en œuvre des RSIPA était à ses débuts alors que dans le deuxième, l’implantation était plus ancienne. Dans chacun des cas, quatre IS ont été recrutées. Nous avons triangulé quatre collectes de données distinctes et complémentaires soit une collecte de type documentaire pour chacun des deux cas. Avec chacune des IS, nous avons effectué trois jours d’observations directes de leur activité; un entretien compréhensif sur le sens général de la standardisation dans leur pratique; un entretien de type explicitation portant sur leur usage de l’outil d’évaluation multiclientèle (OEMC) dans un contexte particulier et un entretien compréhensif rétrospectif. Nous avons progressivement condensé et codé nos données en nous appuyant sur une stratégie de codage mixte. Les formes de standardisation émergentes en contexte de RSIPA Le rapport des IS aux outils standardisés comporte deux valences. La valence positive se manifeste lorsque les outils standardisés peuvent soutenir l’exercice du jugement professionnel des IS tout en préservant leur autonomie décisionnelle concernant les actions à mener dans leurs activités. Ainsi les IS ne manifestent pas de résistance particulièrement significatives par rapport aux formes de standardisation procédurales, conceptuelles et terminologiques qui accompagnent le modèle d’intégration de services implanté dans les deux CSSS à l’étude parce que globalement, ces formes de standardisation laissent une marge d’autonomie suffisante pour adapter les règles afin de répondre aux contingences cliniques propres aux situations singulières avec lesquelles elles doivent composer dans leur pratique. Nous avons cependant constaté que le mouvement de standardisation qui accompagne la mise en œuvre des RSIPA a été nettement érodé par un mouvement de standardisation des résultats qui découle de la logique de performance managériale notamment en contexte de reddition de compte. Ce dernier mouvement a en effet engendré des distorsions dans le premier. En ce sens, la standardisation des résultats se présente comme une contrainte sensiblement plus forte sur activité des IS que la standardisation procédurale associée à l’usage des outils standardisés RSIPA. La participation des TS au processus de régulation des pratiques professionnelles Nos résultats montrent une adhésion de principe des IS à la régulation de contrôle. Cette adhésion s’explique par la nature même des règles qui encadrent leur activité prudentielle. Puisque ces règles générales nécessitent d’être constamment interprétées à la lumière du jugement professionnel en jeu dans chacune des situations cliniques singulières, l’activité routinière des IS vise moins à les contourner qu’à les adapter dans les limites prévues dans l’espace de jeu autorisé. En ce sens, ce n’est que dans certaines circonstances que les IS expriment une résistance par rapport à la régulation de contrôle interne à leur organisation. C’est plutôt par rapport aux contraintes engendrées par certaines formes de régulation de contrôle externe que s’exprime cette résistance parce que ces dernières sont en mesure de peser significativement sur la régulation de l’activité des IS. Ainsi, la logique de performance managériale qui s’exerce à travers la reddition de comptes a pour effet d’entacher la portée des sources traditionnelles de régulation et de modifier les rapports de force entre les acteurs au sein des CSSS. En outre, la capacité régulatrice de certaines instances externes, comme l’hôpital, des mécanismes de plaintes utilisés par les usagers ou de certification de la qualité, est renforcée par le fait que ces instances sont médiatrices de formes de régulation de contrôle externe, comme la logique de performance managériale ou par des effets de médiatisation. Tous les acteurs de la hiérarchie en viennent ainsi à composer avec les régulations de contrôle pour répondre aux contraintes qui s’exercent sur eux ce qui se traduit dans un processus réflexif de régulation marqué par le jeu des uns et des autres, par des micro-déviances, ainsi que par des arrangements locaux. Étant donné que la régulation de contrôle autorise une marge d’autonomie importante, la régulation autonome paraît d’une certaine manière moins prégnante, voire moins nécessaire pour réguler l’activité des IS. Les formes de régulation autonome que nous avons mise à jour se déclinent en deux espaces d’autonomie distincts que les IS veulent préserver. Le premier, l’espace d’autonomie professionnelle a pour objet la capacité d’action générale des IS dans leur activité professionnelle et est donc transversal à l’ensemble de leur activité. Le second, l’espace d’autonomie de la singularité clinique, porte sur la marge d’autonomie des IS au regard de leur activité d’intervention auprès des usagers. Cet espace constitue une sorte de non-lieu normatif, non pas parce qu’aucune règle n’y régule les actions, mais bien parce que les règles qui y jouent se situent en partie en dehors du champ d’influence de l’ensemble des forces de standardisation agissant sur l’activité des IS. La régulation conjointe apparaît lorsque la négociation prend place à l’extérieur des limites de l’espace de jeu autorisé par les règles existantes ou que, au terme de la négociation, ces limites sont modifiées. La majorité des compromis observés ne se traduisent pas forcément sous une forme écrite et contractuelle. Certains d’entre eux se présentent comme une adaptation locale et circonstanciée et prennent la forme de régulations conjointes ad hoc alors que d’autres, les régulations conjointes institutionnalisées, s’inscrivent davantage dans la durée. Ces dernières se manifestent autour de situations cliniques pour lesquelles les règles existantes s’avèrent insuffisantes à réguler l’activité. Dans ces conditions, les négociations entre les acteurs visent à redéfinir les nouvelles limites de l’espace de jeu. Ce processus est alimenté par le cumul jurisprudentiel de chacune des situations singulières collectivisées. Les règles ainsi produites ne s’inscrivent jamais de manière dyschronique par rapport aux aspects de l’activité des IS qu’elles doivent réguler, ce qui tend à renforcer le caractère pérenne de leur capacité régulatrice. Le caractère habilitant et contraignant des dispositifs informatiques Il est difficile de comprendre la capacité régulatrice d’un dispositif informatique comme la plateforme RSIPA que l’on retrouve en PALV, en examinant uniquement ses paramètres de conception. L’analyse de ses usages en contexte s’avère indispensable. Des dispositifs informatiques comme le RSIPA possèdent la capacité d’inscrire l’intervention clinique dans un ensemble de procédures sous-jacentes, qui peuvent être plus ou moins explicites, mais qui ont la capacité d’engendrer une certaine standardisation des activités, qui peut être simultanément procédurale, terminologique et conceptuelle. Ces dispositifs informatiques détiennent ainsi la capacité d’opérer une médiation des régulations de contrôle dont ils sont porteurs. Bien qu’ils limitent l’espace de jeu clandestin, ces dispositifs ne sont pas en mesure d’enrayer complètement la capacité des IS à jouer avec les règles, notamment parce qu’ils se prêtent à des tricheries de leur part. Néanmoins, la capacité de ces plateformes informatiques à se comporter comme des instances de visualisation de l’activité peut réduire la capacité des IS à jouer et à déjouer les règles. Or, ces formes de déviance leur permettent de composer avec l’ensemble des contingences auxquelles elles sont confrontées dans leur pratique professionnelle. Cette bivalence dans l’usage de ces dispositifs informatiques soulève des enjeux relativement à leur conception afin de favoriser les meilleurs arrimages possible entre leurs fonctions cliniques et administratives.
Resumo:
Depuis 20 ans, les demandes adressées au Programme d’Aide aux Membres du Barreau (PAMBA) sont en constante progression, passant de 120 demandes traitées annuellement en 1996, comparativement à 1 157 demandes en 2016 (PAMBA, 2006, 2016). Ces demandes concernaient notamment la dépression, l’anxiété, le stress, la toxicomanie et l’alcoolisme. En plus de ces problématiques, il s’avère que les avocats présenteraient une proportion plus élevée de dépression, d’alcoolisme, de toxicomanie et de suicide que les autres professionnels (Hill, 1998). Parallèlement, les modèles actuels en stress professionnel (Bakker & Demerouti, 2007; Demerouti, Bakker, Nachreiner, & Schaufeli, 2001; Karasek, 1979; Karasek & Theorell, 1990; Siegrist, 1996) parviennent difficilement à cerner la complexité des déterminants de la détresse psychologique au travail chez les professions issues de l’économie du savoir dont font partie les avocats. En effet, les modèles traditionnels en stress professionnel évacuent les conditions et les contraintes propres aux professions règlementées. De plus, très peu d’études ont été réalisées chez les avocats, et aucune n’a été menée au Québec. Ce mémoire a pour but principal d’identifier les facteurs de risque et de protection qui influencent le stress et la détresse psychologique chez les avocats membres du Barreau du Québec. Ainsi, la présente recherche qualitative de type descriptive et exploratoire a permis de cartographier les facteurs de risque et de protection au stress et à la détresse psychologique, de cartographier les manifestations physiques, psychologiques et comportementales découlant du stress et de la détresse et finalement, de préciser les déterminants susceptibles d’influencer la détresse psychologique chez les avocats du Québec à partir d’un modèle conceptuel de départ inspiré du modèle de Marchand (2004). Pour ce faire, 22 entrevues semi-dirigées ont été menées en Estrie et dans le Grand Montréal auprès de femmes et d’hommes provenant du secteur public ou privé. Une analyse du contenu thématique des données s’inspirant de méthodes propres à la théorisation ancrée fut réalisée à l’aide du logiciel QDA Miner. Prenant appui sur le modèle théorique général d’analyse de la santé mentale de Marchand (2004), l’analyse des résultats a permis d’identifier et de classer hiérarchiquement 158 facteurs de risque et de protection selon les niveaux macro, micro et méso. Il en ressort que la culture professionnelle (macro) de même que les demandes psychologiques, émotionnelles et contractuelles (méso) sont les catégories ayant le plus d’importance dans l’explication du stress et de la détresse psychologique chez les avocats du Québec. Ainsi, la culture professionnelle a principalement trait à la compétitivité dans le milieu juridique et aux impératifs professionnels liés à la performance. Les demandes psychologiques concernent particulièrement la surcharge de travail et d’urgences de même que la complexité des dossiers, alors que les demandes émotionnelles ont trait notamment à la charge émotive importante envers le client et à la difficulté d’établir un détachement personnel vis-à-vis des dossiers traités. Enfin, les demandes contractuelles sont le type de demandes comportant le plus de facteurs (13), dont la majorité constitue des facteurs de risque pour la santé mentale des praticiens interrogés. Elles concernent principalement les longues heures de travail, les heures facturables et la facturation ainsi que la méthode d’évaluation de rendement se basant principalement sur les objectifs d’heures facturables dans le secteur privé. Il est également ressorti que le genre et le secteur de pratique (privé ou publique) influenceraient les stress et la détresse psychologique. Enfin, les retombées théoriques et pratiques, les limites de cette étude de même que les avenues de recherches futures concluent le présent mémoire.
Resumo:
Abstract : Since at least the 1980's, a growing number of companies have set up an ethics or a compliance program within their organization. However, in the field of study of business management, there is a paucity of research studies concerning these management systems. This observation warranted the present investigation of one company's compliance program. Compliance programs are set up so that individuals working within an organization observe the laws and regulations which pertain to their work. This study used a constructivist grounded theory methodology to examine the process by which a specific compliance program, that of Siemens Canada Limited, was implemented throughout its organization. In conformity with this methodology, instead of proceeding with the investigation in accordance to a particular theoretical framework, the study established a number of theoretical constructs used strictly as reference points. The study's research question was stated as: what are the characteristics of the process by which Siemens' compliance program integrated itself into the existing organizational structure and gained employee acceptance? Data consisted of documents produced by the company and of interviews done with twenty-four managers working for Siemens Canada Limited. The researcher used QSR-Nvivo computer assisted software to code transcripts and to help with analyzing interviews and documents. Triangulation was done by using a number of analysis techniques and by constantly comparing findings with extant theory. A descriptive model of the implementation process grounded in the experience of participants and in the contents of the documents emerged from the data. The process was called "Remolding"; remolding being the core category having emerged. This main process consisted of two sub-processes identified as "embedding" and "appraising." The investigation was able to provide a detailed account of the appraising process. It identified that employees appraised the compliance program according to three facets: the impact of the program on the employee's daily activities, the relationship employees have with the local compliance organization, and the relationship employees have with the corporate ethics identity. The study suggests that a company who is entertaining the idea of implementing a compliance program should consider all three facets. In particular, it suggests that any company interested in designing and implementing a compliance program should pay particular attention to its corporate ethics identity. This is because employee's acceptance of the program is influenced by their comparison of the company's ethics identity to their local ethics identity. Implications of the study suggest that personnel responsible for the development and organizational support of a compliance program should understand the appraisal process by which employees build their relationship with the program. The originality of this study is that it points emphatically that companies must pay special attention in developing a corporate ethics identify which is coherent, well documented and well explained.
Resumo:
L'imagerie par tomographie optique diffuse requiert de modéliser la propagation de la lumière dans un tissu biologique pour une configuration optique et géométrique donnée. On appelle cela le problème direct. Une nouvelle approche basée sur la méthode des différences finies pour modéliser numériquement via l'équation de la diffusion (ED) la propagation de la lumière dans le domaine temporel dans un milieu inhomogène 3D avec frontières irrégulières est développée pour le cas de l'imagerie intrinsèque, c'est-à-dire l'imagerie des paramètres optiques d'absorption et de diffusion d'un tissu. Les éléments finis, lourds en calculs, car utilisant des maillages non structurés, sont généralement préférés, car les différences finies ne permettent pas de prendre en compte simplement des frontières irrégulières. L'utilisation de la méthode de blocking-off ainsi que d'un filtre de Sobel en 3D peuvent en principe permettre de surmonter ces difficultés et d'obtenir des équations rapides à résoudre numériquement avec les différences finies. Un algorithme est développé dans le présent ouvrage pour implanter cette approche et l'appliquer dans divers cas puis de la valider en comparant les résultats obtenus à ceux de simulations Monte-Carlo qui servent de référence. L'objectif ultime du projet est de pouvoir imager en trois dimensions un petit animal, c'est pourquoi le modèle de propagation est au coeur de l'algorithme de reconstruction d'images. L'obtention d'images requière la résolution d'un problème inverse de grandes dimensions et l'algorithme est basé sur une fonction objective que l'on minimise de façon itérative à l'aide d'une méthode basée sur le gradient. La fonction objective mesure l'écart entre les mesures expérimentales faites sur le sujet et les prédictions de celles-ci obtenues du modèle de propagation. Une des difficultés dans ce type d'algorithme est l'obtention du gradient. Ceci est fait à l'aide de variables auxiliaire (ou adjointes). Le but est de développer et de combiner des méthodes qui permettent à l'algorithme de converger le plus rapidement possible pour obtenir les propriétés optiques les plus fidèles possible à la réalité capable d'exploiter la dépendance temporelle des mesures résolues en temps, qui fournissent plus d'informations tout autre type de mesure en TOD. Des résultats illustrant la reconstruction d'un milieu complexe comme une souris sont présentés pour démontrer le potentiel de notre approche.
Resumo:
Résumé : En raison de sa grande étendue, le Nord canadien présente plusieurs défis logistiques pour une exploitation rentable de ses ressources minérales. La TéléCartographie Prédictive (TCP) vise à faciliter la localisation de gisements en produisant des cartes du potentiel géologique. Des données altimétriques sont nécessaires pour générer ces cartes. Or, celles actuellement disponibles au nord du 60e parallèle ne sont pas optimales principalement parce qu’elles sont dérivés de courbes à équidistance variable et avec une valeur au mètre. Parallèlement, il est essentiel de connaître l'exactitude verticale des données altimétriques pour être en mesure de les utiliser adéquatement, en considérant les contraintes liées à son exactitude. Le projet présenté vise à aborder ces deux problématiques afin d'améliorer la qualité des données altimétriques et contribuer à raffiner la cartographie prédictive réalisée par TCP dans le Nord canadien, pour une zone d’étude située au Territoire du Nord-Ouest. Le premier objectif était de produire des points de contrôles permettant une évaluation précise de l'exactitude verticale des données altimétriques. Le second objectif était de produire un modèle altimétrique amélioré pour la zone d'étude. Le mémoire présente d'abord une méthode de filtrage pour des données Global Land and Surface Altimetry Data (GLA14) de la mission ICESat (Ice, Cloud and land Elevation SATellite). Le filtrage est basé sur l'application d'une série d'indicateurs calculés à partir d’informations disponibles dans les données GLA14 et des conditions du terrain. Ces indicateurs permettent d'éliminer les points d'élévation potentiellement contaminés. Les points sont donc filtrés en fonction de la qualité de l’attitude calculée, de la saturation du signal, du bruit d'équipement, des conditions atmosphériques, de la pente et du nombre d'échos. Ensuite, le document décrit une méthode de production de Modèles Numériques de Surfaces (MNS) améliorés, par stéréoradargrammétrie (SRG) avec Radarsat-2 (RS-2). La première partie de la méthodologie adoptée consiste à faire la stéréorestitution des MNS à partir de paires d'images RS-2, sans point de contrôle. L'exactitude des MNS préliminaires ainsi produits est calculée à partir des points de contrôles issus du filtrage des données GLA14 et analysée en fonction des combinaisons d’angles d'incidences utilisées pour la stéréorestitution. Ensuite, des sélections de MNS préliminaires sont assemblées afin de produire 5 MNS couvrant chacun la zone d'étude en totalité. Ces MNS sont analysés afin d'identifier la sélection optimale pour la zone d'intérêt. Les indicateurs sélectionnés pour la méthode de filtrage ont pu être validés comme performant et complémentaires, à l’exception de l’indicateur basé sur le ratio signal/bruit puisqu’il était redondant avec l’indicateur basé sur le gain. Autrement, chaque indicateur a permis de filtrer des points de manière exclusive. La méthode de filtrage a permis de réduire de 19% l'erreur quadratique moyenne sur l'élévation, lorsque que comparée aux Données d'Élévation Numérique du Canada (DNEC). Malgré un taux de rejet de 69% suite au filtrage, la densité initiale des données GLA14 a permis de conserver une distribution spatiale homogène. À partir des 136 MNS préliminaires analysés, aucune combinaison d’angles d’incidences des images RS-2 acquises n’a pu être identifiée comme étant idéale pour la SRG, en raison de la grande variabilité des exactitudes verticales. Par contre, l'analyse a indiqué que les images devraient idéalement être acquises à des températures en dessous de 0°C, pour minimiser les disparités radiométriques entre les scènes. Les résultats ont aussi confirmé que la pente est le principal facteur d’influence sur l’exactitude de MNS produits par SRG. La meilleure exactitude verticale, soit 4 m, a été atteinte par l’assemblage de configurations de même direction de visées. Par contre, les configurations de visées opposées, en plus de produire une exactitude du même ordre (5 m), ont permis de réduire le nombre d’images utilisées de 30%, par rapport au nombre d'images acquises initialement. Par conséquent, l'utilisation d'images de visées opposées pourrait permettre d’augmenter l’efficacité de réalisation de projets de SRG en diminuant la période d’acquisition. Les données altimétriques produites pourraient à leur tour contribuer à améliorer les résultats de la TCP, et augmenter la performance de l’industrie minière canadienne et finalement, améliorer la qualité de vie des citoyens du Nord du Canada.
Resumo:
Un moyen permettant d'identifier expérimentalement les phases du gaz d'électrons bidimensionnel de la bicouche de graphène en empilement bernal au remplissage $\nu = 3$ est recherché lorsque le biais électrique entre les couches est varié. À ce remplissage, si on se concentre aux basses énergies, il est possible de ne s'intéresser qu'aux deux niveaux de Landau composant le niveau $N=0$ qui sont de même spin et de même vallée, mais d'orbitale différente. Puisque la texture du pseudospin orbital de ce système change selon la phase, il est attendu que le couplage avec le champ électrique de la lumière devrait changer. La dispersion des modes collectifs de chaque phase est calculée dans l'approximation GRPA (generalized random-phase approximation) dans le domaine en biais où chacune domine respectivement. L'absorption optique pour des polarisations linéaires en direction x et en direction y ainsi que pour des polarisations circulaires gauche et droite est calculée. La rotation de Faraday et l'effet Kerr sont également calculés. Des différences entre les phases sont remarquées au niveaux de la fréquence des photons qui sont absorbés, de l'amplitude de l'absorption et de la rotation de la polarisation ainsi que la sensibilité à certains types de polarisation. L'effet des modes collectifs dans les phases considérées est cependant moindre que celui qui est prédit dans un calcul qui ne tient pas compte de l'interaction de Coulomb.
Resumo:
La protection de la biodiversité locale consiste en un enjeu que certaines municipalités au Québec commencent à prendre en compte dans leur gestion. Le suivi et l’évaluation de la biodiversité par des indicateurs sont importants pour favoriser une gestion efficace de la diversité biologique. L’utilisation d’indicateurs adéquats est essentielle pour assurer que les mesures obtenues présentent des informations relatives à l’état, aux pressions et aux réponses en lien avec la biodiversité. Jusqu’à présent, la majorité des indicateurs de biodiversité développés concernent plutôt l’échelle nationale. L’objectif de l’essai est d’évaluer la pertinence des indicateurs de biodiversité utilisés par les municipalités au Québec afin d’améliorer la conservation de la biodiversité à l’échelle locale. Des critères d’une série d’indicateurs de biodiversité pour les municipalités sont identifiés en se basant sur les caractéristiques des indicateurs et sur les indicateurs de biodiversité proposés dans divers ouvrages. Les indicateurs proposés par le gouvernement et ceux utilisés par des municipalités québécoises sont aussi ciblés. L’analyse comparative des indicateurs ciblés selon les critères identifiés permet de formuler des recommandations au gouvernement et aux municipalités de la province. L’utilisation d’indicateurs de biodiversité adéquats pour les municipalités est essentielle pour effectuer un meilleur suivi de la biodiversité locale. Le gouvernement et les municipalités devraient favoriser la sélection d’un nombre approprié d’indicateurs portant sur la biodiversité et sur les objectifs de gestion, et qui sont également adéquats à une échelle locale, faciles à comprendre, validés sur des bases scientifiques et pouvant être calculés par des données accessibles. Une série pertinente devrait aussi contenir des indicateurs d’état, de pressions et de réponses qui mesurent la diversité génétique, spécifique et écosystémique, ainsi que les différents services écologiques. De plus, les indicateurs devraient idéalement permettre de prendre en compte la capacité de support des écosystèmes. Afin d’aider le gouvernement et les municipalités à améliorer leurs indicateurs, une série qui respectent ces recommandations est proposée à titre d’exemple. Toutefois, le suivi de la biodiversité locale nécessite que les municipalités s’impliquent au niveau de la conservation et de la protection de la biodiversité. Il est donc recommandé au gouvernement d’assujettir les municipalités de la province à la Loi sur le développement durable et de les inclure directement dans les démarches gouvernementales en matière de biodiversité.
Resumo:
Abstract: Highway bridges have great values in a country because in case of any natural disaster they may serve as lines to save people’s lives. Being vulnerable under significant seismic loads, different methods can be considered to design resistant highway bridges and rehabilitate the existing ones. In this study, base isolation has been considered as one efficient method in this regards which in some cases reduces significantly the seismic load effects on the structure. By reducing the ductility demand on the structure without a notable increase of strength, the structure is designed to remain elastic under seismic loads. The problem associated with the isolated bridges, especially with elastomeric bearings, can be their excessive displacements under service and seismic loads. This can defy the purpose of using elastomeric bearings for small to medium span typical bridges where expansion joints and clearances may result in significant increase of initial and maintenance cost. Thus, supplementing the structure with dampers with some stiffness can serve as a solution which in turn, however, may increase the structure base shear. The main objective of this thesis is to provide a simplified method for the evaluation of optimal parameters for dampers in isolated bridges. Firstly, performing a parametric study, some directions are given for the use of simple isolation devices such as elastomeric bearings to rehabilitate existing bridges with high importance. Parameters like geometry of the bridge, code provisions and the type of soil on which the structure is constructed have been introduced to a typical two span bridge. It is concluded that the stiffness of the substructure, soil type and special provisions in the code can determine the employment of base isolation for retrofitting of bridges. Secondly, based on the elastic response coefficient of isolated bridges, a simplified design method of dampers for seismically isolated regular highway bridges has been presented in this study. By setting objectives for reduction of displacement and base shear variation, the required stiffness and damping of a hysteretic damper can be determined. By modelling a typical two span bridge, numerical analyses have followed to verify the effectiveness of the method. The method has been used to identify equivalent linear parameters and subsequently, nonlinear parameters of hysteretic damper for various designated scenarios of displacement and base shear requirements. Comparison of the results of the nonlinear numerical model without damper and with damper has shown that the method is sufficiently accurate. Finally, an innovative and simple hysteretic steel damper was designed. Five specimens were fabricated from two steel grades and were tested accompanying a real scale elastomeric isolator in the structural laboratory of the Université de Sherbrooke. The test procedure was to characterize the specimens by cyclic displacement controlled tests and subsequently to test them by real-time dynamic substructuring (RTDS) method. The test results were then used to establish a numerical model of the system which went through nonlinear time history analyses under several earthquakes. The outcome of the experimental and numerical showed an acceptable conformity with the simplified method.
Resumo:
Ce document est un essai ayant pour objectif d’établir un état des lieux et une mise en perspective du pâturage en tant qu’outil de gestion des tourbières, afin d’isoler les bonnes pratiques, en mettant en avant les impacts positifs et négatifs de ces dernières sur le milieu. Pour ce faire, le contexte des milieux tourbeux a été défini, ainsi qu’un portrait du pâturage actuel. Il s’avère que les tourbières, de par leurs conditions particulières, sont d’importants réservoirs de biodiversité. Longtemps exploitées pour les activités anthropiques, nombre d’entre elles se retrouvent aujourd’hui fortement détériorées. Cela se traduit entre autres par une modification de la dynamique d’évolution des milieux tourbeux. Ainsi, en absence de gestion et d’entretien les tourbières ont tendance à s’embroussailler, menaçant gravement la diversité biologique de ces milieux. Pour lutter contre l’enfrichement des tourbières le pâturage semble être un outil privilégié. Néanmoins, la mise en place de pratiques inadaptées peut avoir de graves répercussions sur les tourbières et leur biodiversité. Bien que certaines pratiques favorables soient établies, force est de constater que de nombreux facteurs entrent en jeu lors de la gestion pastorale. De ce fait, il est vain de chercher à définir des listes de pratiques immuables ou des « recettes » à appliquer. Au contraire, la gestion pastorale doit perpétuellement être adaptée en fonction du contexte et des objectifs de gestion. Les deux études de cas développées dans l’essai montrent bien que lors d’une application concrète, les modalités de pâturage vont différer des pratiques théoriques préconisées, sous l’effet de ces multiples facteurs. Par ailleurs, bien que comportant de nombreux avantages, le pâturage ne doit pas être vu comme un outil de gestion idéal. Même bien mis en place, il comporte certaines limites avec lesquelles il faut composer. Outre ces limites, les principaux problèmes à l’heure actuelle restent la diminution globale du pâturage extensif, ainsi que le caractère marginal des milieux tourbeux, engendrant parfois un manque d’implication de la part des politiques publiques pour leur conservation. Une des pistes de solutions les plus prometteuses est donc de pouvoir réinscrire les tourbières dans des systèmes économiques à travers des partenariats avec des exploitations agricoles. À ce titre, les tendances actuelles qui se dessinent en France et en Europe laissent entrevoir un changement favorable pour la gestion des milieux humides et une reprise des activités pastorales qui ne pourront que bénéficier à la gestion pastorale des milieux tourbeux.
Resumo:
Abstract : Adverse drug reactions (ADRs) are undesirable effects caused after administration of a single dose or prolonged administration of drug or result from the combination of two or more drugs. Idiosyncratic drug reaction (IDR) is an adverse reaction that does not occur in most patients treated with a drug and does not involve the therapeutic effect of the drug. IDRs are unpredictable and often life-threatening. Idiosyncratic reaction is dependent on drug chemical characteristics or individual immunological response. IDRs are a major problem for drug development because they are usually not detected during clinical trials. In this study we focused on IDRs of Nevirapine (NVP), which is a non-nucleoside reverse transcriptase inhibitor used for the treatment of Human Immunodeficiency Virus (HIV) infections. The use of NVP is limited by a relatively high incidence of skin rash. NVP also causes a rash in female Brown Norway (BN) rats, which we use as animal model for this study. Our hypothesis is that idiosyncratic skin reactions associated with NVP treatment are due to post-translational modifications of proteins (e.g., glutathionylation) detectable by MS. The main objective of this study was to identify the proteins that are targeted by a reactive metabolite of Nevirapine in the skin. The specific objectives derived from the general objective were as follow: 1) To implement the click chemistry approach to detect proteins modified by a reactive NVP-Alkyne (NVP-ALK) metabolite. The purpose of using NVP-ALK was to couple it with Biotin using cycloaddition Click Chemistry reaction. 2) To detect protein modification using Western blotting and Mass Spectrometry techniques, which is important to understand the mechanism of NVP induced toxicity. 3) To identify the proteins using MASCOT search engine for protein identification, by comparing obtained spectrum from Mass Spectrometry with theoretical spectrum to find a matching peptide sequence. 4) To test if the drug or drug metabolites can cause harmful effects, as the induction of oxidative stress in cells (via protein glutathionylation). Oxidative stress causes cell damage that mediates signals, which likely induces the immune response. The results showed that Nevirapine is metabolized to a reactive metabolite, which causes protein modification. The extracted protein from the treated BN rats matched 10% of keratin, which implies that keratin was the protein targeted by the NVP-ALK.
Resumo:
Cette recherche porte sur le thème de l’accompagnement du développement de l’identité professionnelle pour le nouveau personnel enseignant en techniques humaines. Plus précisément, nous voulons mesurer l’impact d’un projet novateur, soit la création d’un groupe de soutien en période d’insertion professionnelle. La problématique s’articule principalement autour du fait que, dans les trois techniques humaines ciblées, les nouveaux professeurs et professeures sont embauchés d’abord et avant tout pour leurs compétences disciplinaires. À leur arrivée au collégial, leur emploi est précaire et leurs tâches morcelées. Malgré le fait qu’ils débutent dans un état d’urgence, cette transition professionnelle semble être laissée pour compte ainsi que le soutien psychologique. Ce contexte, qui favorise l’isolement, influence parfois la motivation à s’engager dans leur deuxième carrière. Au cégep de Sainte-Foy, il n’existe pas de mentorat départemental ni d’accompagnement spécifique. Seul le programme d’accueil et d’intégration offre une série d’activités obligatoires. Le cadre de référence présente deux classifications des besoins du nouveau personnel enseignant au collégial au regard des travaux de Raymond (2001) et Caplan, Clough, Ellis et Muncey (2009). La recension des écrits nous a également permis de distinguer l’insertion, l’identité et le développement professionnels. Les différents dispositifs d’insertion pédagogique des nouveaux enseignants ont également fait l’objet d’une recherche documentaire. Ces assises théoriques ont guidé le choix du développement de notre groupe de soutien sous l’angle d’une communauté d’apprentissage favorisant l’interaction entre pairs. Cet essai poursuit trois objectifs : 1) concevoir le processus d’accompagnement et la trousse éducative pour le groupe de soutien, 2) valider le processus d’accompagnement et la trousse éducative auprès d’un groupe de nouveaux professeurs et professeures provenant des trois techniques humaines et 3) analyser le point de vue de professeurs et professeures par rapport au processus d’accompagnement et à la trousse éducative proposés. Nos objectifs de recherche nécessitaient une méthodologie appropriée. Celleci repose sur une approche méthodologique qualitative, une posture épistémologique interprétative et une recherche de type recherche développement. Dix participantes ont pris part au processus d’accompagnement proposé soit : des entrevues individuelles semi-dirigées et des rencontres de groupe. Les données ont été recueillies grâce à des entrevues semi-dirigées, des rencontres de groupe de discussion, des autoévaluations des participantes ainsi qu’un questionnaire d’évaluation finale. La triangulation des méthodes de collecte de données a été utilisée afin d’assurer la rigueur de nos travaux. L’analyse de contenu s’est faite par l’entremise du logiciel Transana qui a aidé à la transcription des enregistrements, au codage et à la production de rapports synthèse. La dimension éthique a été au coeur de nos préoccupations et nous avons d’ailleurs pris plusieurs précautions à cet effet. Les données obtenues nous ont permis de répondre à notre question de recherche en démontrant que la création du groupe de soutien a eu des retombées positives sur le nouveau personnel enseignant en techniques humaines. Ce nouveau dispositif d’accompagnement a permis de raffiner la classification des besoins de notre cadre de référence. Les catégories émergentes ont révélé des spécificités propres à la deuxième carrière. La formule du groupe de soutien telle que mise à l’essai a, pour sa part, été fortement appréciée des participantes autant pour son fonctionnement que pour son contenu. L’ensemble de ce processus a bonifié la représentation de l’identité professionnelle de Gohier et al. (2001). Les données obtenues nous ont également permis de valider notre cadre d’intervention et de dégager des éléments favorisant la transférabilité des résultats obtenus. Nous pensons d’ailleurs que le groupe de soutien constitue une avenue pertinente et essentielle au sein de la communauté collégiale.