101 resultados para Valeur relative totale
Resumo:
Cette thèse porte sur l’émergence sur la scène chilienne d’un nouvel acteur dans la production du livre, acteur qui s’organise à la fin des années 1990 en se définissant lui-même en tant qu’éditeur indépendant et qui, au cours des premières années du XXIe siècle, élargit cette définition pour inclure le phénomène de l’édition autonome et le domaine de l’édition universitaire. Le point de ralliement de ces acteurs, organisés autour de l’association Editores de Chile, est la reprise et l’affirmation d’un rôle moderne des éditeurs de livres, au sens des Lumières. On peut constater l’articulation entre les revendications spécifiques du secteur et ses positions politiques sur la valeur symbolique de la production culturelle, sur son rôle en tant que facteur de construction identitaire et démocratique car l’accès aux livres ne peut pas être restreint par l’action sans contrepoids du marché. L’angle théorique que nous proposons est celui des théories des industries culturelles tout en intégrant aussi les contributions des études culturelles. En nous situant dans une perspective de l’économie politique des industries culturelles, nous chercherons à redéfinir le concept d’indépendance par le biais d’une analyse des stratégies d’unités économiques (les maisons d’édition) et des rapports entre ces unités et leurs contextes géographiques, politiques et culturels spécifiques. Nous tenons aussi en considération des éléments macrostructurels, mais en considérant que leur capacité d’influence est toujours relative et, en conséquence, doit faire l’objet d’une réévaluation en fonction des rapports de forces et des conjonctures politiques, économiques et sociales spécifiques. Nous pensons que l’indépendance n’est pas un phénomène qui n’est pas exclusif au monde de l’édition. Nous avons fait le constat qu’il existe aussi au sein des industries de l’enregistrement sonore, de l’audiovisuel et des médias comme la presse, la radio et, en moindre proportion, la télévision. En termes méthodologiques, nous proposons une approche qui combine des méthodes et des instruments quantitatifs et qualitatifs, c’est-à-dire, l’analyse des statistiques de l’édition au Chili (fréquences des titres, genres et auteurs), des entrevues semi-structurées et une analyse documentaire. Avant d’aborder la description et l’analyse de la production de livres au Chili et du sens que les éditeurs donnent à l’indépendance et à leurs prises de position dans le champ culturel, nous proposons une description historique et industrielle de l’édition du livre chilien. Cette description permet de comprendre la naissance et le développement du secteur en regard des processus politiques, économiques et sociaux du Chili et de l’Amérique latine, ainsi que sa situation actuelle en regard des nouvelles conditions politiques et économiques qui résultent du processus de globalisation et des transformations néolibérales locales et internationales. La recherche examine ensuite le caractère de la production de livres publiés au Chili entre les années 2000 et 2005 en considérant les titres produits, les auteurs et les genres. Cette analyse permet aussi d’établir des différences entre ces maisons d’édition et celles qui relèvent des grands conglomérats transnationaux de l’édition de livres. Cette analyse comparative nous permet d’établir de manière concluante des différences quant au nombre et á la diversité et l’intérêt culturel des livres publiés entre les éditeurs transnationaux et les éditeurs indépendants regroupés sous le nom de Editores de Chile. Cette analyse permet aussi d’établir des liens précis entre la production des éditeurs indépendants et leurs objectifs culturels et politiques explicites. Nous faisons ensuite état, par le biais de l’exposition et de l’analyse des entrevues réalisées avec les éditeurs, des trajectoires de ces organisations en tenant compte des périodes historiques spécifiques qui ont servi de contexte à leur création et à leur développement. Nous mettons ici en rapport ces trajectoires des éditeurs, les définitions de leurs missions et les stratégies mobilisées. Nous tenons aussi compte des dimensions internationales de ces définitions qui s’expriment dans leur participation au sein d’organisations internationales telle que l’Alliance internationale d’éditeurs indépendants (Gijón 2000 et Dakar 2003) et, spécifiquement, leur expression dans la coopération avec des maisons d’édition latino-américaines. Les entrevues et l’analyse documentaire nous permettent d‘entrevoir les tensions entre la politique culturelle de l’État chilien, en contraste avec des définitions, des objectifs et des actions politiques de Editores de Chile. Nous relions donc dans l’analyse, l’émergence de l’édition indépendante et les résistances qu’engendrent la globalisation des marchés culturels et les mouvements de concentration de la propriété, ainsi que les effets et réponses aux transformations néolibérales au plan des politiques culturelles publiques. Nous concluons alors à la nécessité d’une économie politique critique des industries culturelles qui puisse se pencher sur ces phénomènes et rendre compte non seulement de rapports entre conglomérats et indépendants et du développement des filières de la production culturelle, mais aussi du déploiement des logiques culturelles et politiques sous-jacentes, voire des projets historiques, qui se confrontent dans le champ des industries culturelles.
Resumo:
Les hydrogels de polysaccharide sont des biomatériaux utilisés comme matrices à libération contrôlée de médicaments et comme structures modèles pour l’étude de nombreux systèmes biologiques dont les biofilms bactériens et les mucus. Dans tous les cas, le transport de médicaments ou de nutriments à l’intérieur d’une matrice d’hydrogel joue un rôle de premier plan. Ainsi, l’étude des propriétés de transport dans les hydrogels s’avère un enjeu très important au niveau de plusieurs applications. Dans cet ouvrage, le curdlan, un polysaccharide neutre d’origine bactérienne et formé d’unités répétitives β-D-(1→3) glucose, est utilisé comme hydrogel modèle. Le curdlan a la propriété de former des thermogels de différentes conformations selon la température à laquelle une suspension aqueuse est incubée. La caractérisation in situ de la formation des hydrogels de curdlan thermoréversibles et thermo-irréversibles a tout d’abord été réalisée par spectroscopie infrarouge à transformée de Fourier (FT-IR) en mode réflexion totale atténuée à température variable. Les résultats ont permis d’optimiser les conditions de gélation, menant ainsi à la formation reproductible des hydrogels. Les caractérisations structurales des hydrogels hydratés, réalisées par imagerie FT-IR, par microscopie électronique à balayage en mode environnemental (eSEM) et par microscopie à force atomique (AFM), ont permis de visualiser les différentes morphologies susceptibles d’influencer la diffusion d’analytes dans les gels. Nos résultats montrent que les deux types d’hydrogels de curdlan ont des architectures distinctes à l’échelle microscopique. La combinaison de la spectroscopie de résonance magnétique nucléaire (RMN) à gradients pulsés et de l’imagerie RMN a permis d’étudier l’autodiffusion et la diffusion mutuelle sur un même système dans des conditions expérimentales similaires. Nous avons observé que la diffusion des molécules dans les gels est ralentie par rapport à celle mesurée en solution aqueuse. Les mesures d’autodiffusion, effectuées sur une série d’analytes de diverses tailles dans les deux types d’hydrogels de curdlan, montrent que le coefficient d’autodiffusion relatif décroit en fonction de la taille de l’analyte. De plus, nos résultats suggèrent que l’équivalence entre les coefficients d’autodiffusion et de diffusion mutuelle dans les hydrogels de curdlan thermo-irréversibles est principalement due au fait que l’environnement sondé par les analytes durant une expérience d’autodiffusion est représentatif de celui exploré durant une expérience de diffusion mutuelle. Dans de telles conditions, nos résultats montrent que la RMN à gradients pulsés peut s’avérer une approche très avantageuse afin de caractériser des systèmes à libération contrôlée de médicaments. D’autres expériences de diffusion mutuelle, menées sur une macromolécule de dextran, montrent un coefficient de diffusion mutuelle inférieur au coefficient d’autodiffusion sur un même gel de curdlan. L’écart mesuré entre les deux modes de transport est attribué au volume différent de l’environnement sondé durant les deux mesures. Les coefficients d’autodiffusion et de diffusion mutuelle similaires, mesurés dans les deux types de gels de curdlan pour les différents analytes étudiés, suggèrent une influence limitée de l’architecture microscopique de ces gels sur leurs propriétés de transport. Il est conclu que les interactions affectant la diffusion des analytes étudiés dans les hydrogels de curdlan se situent à l’échelle moléculaire.
Resumo:
Les dérivés cyclopropaniques 1,2,3-substitutés sont des composés intéressants dans de nombreux domaines de la chimie. Au cours de cet ouvrage, nous nous sommes intéressés à la synthèse, tout d’abord diastéréosélective puis énantiosélective de ces composés. Nous nous sommes en particulier intéressés à l’utilisation de la zinciocyclopropanation pour l’obtention de ces dérivés cyclopropaniques 1,2,3-substitutés. Cette méthode consiste en l’utilisation d’un carbénoïde gem-dizincique pour effectuer une réaction de type Simmons-Smith. Cette stratégie a l’avantage d’être diastéréosélective favorisant la formation du zinciocyclopropane dont l’atome de zinc est dans une configuration cis avec le groupement directeur qu’est l’oxygène allylique basique. Lors de cette réaction, l’existence d’une réaction compétitive avec un réactif monozincique diminuait l’utilité de la zinciocyclopropanation. L’issue de la réaction s’est avérée dépendre fortement de la nature du carbénoïde utilisé, de la température réactionnelle et de la présence de ZnI2 dans le milieu. L’étude par GCMS de nombreuses conditions pour la formation des différents carbénoïdes a permis d’identifier les paramètres clés conduisant à la zinciocyclopropanation. Ces découvertes ont notamment permis d’étendre la réaction de zinciocyclopropanation aux alcools allyliques portant un seul groupement directeur (ie. non dérivé du 1,4-buténediol). Dans ces conditions, la réaction s’est avérée extrêmement diastéréosélective favorisant la formation du zinciocyclopropane dont l’atome de zinc est dans une configuration cis avec le groupement directeur. Afin de fonctionnaliser les zinciocyclopropanes ainsi obtenus, plusieurs réactions de fonctionnalisation in situ ont été développées. Chacune de ces méthodes a montré une conservation totale de la diastéréosélectivité obtenue lors de la réaction de zinciocyclopropanation. La versatilité de la zinciocyclopropanation a donc été démontrée. Avec une méthode diastéréosélective efficace pour la formation de zinciocyclopropanes à partir d’alcools allyliques ne portant qu’un seul groupement directeur, il est devenu possible d’envisager le développement énantiosélectif de la réaction. L’utilisation d’un dioxaborolane énantiopur a permis la zinciocyclopropanation avec de très bons excès énantiomères de divers alcools allyliques chiraux. La présence sur la même molécule d’un lien C–Zn nucléophile est d’un atome de bore électrophile a conduit à un échange bore-zinc in situ, formant un cyclopropylborinate énantioenrichi. La formation de ce composé bicyclique a permis d’obtenir une diastéréosélectivité parfaite. De nombreux alcools allyliques ont pu ainsi être convertis en cyclopropylborinates. Une réaction de Suzuki subséquente a permis la formation de dérivés cyclopropaniques 1,2,3-trisubstitués avec de très bons excès énantiomères et une excellente diastéréosélectivité. Les cyclopropylborinates obtenus à l’issue de la zinciocyclopropanation énantiosélective se sont avérés être des unités très versatiles puisque de nombreuses méthodes ont pu être développés pour leur fonctionnalisation.
Resumo:
Introduction : Les statines ont prouvé leur efficacité dans le traitement des dyslipidémies. Cependant, ces molécules sont associées à des effets secondaires d’ordre musculaire. Puisque ces effets peuvent avoir des conséquences graves sur la vie des patients en plus d’être possiblement à l’origine de la non-observance d’une proportion importante des patients recevant une statine, un outil pharmacogénomique qui permettrait d’identifier a priori les patients susceptibles de développer des effets secondaires musculaires induits par une statine (ESMIS) serait très utile. L’objectif de la présente étude était donc de déterminer la valeur monétaire d’un tel type d’outil étant donné que cet aspect représenterait une composante importante pour sa commercialisation et son implantation dans la pratique médicale courante. Méthode : Une première simulation fut effectuée à l’aide de la méthode de Markov, mais celle-ci ne permettait pas de tenir compte de tous les éléments désirés. C’est pourquoi la méthode de simulation d'évènements discrets fut utilisée pour étudier une population de 100 000 patients hypothétiques nouvellement initiés sur une statine. Cette population virtuelle a été dupliquée pour obtenir deux cohortes de patients identiques. Une cohorte recevait le test et un traitement approprié alors que l'autre cohorte recevait le traitement standard actuel—i.e., une statine. Le modèle de simulation a permis de faire évoluer les deux cohortes sur une période de 15 ans en tenant compte du risque de maladies cardio-vasculaires (MCV) fatal ou non-fatal, d'ESMIS et de mortalité provenant d’une autre cause que d’une MCV. Les conséquences encourues (MCV, ESMIS, mortalité) par ces deux populations et les coûts associés furent ensuite comparés. Finalement, l’expérience fut répétée à 25 reprises pour évaluer la stabilité des résultats et diverses analyses de sensibilité ont été effectuées. Résultats : La différence moyenne des coûts en traitement des MCV et des ESMIS, en perte de capital humain et en médicament était de 28,89 $ entre les deux cohortes pour la durée totale de l’expérimentation (15 ans). Les coûts étant plus élevés chez celle qui n’était pas soumise au test. Toutefois, l’écart-type à la moyenne était considérable (416,22 $) remettant en question la validité de l’estimation monétaire du test pharmacogénomique. De plus, cette valeur était fortement influencée par la proportion de patients prédisposés aux ESMIS, par l’efficacité et le coût des agents hypolipidémiants alternatifs ainsi que par les coûts des traitements des ESMIS et de la valeur attribuée à un mois de vie supplémentaire. Conclusion : Ces résultats suggèrent qu’un test de prédisposition génétique aux ESMIS aurait une valeur d’environ 30 $ chez des patients s’apprêtant à commencer un traitement à base de statine. Toutefois, l’incertitude entourant la valeur obtenue est très importante et plusieurs variables dont les données réelles ne sont pas disponibles dans la littérature ont une influence importante sur la valeur. La valeur réelle de cet outil génétique ne pourra donc être déterminée seulement lorsque le modèle sera mis à jour avec des données plus précises sur la prévalence des ESMIS et leur impact sur l’observance au traitement puis analysé avec un plus grand nombre de patients.
Resumo:
L’objectif de la présente étude vise à déterminer les caractéristiques des entreprises et de leur main-d’œuvre qui adoptent un PAE. Cette pratique serait en effet distribuée inégalement entre les différentes entreprises du secteur privé au Canada. Les facteurs identifiés dans la littérature en lien avec la présence du PAE sont regroupés sous les caractéristiques de la main-d’œuvre, les caractéristiques organisationnelles ou les caractéristiques du marché du travail, de manière à faire ressortir leur valeur respective pour voir celle qui a le plus d’influence sur la présence du PAE. Pour chacun des facteurs, une hypothèse ou une proposition de recherche est formulée. Pour vérifier les hypothèses et les propositions de recherche, nous avons utilisé des données secondaires issues de l’Enquête sur le milieu de travail et les employés (EMTE), réalisée en 2005 par Statistique Canada. Nous avons principalement eu recours à la base de données des employeurs, mais à défaut d’y avoir toutes les variables importantes, celle des employés a aussi été utilisée en agrégeant les données à la moyenne échantillonnale par entreprise, et en les imputant à la composante des employeurs. Notre échantillon final se compose de 5630 établissements du secteur privé au Canada. Les résultats nous ont appris que les caractéristiques organisationnelles sont de meilleurs déterminants de la présence du PAE que les caractéristiques de la main-d’œuvre. Les PAE sont répartis de façon inégale entre les différentes entreprises au Canada. En effet, les entreprises qui adoptent un PAE ont souvent moins d’immigrants. Elles ont aussi plus de probabilité d’avoir une grande proportion d’employés ayant complété des études secondaires, et qui travaillent à temps plein. Les PAE sont de plus beaucoup plus présents dans les grandes entreprises qui sont syndiquées, et dont l’organisation du travail est plus flexible. Enfin, ce sont les entreprises du secteur primaire qui adoptent le plus de PAE. Les PAE ne couvrent alors qu’un secteur limité et privilégié de la main-d’œuvre puisque certains groupes, tels que les immigrants, y ont moins accès. Ainsi, les PAE bénéficient aux employés les plus avantagés financièrement, indiquant que ce sont surtout les plus « riches » qui accèdent aux meilleurs services de santé mentale et sociale. Mots clés : Programmes d’aide aux employés Caractéristiques de la main-d’œuvre Caractéristiques organisationnelles
Resumo:
La proprotéine convertase subtilisine/kexine-9 (PCSK9) a été identifiée comme le troisième locus impliqué dans l’hypercholestérolémie autosome dominante (ADH). Les deux autres gènes impliqués dans l’ADH encodent le récepteur des lipoprotéines de faible densité (LDLR) et l’apolipoprotéine B. La PCSK9 est une convertase qui favorise la dégradation du LDLR dans les hépatocytes et augmente le niveau plasmatique de cholestérol des LDL (LDL-C). Les mutations « gain de fonction » de la PCSK9 sont associées à un phénotype d’hypercholestérolémie familiale, tandis que les variantes « perte de fonction » sont associées à un LDL-C réduit et à un risque coronarien plus faible. Pour élucider le rôle physiologique de la PCSK9, nous avons étudié sa régulation génique. En utilisant le RT-PCR quantitatif dans des hépatocytes humains, nous avons analysé la régulation de PCSK9 sous différentes conditions modulant l’expression des gènes impliqués dans le métabolisme du cholestérol. Nous avons démontré que l’expression de la PCSK9 était induite par les statines de manière dose-dépendante et que cette induction était abolie par le mévalonate. De plus, le promoteur de PCSK9 contenait deux motifs conservés pour la régulation par le cholestérol : le sterol regulatory element (SRE) et un site Sp1. La PCSK9 circule dans le plasma sous des formes mature et clivée par la furine. Grâce à notre anticorps polyclonal, nous avons mis au point un test ELISA mesurant la PCSK9 plasmatique totale. Une étude transversale a évalué les concentrations plasmatiques de PCSK9 chez des sujets sains et hypercholestérolémiques, traités ou non par des statines ou une combinaison statine/ezetimibe. Chez 254 sujets sains, la valeur moyenne de PCSK9 (écart-type) était de 89,5 (31,9) µg/L. La concentration plasmatique de la PCSK9 corrélait avec celle de cholestérol total, du LDL-C, des triglycérides (TG), de la glycémie à jeun, l’âge et l’indice de masse corporelle. Le séquençage de PCSK9 chez des sujets aux extrêmes de la distribution des concentrations de PCSK9 de notre cohorte a révélé la présence d’une nouvelle variation « perte de fonction » : R434W. Chez 200 patients hypercholestérolémiques, la concentration de PCSK9 était plus élevée que chez les sujets sains (P<0,04). Elle a augmenté avec une dose croissante de statine (P<0,001), et a augmenté encore plus suite à l’ajout d’ezetimibe (P<0,001). Chez les patients traités, ceux présentant une hypercholestérolémie familiale (HF; due à une mutation du LDLR) avaient des concentrations plus élevées de PCSK9 que les non-HF (P<0,005), et la réduction de LDL-C corrélait positivement avec la concentration de PCSK9 atteinte de la même manière dans les deux sous-catégories (P<0,02 et P<0,005, respectivement). Par ailleurs, une incubation des cellules HepG2 (hépatocytes) et Caco-2 (entérocytes) avec de l’ezetimibe a provoqué une augmentation de l’ARNm de PCSK9 et de NPC1L1 de 1,5 à 2 fois (P<0,05), mais aucune variation significative de PCSK9 sécrétée n’a été observée, suggérant que ces lignées cellulaires ne sont pas un modèle idéal. Nous avons également mesuré le niveau de PCSK9 chez 1 739 Canadiens-français âgés de 9, 13 et 16 ans. La valeur moyenne (écart-type) de PCSK9 dans cette cohorte était de 84,7 (24,7) µg/L, légèrement plus basse que dans la cohorte d’adultes (89,5 (31,9) µg/L). Chez les garçons, la PCSK9 circulante diminuait avec l’âge, tandis que c’était l’inverse chez les filles. Il y avait des associations positives et significatives entre la PCSK9 et la glycémie à jeun, l’insulinémie, le HOMA-IR, et les paramètres lipidiques (TC, LDL-C, TG, HDL-C, apoAI et apoB). Dans l’analyse multivariée, une hausse de 10% de l’insulinémie à jeun était associée à une augmentation de 1 à 2% de PCSK9. La régulation de PCSK9 est typique de celle d’un gène impliqué dans le métabolisme des lipoprotéines et est probablement la cible du facteur de transcription «sterol regulatory element-binding protein » (SREBP-2). La concentration plasmatique de la PCSK9 est associée avec l’âge, le sexe, et de multiples marqueurs métaboliques chez les enfants et les adultes. La détection de la PCSK9 circulante chez les sujets HF et non-HF signifie que ce test ELISA spécifique à PCSK9 pourrait servir à suivre la réponse à la thérapie chez un grand éventail de sujets. PCSK9 semble être une cible thérapeutique prometteuse dans le traitement de l’hypercholestérolémie et de la maladie cardiovasculaire.
Resumo:
La substitution est une méthode de prévention primaire qui permet l’élimination à la source des dangers pour les travailleurs. Une des étapes de la démarche est la comparaison des options afin de procéder au choix final. Divers indices de comparaison, basés sur des paramètres physicochimiques, sanitaires et environnementaux des substances, permettent de guider ce choix. Toutefois, aucune évaluation de ces indices n’a été effectuée dans le cas de la substitution des solvants. Une recherche de développement a été entreprise afin de proposer une méthodologie améliorée de comparaison des solvants. La démarche d’analyse de substitution et la comparaison des options de remplacement à l’aide du rapport de danger de vapeur (« Vapour Hazard Ratio », VHR) ont été appliquées à un cas réel de substitution de solvants en entreprise. Trois indices de potentiel de surexposition (IPS) (VHR, « Måleteknisk Arbejdshygiejnisk Luftbehov » (MAL) et « SUBstitution FACtor » (SUBFAC)) et trois indices globaux de hiérarchisation des dangers (indice air (ψiair), « Indiana Relative Chemical Hazard Score » (IRCHS) et « Final Hazard Score » (FHS)) ont été évalués et comparés à partir de listes de 56 et 67 solvants respectivement. La problématique de la non-idéalité des mélanges a aussi été considérée par rapport aux IPS par l’évaluation et la comparaison de 50 mélanges de solvant. Une méthodologie d’établissement d’une valeur limite d’exposition (VLE), pour les solvants n’en possédant pas, a été développée par modélisation de type relations quantitatives propriété-propriété (QPPR). La modélisation QPPR des VLE, effectuée sur une liste de 88 solvants possédant une VLE, a été effectuée à partir des coefficients de partage octanol:air, octanol:eau, sang:air et des constantes métaboliques. L’étude de cas a montré que l’utilisation du VHR facilitait la comparaison des options, bien qu’elle puisse se heurter à l’absence de VLE. Les indices VHR et SUBFAC ont été identifiés comme des méthodes très proches, caractérisées par une forte corrélation (R=0,99) alors que l’indice MAL se distingue des deux autres IPS par une perte d’information sur la volatilité résultant en une corrélation plus faible avec le VHR (R=0,75). L’impact de la non idealité, évalué par le calcul de coefficients d’activité sur une série de 50 mélanges, a permis d’établir que les ratios entre les indices VHR corrigés et non corrigés variaient entre 0,57 et 2,7, suggérant un facteur de sécurité de cinq lors de la comparaison de mélanges. Les analyses de corrélation et de sensibilité ont montré que les indices de hiérarchisation des dangers différaient de façon importante sur leur prise en compte de paramètres comme la volatilité, les VLE, l’exposition cutanée, l’inflammabilité, la cancérogénicité et les divers paramètres environnementaux. Aucun de ces indices ne peut être recommandé pour la substitution des solvants. Deux modèles QPPR ont été développés afin de prédire des VLE et des VHR, et 61 % et 87 % des VHR prédits variaient respectivement d’un facteur maximal de deux et de cinq par rapport aux VHR calculés. Nos résultats mènent à proposer une démarche améliorée de comparaison en deux étapes. Après un tri selon des critères prioritaires de santé, de sécurité et d’environnement, la comparaison devrait se baser sur le calcul du VHR tout en considérant d’autres paramètres selon la situation concrète de l’entreprise ou du procédé. La comparaison devra tenir compte de la non-idéalité pour les mélanges, et de VLE estimées pour les solvants n’en possédant pas.
Resumo:
Depuis quelques années, les États adoptent des politiques qui cherchent à séparer l’admission des réfugiés sur le territoire d’un État et l’attribution du statut de réfugié. En Europe, ce genre de politique est désigné par le terme externalisation. Cependant, par souci d’objectivité, nous avons choisi d’employer le terme extraterritorial. En effet, l’expression externalisation comporte en elle-même la critique de son objet. En Europe, aucune politique qui dissocie l’attribution du statut de réfugié et l’entrée sur le territoire d’un État n’a été mise en place, toutefois, cette idée fait partie des réflexions institutionnelles et elle reste un objectif de l’agenda européen. Ce mémoire cherche donc à analyser la proposition de traitement extraterritorial des demandes de statut de réfugié, faite en Europe, au regard de l’obligation la plus contraignante au sein du droit international des réfugiés : le principe de non refoulement. En ce sens, il sera nécessaire d'analyser l'étendue ainsi que les limites du principe de non refoulement, au regard de l’interprétation et de la mise en œuvre qui en sont faites. Ce mémoire démontrera que derrière une vive polémique sur la question, la proposition de traitement extraterritorial des demandes de statut de réfugié est compatible avec l’article 33 alinéa 1 de la Convention relative au statut des réfugiés.
Resumo:
L’augmentation de la dépense énergétique (DE) par une augmentation de l'activité physique (AP) participe au maintien et à l’amélioration de la santé. La mesure à grande échelle de la DE totale (DET) en général et AP en particulier se heurte à des difficultés pratiques de recueil de données, de validité et aux coûts. Bien que dans la littérature de nombreux accéléromètres permettent d’estimer la DET, il y a encore des limites quant à la mesure de l’intensité de l’AP, élément qui influence l’état de la balance énergétique et le bénéfice pour la santé de l’AP. De plus, peu de comparaisons entre les différents accéléromètres sont disponibles. La présente étude avait pour but d’évaluer la capacité de deux accéléromètres (Actical et Sensewear Armband) pour estimer la DET en comparaison avec la technique de l’eau doublement marquée (EDM) ; d’évaluer la concordance entre les accéléromètres dans la mesure de la DE au repos (DER) en comparaison avec la technique de la calorimétrie indirecte (CI) et d’évaluer la DE liée à l’AP en comparaison avec la technique de la CI. Les résultats montrent qu’il y a une très bonne corrélation entre la CI et les accéléromètres dans la mesure de la DER(r > 0.80, p<0.001) et une bonne corrélation entre les accéléromètres et l’EDM dans la mesure de la DET(r>0.75, p<0.001). Pour la mesure de l’intensité de l’AP, l’ACT est plus précis (r=0.80, p<0.001)) que le SWA à la marche, le SWA est meilleur(r=0.80, p<0.001) au vélo. Cette étude permet d’affirmer que le SWA et l’ACT sont des alternatives valables pour mesurer la DE.
Resumo:
Ce mémoire présente l’évaluation du remodelage osseux autour des composantes acétabulaires non cimentées press-fit d’une arthroplastie de resurfaçage (RH) et d’une prothèse totale de hanche (PTH) après un minimum de 21 mois d’implantation. Nous avons mesuré par l’absorptiométrie à rayons X en double énergie (DEXA) la densité minérale osseuse (DMO) supra acétabulaire chez 60 patients (44 RH, 16 PTH). Aucune différence significative de la moyenne des DMO au niveau de la zone globale et de la zone centrale de l’acétabulum n’a été trouvée entre la hanche opérée et la hanche controlatérale, dans les deux groupes de traitement. Cependant, la DMO des zones corticospongieuses médiale et latérale est plus élevée du côté opéré par rapport au côté non opéré avec la cupule en chrome cobalt de la RH; (p=0,014 et 0,031 respectivement). Alors que pour la PTH avec une cupule en titane, la différence de la DMO au niveau de ces zones n’est pas significative; (p=0,130 et 0,733). Ces données semblent démontrer qu’avec des cupules plus rigides, il y a transfert des contraintes de charges vers la périphérie corticale. C’est la première étude à évaluer le remodelage osseux péri acétabulaire avec un RH. Cela montre que la DMO est relativement préservée et que le transfert des contraintes vers la périphérie peut être favorable au maintien de la stabilité de l’implant primaire et aux éventuelles révisions de la cupule press-fit du RH.
Resumo:
Les comparaisons temporelles sont essentielles pour s’évaluer. Plusieurs études se sont intéressées aux conséquences négatives d’être insatisfait à la suite de comparaisons temporelles désavantageuses (c.-à.-d., à la privation relative). Peu d’étude a toutefois examiné l’évolution de ce sentiment d’insatisfaction. Le présent mémoire propose que ressentir différents niveaux d’insatisfaction au fil du temps, soit une trajectoire instable d’insatisfaction, affecte négativement le bien-être psychologique. Trois études expérimentales ont été menées. Les résultats révèlent que percevoir une trajectoire instable d’insatisfaction affecte négativement le bien-être psychologique. Une quatrième étude corrélationnelle a été menée au Kirghizstan afin d’examiner si les perceptions d’insatisfaction et d’instabilité mesurées à fil de l’histoire d’un groupe sont associées au bien-être psychologique lors de changements sociaux. Les résultats suggèrent que percevoir un haut niveau d’instabilité et d’insatisfaction au fil du temps est associé négativement au bien-être. Les implications théoriques et méthodologiques sont discutées.
Resumo:
Nous présentons un modèle pour l’irradiance solaire spectrale entre 200 et 400 nm. Celui-ci est une extension d’un modèle d’irradiance solaire totale basé sur la simulation de la fragmentation et l’érosion des taches qui utilise, en entrée, les positions et aires des taches observées pour chaque pas de temps d’une journée. L’émergence des taches sur la face du Soleil opposée à la Terre est simulée par une injection stochastique. Le modèle simule ensuite leur désintégration, qui produit des taches plus petites et des facules. Par la suite, l’irradiance est calculée en sommant la contribution des taches, des facules et du Soleil inactif. Les paramètres libres du modèle sont ajustés en comparant les séquences temporelles produites avec les données provenant de divers satellites s’étalant sur trois cycles d’activité. Le modèle d’irradiance spectrale, quant à lui, a été obtenu en modifiant le calcul de la contribution des taches et des facules, ainsi que celle du Soleil inactif, afin de tenir compte de leur dépendance spectrale. Le flux de la photosphère inactive est interpolé sur un spectre synthétique non magnétisé, alors que le contraste des taches est obtenu en calculant le rapport du flux provenant d’un spectre synthétique représentatif des taches et de celui provenant du spectre représentatif du Soleil inactif. Le contraste des facules est quand à lui calculé avec une procédure simple d’inversion de corps noir. Cette dernière nécessite l’utilisation d’un profil de température des facules obtenu à l’aide de modèles d’atmosphère. Les données produites avec le modèle d’irradiance spectrale sont comparées aux observations de SOLSTICE sur UARS. L’accord étant peu satisfaisant, particulièrement concernant le niveau d’irradiance minimal ainsi que l’amplitude des variations, des corrections sont appliquées sur le flux du Soleil inactif, sur le profil de température des facules, ainsi qu’à la dépendance centre-bord du contraste des facules. Enfin, un profil de température des facules est reconstruit empiriquement en maximisant l’accord avec les observations grâce à un algorithme génétique. Il est utilisé afin de reconstruire les séquences temporelles d’irradiance jusqu’en 1874 à des longueurs d’ondes d’intérêt pour la chimie et la dynamique stratosphérique.
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
L’obésité et la sédentarité sont considérées comme des problèmes importants de santé publique. L’augmentation de l’activité physique est une des stratégies recommandées pour obtenir un bilan énergétique positif dans les interventions de perte de poids. Deux accéléromètres, le Sensewear Armband (SWA) et l’Actical (ACT), sont des outils simples à utiliser en recherche clinique, mais à notre connaissance, aucune étude n’a évalué leur capacité à détecter des hausses de la dépense énergétique. De plus, très peu d’études, avec des résultats par ailleurs contradictoires, ont été effectuées afin de déterminer la fiabilité de ces accéléromètres pour la mesure de la dépense énergétique au repos et au cours d’une activité physique au vélo stationnaire. Ainsi, les objectifs de cette étude étaient: 1) évaluer, pendant 3 journées consécutives, la reproductibilité des valeurs de la dépense énergétique obtenues avec le SWA et l’ACT, au repos et au cours d’une activité physique de 45 minutes sur un vélo stationnaire, 2) déterminer la capacité de ces accéléromètres à détecter des hausses de 5% et 10 % de la dépense énergétique totale (DET) au moyen de la modification d’une activité physique au tapis roulant pendant 45 minutes. Cette étude transversale effectuée auprès de 20 sujets en santé, âgés de 20 à 32 ans et avec un IMC moyen de 23 kg/m2, consistait en 5 visites à la clinique. Les 3 dernières visites, sous supervision directe pendant 10 heures, comportaient des activités programmées sur le vélo stationnaire et la marche sur tapis roulant pendant 45 minutes. Les résultats montrent que le SWA et l’ACT donnent des valeurs reproductibles pour estimer la dépense énergétique au repos et la dépense énergétique au vélo (corrélations intra classe, p<0,001). Par contre, pour des hausses préétablies de la DET de 5% et 10%, les estimations respectives obtenues étaient de 1,4% et 7,8% avec le SWA et de 3,4% et 13,1% avec l’ACT. Le SWA sous-estime les hausses de 5% et de 10% et l’ACT sous-estime la hausse de 5% et surestime la hausse de 10% de la DET. Plus de recherches sont nécessaires avant de confirmer l’usage du SWA et de l’ACT dans l’estimation des hausses de la dépense énergétique totale.
Resumo:
Notre aptitude à déterminer si un extrait de musique est gai ou triste réside dans notre capacité à extraire les caractéristiques émotionnelles de la musique. Une de ces caractéristiques, le mode, est liée aux hauteurs musicales et une autre, le tempo, est temporelle (Hevner, 1937; 1935). Une perception déficitaire de l’une de ces caractéristiques (ex. les hauteurs) devrait affecter l’expérience émotionnelle. L’amusie congénitale est caractérisée par un traitement anormal des hauteurs (Peretz, 2008). Toutefois, peu de données ont été accumulées sur les réponses émotionnelles des amusiques face à la perception du mode. La perception émotionnelle liée à celui-ci pourrait être préservée, chez les amusiques en raison de leur perception implicite des hauteurs (Peretz, et coll., 2009). Dans un premier temps, cette étude cherchera à déterminer dans quelle mesure les amusiques adultes utilisent le mode relativement au tempo dans la distinction d’une pièce gaie, d’une triste. Dans cette optique, onze amusiques et leurs contrôles appariés ont jugé des extraits de musique classique gais et tristes, dans leur forme originale et dans deux versions modifiées : (1) mode inversé (transcrit dans le mode opposé mineur ↔ majeur) et (2) tempo neutralisé (réglé à une valeur médiane), où le mode émerge comme caractéristique dominante. Les participants devaient juger si les extraits étaient gais ou tristes sur une échelle de 10-points, pendant que leurs réponses électromyographiques (zygomatique et corrugateur) étaient enregistrées. Les participants ont par la suite été réinvités au laboratoire pour réaliser une tâche non émotionnelle de discrimination des modes (majeur, mineur), dans laquelle des paires de stimuli composés de versions plus courtes des extraits originaux et leur version au mode inversé leur étaient présentées. Les participants (14; 7 amusiques) devaient juger si les paires étaient identiques (même stimulus, même mode) ou différentes (même stimulus, modes différents). Dans cette dernière tâche, les amusiques ont eu plus de difficulté que leurs contrôles à discriminer les modes, mais les amusiques comme leurs contrôles se sont montrés sensibles aux manipulations du mode et du tempo, dans la tâche émotionnelle. Ces résultats supportés par des réponses EMG normales présupposent des habiletés préservées ou implicites de traitement tonal dans l’amusie congénitale.