508 resultados para Fluctuations du taux de change


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les antipsychotiques de deuxième génération (ADG) sont de plus en plus employés dans le traitement de troubles psychiatriques. Selon de nombreuses observations cliniques, les effets secondaires reliés à la prise d’ADG diffèrent chez les patients atteints de schizophrénie (SCZ) et de maladies affectives (MA) éprouvent divers. Ainsi, il s’avère nécessaire d’étudier la fréquence et l'intensité des effets secondaires induits par les ADG qui pourraient différer selon le diagnostic. Pour ce faire, nous avons effectué une revue systématique de la littérature afin d’identifier l’ensemble des études rapportant les effets secondaires de cinq ADG (aripiprazole, olanzapine, quétiapine, rispéridone et ziprasidone) dans le traitement de la schizophrénie ou des maladies affectives. Les effets secondaires métaboliques et extrapyramidaux ont été recueillis séparément pour les deux groupes de patients, puis ont été combinés dans une méta-analyse. Des méta-régressions ainsi que des sous-analyses ont également été effectuées dans le but de regarder l’effet de différents modérateurs (i.e. âge, genre, et dose). Dans la présente méta-analyse, 107 études ont été inclues. Les résultats montrent que le traitement avec l’olanzapine a occasionné une plus importante prise de poids chez les patients SCZ comparativement aux patients MA. De plus, le traitement à la quétiapine a amené une hausse significative du taux de LDL et de cholestérol total dans le groupe SCZ par rapport au groupe MA. Selon nos résultats, les symptômes extrapyramidaux étaient plus fréquents dans le groupe MA, excepté pour le traitement à l'olanzapine qui a induit davantage de ces symptômes chez les patients SCZ. Également, nos résultats suggèrent que les patients SCZ seraient plus vulnérables à certains effets métaboliques induits par les ADG dû à une possible susceptibilité génétique ou à la présence de facteurs de risque associés au style de vie. D'autre part, les patients MA en comparaison aux SCZ étaient plus enclins à souffrir de troubles du mouvement induits par les ADG. Bref, les ADG semblent exacerber certains types d’effets secondaires tout dépendant de la maladie dans laquelle on les utilise.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il est bien connu que les immigrants rencontrent plusieurs difficultés d’intégration dans le marché du travail canadien. Notamment, ils gagnent des salaires inférieurs aux natifs et ils sont plus susceptibles que ces derniers d’occuper des emplois précaires ou pour lesquels ils sont surqualifiés. Dans cette recherche, nous avons traité de ces trois problèmes sous l’angle de la qualité d’emploi. À partir des données des recensements de la population de 1991 à 2006, nous avons comparé l’évolution de la qualité d’emploi des immigrants et des natifs au Canada, mais aussi au Québec, en Ontario et en Colombie-Britannique. Ces comparaisons ont mis en évidence la hausse du retard de qualité d’emploi des immigrants par rapport aux natifs dans tous les lieux analysés, mais plus particulièrement au Québec. Le désavantage des immigrants persiste même lorsqu’on tient compte du capital humain, des caractéristiques démographiques et du taux de chômage à l’entrée dans le marché du travail. La scolarité, l’expérience professionnelle globale et les connaissances linguistiques améliorent la qualité d’emploi des immigrants et des natifs. Toutefois, lorsqu’on fait la distinction entre l’expérience de travail canadienne et l’expérience de travail étrangère, on s’aperçoit que ce dernier type d’expérience réduit la qualité d’emploi des immigrants. Dans ces circonstances, nous trouvons incohérent que le Canada et le Québec continuent à insister sur ce critère dans leur grille de sélection des travailleurs qualifiés. Pour valoriser les candidats les plus jeunes ayant peu d’expérience de travail dans leur pays d’origine, nous suggérons d’accroître l’importance accordée à l’âge dans ces grilles au détriment de l’expérience. Les jeunes, les étudiants étrangers et les travailleurs temporaires qui possèdent déjà une expérience de travail au Canada nous apparaissent comme des candidats à l’immigration par excellence. Par contre, les résultats obtenus à l’aide de la méthode de décomposition de Blinder-Oaxaca ont montré que l’écart de qualité d’emploi entre les immigrants et les natifs découle d’un traitement défavorable envers les immigrants dans le marché du travail. Cela signifie que les immigrants sont pénalisés au chapitre de la qualité d’emploi à la base, et ce, peu importe leurs caractéristiques. Dans ce contexte, la portée de tout ajustement aux grilles de sélection risque d’être limitée. Nous proposons donc d’agir également en aval du problème à l’aide des politiques d’aide à l’intégration des immigrants. Pour ce faire, une meilleure concertation entre les acteurs du marché du travail est nécessaire. Les ordres professionnels, le gouvernement, les employeurs et les immigrants eux-mêmes doivent s’engager afin d’établir des parcours accélérés pour la reconnaissance des compétences des nouveaux arrivants. Nos résultats indiquent aussi que le traitement défavorable à l’égard des immigrants dans le marché du travail est plus prononcé au Québec qu’en Ontario et en Colombie-Britannique. Il se peut que la société québécoise soit plus réfractaire à l’immigration vu son caractère francophone et minoritaire dans le reste de l’Amérique du Nord. Pourtant, le désir de protéger la langue française motive le Québec à s’impliquer activement en matière d’immigration depuis longtemps et la grille de sélection québécoise insiste déjà sur ce critère. D’ailleurs, près des deux tiers des nouveaux arrivants au Québec connaissent le français en 2011.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les données provenant de l'échantillonnage fin d'un processus continu (champ aléatoire) peuvent être représentées sous forme d'images. Un test statistique permettant de détecter une différence entre deux images peut être vu comme un ensemble de tests où chaque pixel est comparé au pixel correspondant de l'autre image. On utilise alors une méthode de contrôle de l'erreur de type I au niveau de l'ensemble de tests, comme la correction de Bonferroni ou le contrôle du taux de faux-positifs (FDR). Des méthodes d'analyse de données ont été développées en imagerie médicale, principalement par Keith Worsley, utilisant la géométrie des champs aléatoires afin de construire un test statistique global sur une image entière. Il s'agit d'utiliser l'espérance de la caractéristique d'Euler de l'ensemble d'excursion du champ aléatoire sous-jacent à l'échantillon au-delà d'un seuil donné, pour déterminer la probabilité que le champ aléatoire dépasse ce même seuil sous l'hypothèse nulle (inférence topologique). Nous exposons quelques notions portant sur les champs aléatoires, en particulier l'isotropie (la fonction de covariance entre deux points du champ dépend seulement de la distance qui les sépare). Nous discutons de deux méthodes pour l'analyse des champs anisotropes. La première consiste à déformer le champ puis à utiliser les volumes intrinsèques et les compacités de la caractéristique d'Euler. La seconde utilise plutôt les courbures de Lipschitz-Killing. Nous faisons ensuite une étude de niveau et de puissance de l'inférence topologique en comparaison avec la correction de Bonferroni. Finalement, nous utilisons l'inférence topologique pour décrire l'évolution du changement climatique sur le territoire du Québec entre 1991 et 2100, en utilisant des données de température simulées et publiées par l'Équipe Simulations climatiques d'Ouranos selon le modèle régional canadien du climat.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le taux de participation sportive chez les jeunes canadiens décroît d’année en année et tend à diminuer avec l’âge. La chute plus marquée du taux de pratique sportive lors de l’entrée au secondaire est notamment bien documentée. Cette étude s’intéresse aux obstacles et aux raisons de la pratique sportive ainsi qu’au plaisir ressenti en sport et dans le contexte du cours d’éducation physique. Une méthodologie quantitative a été utilisée pour cette étude. La collecte des données a été réalisée via une enquête par questionnaire accessible en ligne. L’échantillon de convenance est composé de 2001 élèves francophones de la première à la cinquième secondaire qui fréquentaient, au moment de l’étude, un établissement scolaire canadien et francophone. Parmi ces jeunes, 367 d’entre eux ont été inclus dans la catégorie des sportifs (fréquence minimale de pratique sportive de quatre heures par semaine), 241 ex-sportifs et 142 non-sportifs, pour un total de 750 répondants inclus aux analyses. Les résultats indiquent que, de façon générale, l’obstacle le plus important vise les contraintes temporelles, alors que les raisons les plus importantes renvoient à la sensation de plaisir ressenti lors de l’activité sportive elle-même. Les résultats suggèrent par ailleurs des différences selon le type de sportif, l’âge et le sexe des jeunes. Les sportifs ressentiraient un plaisir sportif supérieur à celui des ex-sportifs lors de la pratique sportive et dans le cours d’éducation physique. Les filles sont plus enclines que les garçons à considérer les obstacles inclus dans cette étude comme des obstacles à la pratique sportive. Les obstacles semblent également être de plus en plus nombreux avec l’âge. Bien qu’une corrélation significative ait été observée entre le plaisir sportif en éducation physique et dans la pratique sportive organisée, les résultats indiquent que le plaisir sportif en éducation physique est plus élevé que le plaisir ressenti dans la pratique sportive organisée.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La phobie sociale est le plus souvent décrite comme suivant une trajectoire chronique. Afin de modifier ce cours clinique, plusieurs protocoles de traitement ont été développés, leur efficacité ayant été démontrée dans de nombreuses études. Toutefois, est-ce que les gains rapportés se maintiennent des années suivant la fin du traitement? Cette dissertation avait pour objectif d’examiner cette question. Une recension d’études a d’abord permis d’effectuer une analyse critique des évidences relatives à la durabilité des effets thérapeutiques des traitements contemporains. Cette recension a permis de constater que les études ayant inclus une période de suivi excédant un an sont peu nombreuses. Lorsque de telles études ont été recensées, la réduction de l’anxiété s’est avérée la retombée thérapeutique principalement investiguée. Les évidences demeurent parcellaires concernant la durabilité des gains sur d’autres dimensions de la phobie sociale, en l’occurrence le fonctionnement social, et quant au maintien de la rémission. Pour combler ces lacunes, la durabilité des gains thérapeutiques, 8 à 15 ans suivant la fin d’un traitement d’approche interpersonnelle (AI), a été évaluée. Cette approche vise la dissolution du pattern global d’auto-protection, en améliorant la participation sociale et en facilitant le développement de modes relationnels plus adaptés. Cinquante-huit individus, satisfaisant initialement les critères de la phobie sociale, ont pris part à cette étude. Ces derniers ont rapporté des gains significatifs, jusqu’à une relance d’un an suivant la fin du traitement. L’évolution de l’anxiété sociale, de la détresse générale et du fonctionnement social, de la relance d’un an à la relance de 8 à 15 ans, a donc été évaluée. La signification statistique et clinique des effets obtenus dans le temps, de même que les différences individuelles, ont été examinées. Les résultats révèlent que le protocole de traitement AI a produit des effets durables depuis la relance d’un an sur les variables examinées. La plupart des participants en rémission à la relance d’un an l’étaient encore une dizaine d’années plus tard. Les participants ayant rapporté une réduction cliniquement significative de la détresse sociale un an suivant la fin du traitement ont connu une trajectoire similaire. Une augmentation significative du taux de rémission a également été constatée. Une analyse fonctionnelle a d’ailleurs révélé une amélioration des répertoires de comportements sociaux chez la majorité des participants, suggérant une dynamique de changement reflétant le passage de l’auto-protection à la participation sociale. Par ailleurs, une hypothèse issue de la perspective interpersonnelle de la phobie sociale et de son traitement a été étayée : une convergence des changements relevés sur les dimensions anxieuse et interpersonnelle a été notée. En somme, l’ensemble de ces résultats soutient l’efficacité à long terme du traitement AI.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Objectif : La néphrectomie partielle est reconnue actuellement comme le traitement de choix des tumeurs de moins de 7 cm. Le but de notre étude est de comparer le taux de mortalité lié au cancer du rein suite au traitement par néphrectomie partielle ou radicale chez les patients de stade T1b, de présenter la tendance temporelle du taux d'intervention par néphrectomie partielle pour les tumeurs de stade T1b et d’identifier les facteurs sociodémographiques et tumoraux qui influencent le choix thérapeutique entre les deux types de traitement chirurgical. Méthode : Il s’agit d’une étude épidémiologique de type rétrospective. La population de patients provient de la base de donnée SEER (Surveillance, Epidemiology, and End Results) qui regroupe une grande proportion de la population nord-américaine. Dans notre étude, nous avons utilisé l’analyse par régression logistique pour identifier les facteurs sociodémographiques associés à l'intervention par néphrectomie partielle. Dans un deuxième temps, nous avons comparé la mortalité liée au cancer entre les deux options chirurgicales, après association par score de tendance pour diminuer les différences de base entre les deux populations. Nos critères étaient l’âge, la race, le sexe, l’état civil, le niveau socioéconomique, la taille tumorale, le grade nucléaire, l’histologie et la localité du centre hospitalier. L’analyse des données a été faite par le logiciel SPSS. Résultats : Le taux d'interventions par néphrectomie partielle a augmenté de 1,2% en 1988 à 15,9% en 2008 (p <0,001). Les jeunes patients, les tumeurs de petite taille, les patients de race noire, ainsi que les hommes sont plus susceptibles d'être traités par néphrectomie partielle (tous les p < 0,002). Parmi le groupe ciblé, le taux de mortalité lié au cancer à 5 ans et à 10 ans est de 4,4 et de 6,1% pour les néphrectomies partielles et de 6,0 et 10,4% pour les néphrectomies radicales (p = 0,03). Après ajustement de toutes les autres variables, les analyses de régression montrent que le choix entre les deux types de néphrectomie n’est pas associé à la mortalité lié au cancer (hazard ratio: 0,89, p = 0,5). Conclusion : Malgré un contrôle oncologique équivalent, le taux d'intervention par néphrectomie partielle chez les patients ayant un cancer du rein T1b est faible en comparaison à la néphrectomie radicale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

De nombreux travailleurs sont exposés aux hydrocarbures aromatiques polycycliques (HAP). Le benzo(a)pyrène (BaP) fait partie de ce groupe de polluants. Cette substance a été classée cancérogène reconnu chez l’humain. Pour évaluer l'exposition aux HAP cancérogènes, plusieurs chercheurs ont proposé d’utiliser la mesure du 3-hydroxybenzo(a)pyrène (3-OHBaP) dans l’urine des travailleurs exposés. Dans le cadre du présent projet, deux approches de modélisation ont été développées et appliquées pour permettre une meilleure compréhension de la toxicocinétique du BaP et son biomarqueur d’intérêt actuel, le 3-OHBaP, et pour aider à interpréter les résultats de surveillance biologique. Un modèle toxicocinétique à plusieurs compartiments a été développé sur la base des données préalablement obtenues sur le rat par notre groupe. Selon le modèle, le BaP injecté par voie intraveineuse est rapidement distribué du sang vers les tissus (t½ ≈ 4 h), avec une affinité particulière pour les poumons et les composantes lipidiques des tissus. Le BaP est ensuite distribué vers la peau et le foie. Au foie, le BaP est promptement métabolisé et le 3-OHBaP est formé avec une demi-vie de ≈ 3 h. Le métabolisme pulmonaire du BaP a également été pris en compte, mais sa contribution à la cinétique globale du BaP a été jugée négligeable. Une fois formé, le 3-OHBaP est distribué vers les différents organes presque aussi rapidement que la molécule mère (t½ ≈ 2 h). Le profil temporel du 3-OHBaP dans le rein montre une accumulation transitoire en raison de la différence observée entre le taux d’entrée (t½ = 28 min) et le taux de sortie (t½ = 4,5 h). La clairance totale de 3-OHBaP du corps est principalement gouvernée par le taux de transfert de la bile vers le tractus gastro-intestinal (t½ ≈ 4 h). Le modèle toxicocinétique à plusieurs compartiments a réussi à simuler un ensemble indépendant de profils urinaires publiés sur le 3-OHBaP. Ce modèle toxicocinétique à compartiments s'est avéré utile pour la determination des facteurs biologiques déterminants de la cinétique du BaP et du 3-OHBaP. Par la suite, un modèle pharmacocinétique à base physiologique (PCBP) reproduisant le devenir du BaP et du 3-OHBaP chez le rat a été construit. Les organes (ou tissus) représentés comme des compartiments ont été choisis en fonction de données expérimentales obtenues in vivo chez le rat. Les coefficients de partition, les coefficients de perméabilité, les taux de métabolisation, les paramètres d'excrétion, les fractions absorbées et les taux d'absorption pour différentes voies d’exposition ont été obtenus directement à partir des profils sanguins, tissulaires, urinaires et fécaux du BaP et du 3-OHBaP. Les valeurs de ces derniers paramètres ont été calculées par des procédures Monte-Carlo. Des analyses de sensibilité ont ensuite été réalisées pour s’assurer de la stabilité du modèle et pour établir les paramètres les plus sensibles de la cinétique globale. Cette modélisation a permis d’identifier les facteurs déterminants de la cinétique: 1) la sensibilité élevée des paramètres de la métabolisation hépatique du BaP et du 3-OHBaP ainsi que du taux d'élimination; 2) la forte distribution du BaP dans les poumons par rapport à d'autres tissus; 3) la distribution considérable du BaP dans les tissus adipeux et le foie; 4) la forte distribution du 3-OHBaP dans les reins; 5) le transfert limité du BaP par la diffusion tissulaire dans les poumons; 6) le transfert limité du 3-OHBaP par la diffusion tissulaire dans les poumons, les tissus adipeux et les reins; 7) la recirculation entéro-hépatique significative du 3-OHBaP. Suite à des analyses de qualité des ajustements des équations du modèle aux données observées, les probabilités que les simulations reproduisent les données expérimentales par pur hasard se sont avérées toujours inférieures à 10% pour les quatre voies d’exposition : intraveineuse, orale, cutanée et respiratoire. Nous avons extrapolé les modèles cinétiques du rat à l’humain afin de se doter d’un outil permettant de reconstituer les doses absorbées chez des travailleurs exposés dans diverses industries à partir de mesures de l'évolution temporelle du 3-OHBaP dans leur urine. Les résultats de ces modélisations ont ensuite été comparés à ceux de simulations obtenues avec un modèle toxicocinétique à compartiment unique pour vérifier l’utilité comparative d’un modèle simple et complexe. Les deux types de modèle ont ainsi été construits à partir de profils sanguins, tissulaires, urinaires et fécaux du BaP et du 3-OHBaP sur des rats exposés. Ces données ont été obtenues in vivo par voie intraveineuse, cutanée, respiratoire et orale. Ensuite, les modèles ont été extrapolés à l’humain en tenant compte des déterminants biologiques essentiels des différences cinétiques entre le rat et l’humain. Les résultats ont montré que l'inhalation n'était pas la principale voie d'exposition pour plusieurs travailleurs étudiés. Les valeurs de concentrations de BaP dans l’air utilisées afin de simuler les profils d’excrétion urinaire chez les travailleurs étaient différentes des valeurs de concentrations de BaP mesurées dans l’air. Une exposition au BaP par voie cutanée semblait mieux prédire les profils temporels observés. Finalement, les deux types de modélisation se sont avérés utiles pour reproduire et pour interpréter les données disponibles chez des travailleurs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les mesures cosmologiques les plus récentes ont montré la présence d’un type de matière exotique constituant 85% de la masse de l’univers. Ce type de matière non baryonique serait formé de particules neutres, non relativistes, massives et interagissant faiblement avec la matière baryonique. L’ensemble des candidats est regroupé sous le nom générique WIMP (Weakly Interactive Massive Particles). L’expérience PICASSO (Projet d’Identification des CAndidats Supersymétriques de la matière SOmbre) est une expérience utilisant des détecteurs à seuil d’énergie contenant des gouttelettes surchauffées constituées de C4F10. Cette technique de détection est basée sur le principe de la chambre à bulles. Le projet PICASSO a pour but de détecter directement une particule de matière sombre. Le principe de détection est qu’une particule de matière sombre interagissant avec le liquide actif engendre un recul nucléaire du 19F. L’énergie de recul serait suffisante pour engendrer une transition de phase accompagnée d’un signal acoustique enregistrée par des senseurs piézoélectriques. Dans le cadre de ce mémoire, une simulation du taux de comptage de l’étalonnage des détecteurs PICASSO soumis à des neutrons monoénergétiques a été effectuée en utilisant la théorie de Seitz qui décrit les critères pour qu’une transition de phase ait lieu pour un liquide en état de surchauffe. De plus, un modèle calculant le signal acoustique émis lors d’une transition de phase engendré par différents types de radiations a été créé permettant de caractériser la discrimination entre différents bruits de fond en fonction de l’énergie de seuil. Finalement, un outil d’analyse, la localisation des évènements, a été utilisé pour appliquer des coupures sur le volume dans le but d’améliorer la discrimination alpha-neutron.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans le sillage de la récession mondiale de 2008-09, plusieurs questions ont été soulevées dans la littérature économique sur les effets à court et à long terme de la politique budgétaire sur l’activité économique par rapport à son signe, sa taille et sa durée. Ceux-ci ont des implications importantes pour mieux comprendre les canaux de transmission et l’efficacité des politiques budgétaires, avec la politique monétaire étant poursuivi, ainsi que pour leurs retombées économiques. Cette thèse fait partie de ce regain d’intérêt de la littérature d’examiner comment les changements dans la politique budgétaire affectent l’activité économique. Elle repose alors sur trois essais: les effets macroéconomiques des chocs de dépenses publiques et des recettes fiscales, les résultats macroéconomiques de l’interaction entre les politiques budgétaire et monétaire et le lien entre la politique budgétaire et la répartition des revenus. Le premier chapitre examine les effets des chocs de politique budgétaire (chocs de dépenses publiques et chocs de recettes fiscales) sur l’économie canadienne au cours de la période 1970-2010, en s’appuyant sur la méthode d’identification des restrictions de signe développée par Mountford et Uhlig [2009]. En réponse à la récession mondiale, les autorités fiscales dans les économies avancées, dont le Canada ont généralement mis en oeuvre une approche en deux phases pour la politique budgétaire. Tout d’abord, ils ont introduit des plans de relance sans précédent pour relancer leurs économies. Par exemple, les mesures de relance au Canada, introduites à travers le Plan d’action économique du Canada, ont été projetées à 3.2 pour cent du PIB dans le budget fédéral de 2009 tandis que l’ "American Recovery and Reinvestment Act"(ARRA) a été estimé à 7 pour cent du PIB. Par la suite, ils ont mis en place des plans d’ajustement en vue deduire la dette publique et en assurer la soutenabilité à long terme. Dans ce contexte, évaluer les effets multiplicateurs de la politique budgétaire est important en vue d’informer sur l'efficacité de telles mesures dans la relance ou non de l'activité économique. Les résultats montrent que les multiplicateurs d'impôt varient entre 0.2 et 0.5, tandis que les multiplicateurs de dépenses varient entre 0.2 et 1.1. Les multiplicateurs des dépenses ont tendance à être plus grand que les multiplicateurs des recettes fiscales au cours des deux dernières décennies. Comme implications de politique économique, ces résultats tendent à suggérer que les ajustements budgétaires par le biais de grandes réductions de dépenses publiques pourraient être plus dommageable pour l'économie que des ajustements budgétaires par la hausse des impôts. Le deuxième chapitre, co-écrit avec Constant Lonkeng Ngouana, estime les effets multiplicateurs des dépenses publiques aux Etats-Unis en fonction du cycle de la politique monétaire. Les chocs de dépenses publiques sont identifiés comme étant des erreurs de prévision du taux de croissance des dépenses publiques à partir des données d'Enquêtes des prévisionnistes professionnels et des informations contenues dans le "Greenbook". L'état de la politique monétaire est déduite à partir de la déviation du taux des fonds fédéraux du taux cible de la Réserve Fédérale, en faisant recours à une fonction lisse de transition. L'application de la méthode des «projections locales» aux données trimestrielles américaines au cours de la période 1965-2012 suggère que les effets multiplicateurs des dépenses fédérales sont sensiblement plus élevées quand la politique monétaire est accommodante que lorsqu'elle ne l'est pas. Les résultats suggèrent aussi que les dépenses fédérales peuvent stimuler ou non la consommation privée, dépendamment du degré d’accommodation de la politique monétaire. Ce dernier résultat réconcilie ainsi, sur la base d’un cadre unifié des résultats autrement contradictoires à première vue dans la littérature. Ces résultats ont d'importantes implications de politique économique. Ils suggèrent globalement que la politique budgétaire est plus efficace lorsqu'on en a le plus besoin (par exemple, lorsque le taux de chômage est élevé), si elle est soutenue par la politique monétaire. Ils ont également des implications pour la normalisation des conditions monétaires dans les pays avancés: la sortie des politiques monétaires non-conventionnelles conduirait à des multiplicateurs de dépenses fédérales beaucoup plus faibles qu'autrement, même si le niveau de chômage restait élevé. Ceci renforce la nécessité d'une calibration prudente du calendrier de sortie des politiques monétaires non-conventionnelles. Le troisième chapitre examine l'impact des mesures d'expansion et de contraction budgétaire sur la distribution des revenus dans un panel de 18 pays d'Amérique latine au cours de la période 1990-2010, avec un accent sur les deniers 40 pour cent. Il explore alors comment ces mesures fiscales ainsi que leur composition affectent la croissance des revenus des dernier 40 pour cent, la croissance de leur part de revenu ainsi que la croissance économique. Les mesures d'expansion et de contraction budgétaire sont identifiées par des périodes au cours desquels il existe une variation significative du déficit primaire corrigé des variations conjoncturelles en pourcentage du PIB. Les résultats montrent qu'en moyenne l'expansion budgétaire par la hausse des dépenses publiques est plus favorable à la croissance des revenus des moins bien-nantis que celle par la baisse des impôts. Ce résultat est principalement soutenu par la hausse des dépenses gouvernementales de consommation courante, les transferts et subventions. En outre ces mesures d’expansion budgétaire sont favorables à la réduction des inégalités car elles permettent d'améliorer la part des revenus des moins bien-nantis tout en réduisant la part des revenus des mieux-nantis de la distribution des revenus. En outre ces mesures d’expansion budgétaire sont favorables à la réduction des inégalités car elles permettent d'améliorer la part des revenus des moins bien-nantis tout en réduisant la part des revenus des mieux-nantis de la distribution des revenus. Cependant, l'expansion budgétaire pourrait soit n'avoir aucun effet sur la croissance économique ou entraver cette dernière à travers la hausse des dépenses en capital. Les résultats relatifs à la contraction budgétaire sont quelque peu mitigés. Parfois, les mesures de contraction budgétaire sont associées à une baisse de la croissance des revenus des moins bien nantis et à une hausse des inégalités, parfois l'impact de ces mesures est non significatif. Par ailleurs, aucune des mesures n’affecte de manière significative la croissance du PIB. Comme implications de politique économique, les pays avec une certaine marge de manœuvre budgétaire pourraient entamer ou continuer à mettre en œuvre des programmes de "filets de sauvetage"--par exemple les programmes de transfert monétaire conditionnel--permettant aux segments vulnérables de la population de faire face à des chocs négatifs et aussi d'améliorer leur conditions de vie. Avec un potentiel de stimuler l'emploi peu qualifié, une relance budgétaire sage par les dépenses publique courantes pourrait également jouer un rôle important pour la réduction des inégalités. Aussi, pour éviter que les dépenses en capital freinent la croissance économique, les projets d'investissements publics efficients devraient être prioritaires dans le processus d'élaboration des politiques. Ce qui passe par la mise en œuvre des projets d'investissement avec une productivité plus élevée capable de générer la croissance économique nécessaire pour réduire les inégalités.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les progresseurs lents du VIH-1 sont de rares sujets asymptomatiques pendant plusieurs années sans thérapie antirétrovirale. Parmi ces sujets à progression lente vers le SIDA, il est possible qu’un sous-groupe perde le contrôle de leur infection après plusieurs années de contrôle. Notre laboratoire a analysé l’expression différentielle de différentes protéines et voies moléculaires associées à la perte de contrôle de l’infection: l’interleukine-32 (IL-32) est une cytokine pro-inflammatoire dont le niveau des isoformes alpha et delta a significativement diminué chez les progresseurs lents lors de la perte de contrôle. Par ailleurs, des études antérieures ont attribué, de façon intrigante, à l’IL-32 aussi bien des propriétés anti-VIH-1 que des propriétés immunosuppressives induisant un environnement propice à la réplication du VIH-1. Ce projet de maitrise s’est penché sur l’implication de l’IL-32 dans la progression de l’infection à VIH-1 avec un accent particulier sur les progresseurs lents. Nous avons principalement mesuré les niveaux d’IL-32 des sujets séropositifs comparativement aux sujets VIH négatif et estimé les fonctions de cette cytokine à travers des études longitudinales et de corrélation. Nous avons observé que l’IL-32 total demeure plus élevé chez les séropositifs comparativement aux sujets VIH négatif. Également, l’infection par le VIH-1 entraine une augmentation du niveau d’IL-32 total. De plus, après une année de thérapie antirétrovirale, les taux plasmatiques d’IL-32 total demeurent significativement plus élevés que ceux des sujets VIH négatif. Comme attendu, le taux d’IL-32 total augmente lors de la perte de contrôle de l’infection chez les progresseurs lents. Une forte concentration plasmatique d’IL-32 total coïncide avec: 1) une augmentation du taux plasmatique de sCD14 et de la cytokine pro-inflammatoire IL-6, 2) une baisse du compte cellulaire CD4 et une augmentation de la charge virale. Un taux plasmatique élevé de CCL5 pourrait prédire une faible concentration d’IL-32 total. L’isoforme alpha de l’IL-32 est plus élevée dans le plasma des sujets VIH négatif tandis que l’IL-32 gamma semble induire un environnement pro-inflammatoire et immunosuppressif. Il ressort à l’issue de ces observations que l’augmentation de l’IL-32 total est associée à la progression de l’infection à VIH-1 et pourrait constituer un biomarqueur permettant d’apprécier le pronostic de cette infection.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Certaines stratégies alimentaires sont actuellement considérées pour remplacer l’usage des antimicrobiens dans les fermes porcines. Les objectifs de cette étude étaient d'évaluer l'effet de la granulométrie et de la texture des aliments sur les concentrations d'acides gras volatils intestinaux, la composition des populations pathogènes et commensales d’E. coli et sur les performances de croissance des porcs. Des porcs d'engraissement (n= 840) ont reçu l'une des six diètes suivantes: moulée texturée 500, 750 et 1250 µm et moulée cubée 500, 750 et 1250 µm. Le gain de poids a été mesuré à chaque changement de formulation de moulée. À l'abattoir, les contenus du caecum et du côlon de 165 porcs ont été échantillonnés pour le dénombrement des E. coli par PCR quantitatif (qPCR) et pour la quantification des AGV. Le gène yccT a été utilisé pour dénombrer les E. coli totaux. Une diminution du taux de conversion alimentaire a été associée avec la moulée cubée et/ou la moulée de 500 µm. Les concentrations d’acide propionique et butyrique, et ce tant au niveau du caecum que du côlon, étaient plus élevées chez les porcs recevant de la moulée texturée que chez ceux recevant de la moulée cubée. Du point de vue de la granulométrie, les concentrations caecales et du côlon d’acide butyrique étaient plus élevées chez les porcs alimentés avec de la moulée de 1250 µm que chez ceux recevant de la moulée de 500 µm. D'autre part, les niveaux intestinaux d’E. coli totaux étaient plus élevés pour les porcs nourris avec de la moulée cubée que pour ceux ayant reçu de la moulée texturée. Les résultats ont montré que la moulée texturée est associée à des performances de croissance plus faibles mais à des changements intestinaux favorables.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette recherche appréhende le phénomène de l’abandon scolaire en contexte rural marocain à partir du point de vue privilégié des familles sur cette question. L’abandon scolaire est d’une ampleur importante dans les pays en développement, comme l’ont mentionné plusieurs rapports de l’UNESCO (2005, 2008, 2009, 2011, etc.). Plusieurs facteurs contribueraient à l’abandon scolaire des élèves: la pauvreté, le redoublement, l’échec scolaire, les effets de culture liés au genre, la qualité des écoles et des apprentissages, le travail des enfants, le cout d’opportunité, l’analphabétisme des parents, etc. (Ananga, 2011; Chedati, 2004; Diagne, 2007; Gouzi et El Aoufi, 2006; Naseer et al., 2011; Sabates, Hossain et Lewin, 2010a). La recension des écrits effectuée indique aussi différentes conséquences du phénomène sur le plan social, notamment l’augmentation du taux d’analphabétisme, la non réalisation de la scolarisation primaire universelle, ainsi que sur le plan économique, dont le taux de chômage élevé. La majorité des études qui se sont penchées sur ce phénomène sont surtout de nature économique, abordant peu la question par le point de vue des familles qui sont pourtant les premières concernées par l’abandon scolaire de leur enfant. En outre, elles sont presqu’essentiellement quantitatives, les chiffres obtenus indiquant l’importance des facteurs de risque, laissant dans l’ombre une explication en profondeur du phénomène. L’angle théorique retenu pour éclairer ce phénomène est celui de la théorie des représentations sociales développée par Moscovici (1989) qui jette une lumière sur les rapports qu’entretient un acteur ou groupe social à l’égard d’objets sociaux tels que l’éducation. Cette théorie est appuyée par les concepts de «rapport à l’école» et de «rapport au savoir» de Charlot (1992) qui permettent d’examiner comment les élèves et leurs familles se positionnent face au processus de scolarisation, à partir de la question suivante : Quelles représentations les familles de milieux ruraux ont-elles de l’école marocaine et qui participeraient au processus conduisant éventuellement à l’abandon de l’école par leur(s) enfant(s)? Quels sont leurs rapports à l’école? Pour répondre à cette question, des entretiens biographiques compréhensifs ont été menés auprès de six familles de la région rurale de Tidili; rencontrées séparément, elles se sont exprimées sur l’abandon scolaire de l’un de leurs enfants. Une analyse de contenu telle que proposée par Bardin (dans Negura, 2006) a été mobilisée sur les verbatim des entretiens pour rendre compte de leur point de vue. Celle-ci a conduit à dégager deux registres d’analyse, tels que proposés par Morrissette (2010) pour exploiter d’au plus près le matériau d’analyse. (1) Le premier s’inscrit dans une logique descriptive et restitutive; il rend compte du point de vue des familles selon deux catégories, soit le rapport à l’école et le rapport à la société. Il ressort de ce registre l’importance des rapports entre les familles et les enseignants dans le phénomène de l’abandon scolaire. (2) Le deuxième registre s’inscrit dans une logique plus conceptualisante; il propose un nouvel éclairage du point de vue des familles à partir d’une perspective interactionniste (Becker, 1982) qui permet de poser un regard transversal sur le registre précédent. C’est ainsi qu’ont émergé des négociations sociales conduisant à l’abandon scolaire d’un enfant, lesquels sont marqués par des «modes d’interaction» entre les familles et l’école et des conventions sociales, deux niveaux d’interaction qui renseignent la dynamique évolutive conduisant à l’abandon scolaire d’un enfant.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse est une collection de trois articles en macroéconomie et finances publiques. Elle développe des modèles d'Equilibre Général Dynamique et Stochastique pour analyser les implications macroéconomiques des politiques d'imposition des entreprises en présence de marchés financiers imparfaits. Le premier chapitre analyse les mécanismes de transmission à l'économie, des effets d'un ré-échelonnement de l'impôt sur le profit des entreprises. Dans une économie constituée d'un gouvernement, d'une firme représentative et d'un ménage représentatif, j'élabore un théorème de l'équivalence ricardienne avec l'impôt sur le profit des entreprises. Plus particulièrement, j'établis que si les marchés financiers sont parfaits, un ré-échelonnement de l'impôt sur le profit des entreprises qui ne change pas la valeur présente de l'impôt total auquel l'entreprise est assujettie sur toute sa durée de vie n'a aucun effet réel sur l'économie si l'état utilise un impôt forfaitaire. Ensuite, en présence de marchés financiers imparfaits, je montre qu'une une baisse temporaire de l'impôt forfaitaire sur le profit des entreprises stimule l'investissement parce qu'il réduit temporairement le coût marginal de l'investissement. Enfin, mes résultats indiquent que si l'impôt est proportionnel au profit des entreprises, l'anticipation de taxes élevées dans le futur réduit le rendement espéré de l'investissement et atténue la stimulation de l'investissement engendrée par la réduction d'impôt. Le deuxième chapitre est écrit en collaboration avec Rui Castro. Dans cet article, nous avons quantifié les effets sur les décisions individuelles d'investis-sement et de production des entreprises ainsi que sur les agrégats macroéconomiques, d'une baisse temporaire de l'impôt sur le profit des entreprises en présence de marchés financiers imparfaits. Dans un modèle où les entreprises sont sujettes à des chocs de productivité idiosyncratiques, nous avons d'abord établi que le rationnement de crédit affecte plus les petites (jeunes) entreprises que les grandes entreprises. Pour des entreprises de même taille, les entreprises les plus productives sont celles qui souffrent le plus du manque de liquidité résultant des imperfections du marché financier. Ensuite, nous montré que pour une baisse de 1 dollar du revenu de l'impôt, l'investissement et la production augmentent respectivement de 26 et 3,5 centimes. L'effet cumulatif indique une augmentation de l'investissement et de la production agrégés respectivement de 4,6 et 7,2 centimes. Au niveau individuel, nos résultats indiquent que la politique stimule l'investissement des petites entreprises, initialement en manque de liquidité, alors qu'elle réduit l'investissement des grandes entreprises, initialement non contraintes. Le troisième chapitre est consacré à l'analyse des effets de la réforme de l'imposition des revenus d'entreprise proposée par le Trésor américain en 1992. La proposition de réforme recommande l'élimination des impôts sur les dividendes et les gains en capital et l'imposition d'une seule taxe sur le revenu des entreprises. Pour ce faire, j'ai eu recours à un modèle dynamique stochastique d'équilibre général avec marchés financiers imparfaits dans lequel les entreprises sont sujettes à des chocs idiosyncratiques de productivité. Les résultats indiquent que l'abolition des impôts sur les dividendes et les gains en capital réduisent les distorsions dans les choix d'investissement des entreprises, stimule l'investissement et entraîne une meilleure allocation du capital. Mais pour être financièrement soutenable, la réforme nécessite un relèvement du taux de l'impôt sur le profit des entreprises de 34\% à 42\%. Cette hausse du taux d'imposition décourage l'accumulation du capital. En somme, la réforme engendre une baisse de l'accumulation du capital et de la production respectivement de 8\% et 1\%. Néanmoins, elle améliore l'allocation du capital de 20\%, engendrant des gains de productivité de 1.41\% et une modeste augmentation du bien être des consommateurs.