203 resultados para Normalisation
Resumo:
Preeclampsia is among the leading causes of perinatal mortality and morbidity, affecting 2-7% of pregnancies. Its incidence increases to 10-25% in already hypertensive women. To date, no treatment, aside from delivery, is known. Interestingly, several studies have reported that exercise training (ExT) can reduce preeclampsia prevalence although the available studies are considered insufficient. Therefore, the aim of this study is to determine the impact of ExT when practiced before and during gestation on pregnancy outcome in a mouse model of preeclampsia superimposed on chronic hypertension (SPE). To do so, mice overexpressing both human angiotensinogen and renin (R+A+) were used because they are hypertensive at baseline and they develop many hallmark features of SPE. Mice were trained by placing them in a cage with access to a running wheel 4 weeks before and during gestation. ExT in this study prevented the rise in blood pressure at term observed in the sedentary transgenic mothers. This may be realized through an increased activity of the angiotensin-(1-7) axis in the aorta. In addition, ExT prevented the increase in albumin/creatinine ratio. Moreover, placental alterations were prevented with training in transgenic mice, leading to improvements in placental and fetal development. Placental mRNA and circulating levels of sFlt-1 were normalized with training. Additionally, the increase in angiotensin II type I receptor and the decrease in Mas receptor protein were reversed with training. ExT appears to prevent many SPE-like features that develop in this animal model and may be of use in the prevention of preeclampsia in women.
Resumo:
Objectif : Étudier les mécanismes apoptotiques impliqués dans la néphropathie diabétique en identifiant les gènes responsables de l’apoptose et activés par les espèces réactives de l’oxygène (ROS) dans les cellules de tubules proximaux rénaux (RPTC) de différents modèles diabétiques. Méthodes : Une hybridation par puce à AND a été réalisée sur les ARN extraits à partir de RPTC de souris heterozygotes db/m+, db/db and db/db catalase (CAT)-transgénique (Tg) de 20 semaines. Des expériences de PCR en temps réel et d’immunohistochimie réalisées sur ces modèles et sur le modèle ou le diabète avait été induit par traitement au streptozotocin (STZ) ont permis de valider les gènes apoptotiques identifiés par puce à ADN. Des RPTC immortalisées de rat ont été utilisées pour montrer l’activité de ces gènes apoptotique et la régulation de leur expression. De plus, une étude additionnelle réalisée sur des sections rénales provenant de patients diabétiques et non diabétiques a démontré également une surexpression de ces gènes apoptotiques dans les IRPTC. Résultats: L’expression de Bcl-2-modifying factor (Bmf), une protéine apoptotique, semble augmentée dans les RPTC de souris db/db comparé aux souris contrôles db/m+, ou aux souris db/db CAT-tg. La surexpression de Bmf a également été identifiée dans les RPTC du modèle diabétique STZ. La normalisation de l’hyperglycémie chez ces souris par traitement à l’insuline semble normaliser également l’expression de Bmf. In vitro, la surexpression du cDNA de Bmf dans les RPTC promouvoit l’apoptose et augmente l’activité de caspase 3. La stimulation de RPTC de Rat avec le glucose élevé (25mM de D-glucose) semble augmenter l’expression de Bmf et le traitement de ces cellules avec la roténone, les Diphénylène iodonium, la catalase et l’apocynine semble renverser cette stimulation. L’inhibition de Bmf avec un siRNA semble réduire l’apoptose induite par le glucose élevé. L’expression de Bmf a également été démontrée dans les RPTC de patients diabétiques. Conclusion: Ces résultats ont démontré une surexpression de Bmf dans les RPTC de différents modèles diabétiques et suggèrent son potentiel rôle dans la régulation de l’apoptose et de l’atrophie tubulaire chez les diabétiques.
Resumo:
L’objectif de cette thèse était d’évaluer Espace de Transition (ET), un programme novateur d’intervention par les arts de la scène visant à favoriser la réadaptation psychosociale d’adolescents et de jeunes adultes présentant des troubles mentaux stabilisés et à diminuer la stigmatisation des individus aux prises avec des problèmes de santé mentale. Ce programme a été conçu par une équipe de cliniciens du département de psychiatrie du Centre hospitalier universitaire Ste-Justine, en collaboration avec des artistes professionnels, et est livré depuis le printemps 2009. L’évaluation du programme ET a été conduite de manière indépendante, selon des approches collaborative et naturaliste et en usant de méthodes mixtes. Les données de recherche ont été recueillies avant pendant et après le programme auprès de l’ensemble des participants à deux sessions distinctes (N = 24), de même qu’auprès des deux artistes instructeurs, de la psychoéducatrice responsable du soutien clinique, ainsi que des psychiatres et autres intervenants ayant référé des participants (N=11). Des entrevues semi-structurées individuelles et de groupe, des observations directes et des questionnaires ont servi à recueillir les données nécessaires à l’évaluation. Des analyses quantitatives de variance, ainsi que des analyses qualitatives thématiques ont été réalisées et leurs résultats ont été interprétés de manière intégrée. Le premier chapitre empirique de la thèse relate l’évaluation de la mise en œuvre du programme ET. Cette étude a permis de constater que le programme avait rejoint des participants correspondant de près à la population visée et que ceux-ci présentaient globalement des niveaux élevés d’assiduité, d’engagement et d’appréciation du programme. L’évaluation de la mise en œuvre a en outre permis de conclure que la plupart des composantes du programme identifiées a priori comme ses paramètres essentiels ont été livrées tel que prévu par les concepteurs et que la plupart d’entre elles ont été largement appréciées et jugées pertinentes par les participants et les autres répondants consultés. Le second chapitre empirique consiste en un article portant sur l’évaluation des effets du programme ET relativement à l’atteinte de trois de ses objectifs intermédiaires, soient l’amélioration 1) du fonctionnement global, 2) du confort relationnel et des compétences sociales, ainsi que 3) de la perception de soi des participants présentant des troubles mentaux. Les résultats de cette étude ont révélé des changements significatifs et positifs dans le fonctionnement global des participants suite au programme, tel qu’évalué par les cliniciens référents et partiellement corroboré par les participants eux-mêmes. Des améliorations en ce qui concerne le confort relationnel, les compétences sociales et la perception de soi ont également été objectivées chez une proportion substantielle de participants, bien que celles-ci ne se soient pas traduites en des différences significatives décelées par les analyses quantitatives de groupe. Le troisième et dernier chapitre empirique de la thèse relate une étude exploratoire des mécanismes sous-tendant les effets du programme ET ayant conduit à l’élaboration inductive d’une théorie d’action de ce programme. Cette investigation qualitative a révélé quatre catégories de mécanismes, soient des processus de 1) gain d’expérience et de gratification sociales, 2) de désensibilisation par exposition graduelle, 3) de succès et de valorisation, et 4) de normalisation. Cette étude a également permis de suggérer les caractéristiques et composantes du programme qui favorisent la mise en place ou l’impact de ces mécanismes, tels l’environnement et l’animation non cliniques du programme, la composition hétérogène des groupes de participants, le recours aux arts de la scène, ainsi que la poursuite d’une réalisation collective et son partage avec un public extérieur au programme. Globalement, les études présentées dans la thèse appuient la pertinence et le caractère prometteur du programme ET, tout en suggérant des pistes d’amélioration potentielle pour ses versions ultérieures. Par extension, la thèse soutient l’efficacité potentielle d’interventions réadaptatives mettant en œuvre des composantes apparentées à celles du programme ET pour soutenir le rétablissement des jeunes aux prises avec des troubles mentaux.
Resumo:
Les adolescents-hockeyeurs peuvent être affligés de troubles musculosquelettiques (TMS) résultant d’un excès de tension musculaire lequel peut mener à des déformations ou déséquilibres musculaires ainsi qu’à une attitude posturale inadéquate. Les conséquences de ces changements mènent souvent à une surcharge inutile du système musculosquelettique (SMS), à la perturbation des mécanismes du contrôle postural et éventuellement à l’apparition de douleurs musculaires et articulaires. Les interventions qui s’attaquent aux TMS par une rééquilibration de la tension musculaire sont peu nombreuses. Les interventions qui s’attaquent aux TMS par une normalisation de la tension musculaire sont peu nombreuses. La Reconstruction Posturale® (RP), testée cliniquement, est l’une d’entre elles. Dans un premier temps, cette thèse visait à identifier les caractéristiques du contrôle postural chez les adolescents-hockeyeurs de niveau élite lorsque le système somatosensoriel est mis à l’épreuve en position debout quasi statique pieds nus et en patins. Dans un deuxième temps, nous avons évalué l’impact d’une intervention en RP sur des variables cliniques et biomécaniques, chez ces athlètes qui souffrent de TMS. Soixante-sept adolescents-hockeyeurs de niveau élite âgés de 15 à 18 ans ont participé à l’étude. Le contrôle postural de cinquante-sept joueurs a été évalué en position debout sur deux plateformes de force les yeux ouverts et les yeux fermés, pieds nus sur une surface dure et sur une mousse. De ce groupe, trente-cinq sujets ont également été évalués en patins, les yeux ouverts et les yeux fermés. Par la suite, neuf adolescents-hockeyeurs souffrant de TMS, ont été sélectionnés pour participer au protocole d’intervention thérapeutique en RP qui consistait en l’application de six séances de thérapie prodiguées sur une période de six semaines. Le déplacement du centre de pression (CP) sous les pieds a été calculé dans les directions antéro-postérieure (AP) et médio-latérale (ML). La vélocité moyenne du CP, le déplacement moyen du CP et l’étendue du CP ont été retenus pour rendre compte de la performance du contrôle posturale. D’autre part, l’asymétrie de mise en charge, la trajectoire du CP sous les pieds gauche et droit, le CPc pour rendre compte de la stratégie de chevilles et le CPv pour rendre compte de la stratégie de hanches ont été retenues pour identifier les stratégies utilisées pour maintenir l’équilibre. L’impact de l’intervention en RP a été évalué à l’aide de trois variables cliniques soit la douleur à l’aide de l’échelle visuelle analogue (ÉVA), la capacité fonctionnelle à l’aide d’un un questionnaire autoadministré et des photographies de la posture debout pour rendre compte des variables posturales biomécaniques. Nos résultats montrent que chez les adolescents-hockeyeurs la performance du contrôle postural en position debout statique est davantage perturbée par les changements somatosensoriels en direction ML alors qu’en AP, la perte d’informations visuelles ainsi que des changements somatosensoriels affectent la performance. Dans toutes les conditions expérimentales et dans les deux directions, nous avons observé une vélocité du CP remarquablement élevée, variant entre 18 et 22 mm/s. Au niveau des stratégies et indépendamment de la condition expérimentale, nous avons observé une dominance presque complète de la stratégie de cheville en AP alors qu’en ML, la stratégie de hanche dominait avec une contribution de la stratégie de cheville de plus de 20 %. En patins, en direction ML, aucun changement significatif de la performance n’a été observé. Toutefois en AP, nous avons observé une augmentation significative de la vélocité du CP, yeux ouverts et yeux fermés ainsi qu’une augmentation significative de l’étendue, yeux ouverts seulement. Au niveau des stratégies, la stratégie de cheville domine en AP et la stratégie de hanche domine en ML avec une contribution plus modeste de la stratégie de cheville qui était inférieure à 12 %. Chez les adolescents-hockeyeurs souffrant de TMS, post-intervention, nos résultats indiquent une diminution significative de la douleur et une amélioration des capacités fonctionnelles ainsi que de l’attitude posturale. Pré intervention en direction ML, nous avons observé une contribution significativement plus élevée de la stratégie de cheville au contrôle du CPnet et un retour vers des valeurs normales post-intervention. L’impact de l’intervention thérapeutique sur la performance du contrôle postural s’est avéré non significatif en ML et en AP.
Resumo:
La réalité des marchés de la drogue, opérés par des adolescents sur les lieux mêmes de leur école secondaire, demeure méconnue. L’actuelle recherche fut entreprise avec l’objectif d’explorer cet univers particulier. Pour y parvenir, cette étude a donné la parole à douze jeunes vendeurs adolescents, ayant transigé sur leur lieu d’enseignement. Les quatre objectifs spécifiques, définis au préalable, ont été atteints. Premièrement, selon les propos recueillis de la part des jeunes vendeurs, un phénomène de normalisation de la consommation de cannabis et certaines autres drogues serait bien présent au sein de cette population. Toutefois, les jeunes expliquent que leur définition de « normal » fluctuerait selon leur étape de vie du moment. Deuxièmement, toujours selon la compréhension des adolescents rencontrés, leur implication au sein du trafic de drogue s’expliquerait par trois facteurs: financier, réseautage, prestige et pouvoir. Troisièmement, les jeunes trafiquants rencontrés ont émis leur opinion sur l’efficacité des moyens de répression et de prévention situationnelle instaurés dans les écoles, ainsi que sur leurs astuces pour les déjouer. Ils ont aussi relaté une réalité de violence qui serait présente au sein de ces réseaux. Finalement, les jeunes interviewés ont explicité leur compréhension de l’impact des interventions tentées par l’école secondaire, pour les détourner de leur trajectoire criminelle. La conclusion essentielle de ce mémoire demeure le besoin, exprimé par ces adolescents, d’être encadrés et limités par leur environnement scolaire, parental et autres adultes de leur entourage. Comme il leur serait difficile de se discipliner; ils demandent qu’on les protège d’eux-mêmes.
Resumo:
La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.
Resumo:
La violence chronique qui caractérise la Somalie depuis plus de deux décennies a forcé près de deux millions de personnes à fuir. Cette ethnographie étudie l’expérience de l’asile prolongé de jeunes Somaliens qui ont grandi au camp de Kakuma, au Kenya. Leur expérience est hors du commun, bien qu’un nombre croissant de réfugiés passent de longues années dans des camps pourtant conçus comme temporaires, en vertu de la durée des conflits et de la normalisation de pratiques de mise à l’écart de populations « indésirables ». Nous explorons la perception qu’ont ces jeunes de leur environnement et de quelle façon leur exil structure leur perception du passé et de leur pays d’origine, et de leur futur. Ce faisant, nous considérons à la fois les spécificités du contexte et l’environnement global, afin de comprendre comment l’expérience des gens est façonnée par (et façonne) les dynamiques sociales, politiques, économiques et historiques. Nous observons que le camp est, et demeure, un espace de confinement, indépendamment de sa durée d’existence ; bien que conçu comme un lieu de gestion rationnelle des populations, le camp devient un monde social où se développent de nouvelles pratiques ; les jeunes Somaliens font preuve d’agentivité et interprètent leur expérience de manière à rendre leur quotidien acceptable ; ces derniers expriment une frustration croissante lorsque leurs études sont terminées et qu’ils peinent à s’établir en tant qu’adultes, ce qui exacerbe leur désir de quitter le camp. En effet, même s’il existe depuis plus de 20 ans, le camp demeure un lieu de transition. L’expérience de jeunes Somaliens qui ont grandi dans un camp de réfugiés n’a pas été étudiée auparavant. Nous soutenons que cette expérience est caractérisée par des tensions entre contraintes et opportunités, mobilité et immobilité, isolation et connexion ou victimisation et affirmation du sujet – et des temporalités contradictoires. Cette étude souligne que des notions comme la convivialité ou la pluralité des appartenances développées dans la littérature sur la cohabitation interethnique dans les villes ou sur l’identité des migrants aident à appréhender le réalité du camp. Cette ethnographie montre également que, loin d’être des victimes passives, les réfugiés contribuent à trouver des solutions à leur exil.
Resumo:
Dans le sillage de la récession mondiale de 2008-09, plusieurs questions ont été soulevées dans la littérature économique sur les effets à court et à long terme de la politique budgétaire sur l’activité économique par rapport à son signe, sa taille et sa durée. Ceux-ci ont des implications importantes pour mieux comprendre les canaux de transmission et l’efficacité des politiques budgétaires, avec la politique monétaire étant poursuivi, ainsi que pour leurs retombées économiques. Cette thèse fait partie de ce regain d’intérêt de la littérature d’examiner comment les changements dans la politique budgétaire affectent l’activité économique. Elle repose alors sur trois essais: les effets macroéconomiques des chocs de dépenses publiques et des recettes fiscales, les résultats macroéconomiques de l’interaction entre les politiques budgétaire et monétaire et le lien entre la politique budgétaire et la répartition des revenus. Le premier chapitre examine les effets des chocs de politique budgétaire (chocs de dépenses publiques et chocs de recettes fiscales) sur l’économie canadienne au cours de la période 1970-2010, en s’appuyant sur la méthode d’identification des restrictions de signe développée par Mountford et Uhlig [2009]. En réponse à la récession mondiale, les autorités fiscales dans les économies avancées, dont le Canada ont généralement mis en oeuvre une approche en deux phases pour la politique budgétaire. Tout d’abord, ils ont introduit des plans de relance sans précédent pour relancer leurs économies. Par exemple, les mesures de relance au Canada, introduites à travers le Plan d’action économique du Canada, ont été projetées à 3.2 pour cent du PIB dans le budget fédéral de 2009 tandis que l’ "American Recovery and Reinvestment Act"(ARRA) a été estimé à 7 pour cent du PIB. Par la suite, ils ont mis en place des plans d’ajustement en vue de réduire la dette publique et en assurer la soutenabilité à long terme. Dans ce contexte, évaluer les effets multiplicateurs de la politique budgétaire est important en vue d’informer sur l'efficacité de telles mesures dans la relance ou non de l'activité économique. Les résultats montrent que les multiplicateurs d'impôt varient entre 0.2 et 0.5, tandis que les multiplicateurs de dépenses varient entre 0.2 et 1.1. Les multiplicateurs des dépenses ont tendance à être plus grand que les multiplicateurs des recettes fiscales au cours des deux dernières décennies. Comme implications de politique économique, ces résultats tendent à suggérer que les ajustements budgétaires par le biais de grandes réductions de dépenses publiques pourraient être plus dommageable pour l'économie que des ajustements budgétaires par la hausse des impôts. Le deuxième chapitre, co-écrit avec Constant Lonkeng Ngouana, estime les effets multiplicateurs des dépenses publiques aux Etats-Unis en fonction du cycle de la politique monétaire. Les chocs de dépenses publiques sont identifiés comme étant des erreurs de prévision du taux de croissance des dépenses publiques à partir des données d'Enquêtes des prévisionnistes professionnels et des informations contenues dans le "Greenbook". L'état de la politique monétaire est déduite à partir de la déviation du taux des fonds fédéraux du taux cible de la Réserve Fédérale, en faisant recours à une fonction lisse de transition. L'application de la méthode des «projections locales» aux données trimestrielles américaines au cours de la période 1965-2012 suggère que les effets multiplicateurs des dépenses fédérales sont sensiblement plus élevées quand la politique monétaire est accommodante que lorsqu'elle ne l'est pas. Les résultats suggèrent aussi que les dépenses fédérales peuvent stimuler ou non la consommation privée, dépendamment du degré d’accommodation de la politique monétaire. Ce dernier résultat réconcilie ainsi, sur la base d’un cadre unifié des résultats autrement contradictoires à première vue dans la littérature. Ces résultats ont d'importantes implications de politique économique. Ils suggèrent globalement que la politique budgétaire est plus efficace lorsqu'on en a le plus besoin (par exemple, lorsque le taux de chômage est élevé), si elle est soutenue par la politique monétaire. Ils ont également des implications pour la normalisation des conditions monétaires dans les pays avancés: la sortie des politiques monétaires non-conventionnelles conduirait à des multiplicateurs de dépenses fédérales beaucoup plus faibles qu'autrement, même si le niveau de chômage restait élevé. Ceci renforce la nécessité d'une calibration prudente du calendrier de sortie des politiques monétaires non-conventionnelles. Le troisième chapitre examine l'impact des mesures d'expansion et de contraction budgétaire sur la distribution des revenus dans un panel de 18 pays d'Amérique latine au cours de la période 1990-2010, avec un accent sur les deniers 40 pour cent. Il explore alors comment ces mesures fiscales ainsi que leur composition affectent la croissance des revenus des dernier 40 pour cent, la croissance de leur part de revenu ainsi que la croissance économique. Les mesures d'expansion et de contraction budgétaire sont identifiées par des périodes au cours desquels il existe une variation significative du déficit primaire corrigé des variations conjoncturelles en pourcentage du PIB. Les résultats montrent qu'en moyenne l'expansion budgétaire par la hausse des dépenses publiques est plus favorable à la croissance des revenus des moins bien-nantis que celle par la baisse des impôts. Ce résultat est principalement soutenu par la hausse des dépenses gouvernementales de consommation courante, les transferts et subventions. En outre ces mesures d’expansion budgétaire sont favorables à la réduction des inégalités car elles permettent d'améliorer la part des revenus des moins bien-nantis tout en réduisant la part des revenus des mieux-nantis de la distribution des revenus. En outre ces mesures d’expansion budgétaire sont favorables à la réduction des inégalités car elles permettent d'améliorer la part des revenus des moins bien-nantis tout en réduisant la part des revenus des mieux-nantis de la distribution des revenus. Cependant, l'expansion budgétaire pourrait soit n'avoir aucun effet sur la croissance économique ou entraver cette dernière à travers la hausse des dépenses en capital. Les résultats relatifs à la contraction budgétaire sont quelque peu mitigés. Parfois, les mesures de contraction budgétaire sont associées à une baisse de la croissance des revenus des moins bien nantis et à une hausse des inégalités, parfois l'impact de ces mesures est non significatif. Par ailleurs, aucune des mesures n’affecte de manière significative la croissance du PIB. Comme implications de politique économique, les pays avec une certaine marge de manœuvre budgétaire pourraient entamer ou continuer à mettre en œuvre des programmes de "filets de sauvetage"--par exemple les programmes de transfert monétaire conditionnel--permettant aux segments vulnérables de la population de faire face à des chocs négatifs et aussi d'améliorer leur conditions de vie. Avec un potentiel de stimuler l'emploi peu qualifié, une relance budgétaire sage par les dépenses publique courantes pourrait également jouer un rôle important pour la réduction des inégalités. Aussi, pour éviter que les dépenses en capital freinent la croissance économique, les projets d'investissements publics efficients devraient être prioritaires dans le processus d'élaboration des politiques. Ce qui passe par la mise en œuvre des projets d'investissement avec une productivité plus élevée capable de générer la croissance économique nécessaire pour réduire les inégalités.
Resumo:
La question posée dans ce mémoire de recherche concerne l’artiste contemporain japonais Aida Makoto, comme figure provocante et ironique, remettant en question les appareils de répression et d’aliénation de la société capitaliste japonaise. L’objectif de ma réflexion est de montrer l’apport de la schizo-analyse dans l’analyse d’œuvres plastiques comportant des prédispositions à l’utilisation de celle-ci. À travers les œuvres de l’artiste Aida Makoto où une multiplicité de corps emplit l’espace de la toile, et à partir des concepts de multiplicité et de sensation théorisés par Gilles Deleuze et Félix Guattari, la recherche apportera une seconde lecture aux œuvres de cet artiste en mettant en avant les aspects révolutionnaires de sa création artistique. Constitué de deux chapitres, le mémoire porte dans un premier temps sur la picturalité de l’œuvre, d’ordre technique, esthétique et éthique, en mettant en avant les composés de sensation présents sur la toile, ceci afin, dans un second temps, d’appréhender la figuration, de la visagéité à la multiplicité, comme aspect central de l’œuvre. Ainsi, la Figure, au sens deleuzien du terme, permettrait à l’artiste Aida Makoto d’entamer une fuite schizophrénique à l’occasion de laquelle il pourra créer à l’abri de toute répression ou normalisation de ses machines désirantes par la société capitaliste japonaise.
Resumo:
Dans cette thèse, l’impact du polymorphisme rs3846662 sur l’épissage alternatif de la 3-hydroxy-3-méthylglutaryl coenzyme A réductase (HMGCR) a été investigué in vivo, chez des patients atteints d’hypercholestérolémie familiale (HF) ou de maladie d’Alzheimer (MA). Le premier manuscrit adresse la problématique de la normalisation de la quantification relative des ARNm par PCR quantitative. Les découvertes présentées dans ce manuscrit nous ont permis de déterminer avec un haut niveau de confiance les gènes de référence à utiliser pour la quantification relative des niveaux d’ARNm de l’HMGCR dans des échantillons de sang (troisième manuscrit) et de tissus cérébraux post-mortem (quatrième manuscrit). Dans le deuxième manuscrit, nous démontrons grâce à l’emploi de trois cohortes de patients distinctes, soit la population canadienne française du Québec et les deux populations nord américaines « Alzheimer’s Disease Cooperative Study (ADCS) » et « Alzheimer’s Disease Neuroimaging Initiative (ADNI) », que le génotype AA au locus rs3846662 confère à ces porteurs une protection considérable contre la MA. Les femmes porteuses de ce génotype voient leur risque de MA diminuer de près de 50% et l’âge d’apparition de leurs premiers symptômes retarder de 3.6 ans. Les porteurs de l’allèle à risque APOE4 voient pour leur part leurs niveaux de plaques séniles et dégénérescences neurofibrillaires diminuer significativement en présence du génotype AA. Enfin, les individus atteints de déficit cognitif léger et porteurs à la fois de l’allèle APOE4 et du génotype protecteur AA voient leur risque de convertir vers la MA chuter de 76 à 27%. Dans le troisième manuscrit, nous constatons que les individus atteints d’HF et porteurs du génotype AA ont, contrairement au modèle établi chez les gens normaux, des niveaux plus élevés de cholestérol total et de LDL-C avant traitement comparativement aux porteurs de l’allèle G. Le fait que cette association n’est observée que chez les non porteurs de l’APOE4 et que les femmes porteuses du génotype AA présentent à la fois une augmentation des niveaux d’ARNm totaux et une résistance aux traitements par statines, nous indique que ce génotype influencerait non seulement l’épissage alternatif, mais également la transcription de l’HMGCR. Comme une revue exhaustive de la littérature ne révèle aucune étude abondant dans ce sens, nos résultats suggèrent l’existence de joueurs encore inconnus qui viennent influencer la relation entre le génotype AA, l’épissage alternatif et les niveaux d’ARNm de l’HMGCR. Dans le quatrième manuscrit, l’absence d’associations entre le génotype AA et les niveaux d’ARNm Δ13 ou de protéines HMGCR nous suggère fortement que ce polymorphisme est non fonctionnel dans le SNC affecté par la MA. Une étude approfondie de la littérature nous a permis d’étayer cette hypothèse puisque les niveaux de HNRNPA1, la ribonucléoprotéine influencée par l’allèle au locus rs3846662, sont considérablement réduits dans la MA et le vieillissement. Il est donc proposé que les effets protecteurs contre la MA associés au génotype AA soient le résultat d’une action indirecte sur le processus physiopathologique.
Resumo:
The metals present in the surface sediments have high demand on a global perspective, and the main reservoir of these elements is believed to be the ocean floor. A lot of studies on metals are going on throughout the world for its quantification and exploitation. Even though, some preliminary attempts have been made in selected areas for the quantitative study of metals in the western continental shelf of India, no comprehensive work has been reported so far. The importance of this study also lies on the fact that there has not been a proper evaluation of the impact of the Great Tsunami of 2004 on the coastal areas of the south India. In View of this, an attempt has been made to address the seasonal distribution, behavior and mechanisms which control the deposition of metals in the sediments of the western continental shelf and Cochin Estuary, an annex to this coastal marine region.Surface sediment samples were collected seasonally from two subenvironemnts of southwest coast of India, (continental shelf of Kerala and Cochin estuarine system), to estimate the seasonal distribution and geochemical behavior of non-transition, transition, rare-earth elements, Th and U. Bottom water samples were also taken from each station, and analysed for temperature, salinity and dissolved oxygen, hence the response of redox sensitive elements to oxygen minimum zone can be addressed. In addition, other sedimentary parameters such as sand, silt, clay fractions, CaCO3 and organic carbon content were also estimated to evaluate the control factors on level of metals present in the sediment. The study used different environmental data analysis techniques to evaluate the distribution and behavior of elements during different seasons. This includes environmental parameters such as elemental normalisation, enrichment factor, element excess, cerium and europium anomalies and authigenic uranium.
Resumo:
Normalisation, BCNF and third normal form.
Resumo:
Laboratory determined mineral weathering rates need to be normalised to allow their extrapolation to natural systems. The principle normalisation terms used in the literature are mass, and geometric- and BET specific surface area (SSA). The purpose of this study was to determine how dissolution rates normalised to these terms vary with grain size. Different size fractions of anorthite and biotite ranging from 180-150 to 20-10 mu m were dissolved in pH 3, HCl at 25 degrees C in flow through reactors under far from equilibrium conditions. Steady state dissolution rates after 5376 h (anorthite) and 4992 h (biotite) were calculated from Si concentrations and were normalised to initial- and final- mass and geometric-, geometric edge- (biotite), and BET SSA. For anorthite, rates normalised to initial- and final-BET SSA ranged from 0.33 to 2.77 X 10(-10) mol(feldspar) m(-2) s(-1), rates normalised to initial- and final-geometric SSA ranged from 5.74 to 8.88 X 10(-10) mol(feldspar) m(-2) s(-1) and rates normalised to initial- and final-mass ranged from 0.11 to 1.65 mol(feldspar) g(-1) s(-1). For biotite, rates normalised to initial- and final-BET SSA ranged from 1.02 to 2.03 X 10(-12) mol(biotite) m(-2) s(-1), rates normalised to initial- and final-geometric SSA ranged from 3.26 to 16.21 X 10(-12) mol(biotite) m(-2) s(-1), rates normalised to initial- and final-geometric edge SSA ranged from 59.46 to 111.32 x 10(-12) mol(biotite) m(-2) s(-1) and rates normalised to initial- and final-mass ranged from 0.81 to 6.93 X 10(-12) mol(biotite) g(-1) s(-1). For all normalising terms rates varied significantly (p <= 0.05) with grain size. The normalising terms which gave least variation in dissolution rate between grain sizes for anorthite were initial BET SSA and initial- and final-geometric SSA. This is consistent with: (1) dissolution being dominated by the slower dissolving but area dominant non-etched surfaces of the grains and, (2) the walls of etch pits and other dissolution features being relatively unreactive. These steady state normalised dissolution rates are likely to be constant with time. Normalisation to final BET SSA did not give constant ratios across grain size due to a non-uniform distribution of dissolution features. After dissolution coarser grains had a greater density of dissolution features with BET-measurable but unreactive wall surface area than the finer grains. The normalising term which gave the least variation in dissolution rates between grain sizes for biotite was initial BET SSA. Initial- and final-geometric edge SSA and final BET SSA gave the next least varied rates. The basal surfaces dissolved sufficiently rapidly to influence bulk dissolution rate and prevent geometric edge SSA normalised dissolution rates showing the least variation. Simple modelling indicated that biotite grain edges dissolved 71-132 times faster than basal surfaces. In this experiment, initial BET SSA best integrated the different areas and reactivities of the edge and basal surfaces of biotite. Steady state dissolution rates are likely to vary with time as dissolution alters the ratio of edge to basal surface area. Therefore they would be more properly termed pseudo-steady state rates, only appearing constant because the time period over which they were measured (1512 h) was less than the time period over wich they would change significantly. (c) 2006 Elsevier Inc. All rights reserved.
Resumo:
Background: Transcriptomic techniques are now being applied in ecotoxicology and toxicology to measure the impact of stressors and develop understanding of mechanisms of toxicity. Microarray technology in particular offers the potential to measure thousands of gene responses simultaneously. However, it is important that microarrays responses should be validated, at least initially, using real-time quantitative polymerase chain reaction (QPCR). The accurate measurement of target gene expression requires normalisation to an invariant internal control e. g., total RNA or reference genes. Reference genes are preferable, as they control for variation inherent in the cDNA synthesis and PCR. However, reference gene expression can vary between tissues and experimental conditions, which makes it crucial to validate them prior to application. Results: We evaluated 10 candidate reference genes for QPCR in Daphnia magna following a 24 h exposure to the non-steroidal anti-inflammatory drug (NSAID) ibuprofen (IB) at 0, 20, 40 and 80 mg IB l(-1). Six of the 10 candidates appeared suitable for use as reference genes. As a robust approach, we used a combination normalisation factor (NF), calculated using the geNorm application, based on the geometric mean of three selected reference genes: glyceraldehyde-3-phosphate dehydrogenase, ubiquitin conjugating enzyme and actin. The effects of normalisation are illustrated using as target gene leukotriene B4 12-hydroxydehydrogenase (Ltb4dh), which was upregulated following 24 h exposure to 63-81 mg IB l(-1). Conclusions: As anticipated, use of the NF clarified the response of Ltb4dh in daphnids exposed to sublethal levels of ibuprofen. Our findings emphasise the importance in toxicogenomics of finding and applying invariant internal QPCR control(s) relevant to the study conditions.
Resumo:
The purpose of this study was to determine the incidence of prostate cancer in patients who have an elevated referral prostate-specific antigen (PSA), which subsequently falls to within their normal age-specific reference range prior to prostate biopsy. The study demonstrated that of the 160 patients recruited, 21 (13%) had a repeat PSA level which had fallen back to within their normal range. Five of these 21 patients (24%) were diagnosed with prostate cancer following biopsy, two of whom had a benign prostate examination. The study, therefore, demonstrates that normalisation of the PSA level prior to biopsy does not exclude the presence of prostate cancer even when the prostate feels benign.