979 resultados para régime primaire
Resumo:
Mise en garde : Ce mémoire a été réalisé grâce au soutien financier du Fonds d’éducation et de saine gouvernance de l'Autorité des marchés financiers. Les informations, opinions et avis exprimés n'engagent que la responsabilité de Marie-Annick Laurendeau.
Resumo:
Le capital humain d’un pays est un facteur important de sa croissance et de son développement à long terme. Selon l’Unicef, ce capital humain est constitué en donnant à chaque enfant un bon départ dans la vie : non seule- ment la possibilité de survivre, mais aussi les conditions nécessaires pour se développer et réaliser tout son potentiel. Malheureusement, cet état de fait est loin d’être une réalité en Afrique Subsaharienne. En effet, selon toujours l’Unicef et sur la base d’enquêtes ménages dans 21 pays d’Afrique de l’Ouest et du Centre, c’est près de 32 millions d’enfants qui ont l’âge officiel d’être scolarisés, mais qui ne le sont pas. A ces chiffres, il faut ajouter 17 millions d’enfants scolarisés qui risquent fortement l’exclusion. De son Côté, l’OMS pointe du doigt la mauvaise santé des enfants dans cette région. Ainsi, les décès d’enfants sont de plus en plus concentrés en Afrique subsaharienne où les enfants ont plus de 15 fois plus de risques de mourir avant l’âge de cinq ans que les enfants des régions développées. Les difficultés économiques apparaissent comme la première explication des obstacles à l’amélioration du bien être des enfants aussi bien du côté de l’offre que de la demande. Cette thèse relie trois essais sur d’une part le lien entre conflit armés, l’éducation et la mortalité des enfants et d’autre part sur le lien entre fertilité et éducation des enfants en milieu urbain. Le premier chapitre identifie l’impact de la crise politico-militaire de la Côte d’Ivoire sur le bien être des enfants, en particulier sur l’éducation et la mor- talité infanto-juvénile en exploitant la variation temporelle et géographique de la crise. Il ressort de cette analyse que les individus qui vivaient dans les régions de conflit et qui ont atteint durant la crise, l’âge officiel d’entrer à l’école ont 10% moins de chance d’être inscrits à l’école. Les élèves qui habitaient dans des régions de conflit pendant la crise ont subit une diminu- tion du nombre d’années scolaire d’au moins une année. Les élèves les plus v vi âgés et qui sont susceptibles d’être au secondaire ont connu une décroissance du nombre d’année scolaire d’au moins deux années. Il ressort également que la crise ivoirienne a accru la mortalité infanto-juvénile d’au moins 3%. Mes résultats suggèrent également que la détérioration des conditions de vie et la limitation de l’utilisation des services de santé au cours du conflit con- tribuent à expliquer ces effets négatifs. Des tests de robustesse incluant un test de placebo suggèrent que les résultats ne sont pas dus à des différences préexistantes entre les régions affectées par le conflit et celles non affectées. Le deuxième chapitre étudie les disparités intra-urbaines en matière d’arbitrage entre le nombre d’enfant et la scolarisation des enfants en se focalisant sur le cas de Ouagadougou (Capitale du Burkina Faso). Dans cette ville, au moins 33% des deux millions d’habitants vivent dans des zones informelles (appelées localement des zones non-loties). Cette sous-population manque d’infrastructures socioéconomiques de base et a un niveau d’éducation très bas. Dans ce chapitre, prenant en compte la possible endogénéité du nombre d’enfants et en utilisant une approche "two-step control function" avec des modèles Probit, nous investiguons les différences de comportement des mé- nages en matière de scolarisation entre zones formelles et zones informelles. Nous nous focalisons en particulier sur l’arbitrage entre la "quantité" et la "qualité" des enfants. Compte tenu de l’hétérogénéité des deux types de zones, nous utilisons les probabilités prédites pour les comparer. Nos princi- pales conclusions sont les suivantes. Tout d’abord, nous trouvons un impact négatif de la taille de la famille sur le niveau de scolarisation dans les deux types de zone. Cependant, nous constatons que l’impact est plus aigu dans les zones informelles. Deuxièmement, si nous supposons que le caractère en- dogène du nombre d’enfants est essentiellement due à la causalité inverse, les résultats suggèrent que dans les zones formelles les parents tiennent compte de la scolarisation des enfants dans la décision de leur nombre d’enfants, mais ce ne est pas le cas dans les zones informelles. Enfin, nous constatons que, pour des familles avec les mêmes caractéristiques observables, la probabilité d’atteindre le niveau post-primaire est plus élevée dans les zones formelles que dans les zones informelles. En terme d’implications politique, selon ces résultats, les efforts pour améliorer la scolarisation des enfants ne doivent pas être dirigées uniquement vers les zones rurales. En plus de réduire les frais de scolarité dans certaines zones urbaines, en particulier les zones informelles, un accent particulier devrait être mis sur la sensibilisation sur les avantages de l’éducation pour le bien-être des enfants et leur famille. Enfin, du point vii de vue méthodologique, nos résultats montrent l’importance de tenir compte de l’hétérogénéité non observée entre les sous-populations dans l’explication des phénomènes socio-économiques. Compte tenu du lien négatif entre la taille de la famille et la scolarisation des enfants d’une part et les différences intra-urbaines de comportement des ménages en matière de scolarisation, le trosième chapitre étudie le rôle des types de méthodes contraceptives dans l’espacement des naissances en mi- lieu urbain. Ainsi, en distinguant les méthodes modernes et traditionnelles et en utilisant l’histoire génétique des femmes, ce chapitre fait ressortir des différences de comportement en matière de contraception entre les femmes des zones formelles et informelles à Ouagadougou (capitale du Burkina Faso). Les résultats montrent que les deux types de méthodes contraceptives aug- mentent l’écart des naissances et diminuent la probabilité qu’une naissance se produise moins de 24 mois après la précédente. Prendre en compte les caractéristiques non observées mais invariants avec le temps ne modifie pas significativement l’amplitude du coefficient de l’utilisation de la contracep- tion moderne dans les deux types de zone. Toutefois, dans la zone informelle, la prise en compte les effets fixes des femmes augmentent significativement l’effet des méthodes traditionnelles. Les normes sociales, la perception de la planification familiale et le rôle du partenaire de la femme pourraient expli- quer ces différences de comportement entre les zones formelles et informelles. Par conséquent, pour améliorer l’utilisation de la contraception et de leur efficacité, il est essentiel de hiérarchiser les actions en fonction du type de sous-population, même dans les zones urbaines.
Resumo:
Dans le sillage de la récession mondiale de 2008-09, plusieurs questions ont été soulevées dans la littérature économique sur les effets à court et à long terme de la politique budgétaire sur l’activité économique par rapport à son signe, sa taille et sa durée. Ceux-ci ont des implications importantes pour mieux comprendre les canaux de transmission et l’efficacité des politiques budgétaires, avec la politique monétaire étant poursuivi, ainsi que pour leurs retombées économiques. Cette thèse fait partie de ce regain d’intérêt de la littérature d’examiner comment les changements dans la politique budgétaire affectent l’activité économique. Elle repose alors sur trois essais: les effets macroéconomiques des chocs de dépenses publiques et des recettes fiscales, les résultats macroéconomiques de l’interaction entre les politiques budgétaire et monétaire et le lien entre la politique budgétaire et la répartition des revenus. Le premier chapitre examine les effets des chocs de politique budgétaire (chocs de dépenses publiques et chocs de recettes fiscales) sur l’économie canadienne au cours de la période 1970-2010, en s’appuyant sur la méthode d’identification des restrictions de signe développée par Mountford et Uhlig [2009]. En réponse à la récession mondiale, les autorités fiscales dans les économies avancées, dont le Canada ont généralement mis en oeuvre une approche en deux phases pour la politique budgétaire. Tout d’abord, ils ont introduit des plans de relance sans précédent pour relancer leurs économies. Par exemple, les mesures de relance au Canada, introduites à travers le Plan d’action économique du Canada, ont été projetées à 3.2 pour cent du PIB dans le budget fédéral de 2009 tandis que l’ "American Recovery and Reinvestment Act"(ARRA) a été estimé à 7 pour cent du PIB. Par la suite, ils ont mis en place des plans d’ajustement en vue de réduire la dette publique et en assurer la soutenabilité à long terme. Dans ce contexte, évaluer les effets multiplicateurs de la politique budgétaire est important en vue d’informer sur l'efficacité de telles mesures dans la relance ou non de l'activité économique. Les résultats montrent que les multiplicateurs d'impôt varient entre 0.2 et 0.5, tandis que les multiplicateurs de dépenses varient entre 0.2 et 1.1. Les multiplicateurs des dépenses ont tendance à être plus grand que les multiplicateurs des recettes fiscales au cours des deux dernières décennies. Comme implications de politique économique, ces résultats tendent à suggérer que les ajustements budgétaires par le biais de grandes réductions de dépenses publiques pourraient être plus dommageable pour l'économie que des ajustements budgétaires par la hausse des impôts. Le deuxième chapitre, co-écrit avec Constant Lonkeng Ngouana, estime les effets multiplicateurs des dépenses publiques aux Etats-Unis en fonction du cycle de la politique monétaire. Les chocs de dépenses publiques sont identifiés comme étant des erreurs de prévision du taux de croissance des dépenses publiques à partir des données d'Enquêtes des prévisionnistes professionnels et des informations contenues dans le "Greenbook". L'état de la politique monétaire est déduite à partir de la déviation du taux des fonds fédéraux du taux cible de la Réserve Fédérale, en faisant recours à une fonction lisse de transition. L'application de la méthode des «projections locales» aux données trimestrielles américaines au cours de la période 1965-2012 suggère que les effets multiplicateurs des dépenses fédérales sont sensiblement plus élevées quand la politique monétaire est accommodante que lorsqu'elle ne l'est pas. Les résultats suggèrent aussi que les dépenses fédérales peuvent stimuler ou non la consommation privée, dépendamment du degré d’accommodation de la politique monétaire. Ce dernier résultat réconcilie ainsi, sur la base d’un cadre unifié des résultats autrement contradictoires à première vue dans la littérature. Ces résultats ont d'importantes implications de politique économique. Ils suggèrent globalement que la politique budgétaire est plus efficace lorsqu'on en a le plus besoin (par exemple, lorsque le taux de chômage est élevé), si elle est soutenue par la politique monétaire. Ils ont également des implications pour la normalisation des conditions monétaires dans les pays avancés: la sortie des politiques monétaires non-conventionnelles conduirait à des multiplicateurs de dépenses fédérales beaucoup plus faibles qu'autrement, même si le niveau de chômage restait élevé. Ceci renforce la nécessité d'une calibration prudente du calendrier de sortie des politiques monétaires non-conventionnelles. Le troisième chapitre examine l'impact des mesures d'expansion et de contraction budgétaire sur la distribution des revenus dans un panel de 18 pays d'Amérique latine au cours de la période 1990-2010, avec un accent sur les deniers 40 pour cent. Il explore alors comment ces mesures fiscales ainsi que leur composition affectent la croissance des revenus des dernier 40 pour cent, la croissance de leur part de revenu ainsi que la croissance économique. Les mesures d'expansion et de contraction budgétaire sont identifiées par des périodes au cours desquels il existe une variation significative du déficit primaire corrigé des variations conjoncturelles en pourcentage du PIB. Les résultats montrent qu'en moyenne l'expansion budgétaire par la hausse des dépenses publiques est plus favorable à la croissance des revenus des moins bien-nantis que celle par la baisse des impôts. Ce résultat est principalement soutenu par la hausse des dépenses gouvernementales de consommation courante, les transferts et subventions. En outre ces mesures d’expansion budgétaire sont favorables à la réduction des inégalités car elles permettent d'améliorer la part des revenus des moins bien-nantis tout en réduisant la part des revenus des mieux-nantis de la distribution des revenus. En outre ces mesures d’expansion budgétaire sont favorables à la réduction des inégalités car elles permettent d'améliorer la part des revenus des moins bien-nantis tout en réduisant la part des revenus des mieux-nantis de la distribution des revenus. Cependant, l'expansion budgétaire pourrait soit n'avoir aucun effet sur la croissance économique ou entraver cette dernière à travers la hausse des dépenses en capital. Les résultats relatifs à la contraction budgétaire sont quelque peu mitigés. Parfois, les mesures de contraction budgétaire sont associées à une baisse de la croissance des revenus des moins bien nantis et à une hausse des inégalités, parfois l'impact de ces mesures est non significatif. Par ailleurs, aucune des mesures n’affecte de manière significative la croissance du PIB. Comme implications de politique économique, les pays avec une certaine marge de manœuvre budgétaire pourraient entamer ou continuer à mettre en œuvre des programmes de "filets de sauvetage"--par exemple les programmes de transfert monétaire conditionnel--permettant aux segments vulnérables de la population de faire face à des chocs négatifs et aussi d'améliorer leur conditions de vie. Avec un potentiel de stimuler l'emploi peu qualifié, une relance budgétaire sage par les dépenses publique courantes pourrait également jouer un rôle important pour la réduction des inégalités. Aussi, pour éviter que les dépenses en capital freinent la croissance économique, les projets d'investissements publics efficients devraient être prioritaires dans le processus d'élaboration des politiques. Ce qui passe par la mise en œuvre des projets d'investissement avec une productivité plus élevée capable de générer la croissance économique nécessaire pour réduire les inégalités.
Resumo:
La protéomique est un sujet d'intérêt puisque l'étude des fonctions et des structures de protéines est essentiel à la compréhension du fonctionnement d'un organisme donné. Ce projet se situe dans la catégorie des études structurales, ou plus précisément, la séquence primaire en acides aminés pour l’identification d’une protéine. La détermination des protéines commence par l'extraction d'un mélange protéique issu d'un tissu ou d'un fluide biologique pouvant contenir plus de 1000 protéines différentes. Ensuite, des techniques analytiques comme l’électrophorèse en gel polyacrylamide en deux dimensions (2D-SDS-PAGE), qui visent à séparer ce mélange en fonction du point isoélectrique et de la masse molaire des protéines, sont utilisées pour isoler les protéines et pour permettre leur identification par chromatographie liquide and spectrométrie de masse (MS), typiquement. Ce projet s'inspire de ce processus et propose que l'étape de fractionnement de l'extrait protéique avec la 2D-SDS-PAGE soit remplacé ou supporté par de multiples fractionnements en parallèle par électrophorèse capillaire (CE) quasi-multidimensionnelle. Les fractions obtenues, contenant une protéine seule ou un mélange de protéines moins complexe que l’extrait du départ, pourraient ensuite être soumises à des identifications de protéines par cartographie peptidique et cartographie protéique à l’aide des techniques de séparations analytiques et de la MS. Pour obtenir la carte peptidique d'un échantillon, il est nécessaire de procéder à la protéolyse enzymatique ou chimique des protéines purifiées et de séparer les fragments peptidiques issus de cette digestion. Les cartes peptidiques ainsi générées peuvent ensuite être comparées à des échantillons témoins ou les masses exactes des peptides enzymatiques sont soumises à des moteurs de recherche comme MASCOT™, ce qui permet l’identification des protéines en interrogeant les bases de données génomiques. Les avantages exploitables de la CE, par rapport à la 2D-SDS-PAGE, sont sa haute efficacité de séparation, sa rapidité d'analyse et sa facilité d'automatisation. L’un des défis à surmonter est la faible quantité de masse de protéines disponible après analyses en CE, due partiellement à l'adsorption des protéines sur la paroi du capillaire, mais due majoritairement au faible volume d'échantillon en CE. Pour augmenter ce volume, un capillaire de 75 µm était utilisé. Aussi, le volume de la fraction collectée était diminué de 1000 à 100 µL et les fractions étaient accumulées 10 fois; c’est-à-dire que 10 produits de séparations étaient contenu dans chaque fraction. D'un autre côté, l'adsorption de protéines se traduit par la variation de l'aire d'un pic et du temps de migration d'une protéine donnée ce qui influence la reproductibilité de la séparation, un aspect très important puisque 10 séparations cumulatives sont nécessaires pour la collecte de fractions. De nombreuses approches existent pour diminuer ce problème (e.g. les extrêmes de pH de l’électrolyte de fond, les revêtements dynamique ou permanent du capillaire, etc.), mais dans ce mémoire, les études de revêtement portaient sur le bromure de N,N-didodecyl-N,N-dimethylammonium (DDAB), un surfactant qui forme un revêtement semi-permanent sur la paroi du capillaire. La grande majorité du mémoire visait à obtenir une séparation reproductible d'un mélange protéique standard préparé en laboratoire (contenant l’albumine de sérum de bovin, l'anhydrase carbonique, l’α-lactalbumine et la β-lactoglobulin) par CE avec le revêtement DDAB. Les études portées sur le revêtement montraient qu'il était nécessaire de régénérer le revêtement entre chaque injection du mélange de protéines dans les conditions étudiées : la collecte de 5 fractions de 6 min chacune à travers une séparation de 30 min, suivant le processus de régénération du DDAB, et tout ça répété 10 fois. Cependant, l’analyse en CE-UV et en HPLC-MS des fractions collectées ne montraient pas les protéines attendues puisqu'elles semblaient être en-dessous de la limite de détection. De plus, une analyse en MS montrait que le DDAB s’accumule dans les fractions collectées dû à sa désorption de la paroi du capillaire. Pour confirmer que les efforts pour recueillir une quantité de masse de protéine étaient suffisants, la méthode de CE avec détection par fluorescence induite par laser (CE-LIF) était utilisée pour séparer et collecter la protéine, albumine marquée de fluorescéine isothiocyanate (FITC), sans l'utilisation du revêtement DDAB. Ces analyses montraient que l'albumine-FITC était, en fait, présente dans la fraction collecté. La cartographie peptidique a été ensuite réalisée avec succès en employant l’enzyme chymotrypsine pour la digestion et CE-LIF pour obtenir la carte peptidique.
Resumo:
En 1683, la monarchie française expédie en Nouvelle-France trois compagnies d’infanterie de la Marine afin de mettre un terme à la guerre contre les Iroquois qui menace la colonie sous juridiction de la Marine. Ce premier contingent se montrant incapable de mater l’ennemi, le roi envoie d’autres compagnies dirigées par des officiers qui détiennent soit une expérience dans le service de la Marine ou dans les régiments d’infanterie. La guerre dorénavant ouverte avec les colonies britanniques, force l’enracinement de ce corps d’armée au Canada. Les administrateurs vont l’appeler troupes de la Marine. Un autre facteur d’enracinement est la permission que les autorités royales accordent aux nobles de la colonie canadienne de s’engager dans le corps d’officiers. Les Canadiens y deviennent majoritaires quelques décennies plus tard. Plusieurs de ces officiers, notamment nés en colonie ont fait l’objet de biographies. Quelques études se sont penchées sur le corps d’officiers en tant qu’acteur social. Cependant, l’ensemble de la carrière militaire d’un officier des troupes de la Marine en Nouvelle-France n’a jamais été abordé. Les capitaines, étant parvenus au sommet de la hiérarchie des troupes de la Marine avant 1739, constituent le sujet de cette recherche. Ce sera donc les grandes étapes de leur expérience militaire coloniale que l’on tentera d’approfondir tout en prenant en considération le lieu de naissance de l’officier, ce qui nous permet dégager certaines tendances relatives à la carrière d’officiers militaires dans la société d’Ancien Régime.
Resumo:
Les immunités législatives pour bonne foi sont une composante importante des règles spécifiques s’appliquant à la responsabilité civile des administrations publiques. Apparues dans les années 1940 au Québec, elles visent à insuffler à la responsabilité civile les considérations propres à l’action étatique (difficulté des tâches, pouvoir discrétionnaire, liberté d’action, etc.). Or, la notion principale de ces immunités, la bonne foi, est d’une nature fragile. Tiraillée entre une vision subjective et objective, elle souffre de nombreuses lacunes. Originalement fondée sur l’évaluation de l’état d’esprit d’une personne, la bonne foi reproduit dorénavant le concept de faute lourde présent en responsabilité civile. Il en résulte un système qui crée de la confusion sur l’état mental nécessaire pour entrainer la responsabilité d’une administration publique. Au surplus, le régime de la bonne foi est variable et change selon les fonctions exercées par les administrations publiques. Ces attributs mettent en exergue le peu d’utilité de cette notion : la bonne foi dédouble plusieurs éléments déjà présents en responsabilité civile québécoise et partant de là, affaiblit sa place comme règle particulière applicable aux administrations publiques. Bref, par son caractère adaptable, la bonne foi est un calque de la responsabilité civile québécoise et son faible apport embrouille le régime de cette dernière.
Resumo:
Cette thèse-filmique s'articule autour de deux questions principales : comment aborder l’articulation des différences (qu’elles soient d’ordre genré, sexuel, culturel, racial, physique ou subjectif) telles qu'elles se retrouvent spécifiquement dans certains films québécois ; et, dans quelle mesure l’étude critique des différences permettent-elles de concevoir le cinéma comme un régime de la représentation (Hall 1997a) québécois articulé autour de certaines normativités (Butler, 2004)? On retrouve dans la littérature sur le cinéma québécois des préoccupations sur les questions associées à l’identité nationale liées avec des pratiques de différenciations identitaires et sociales (Poirier, 2004a, 2004b; Boulais, 2006; Barrette, 2009; Juteau et Fontaine, 1996) renvoyant à une opposition entre « nous/soi » et « l’Autre ». Afin de répondre à une urgence politique de considérer autrement ces questions, j’ai adopté une posture intersectionnelle (Bilge, 2009). L’intersectionnalité me permet d’aborder les différences de façon inductive afin d’ouvrir une discussion intégrée sur les rapports de pouvoir et l’articulation des oppressions. À ce sujet, je considère qu’une lutte de pouvoir autour de la représentation (Hall, 1997a; du Gay et al., 1997) s’inscrit dans une lutte plus large concernant des rapports de force dans la société québécoise. Inspirée par les théories queer et féministes, les études cinématographiques et les Cultural Studies, j’ai développé une méthodologie autoethnographique au sein d’une méthodologie de recherche-création (Sawchuk et Chapman, 2012). L’intermédialité de mon projet permet de nouvelles possibilités (Mariniello, 2000) notamment en créant un espace de réflexion favorisant l’échange entre diverses voix et expériences, mais également en brouillant les frontières méthodologiques et médiatiques de ma démarche, permettant d’approfondir de façon intuitive et exploratoire le concept de la rencontre. En effet, la rencontre et l’expérience de la rencontre ont joué un rôle à la fois conceptuel et personnel dans ce projet. Elle me permet d’éviter de fixer la différence, et plutôt de l’aborder dans son processus de reconnaissance et d’émergence d’une identité.
Resumo:
Depuis le début des années 2000, les croyances font l’objet d’un intérêt particulier dans le domaine de l’éducation. Cet intérêt pour les croyances provient notamment de certains chercheurs qui se préoccupent du fait que les croyances peuvent être un obstacle à l’adoption de pratiques pédagogiques fondées sur des faits scientifiques. L’intérêt pour les croyances en éducation se situe également dans la manière d’intervenir sur celles-ci afin de faire en sorte qu’elles se rapprochent le plus possible des connaissances scientifiques sur l’enseignement et l’apprentissage. Cette étude vise à faire le portrait des croyances d’étudiants en formation des maîtres. Elle vise aussi à proposer des pistes d’intervention pour les étudiants du programme de baccalauréat en éducation préscolaire et enseignement primaire (BEPEP) à l’égard d’une croyance qui s’éloigne des connaissances scientifiques et des attentes ministérielles en éducation. Sur la base de la littérature disponible, une présentation des diverses définitions du concept de croyance que l’on retrouve dans les sciences humaines ainsi qu’une typologie des croyances et des connaissances enseignantes ont été produite. Puis, une analyse secondaire d’un questionnaire abordant les croyances des étudiants en enseignement a été réalisé afin d’isoler une croyance des étudiants du programme de BEPEP sur laquelle intervenir tout au long de la formation des étudiants. Enfin, un entretien de groupe avec le comité de programme du BEPEP a été réalisé. Les résultats révèlent que la croyance qui s'éloigne le plus des connaissances scientifiques favorables à la réussite des élèves est relative à l’intégration des élèves handicapés ou en difficulté d’adaptation ou d’apprentissage (EHDAA) en classe régulière. La littérature (Raths, 2001; Paquay, 2004; Beckers, 2007) révèle que pour favoriser le développement professionnel des futurs enseignants, il faut concevoir la formation des enseignants de manière à développer et renforcer leurs capacités et leurs aptitudes à l’autoréflexion par la pratique réflexive tout au long de la formation initiale.
Resumo:
Les causes de la crise irakienne actuelle sont multiples. Au-delà des implications immédiates, les séquelles de l’intervention militaire de 2003 sont les plus déterminantes. L’échec du processus de reconstruction institutionnelle a donné lieu à un État déficient, dysfonctionnel et corrompu offrant ainsi un terreau fertile à l’implantation et à la prolifération des mouvements terroristes et mafieux. L’auteur tente, dans la présente contribution, d’identifier « les raisons profondes » du drame actuel en tenant compte de l’impact des bouleversements intervenus depuis la chute du régime baathiste en avril 2003 sur les structures étatiques.
Resumo:
L’hypertrophie cardiaque représente la réponse primaire du cœur dans le but d’améliorer la fonction cardiaque qui est compromise suite à un accident ischémique ou une surcharge hémodynamique. Cependant, l’hypertrophie cardiaque a pour conséquence pathologique la fibrose réactive, qui est caractérisée par la synthèse incontrôlée et le dépôt du collagène par les myofibroblastes. Ainsi, l’accumulation accrue du collagène dans le cœur hypertrophié mène à l’augmentation de la rigidité cardiaque et la détérioration progressive de la fonction contractile du cœur. Plusieurs études ont démontré que la protéine nestine, appartenant à la famille des filaments intermédiaires, est ré-exprimée dans les myofibroblastes durant la fibrose réparative et est impliquée dans la prolifération cellulaire. Basée sur ces observations, cette étude teste l’hypothèse selon laquelle nestine est induite dans les myofibroblastes suivant le développement de la fibrose réactive dans le cœur des rats ayant subi une constriction aortique supra-rénale. Deux semaines suivant une constriction aortique supra-rénale chez le rat, un patron d’hypertrophie concentrique cardiaque a été observé et associé avec une réponse de fibrose réactive caractérisée par le dépôt accru de collagène dans le tissu interstitiel et la région péri-vasculaire de nombreux vaisseaux sanguins cardiaques. De plus, les niveaux de la protéine nestine sont augmentés significativement dans les cœurs des rats hypertrophiés, et ce, de façon corrélative avec la pression artérielle moyenne et la pression systolique du ventricule gauche. Les techniques d’immunofluorescences ont révélé une apparition accrue des cellules immunoréactives à nestine, qui présentent un phénotype mésenchymateux caractérisé par la co-expression de collagène dans le tissu interstitiel et la région péri-vasculaire des cœurs hypertrophiés. Ces données suggèrent que les fibroblastes résidents peuvent exprimer la protéine nestine ou que l’expression de nestine est induite en réponse aux facteurs pro-fibrotiques impliqués dans la fibrose réactive. En effet, l’exposition des myofibroblastes normaux et des myofibroblastes isolés des cœurs hypertrophiés à l’AII, TGF-B1 et EGF augmente significativement l’expression de la protéine nestine, tandis que l’expression de l’α-SMA demeure inchangée. De plus, de manière prédominante dans le cœur hypertrophié, des cellules non-vasculaires CD31(+) ont été détectées dans le tissu interstitiel et la région péri-vasculaire. Ces cellules co-expriment nestine et collagène suggérant une transition des cellules endothéliales vers un phénotype mésenchymateux. Finalement, la protéine nestine, sous sa forme filamenteuse, a été détectée dans les cellules endothéliales de l’artère coronaire humaine et leur exposition au TGF-B1, induit l’expression de collagène. En revanche, l’expression de collagène a été détectée dans les cellules microvasculaires de rats CD31(+), alors que l’expression de nestine est absente. En réponse aux traitements de TGF-B1 et EGF, l’expression de nestine, sous sa forme non-filamenteuse, est détectée dans les cellules microvasculaires de rats. Collectivement, ces données supportent la prémisse selon laquelle la réponse de fibrose réactive dans les cœurs hypertrophiés, suite à une constriction aortique supra-rénale, est attribuée en partie à l’augmentation de l’apparition des cellules mésenchymateuses positives à l’expression de nestine qui proviennent des fibroblastes résidents du ventricule. De plus, les données in vivo et in vitro suggèrent que les cellules endothéliales déplacées représentent une source additionnelle des cellules mésenchymateuses nestine(+) dans le cœur hypertrophié et contribuent au développement de la fibrose réactive. Cibler la protéine nestine peut représenter une approche thérapeutique afin d’atténuer la réponse de fibrose réactive indépendamment de l’origine des cellules mésenchymateuses.
Resumo:
La recherche présentée dans le cadre de ce mémoire porte sur le développement de la Théorie linguistique de la traduction telle qu’élaborée par des traducteurs soviétiques à partir des années 1950. Ce mémoire vise à démontrer les particularités de l’évolution des connaissances traductologiques sous la pression politique, idéologique et institutionnelle du régime soviétique (1922-1991). En particulier, le travail cherche à expliquer les raisons qui ont abouti à l’isolement théorique de la traductologie russe. À partir de la théorie du polysystème littéraire d’Even-Zohar et de son analyse de la structure des systèmes littéraires, ce mémoire examine la structure et l’évolution des différents facteurs (producteur, institutions, produit, répertoire, marché) qui ont façonné la configuration spécifique de la Théorie linguistique de la traduction en tant que produit du système soviétique de traduction, tel qu’il se développe dans les conditions particulières du polysystème littéraire soviétique. L’analyse des travaux des auteurs dits « canonisés » de l’approche linguistique russe (Fyodorov, Retsker, Švejtser, Barkhoudarov, Komissarov) permet de montrer comment la Théorie linguistique de la traduction s’est imposée comme la seule théorie capable de survivre au contexte soviétique de pression idéologique et de contrôle total du régime communiste. Ce sont ces facteurs qui expliquent aussi le décalage théorique et institutionnel observé entre les traductologies russe et occidentale.
Resumo:
Les minorités linguistiques francophones au Nouveau-Brunswick et en Ontario et la minorité galloisante au Pays de Galles ont plusieurs éléments en commun. D’abord, elles se sont dotées d’un réseau associatif dense qui a mené de front plusieurs luttes, souvent avec succès, et qui a eu pour résultats l’amélioration de la situation sociopolitique et la reconnaissance symbolique de la communauté minoritaire. Ensuite, le statut légal et social de la langue minoritaire a relativement progressé dans les trois cas, grâce à l’adoption de lois et de politiques linguistiques. Ajoutons qu’elles ont tous accès à des institutions qui leur permettent de faire entendre leurs voix ou encore de se gouverner, que ce soit à travers leurs gouvernements locaux ou les assemblées législatives, et peuvent compter sur un ombudsman linguistique. Toutefois, la principale différence entre ces trois cas réside dans le niveau de mobilisation linguistique que l’on y observe à l’heure actuelle. On pourrait le qualifier d’élevé au Pays de Galles, de modéré en Ontario et de faible au Nouveau-Brunswick. Comment expliquer cette différence malgré un contexte similaire dans chacun des cas ? En nous inspirant des travaux sur la mobilisation linguistique, sur la rémanence et sur les régimes linguistiques, nous proposons une hypothèse qui établit un lien causal entre la satisfaction des groupes représentant les minorités linguistiques à l’égard des régimes linguistiques et le niveau de mobilisation. Le niveau de mobilisation d’une minorité linguistique varie en fonction de sa satisfaction à l’égard du régime linguistique, et cette satisfaction est liée à la perception qu’ont les groupes quant aux succès ou aux échecs de leurs mobilisations linguistiques. Autrement dit, quand une minorité linguistique considère que sa mobilisation linguistique n’a pas obtenu le succès escompté et que le régime linguistique ne répond pas à ses principales attentes, les organisations qui la représentent maintiennent un niveau de mobilisation élevé. À l’inverse, quand une minorité linguistique perçoit que sa mobilisation linguistique a connu du succès et que le régime linguistique répond à ses principales attentes, les organisations se réorganisent et entrent en rémanence. De façon plus précise, cette hypothèse propose donc une explication pour chacun des cas. Au Pays de Galles, le niveau de mobilisation des Galloisants demeure élevé parce que les modifications apportées au régime linguistique gallois ne répondent toujours pas aux attentes formulées par les acteurs de la société civile et ces acteurs ne considèrent pas que leur mobilisation a connu les succès escomptés. En Ontario, le niveau de mobilisation est modéré, parce qu’après une période de rémanence suivant un succès de la mobilisation linguistique, elle a repris une certaine vigueur alors que certains acquis étaient menacés. Au Nouveau-Brunswick, la mobilisation linguistique est en rémanence après que la mobilisation ait atteint sa finalité, c’est-à-dire qu’elle a connu le succès qu’elle recherchait, mais les acteurs de la société civile ne sont pas pour autant absents de l’espace public.
Resumo:
L’objectif de ce mémoire est d’acquérir une connaissance détaillée sur l’évolution spatiale de la température de surface du sol (GST) au mont Jacques-Cartier et sur la réponse thermique de son îlot de pergélisol alpin aux changements climatiques passés et futurs. L’étude est basée sur un ensemble de mesures de température (GST, sous-sol) et de neige, ainsi que des modèles spatiaux de distribution potentielle de la GST et des simulations numériques du régime thermique du sol. Les résultats montrent que la distribution de la GST sur le plateau est principalement corrélée avec la répartition du couvert nival. Au-dessus de la limite de la végétation, le plateau est caractérisé par un couvert de neige peu épais et discontinu en hiver en raison de la topographie du site et l’action des forts vents. La GST est alors couplée avec les températures de l’air amenant des conditions froides en surface. Dans les îlots de krummholz et les dépressions topographiques sur les versants SE sous le vent, la neige soufflée du plateau s’accumule en un couvert très épais induisant des conditions de surface beaucoup plus chaude que sur le plateau dû à l’effet isolant de la neige. En raison de la quasi-absence de neige en hiver et de la nature du substrat, la réponse du pergélisol du sommet du mont Jacques-Cartier au signal climatique est très rapide. De 1978 à 2014, la température du sol a augmenté à toutes les profondeurs au niveau du forage suivant la même tendance que les températures de l’air. Si la tendance au réchauffement se poursuit telle que prévue par les simulations climatiques produites par le consortium Ouranos, le pergélisol pourrait disparaître d’ici à 2040-2050.
Resumo:
L’amblyopie est un trouble développemental de la vision binoculaire. Elle est typiquement caractérisée par des atteintes de l’acuité visuelle et de la stéréoscopie. Toutefois, de plus en plus d’études indiquent la présence d’atteintes plus étendues telles que les difficultés d’attention visuelle ou de lecture. L’amblyopie est généralement expliquée par une suppression interoculaire au niveau cortical, considérée comme chronique ou permanente à l’extérieur de la période développementale. Or, un nombre croissant d’études suggèrent que des interactions binoculaires normales seraient présentes chez les amblyopes adultes. Dans une première étude, nous avons tenté d’identifier un marqueur électrophysiologique de la vision binoculaire. Nous avons enregistré des potentiels évoqués visuels chez des observateurs normaux à qui l’on a induit une dysfonction binoculaire. Les interactions binoculaires étaient caractérisées à l’aide de patrons (facilitation, moyennage et suppression) en comparant les réponses monoculaires et binoculaires. De plus, ces interactions étaient quantifiées à partir d’index d’intégration continus en soustrayant la somme des réponses monoculaires de la réponse binoculaire. Les résultats indiquaient que les patrons d’interaction n’étaient pas optimaux pour estimer les performances stéréoscopiques. Ces dernières étaient, en revanche, mieux expliquées par notre index d’intégration binoculaire. Ainsi, cette étude suggère que l’électrophysiologie est un bon prédicteur de la vision binoculaire. Dans une deuxième étude, nous avons examiné les corrélats neuronaux et comportementaux de la suppression interoculaire chez des amblyopes adultes et des observateurs normaux. Des potentiels évoqués visuels stationnaires ont été enregistrés en utilisant un paradigme de suppression par flash. La suppression était modulée par un changement de contraste du stimulus flash (10, 20, 30, ou 100%), ou le suppresseur, qui était présenté soit dans l’œil dominant ou non-dominant (ou amblyope). Sur le plan comportemental, la suppression interoculaire était observée indépendamment de l’œil stimulé par le flash chez les contrôles. Au contraire, chez les amblyopes, la suppression était asymétrique (c’est-à-dire supérieure lorsqu’elle provenait de l’œil dominant), ce qui suggérait une suppression chronique. De manière intéressante, l’œil amblyope a supprimé l’œil dominant à haut niveau de contraste. Sur le plan électrophysiologique, l’effet de suppression interoculaire observé à la région occipitale était équivalent dans chaque groupe. Toutefois, les réponses électrophysiologiques à la région frontale chez les amblyopes n’étaient pas modulées comme celles des contrôles; la suppression de l’œil amblyope était manifeste même à bas contraste. Nous résultats supportent ainsi l’existence d’interaction binoculaire fonctionnelle chez les amblyopes adultes ainsi que l’implication d’un réseau cortical étendu dans la suppression interoculaire. En somme, l’amblyopie est une condition complexe dont les atteintes corticales et les déficits fonctionnels semblent globaux. L’amblyopie ne doit plus être considérée comme limitée à une dysfonction de l’aire visuelle primaire. La suppression interoculaire semble un point central de cette problématique, mais encore beaucoup d’études seront nécessaires afin de déterminer l’ensemble des mécanismes impliqués dans celle-ci.
Étude du rôle des régions variables 4 et 5 dans les changements de conformation de la gp120 du VIH-1
Resumo:
Le VIH infecte les cellules par fusion de sa membrane avec la membrane de la cellule cible. Cette fusion est effectuée par les glycoprotéines de l'enveloppe (Env) qui sont synthétisées en tant que précurseur, gp160, qui est ensuite clivé en gp120 et gp41. La protéine gp41 est la partie transmembranaire du complexe de l'enveloppe et l’ancre à la particule virale alors que la gp120 assure la liaison au récepteur cellulaire CD4 et corécepteur CCR5 ou CXCR4. Ces interactions successives induisent des changements de conformation d’Env qui alimentent le processus d'entrée du virus conduisant finalement à l'insertion du peptide de fusion de la gp41 dans la membrane de la cellule cible. La sous-unité extérieure gp120 contient cinq régions variables (V1 à V5), dont trois (V1, V2 et V3) étant capables d’empêcher l’adoption spontanée de la conformation liée à CD4. Cependant, le rôle de régions variables V4 et V5 vis-à-vis de ces changements de conformation reste inconnu. Pour étudier leur effet, des mutants de l'isolat primaire de clade B YU2, comprenant une délétion de la V5 ou une mutation au niveau de tous les sites potentiels de N-glycosylation de la V4 (PNGS), ont été générés. L'effet des mutations sur la conformation des glycoprotéines d'enveloppe a été analysé par immunoprécipitation et résonance de plasmon de surface avec des anticorps dont la liaison dépend de la conformation adopté par la gp120. Ni le retrait des PNGS de la V4 ni la délétion de V5 n’a affecté les changements conformationnels d’Env tels que mesurés par ces techniques, ce qui suggère que les régions variables V1, V2 et V3 sont les principaux acteurs dans la prévention de l’adoption de la conformation lié de CD4 d’Env.