148 resultados para Ajustement structurel


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pourquoi, comment et quand y a-t-il changement institutionnel et politique en Afrique ? En examinant les stratégies de développement économique de l’Afrique postcoloniale et en s’intéressant à l’évolution du rôle de l’État – État comme acteur central du développement, tentative du retrait de l’État, interventionnisme limité au social, retour de l’État dans la sphère économique –, la présente thèse se propose d’expliquer le changement sous l’angle original des innovations politiques et institutionnelles. En effet, derrière l’apparente continuité que la plupart des auteurs tant analytiques que normatifs fustigent, il se produit des innovations dont nous proposons de rendre compte par le biais des variables idéationnelles, stratégiques, temporelles et institutionnelles. Cette thèse propose ainsi une analyse comparative inédite du rôle des acteurs nationaux (élites, États, administrations publiques du Bénin, Burkina Faso, Cameroun, Côte d’Ivoire, Congo, Sénégal, Mali, Niger, Togo), des institutions internationales (FMI, Banque mondiale, ONU) et des organisations d’intégration régionale (Union africaine, NEPAD) dans l’émergence et les trajectoires des stratégies de développement en Afrique. Les contextes temporels favorables, les crises des modèles précédents, les configurations et héritages institutionnels structurants, les stratégies instrumentales des acteurs intéressés, l’apprentissage politique, les dimensions cognitives et normatives des idées permettent d’expliquer la diffusion, la sédimentation et la conversion institutionnelles comme processus privilégiés d’innovation en Afrique. La critique de ces concepts permet de développer des outils mieux adaptés pour expliquer certaines innovations, soit l’inclusion et l’intrusion institutionnelles. L’inclusion institutionnelle est un processus mi-stratégique et mi-idéationnel à travers lequel les acteurs nationaux ou régionaux incluent intentionnellement des stratégies (ou solutions) internationales déjà existantes dans une nouvelle institution ou politique dans le but d’accroître la probabilité d’acceptation (reconnaissance, convenance sociale, partage réel ou supposé des mêmes valeurs) ou de succès (pour faire valoir les intérêts) de cette dernière dans un environnement politique structuré. Les idées sont constitutives des intérêts dans ce processus. L’intrusion institutionnelle renvoie à un processus mi-stratégique et mi-structurel par lequel les acteurs nationaux se font relativement imposer de nouvelles institutions ou politiques qu’ils n’acceptent qu’en raison de l’asymétrie de pouvoir, de la contrainte structurelle (structure), ou des gains escomptés (stratégies) des acteurs internationaux, alors que des solutions de rechange pertinentes et non contraignantes sont quasi inexistantes. Ceci n’exclut pas l’existence d’une marge de manœuvre des acteurs nationaux. Inspirés de spécialistes comme Nicolas van de Walle, Kathleen Thelen, Robert Bates, Barry Weingast, Alexander Wendt, Peter Hall, Theda Skocpol et Paul Pierson, ces concepts d’intrusion et d’inclusion institutionnelles que nous proposons réconcilient des approches parfois jugées contradictoires en intégrant les dimensions stratégiques, institutionnelles, historiques et idéationnelles à l’analyse d’un même objet scientifique. Au niveau empirique, la présente thèse permet d’avoir une meilleure compréhension des processus d’émergence des stratégies de développement économique en Afrique, ainsi qu’une meilleure connaissance des relations entre les acteurs internationaux, régionaux et nationaux en ce qui concerne l’émergence et le développement des institutions et des politiques publiques relatives au développement. Une attention particulière est accordée à la dynamique entre différents acteurs et variables (idées, intérêts, institution, temps) pour expliquer les principales stratégies des trois dernières décennies : les stratégies nationales de développement du Bénin, Burkina Faso, Cameroun, Côte d’Ivoire, Congo, Sénégal, Mali, Niger, Togo, le Plan d’action de Lagos, les programmes d’ajustement structurel, le Nouveau Partenariat pour le Développement de l’Afrique, les Documents de stratégie pour la réduction de la pauvreté et certaines interventions du Fonds monétaire international, de Banque mondiale et de l’ONU. En s’intéressant à la question de l’innovation délaissée à tort par la plupart des analyses sérieuses, la présente thèse renouvelle la discussion sur le changement et l’innovation politiques et institutionnels en Afrique et en science politique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé La prédominance de l'obésité qui touche les enfants et les adultes a augmenté dans le monde entier ces dernières décennies. Les différentes études épidémiologiques ont prouvé que l'obésité est devenue une préoccupation profonde de santé aux États-Unis et au Canada. Il a été montré que l'obésité a beaucoup d’effets sur la santé ainsi il serait important de trouver différentes causes pour le gain de poids. Il est clair que l'obésité soit la condition de multiples facteurs et implique des éléments génétiques et environnementaux. Nous nous concentrons sur les facteurs diététiques et particulièrement le fructose où sa consommation a parallèlement augmenté avec l'augmentation du taux d'obésité. La forme principale du fructose est le sirop de maïs à haute teneur en fructose (HFCS) qui est employé en tant qu'édulcorant primordial dans la plupart des boissons et nourritures en Amérique du Nord. Il a été suggéré que la prise du fructose serait probablement un facteur qui contribue à l’augmentation de la prédominance de l'obésité. L'objectif de cette étude était d'évaluer s'il y a un rapport entre la consommation du fructose et le risque d'obésité. Nous avons travaillé sur deux bases de données des nations Cree et Inuit. Nous avons eu un groupe de 522 adultes Cree, (263 femmes et 259 hommes) dans deux groupes d'âge : les personnes entre 20 et 40 ans, et les personnes de 40 à 60 ans. Nous les avons classés par catégorie en quatre groupes d'indice de masse corporelle (IMC). L'outil de collecte de données était un rappel de 24 heures. En revanche, pour la base de données d'Inuit nous avons eu 550 adultes (301 femmes et 249 hommes) dans deux groupes d'âge semblables à ceux du Cree et avec 3 catégories d’indice de masse corporelle. Les données dans la base d'Inuit ont été recueillies au moyen de deux rappels de 24 heures. Nous avons extrait la quantité de fructose par 100 grammes de nourriture consommés par ces deux populations et nous avons créé des données de composition en nourriture pour les deux. Nous avons pu également déterminer les sources principales du fructose pour ces populations. Aucun rapport entre la consommation du fructose et l’augmentation de l’indice de masse corporelle parmi les adultes de Cree et d'Inuit n’a été détecté. Nous avons considéré l’apport énergétique comme facteur confondant potentiel et après ajustement, nous avons constaté que l'indice de masse corporelle a été associé à l’apport énergétique total et non pas à la consommation du fructose. Puisque dans les études qui ont trouvé une association entre la consommation de fructose et l’obésité, le niveau de la consommation de fructose était supérieure à 50 grammes par jour et comme dans cette étude ce niveau était inférieur à cette limite (entre 20.6 et 45.4 g/jour), nous proposons que des effets negatifs du fructose sur la masse corporelle pourraient être testés dans des populations à plus haute consommation. Les essais cliniques randomisés et éventuelles études cohortes avec différents niveaux de consommation de fructose suivis à long terme pourraient aussi être utiles. Mots clés : fructose, sirop de maïs à haute teneur en fructose (HFCS), obésité et poids excessif

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’histoire naturelle de l’infection anale par le virus du papillome de type 16 (VPH-16) est mal définie pour les hommes ayant des relations sexuelles avec d’autres hommes (HARSAHs) VIH-séropositifs. Le but de cette étude était d’évaluer l’association entre la charge épisomale et intégrée du VPH-16 et la progression de la néoplasie intraépithéliale anale (AIN). Les charges épisomales et intégrées du VPH-16 furent mesurées par PCR quantitatif en temps réel sur 665 spécimens anaux obtenus de 135 hommes VPH-16-positifs participant à l’étude prospective HIPVIRG (Human Immunodeficiency and Papilloma VIrus Research Group). Le grade de l’AIN fut déterminé sur des biopsies obtenues lors des anuscopies à haute résolution périodiques. L’intégration du VPH-16 fut confirmée par DIPS-PCR pour démontrer la présence de jonctions virales-cellulaires. La charge épisomale du VPH-16 [ratio de cote (OR) 1.5, intervalle de confiance (IC) à 95%=1.1–2.1], le nombre de types de VPH [OR 1.4 (IC 95%=1.1–1.8)] et le tabagisme actuel [OR 4.8 (IC 95%=1.3–18.6)], mais non la charge intégrée, furent associés aux lésions de haut-grade (AIN-2,3) après ajustement pour l’âge et le décompte des lymphocytes CD4. La charge épisomale du VPH-16 était le seul facteur prédictif de progression de l’AIN de bas-grade (AIN-1) vers l’AIN-2,3 [OR 8.0 (IC 95%=1.2–55.4)]. Les spécimens avec une charge épisomale du VPH-16 élevée étaient moins susceptibles de contenir de l’intégration [OR 0.5 (IC 95%=0.3–0.8)]. L’intégration du VPH-16 fut détectée en absence d’AIN, dans l’AIN-1 et dans l’AIN-2,3. L’analyse des jonctions virales-cellulaires ne permit pas d’identifier un site d’intégration spécifique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé: Les progrès réalisés dans le domaine médical ont permis un prolongement de l’espérance de vie, l’amélioration de la qualité de vie des patients; ce qui implique aussi des changements dans des domaines comme l’assurance-vie. Le principe de la tarification en assurance-vie est basé sur la comparaison du risque (probabilité) de décès d’un individu candidat à une police d’assurance à celui d’une population de référence la plus proche possible du candidat. C’est ainsi que l’analyse de la littérature médicale est devenue un outil indispensable dans la sélection des risques. L’assurance-vie est présente en Afrique subsaharienne depuis environ deux cents ans, mais les assureurs ne disposaient pas jusqu'à nos jours d’outils de tarification spécifiques au contexte africain. A notre connaissance notre travail est le premier effort de ce type à s’intéresser à ce sujet. Son objectif est d’élaborer un outil de tarification qui tiendra compte des aspects spécifiques de la mortalité et de la morbidité sur le continent africain. Dans une première partie nous avons conduit une revue de la littérature médicale disponible sur différents problèmes de santé; dans une seconde étape nous avons identifié les facteurs de risque de morbidité et de mortalité afin de proposer une sélection des risques pour une tarification. Les résultats montrent que les études de mortalité, et principalement les cohortes de suivi à long terme sont rares en Afrique subsaharienne; la majorité des études sont de courte durée et en plus elles enrôlent un nombre restreint de patients. Ces insuffisances ne permettent pas une analyse actuarielle approfondie et les résultats sont difficiles à extrapoler directement dans le domaine de la tarification. Cependant, l’identification des facteurs d’aggravation de la mortalité et de la morbidité permettra un ajustement de la tarification de base. Le sujet noir africain présente un profil de mortalité et de morbidité qui est sensiblement différent de celui du sujet caucasien, d’où la nécessité d’adapter les outils de tarification actuellement utilisés dans les compagnies d’assurance qui opèrent en Afrique subsaharienne. L’Afrique au sud du Sahara a besoin aujourd’hui plus que jamais de données épidémiologiques solides qui permettront de guider les politiques sanitaires mais aussi servir au développement d’une sélection des risques adaptés au contexte africain. Ceci passera par la mise en place d’un réseau coordonné de santé publique, un système de surveillance démographique fiable et un suivi continu des mouvements de la population. Pour atteindre un tel objectif, une collaboration avec les pays développés qui sont déjà très avancés dans de tels domaines sera nécessaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous présentons nos grilles de modèles d'atmosphères pour les étoiles sous-naines chaudes de type O (sdO) soit : des modèles classiques hors-ETL H, He, des modèles hors-ETL avec, en plus, du C, N, O et finalement des modèles incluant C, N, O, Fe. En utilisant les raies de Balmer et d'hélium dans le domaine du visible, nous avons fait des comparaisons entre les spectres théoriques de nos différentes grilles afin de caractériser les effets des métaux. On trouve que ces effets dépendent à la fois de la température et de la gravité. De plus, l'abondance d'hélium a une influence importante sur les effets des métaux; une abondance d'hélium faible (log N(He)/N(H) < -1,5) occasionne des effets assez importants alors qu'une abondance plus élevée tend à réduire ces mêmes effets. Nous avons aussi trouvé que l'ajout du fer (en abondance solaire) ne cause que des changements relativement faibles à la structure en température et, par le fait même, aux profils des raies d'hydrogène et d'hélium, par rapport aux changements déjà produits par le C, N, O (en abondance solaire). Nous avons utilisé nos grilles pour faire une analyse spectroscopique du spectre à haut signal sur bruit (180) et basse résolution (9 Å) de SDSS J160043.6+074802.9 obtenu au télescope Bok. Notre meilleure ajustement a été obtenu avec notre grille de spectres synthétiques incluant C, N, O et Fe en quantité solaire, menant aux paramètres suivants : Teff = 68 500 ± 1770 K, log g = 6,09 ± 0,07, and log N(He)/N(H) = -0,64 ± 0,05, où les incertitudes proviennent uniquement de la procédure d'ajustement. Ces paramètres atmosphériques, particulièrement la valeur de l'abondance d'hélium, placent notre étoile dans une région où les effets des métaux ne sont pas très marqués.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La perte au suivi diminue grandement l’efficacité des interventions de prévention de la transmission mère-enfant du VIH en Afrique subsaharienne. Devrait-on donc choisir des traitements courts ou longs de pTME? Nous avons mené une revue systématique des études sur l’efficacité de traitements avec et sans composante anténatale et évalué l’impact de la perte au suivi sur leur efficacité. Nous avons trouvé qu’après ajustement pour la perte au suivi, les traitements avec composante anténatale ont encore une efficacité plus élevée à prévenir la TME. Les intervenants ne devraient pas craindre l’utilisation de traitements plus longs auprès de populations à risque de perte au suivi. Plus d’études sont nécessaires pour déterminer comment les interventions peuvent être adaptées au virage dans la pTME.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis quelques années, la recherche dans le domaine des réseaux maillés sans fil ("Wireless Mesh Network (WMN)" en anglais) suscite un grand intérêt auprès de la communauté des chercheurs en télécommunications. Ceci est dû aux nombreux avantages que la technologie WMN offre, telles que l'installation facile et peu coûteuse, la connectivité fiable et l'interopérabilité flexible avec d'autres réseaux existants (réseaux Wi-Fi, réseaux WiMax, réseaux cellulaires, réseaux de capteurs, etc.). Cependant, plusieurs problèmes restent encore à résoudre comme le passage à l'échelle, la sécurité, la qualité de service (QdS), la gestion des ressources, etc. Ces problèmes persistent pour les WMNs, d'autant plus que le nombre des utilisateurs va en se multipliant. Il faut donc penser à améliorer les protocoles existants ou à en concevoir de nouveaux. L'objectif de notre recherche est de résoudre certaines des limitations rencontrées à l'heure actuelle dans les WMNs et d'améliorer la QdS des applications multimédia temps-réel (par exemple, la voix). Le travail de recherche de cette thèse sera divisé essentiellement en trois principaux volets: le contrôle d‟admission du trafic, la différentiation du trafic et la réaffectation adaptative des canaux lors de la présence du trafic en relève ("handoff" en anglais). Dans le premier volet, nous proposons un mécanisme distribué de contrôle d'admission se basant sur le concept des cliques (une clique correspond à un sous-ensemble de liens logiques qui interfèrent les uns avec les autres) dans un réseau à multiples-sauts, multiples-radios et multiples-canaux, appelé RCAC. Nous proposons en particulier un modèle analytique qui calcule le ratio approprié d'admission du trafic et qui garantit une probabilité de perte de paquets dans le réseau n'excédant pas un seuil prédéfini. Le mécanisme RCAC permet d‟assurer la QdS requise pour les flux entrants, sans dégrader la QdS des flux existants. Il permet aussi d‟assurer la QdS en termes de longueur du délai de bout en bout pour les divers flux. Le deuxième volet traite de la différentiation de services dans le protocole IEEE 802.11s afin de permettre une meilleure QdS, notamment pour les applications avec des contraintes temporelles (par exemple, voix, visioconférence). À cet égard, nous proposons un mécanisme d'ajustement de tranches de temps ("time-slots"), selon la classe de service, ED-MDA (Enhanced Differentiated-Mesh Deterministic Access), combiné à un algorithme efficace de contrôle d'admission EAC (Efficient Admission Control), afin de permettre une utilisation élevée et efficace des ressources. Le mécanisme EAC prend en compte le trafic en relève et lui attribue une priorité supérieure par rapport au nouveau trafic pour minimiser les interruptions de communications en cours. Dans le troisième volet, nous nous intéressons à minimiser le surcoût et le délai de re-routage des utilisateurs mobiles et/ou des applications multimédia en réaffectant les canaux dans les WMNs à Multiples-Radios (MR-WMNs). En premier lieu, nous proposons un modèle d'optimisation qui maximise le débit, améliore l'équité entre utilisateurs et minimise le surcoût dû à la relève des appels. Ce modèle a été résolu par le logiciel CPLEX pour un nombre limité de noeuds. En second lieu, nous élaborons des heuristiques/méta-heuristiques centralisées pour permettre de résoudre ce modèle pour des réseaux de taille réelle. Finalement, nous proposons un algorithme pour réaffecter en temps-réel et de façon prudente les canaux aux interfaces. Cet algorithme a pour objectif de minimiser le surcoût et le délai du re-routage spécialement du trafic dynamique généré par les appels en relève. Ensuite, ce mécanisme est amélioré en prenant en compte l‟équilibrage de la charge entre cliques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’asthme maternel complique environ 3,4% à 12,4% des grossesses dans les pays développés ce qui en fait une des maladies chroniques les plus fréquentes pouvant engendrer de sérieux problèmes médicaux chez la mère et le fœtus. D’autre part, un taux relativement important de femmes enceintes, soit 4 à 7%, utilisent des médicaments anti-asthmatiques. La mortinaissance, la mortalité néonatale et/ou la mortalité périnatale sont les issues de grossesses les plus dramatiques pour l’enfant et la famille. Toutefois, l’effet de l’asthme et de l’utilisation des corticostéroïdes inhalés (CSI) pendant la grossesse sur ces complications a été inadéquatement évalué. La majorité des études qui ont évalué ces associations souffraient d’un manque de puissance statistique et/ou d’une absence ou d’un ajustement inadéquat pour les variables potentiellement confondantes. Les travaux présentés dans cette thèse ont donc pour objectif d’évaluer le risque de mortalité périnatale chez les femmes asthmatiques comparativement aux femmes non- asthmatiques. Cette thèse vise également à évaluer si les femmes asthmatiques exposées aux CSI courent plus de risque de mortalité périnatale que les femmes asthmatiques non exposées et si le risque de mortalité périnatale varie en fonction de la dose quotidienne de CSI utilisée par la mère pendant la grossesse. À l’aide du croisement de trois bases de données administratives du Québec, une large cohorte de femmes asthmatiques et non-asthmatiques qui ont eu au moins une grossesse entre 1990 et 2002 a été construite (n=41 142). À partir de cette cohorte, deux cohortes de grossesses ont été constituées. Les deux premières études présentées dans cette thèse sont basées sur toute la cohorte alors que la dernière étude est basée uniquement sur les grossesses de femmes asthmatiques. Une étude de cohorte a d’abord été réalisée afin d’évaluer l’effet de l’asthme maternel sur le risque de mortalité périnatale permettant l’ajustement pour les variables provenant des bases de données administratives. Afin de mieux estimer le risque de mortalité périnatale chez les femmes asthmatiques une étude de cohorte comprenant deux phases d’échantillonnage a ensuite été réalisée à l’aide d’informations additionnelles sur le tabagisme, l’utilisation de drogue illicite et l’histoire de mortinaissances, colligées à partir du dossier médical de la mère. Finalement, le risque de mortalité périnatale chez les femmes asthmatiques qui ont utilisé des CSI pendant la grossesse et le risque de mortalité périnatale en fonction de la dose moyenne quotidienne de CSI consommée par la mère pendant la grossesse ont été investigués à l’aide d’une étude de cohorte à deux phases d’échantillonnage chez les femmes asthmatiques uniquement. Nous avons premièrement observé que l’asthme pendant la grossesse pourrait augmenter le risque de mortalité périnatale due à l’augmentation du risque de bébés de petits poids et de bébés prématurés chez les femmes asthmatiques (OR=1,30; IC 95%: 1,05-1,57). Toutefois, après avoir ajusté pour le tabagisme pendant la grossesse, le risque relatif de mortalité périnatale a diminué à 12% et l’association n’est pas demeurée statistiquement significative (OR= 1,12; IC 95%: 0,87-1,45). Finalement, l’utilisation de CSI pendant la grossesse, lorsque la dose n’a pas été considérée, n’a pas été associé à une augmentation significative du risque de mortalité périnatale (OR= 1,07; IC 95% : 0,70-1,61) et un effet protecteur non-significatif de l’utilisation de doses de CSI de 250 ug ou moins par jour a été observé (OR=0,89; IC 95%: 0,55 -1,44). Toutefois, les femmes qui ont pris des doses >250 ug/jour avaient un risque accru de mortalité périnatale de 52%, mais cette association n’était pas statistiquement significative (OR=1,52; IC 95%: 0,62-3,76). Cette augmentation du risque pourrait toutefois résulter d’un ajustement imparfait pour la sévérité et le contrôle de l’asthme (les femmes asthmatiques qui ont utlisé >250 ug/jour sont susceptibles d’avoir un asthme plus sévère ou inadéquatement maîtrisé). Les conclusions de nos travaux qui sont plutôt rassurantes pourront contribuer à une meilleure prise en charge des femmes enceintes asthmatiques, à aider les médecins dans la prescription de CSI pendant la grossesse et à rassurer les femmes enceintes souffrant d’asthme et les femmes enceintes qui doivent utiliser des CSI. Toutefois, des études supplémentaires sont nécessaires afin de pouvoir conclure que l’utilisation de doses plus élevées de CSI (>250 ug/jour) pendant la grossesse sont sécuritaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous proposons une approche basée sur la formulation interactive des requêtes. Notre approche sert à faciliter des tâches d’analyse et de compréhension du code source. Dans cette approche, l’analyste utilise un ensemble de filtres de base (linguistique, structurel, quantitatif, et filtre d’interactivité) pour définir des requêtes complexes. Ces requêtes sont construites à l’aide d’un processus interactif et itératif, où des filtres de base sont choisis et exécutés, et leurs résultats sont visualisés, changés et combinés en utilisant des opérateurs prédéfinis. Nous avons évalués notre approche par l’implantation des récentes contributions en détection de défauts de conception ainsi que la localisation de fonctionnalités dans le code. Nos résultats montrent que, en plus d’être générique, notre approche aide à la mise en œuvre des solutions existantes implémentées par des outils automatiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le milieu clinique des soins intensifs, l’induction du coma médicamenteux (i.e. iatrogénique) par les sédatifs et les analgésiques est souvent associée à une augmentation significative du délirium. De plus, l’utilisation de sédatifs et d’analgésiques comme le fentanyl et le midazolam sans interruption et sans ajustement aux besoins du patient augmentent la durée de séjour, les coûts et la mortalité. Le but de cette étude était d’explorer les facteurs de variabilité pouvant influencer la survenue du coma iatrogénique et du délirium tel que : les facteurs génétiques/sociodémographiques et la co-administration de médicaments substrats ou inhibiteurs de CYP3A4/3A5 ou de la glycoproteine P. L’étude prospective à visée observationnelle a été effectuée à l’unité de soins intensifs de l’hôpital Maisonneuve-Rosemont avec 53 patients perfusés avec fentanyl ou midazolam. La faisabilité du modèle pharmacocinétique du fentanyl a été mise en évidence à partir des échantillons sanguins des patients et était compatible avec les données cliniques. Cette étude montre donc que contrairement au profil génomique de CYP3A5 (p value = 0,521) et MDR1 (p value = 0,828), les effets des interactions médicamenteuses entre les inhibiteurs CYP3A4/CYP3A5 et fentanyl/midazolam représentent un facteur de risque pour le coma iatrogénique (p value = 0,014). Ces effets peuvent être facilement identifiés et sont prévisibles; résultats qui seront utiles aux praticiens – intensivistes dans le choix d’une thérapie pharmacologique appropriée pour prévenir les complications morbides comme le coma iatrogénique et le délirium.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec l’émergence des nouveaux médias, une nouvelle façon de raconter les histoires s’impose. Les structures connues de l’esthétisme classique semblent désuètes par rapport aux dispositions des nouvelles plateformes de diffusion. Mieux encore, ces plateformes propulsent le récit, lui permettent de sortir de la rigidité de la ligne narrative : elles intègrent la technique au logos. L’intermédialité devient omniprésente; la diversité des types médiatiques employés dans une œuvre sont rendus visibles et sont articulés par la mise en récit. Méchoulan dira que dans l’« être-entre », dans l’espace reliant chacune des unités sémantiques, que l’événement de la pensée advient; pour Rodowick c’est le « figural ». Une figure particulière s’impose : le labyrinthe. Multipliant les possibilités narratives spécifiques aux nouveaux médias, le labyrinthe fait converger les composantes intermédiales. Bleeding Through : Layers of Los Angeles 1920-1986, une œuvre dirigée par Norman Klein, pose le labyrinthe comme élément structurel en y tissant un réseau où s’inscrit une pratique intermédiale. On y adresse le temps comme une opération fragmentaire, qui se sectionne, se réorganise en rompant avec la linéarité classique. Il nous faudra alors voir comment le labyrinthe réfléchit dans l’étude du temps certains éléments de la mythologie grecque. Les réflexions de Gervais sur le labyrinthe permettront d’étayer pareille hypothèse. Nous analyserons Bleeding Through à la lumière de ces théories pour ainsi dégager l’essence de cette figure qui a infiltrée la narration contemporaine. En somme, le labyrinthe se présente dans l’écologie médiatique actuelle comme une figure inhérente à la mise en récit.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La prééclampsie est responsable du quart des mortalités maternelles et est la deuxième cause de décès maternels associés à la grossesse au Canada et dans le monde. L’identification d’une stratégie efficace pour la prévention de la prééclampsie est une priorité et un défi primordial dans les milieux de recherche en obstétrique. Le rôle des éléments nutritifs dans le développement de la prééclampsie a récemment reçu davantage d’attention. Plusieurs études cliniques et épidémiologiques ont été menées pour déterminer les facteurs de risque alimentaires potentiels et examiner les effets d’une supplémentation nutritive dans le développement de troubles hypertensifs de la grossesse. Pour déterminer les effets de suppléments antioxydants pris pendant la grossesse sur le risque d’hypertension gestationnelle (HG) et de prééclampsie, un essai multicentrique contrôlé à double insu a été mené au Canada et au Mexique (An International Trial of Antioxidants in the Prevention of Preeclampsia – INTAPP). Les femmes, stratifiées par risque, étaient assignées au traitement expérimental quotidien (1 gramme de vitamine C et 400 UI de vitamine E) ou au placebo. En raison des effets secondaires potentiels, le recrutement pour l’essai a été arrêté avant que l’échantillon complet ait été constitué. Au total, 2640 femmes éligibles ont accepté d’être recrutées, dont 2363 (89.5%) furent incluses dans les analyses finales. Nous n’avons retrouvé aucune évidence qu’une supplémentation prénatale de vitamines C et E réduisait le risque d’HG et de ses effets secondaires (RR 0,99; IC 95% 0,78-1,26), HG (RR 1,04; IC 95% 0,89-1,22) et prééclampsie (RR 1,04; IC 95% 0,75-1,44). Toutefois, une analyse secondaire a révélé que les vitamines C et E augmentaient le risque de « perte fœtale ou de décès périnatal » (une mesure non spécifiée au préalable) ainsi qu’une rupture prématurée des membranes avant terme. Nous avons mené une étude de cohorte prospective chez les femmes enceintes recrutées dans l’INTAPP afin d’évaluer les relations entre le régime alimentaire maternel en début et fin de grossesse et le risque de prééclampsie et d’HG. Un questionnaire de fréquence alimentaire validé était administré deux fois pendant la grossesse (12-18 semaines, 32-34 semaines). Les analyses furent faites séparément pour les 1537 Canadiennes et les 799 Mexicaines en raison de l’hétérogénéité des régimes alimentaires des deux pays. Parmi les canadiennes, après ajustement pour l’indice de masse corporelle (IMC) précédant la grossesse, le groupe de traitement, le niveau de risque (élevé versus faible) et les autres facteurs de base, nous avons constaté une association significative entre un faible apport alimentaire (quartile inférieur) de potassium (OR 1,79; IC 95% 1,03-3,11) et de zinc (OR 1,90; IC 95% 1,07-3,39) et un risque augmenté de prééclampsie. Toujours chez les Canadiennes, le quartile inférieur de consommation d’acides gras polyinsaturés était associé à un risque augmenté d’HG (OR 1,49; IC 95% 1,09-2,02). Aucun des nutriments analysés n’affectait les risques d’HG ou de prééclampsie chez les Mexicaines. Nous avons entrepris une étude cas-témoins à l’intérieur de la cohorte de l’INTAPP pour établir le lien entre la concentration sérique de vitamines antioxydantes et le risque de prééclampsie. Un total de 115 cas de prééclampsie et 229 témoins ont été inclus. Les concentrations de vitamine E ont été mesurées de façon longitudinale à 12-18 semaines (avant la prise de suppléments), à 24-26 semaines et à 32-34 semaines de grossesse en utilisant la chromatographie liquide de haute performance. Lorsqu’examinée en tant que variable continue et après ajustement multivarié, une concentration de base élevée de gamma-tocophérol était associée à un risque augmenté de prééclampsie (quartile supérieur vs quartile inférieur à 24-26 semaines : OR 2,99, IC 95% 1,13-7,89; à 32-34 semaines : OR 4,37, IC 95% 1,35-14,15). Nous n’avons pas trouvé de lien entre les concentrations de alpha-tocophérol et le risque de prééclampsie. En résumé, nous n’avons pas trouvé d’effets de la supplémentation en vitamines C et E sur le risque de prééclampsie dans l’INTAPP. Nous avons toutefois trouvé, dans la cohorte canadienne, qu’une faible prise de potassium et de zinc, tel qu’estimée par les questionnaires de fréquence alimentaire, était associée à un risque augmenté de prééclampsie. Aussi, une plus grande concentration sérique de gamma-tocophérol pendant la grossesse était associée à un risque augmenté de prééclampsie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le domaine des neurosciences computationnelles, l'hypothèse a été émise que le système visuel, depuis la rétine et jusqu'au cortex visuel primaire au moins, ajuste continuellement un modèle probabiliste avec des variables latentes, à son flux de perceptions. Ni le modèle exact, ni la méthode exacte utilisée pour l'ajustement ne sont connus, mais les algorithmes existants qui permettent l'ajustement de tels modèles ont besoin de faire une estimation conditionnelle des variables latentes. Cela nous peut nous aider à comprendre pourquoi le système visuel pourrait ajuster un tel modèle; si le modèle est approprié, ces estimé conditionnels peuvent aussi former une excellente représentation, qui permettent d'analyser le contenu sémantique des images perçues. Le travail présenté ici utilise la performance en classification d'images (discrimination entre des types d'objets communs) comme base pour comparer des modèles du système visuel, et des algorithmes pour ajuster ces modèles (vus comme des densités de probabilité) à des images. Cette thèse (a) montre que des modèles basés sur les cellules complexes de l'aire visuelle V1 généralisent mieux à partir d'exemples d'entraînement étiquetés que les réseaux de neurones conventionnels, dont les unités cachées sont plus semblables aux cellules simples de V1; (b) présente une nouvelle interprétation des modèles du système visuels basés sur des cellules complexes, comme distributions de probabilités, ainsi que de nouveaux algorithmes pour les ajuster à des données; et (c) montre que ces modèles forment des représentations qui sont meilleures pour la classification d'images, après avoir été entraînés comme des modèles de probabilités. Deux innovations techniques additionnelles, qui ont rendu ce travail possible, sont également décrites : un algorithme de recherche aléatoire pour sélectionner des hyper-paramètres, et un compilateur pour des expressions mathématiques matricielles, qui peut optimiser ces expressions pour processeur central (CPU) et graphique (GPU).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’explosion du nombre de séquences permet à la phylogénomique, c’est-à-dire l’étude des liens de parenté entre espèces à partir de grands alignements multi-gènes, de prendre son essor. C’est incontestablement un moyen de pallier aux erreurs stochastiques des phylogénies simple gène, mais de nombreux problèmes demeurent malgré les progrès réalisés dans la modélisation du processus évolutif. Dans cette thèse, nous nous attachons à caractériser certains aspects du mauvais ajustement du modèle aux données, et à étudier leur impact sur l’exactitude de l’inférence. Contrairement à l’hétérotachie, la variation au cours du temps du processus de substitution en acides aminés a reçu peu d’attention jusqu’alors. Non seulement nous montrons que cette hétérogénéité est largement répandue chez les animaux, mais aussi que son existence peut nuire à la qualité de l’inférence phylogénomique. Ainsi en l’absence d’un modèle adéquat, la suppression des colonnes hétérogènes, mal gérées par le modèle, peut faire disparaître un artéfact de reconstruction. Dans un cadre phylogénomique, les techniques de séquençage utilisées impliquent souvent que tous les gènes ne sont pas présents pour toutes les espèces. La controverse sur l’impact de la quantité de cellules vides a récemment été réactualisée, mais la majorité des études sur les données manquantes sont faites sur de petits jeux de séquences simulées. Nous nous sommes donc intéressés à quantifier cet impact dans le cas d’un large alignement de données réelles. Pour un taux raisonnable de données manquantes, il appert que l’incomplétude de l’alignement affecte moins l’exactitude de l’inférence que le choix du modèle. Au contraire, l’ajout d’une séquence incomplète mais qui casse une longue branche peut restaurer, au moins partiellement, une phylogénie erronée. Comme les violations de modèle constituent toujours la limitation majeure dans l’exactitude de l’inférence phylogénétique, l’amélioration de l’échantillonnage des espèces et des gènes reste une alternative utile en l’absence d’un modèle adéquat. Nous avons donc développé un logiciel de sélection de séquences qui construit des jeux de données reproductibles, en se basant sur la quantité de données présentes, la vitesse d’évolution et les biais de composition. Lors de cette étude nous avons montré que l’expertise humaine apporte pour l’instant encore un savoir incontournable. Les différentes analyses réalisées pour cette thèse concluent à l’importance primordiale du modèle évolutif.