674 resultados para problème de couverture


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte : En République de Guinée, depuis 1984, l’ensemble des structures de soins ont intégré le programme de Soins de santé primaires et Médicaments Essentiels (PEV/SSP/ME). Pour la réalisation de ce programme, d’importants efforts et des sommes des millions de dollars ont été investis, mais les indicateurs de santé du pays sont toujours des plus alarmants du monde (EDS- 2005). Objectif : Evaluer la performance des structures de soins de santé primaires (SSP) d’un district sanitaire guinéen à partir des documents administratifs suivi d’une enquête sur la satisfaction des prestataires et des bénéficiaires et des parties prenantes du district. Méthodologie : Il s’agit d’une étude descriptive de cas touchant 10 des 18 structures de soins de santé primaires du district sanitaire de Labé. Elle porte sur une analyse quantitative de résultats de 10 contrôles semestriels (2004-2009) et sur une analyse qualitative composée d’entretiens menés auprès de 308 bénéficiaires et de quelques membres des Comités de gestion des structures pour apprécier le niveau de performance des structures ciblées. Résultats : Toutes les structures publiques du district sanitaire sous étude étaient intégrées1. Malgré cela, la tendance moyenne des consultations affiche une allure sinusoïdale (fluctuante). Bien que la disponibilité, l’accessibilité, l’utilisation et la couverture adéquate et effective des services de Consultation Primaire Curative (CPC) et de Planification Familiale (PF) n’ont pas connu d’amélioration durant la période de 2004 à 2009. La tendance moyenne de la Consultation prénatale (CPN) et celle de la Vaccination (VA) se sont améliorées au cours de la période d’étude. Les prestataires de services SSP déclarent être assez satisfaits de leur formation mais ne le sont pas pour leur condition de travail surtout ceux du milieu rural (faible rémunération, environnement difficile), qualité moindre de la supervision et ruptures fréquentes de stock en médicaments essentiels. Pour les bénéficiaires, leur satisfaction se limite au respect de leurs valeurs culturelles et de leur interaction avec les prestataires de soins. Cependant, ils déplorent le long temps d’attente, la mauvaise qualité de l’accueil, les coûts élevés des prestations et le manque d’équité qui sont des facteurs qualifiés comme des éléments de contreperformance des structures. Pour les autorités et des parties prenantes, la rupture des stocks en médicaments essentiels, le manque d’équipements et la faible motivation des prestataires sont les facteurs majeurs qui entravent la performance des structures sanitaires, surtout en milieu rural. Conclusion : Malgré l’intégration du programme des SSP dans les structures de SSP du district sanitaire de Labé, on note encore une insuffisance de leur utilisation, la faiblesse de la couverture, le manque de suivi et supervision des structures Une étude actualisée et plus étendue pourrait mieux cerner le sujet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’ubiquitin-fold modifier (UFM1) fait partie de la classe 1 de la famille de protéine ubiquitin-like (Ubl). UFM1 et Ub ont très peu d’homologie de séquence, mais partagent des similarités remarquables au niveau de leur structure tertiaire. Tout comme l’Ub et la majorité des autres Ubls, UFM1 se lie de façon covalente à ses substrats par l’intermédiaire d’une cascade enzymatique. Il est de plus en plus fréquemment rapporté que les protéines Ubls sont impliquées dans des maladies humaines. Le gène Ufm1 est surexprimé chez des souris de type MCP développant une ischémie myocardique et dans les îlots de Langerhans de patients atteints du diabète de type 2. UFM1 et ses enzymes spécifiques, UBA5, UFL1 et UFC1, sont conservés chez les métazoaires et les plantes suggérant un rôle important pour les organismes multicellulaires. Le Caenorhabditis elegans est le modèle animal le plus simple utilisé en biologie. Sa morphologie, ses phénotypes visibles et ses lignées cellulaires ont été décrits de façon détaillée. De plus, son cycle de vie court permet de rapidement observer les effets de certains gènes sur la longévité. Ce modèle nous permet de facilement manipuler l’expression du gène Ufm1 et de mieux connaître ses fonctions. En diminuant l’expression du gène ufm-1 chez le C.elegans, par la technique de l’ARN interférence par alimentation, nous n’avons observé aucun problème morphologique grave. Les vers ressemblaient aux vers sauvages et possédaient un nombre de progéniture normal. Cependant, les vers sauvage exposés à l’ARNi d’ufm-1 vivent significativement moins longtemps que les contrôles et ce, de façon indépendante de la voie de signalisation de l’insuline/IGF. Chez le C. elegans la longévité et la résistance au stress cellulaire sont intimement liées. Nous n’avons remarqué aucun effet d’ufm-1 sur le stress thermal, osmotique ou oxydatif, mais il est requis pour la protection contre le stress protéotoxique. Il est également nécessaire au maintien de l’intégrité neuronale au cours du vieillissement des animaux. L’ensemble de nos données nous renseigne sur les fonctions putatives du gène Ufm1.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire portera sur le problème de la signification, dans la pensée de Heidegger, de la métaphysique moderne, à partir de la conception de l’histoire de l’être qu’il développe dans les années 1930. Plus précisément, nous nous baserons sur l’écrit Die Zeit des Weltbildes, que l’on retrouve dans le recueil nommé Holzwege, mais également, dans une moindre mesure, sur l’écrit Niezsches Wort « Gott ist tot » du même recueil. Nous commencerons par introduire le lecteur à l’idée qu’il se fait de la métaphysique en général dans son rapport à l’homme, et du nihilisme que constitue son histoire, lequel s’accentue à l’époque moderne. Nous rentournerons alors brièvement aux premiers commencements de la métaphysique, chez Parménide et Platon principalement, dans le but de dégager les aspects de la métaphysique moderne qui y ont trouvé leur source. C’est alors que nous entrerons dans le vif du sujet, en expliquant en quoi consiste l’inauguration de la métaphysique moderne chez Descartes qui, face à l’obligation religieuse, pose la confirmation autonome de la vérité qui trouve son lieu propre dans la conscience de soi. Il sera dès lors question de montrer précisément comment se fait cette confirmation par soi-même du vrai, au travers de certaines notions centrales de l’analyse heideggerienne : la pro-position, la présentation et la représentation, l’instauration, la production, l’obtention, la préhension et la compréhension, notamment. Nous analyserons ensuite le mouvement de la volonté du sujet qui sous-tend cette confirmation autonome du savoir jusqu’à son aboutissement chez des penseurs tels que Schopenhauer. Nous mettrons par le fait même en évidence le rapport fondamental, souligné par Heidegger, entre le sujet et son objet, l’homme moderne se soulèvant et se donnant lui-même le statut éminent de centre de référence de toute chose, rapportant à lui-même tout chose. Ce mémoire se terminera par l’analyse que fait Heidegger d’un phénomène propre à la modernité, et donc émanent de la métaphysique qui aura été examinée au préalable, soit la science moderne. Celle-ci constitue la voie privilégiée où l’homme moderne, après avoir sciemment pris position au centre du monde, peut « procéder » dans le monde comme dans son royaume, un monde qui se révèle alors comme étant essentiellement à sa disposition. La science, émanant selon Heidegger de la conception moderne de la vérité et de l’étant, se révèle alors non seulement comme une réalisation de la métaphysique qui aura été analysée dans les chapitres précédents, mais peut-être même comme le phénomène duquel Heidegger semble s’être inspiré pour développer son idée de la métaphysique moderne.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le but de cette thèse est de raffiner et de mieux comprendre l'utilisation de la méthode spectroscopique, qui compare des spectres visibles de naines blanches à atmosphère riche en hydrogène (DA) à des spectres synthétiques pour en déterminer les paramètres atmosphériques (température effective et gravité de surface). Notre approche repose principalement sur le développement de modèles de spectres améliorés, qui proviennent eux-mêmes de modèles d'atmosphère de naines blanches de type DA. Nous présentons une nouvelle grille de spectres synthétiques de DA avec la première implémentation cohérente de la théorie du gaz non-idéal de Hummer & Mihalas et de la théorie unifiée de l'élargissement Stark de Vidal, Cooper & Smith. Cela permet un traitement adéquat du chevauchement des raies de la série de Balmer, sans la nécessité d'un paramètre libre. Nous montrons que ces spectres améliorés prédisent des gravités de surface qui sont plus stables en fonction de la température effective. Nous étudions ensuite le problème de longue date des gravités élevées pour les DA froides. L'hypothèse de Bergeron et al., selon laquelle les atmosphères sont contaminées par de l'hélium, est confrontée aux observations. À l'aide de spectres haute résolution récoltés au télescope Keck à Hawaii, nous trouvons des limites supérieures sur la quantité d'hélium dans les atmosphères de près de 10 fois moindres que celles requises par le scénario de Bergeron et al. La grille de spectres conçue dans ces travaux est ensuite appliquée à une nouvelle analyse spectroscopique de l'échantillon de DA du SDSS. Notre approche minutieuse permet de définir un échantillon plus propre et d'identifier un nombre important de naines blanches binaires. Nous déterminons qu'une coupure à un rapport signal-sur-bruit S/N > 15 optimise la grandeur et la qualité de l'échantillon pour calculer la masse moyenne, pour laquelle nous trouvons une valeur de 0.613 masse solaire. Finalement, huit nouveaux modèles 3D de naines blanches utilisant un traitement d'hydrodynamique radiative de la convection sont présentés. Nous avons également calculé des modèles avec la même physique, mais avec une traitement standard 1D de la convection avec la théorie de la longueur de mélange. Un analyse différentielle entre ces deux séries de modèles montre que les modèles 3D prédisent des gravités considérablement plus basses. Nous concluons que le problème des gravités élevées dans les naines blanches DA froides est fort probablement causé par une faiblesse dans la théorie de la longueur de mélange.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte - La variation interindividuelle de la réponse aux corticostéroïdes (CS) est un problème important chez les patients atteints de maladies inflammatoires d’intestin. Ce problème est bien plus accentué chez les enfants avec la prévalence de la corticodépendance extrêmement (~40 %) élevée. La maladie réfractaire au CS a des répercussions sur le développement et le bien-être physique et psychologique des patients et impose des coûts médicaux élevés, particulièrement avec la maladie active comparativement à la maladie en rémission, le coût étant 2-3 fois plus élevé en ambulatoire et 20 fois plus élevé en hôpital. Il est ainsi primordial de déterminer les marqueurs prédictifs de la réponse aux CS. Les efforts précédents de découvrir les marqueurs cliniques et démographiques ont été équivoques, ce qui souligne davantage le besoin de marqueurs moléculaires. L'action des CS se base sur des processus complexes déterminés génétiquement. Deux gènes, le ABCB1, appartenant à la famille des transporteurs transmembraneaux, et le NR3C1, encodant le récepteur glucocorticoïde, sont des éléments importants des voies métaboliques. Nous avons postulé que les variations dans ces gènes ont un rôle dans la variabilité observée de la réponse aux CS et pourraient servir en tant que les marqueurs prédictifs. Objectifs - Nous avons visé à: (1) examiner le fardeau de la maladie réfractaire aux CS chez les enfants avec la maladie de Crohn (MC) et le rôle des caractéristiques cliniques et démographiques potentiellement liés à la réponse; (2) étudier l'association entre les variantes d'ADN de gène ABCB1 et la réponse aux CS; (3) étudier les associations entre les variantes d'ADN de gène NR3C1 et la réponse aux CS. Méthodes - Afin d’atteindre ces objectifs, nous avons mené une étude de cohorte des patients recrutés dans deux cliniques pédiatriques tertiaires de gastroentérologie à l’Ottawa (CHEO) et à Montréal (HSJ). Les patients avec la MC ont été diagnostiqués avant l'âge de 18 ans selon les critères standard radiologiques, endoscopiques et histopathologiques. La corticorésistance et la corticodépendance ont été définies en adaptant les critères reconnus. L’ADN, acquise soit du sang ou de la salive, était génotypée pour des variations à travers de gènes ABCB1 et NR3C1 sélectionnées à l’aide de la méthodologie de tag-SNP. La fréquence de la corticorésistance et la corticodépendance a été estimée assumant une distribution binomiale. Les associations entre les variables cliniques/démographiques et la réponse aux CS ont été examinées en utilisant la régression logistique en ajustant pour des variables potentielles de confusion. Les associations entre variantes génétiques de ABCB1 et NR3C1 et la réponse aux CS ont été examinées en utilisant la régression logistique assumant différents modèles de la transmission. Les associations multimarqueurs ont été examinées en utilisant l'analyse de haplotypes. Les variantes nongénotypées ont été imputées en utilisant les données de HAPMAP et les associations avec SNPs imputés ont été examinées en utilisant des méthodes standard. Résultats - Parmi 645 patients avec la MC, 364 (56.2%) ont reçu CS. La majorité de patients étaient des hommes (54.9 %); présentaient la maladie de l’iléocôlon (51.7%) ou la maladie inflammatoire (84.6%) au diagnostic et étaient les Caucasiens (95.6 %). Huit pourcents de patients étaient corticorésistants et 40.9% - corticodépendants. Le plus bas âge au diagnostic (OR=1.34, 95% CI: 1.03-3.01, p=0.040), la maladie cœxistante de la région digestive supérieure (OR=1.35, 95% CI: 95% CI: 1.06-3.07, p=0.031) et l’usage simultané des immunomodulateurs (OR=0.35, 95% CI: 0.16-0.75, p=0.007) ont été associés avec la corticodépendance. Un total de 27 marqueurs génotypés à travers de ABCB1 (n=14) et NR3C1 (n=13) ont été en l'Équilibre de Hardy-Weinberg, à l’exception d’un dans le gène NR3C1 (rs258751, exclu). Dans ABCB1, l'allèle rare de rs2032583 (OR=0.56, 95% CI: 0.34-0.95, p=0.029) et génotype hétérozygote (OR=0.52, 95% CI: 0.28-0.95 p=0.035) ont été négativement associes avec la dépendance de CS. Un haplotype à 3 marqueurs, comprenant le SNP fonctionnel rs1045642 a été associé avec la dépendance de CS (p empirique=0.004). 24 SNPs imputés introniques et six haplotypes ont été significativement associés avec la dépendance de CS. Aucune de ces associations n'a cependant maintenu la signification après des corrections pour des comparaisons multiples. Dans NR3C1, trois SNPs: rs10482682 (OR=1.43, 95% CI: 0.99-2.08, p=0.047), rs6196 (OR=0.55, 95% CI: 0.31-0.95, p=0.024), et rs2963155 (OR=0.64, 95% CI: 0.42-0.98, p=0.039), ont été associés sous un modèle additif, tandis que rs4912911 (OR=0.37, 95% CI: 0.13-1.00, p=0.03) et rs2963156 (OR=0.32, 95% CI: 0.07-1.12, p=0.047) - sous un modèle récessif. Deux haplotypes incluant ces 5 SNPs (AAACA et GGGCG) ont été significativement (p=0.006 et 0.01 empiriques) associés avec la corticodépendance. 19 SNPs imputés ont été associés avec la dépendance de CS. Deux haplotypes multimarqueurs (p=0.001), incluant les SNPs génotypés et imputés, ont été associés avec la dépendance de CS. Conclusion - Nos études suggèrent que le fardeau de la corticodépendance est élevé parmi les enfants avec le CD. Les enfants plus jeunes au diagnostic et ceux avec la maladie coexistante de la région supérieure ainsi que ceux avec des variations dans les gènes ABCB1 et NR3C1 étaient plus susceptibles de devenir corticodépendants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ DE LA RECHERCHE Le conflit armé en Colombie est le troisième conflit le plus long du monde, après le problème entre la Palestine et l’Israël et celui entre l’Inde et le Pakistan. La violence organisée qui caractérise ce conflit a des conséquences sur le plan individuel (souffrance psychologique, etc.) et sur le plan collectif (démobilisation sociale par la terreur, modification de la pensée critique, augmentation de la violence commune). Cette violence a poussé des milliers de Colombiens à l’exil. Certaines de ces personnes arrivent au Québec en tant que réfugiés. La présente étude décrit et analyse les effets de la violence organisée subie en Colombie par ces personnes. Elle fait le lien entre ces conséquences et le processus d’intégration des refugiés colombiens dans une région du Québec, la Haute-Yamaska. Le principal objectif de ce mémoire est de répondre à cette question : selon l’expérience des immigrants réfugiés colombiens victimes de violence organisée, quels sont les effets de cette violence sur leur vie actuelle au Québec? Douze récits d’expériences ont été recueillis et analysés à partir d’entrevues semi dirigées auprès des refugiés colombiens. Les résultats de cette étude montrent la nécessité, pour les réfugiés, d’un travail d’élaboration autour de leur propre identité à travers l’expérience vécue; la présence du retrait et de l’isolement comme mécanismes de protection qui se manifestent en terre d’accueil; la reproduction, par un groupe minoritaire, de certains des comportements qui sont jugés violents en terre d’accueil et qui dans le contexte de la terre d’origine avaient un autre sens. Cette différence de sens est accompagnée d’une tolérance différente à la violence dans un groupe de réfugiés et la société d’accueil. L’attitude personnelle positive face aux difficultés ainsi que le soutien du réseau familial ou des nouveaux amis sont des facilitateurs de l’intégration. Finalement, on constate que les effets d’un deuil prolongé freinent l’investissement affectif et personnel en terre d’accueil.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec les nouvelles technologies des réseaux optiques, une quantité de données de plus en plus grande peut être transportée par une seule longueur d'onde. Cette quantité peut atteindre jusqu’à 40 gigabits par seconde (Gbps). Les flots de données individuels quant à eux demandent beaucoup moins de bande passante. Le groupage de trafic est une technique qui permet l'utilisation efficace de la bande passante offerte par une longueur d'onde. Elle consiste à assembler plusieurs flots de données de bas débit en une seule entité de données qui peut être transporté sur une longueur d'onde. La technique demultiplexage en longueurs d'onde (Wavelength Division Multiplexing WDM) permet de transporter plusieurs longueurs d'onde sur une même fibre. L'utilisation des deux techniques : WDM et groupage de trafic, permet de transporter une quantité de données de l'ordre de terabits par seconde (Tbps) sur une même fibre optique. La protection du trafic dans les réseaux optiques devient alors une opération très vitale pour ces réseaux, puisqu'une seule panne peut perturber des milliers d'utilisateurs et engendre des pertes importantes jusqu'à plusieurs millions de dollars à l'opérateur et aux utilisateurs du réseau. La technique de protection consiste à réserver une capacité supplémentaire pour acheminer le trafic en cas de panne dans le réseau. Cette thèse porte sur l'étude des techniques de groupage et de protection du trafic en utilisant les p-cycles dans les réseaux optiques dans un contexte de trafic dynamique. La majorité des travaux existants considère un trafic statique où l'état du réseau ainsi que le trafic sont donnés au début et ne changent pas. En plus, la majorité de ces travaux utilise des heuristiques ou des méthodes ayant de la difficulté à résoudre des instances de grande taille. Dans le contexte de trafic dynamique, deux difficultés majeures s'ajoutent aux problèmes étudiés, à cause du changement continuel du trafic dans le réseau. La première est due au fait que la solution proposée à la période précédente, même si elle est optimisée, n'est plus nécessairement optimisée ou optimale pour la période courante, une nouvelle optimisation de la solution au problème est alors nécessaire. La deuxième difficulté est due au fait que la résolution du problème pour une période donnée est différente de sa résolution pour la période initiale à cause des connexions en cours dans le réseau qui ne doivent pas être trop dérangées à chaque période de temps. L'étude faite sur la technique de groupage de trafic dans un contexte de trafic dynamique consiste à proposer différents scénarios pour composer avec ce type de trafic, avec comme objectif la maximisation de la bande passante des connexions acceptées à chaque période de temps. Des formulations mathématiques des différents scénarios considérés pour le problème de groupage sont proposées. Les travaux que nous avons réalisés sur le problème de la protection considèrent deux types de p-cycles, ceux protégeant les liens (p-cycles de base) et les FIPP p-cycles (p-cycles protégeant les chemins). Ces travaux ont consisté d’abord en la proposition de différents scénarios pour gérer les p-cycles de protection dans un contexte de trafic dynamique. Ensuite, une étude sur la stabilité des p-cycles dans un contexte de trafic dynamique a été faite. Des formulations de différents scénarios ont été proposées et les méthodes de résolution utilisées permettent d’aborder des problèmes de plus grande taille que ceux présentés dans la littérature. Nous nous appuyons sur la méthode de génération de colonnes pour énumérer implicitement les cycles les plus prometteurs. Dans l'étude des p-cycles protégeant les chemins ou FIPP p-cycles, nous avons proposé des formulations pour le problème maître et le problème auxiliaire. Nous avons utilisé une méthode de décomposition hiérarchique du problème qui nous permet d'obtenir de meilleurs résultats dans un temps raisonnable. Comme pour les p-cycles de base, nous avons étudié la stabilité des FIPP p-cycles dans un contexte de trafic dynamique. Les travaux montrent que dépendamment du critère d'optimisation, les p-cycles de base (protégeant les liens) et les FIPP p-cycles (protégeant les chemins) peuvent être très stables.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente étude intitulée « utilisation des technologies de l’information et de la communication dans l’enseignement secondaire et développement des compétences des élèves en résolution de problèmes mathématiques au Burkina Faso » est une recherche descriptive de type mixte examinant à la fois des données qualitatives et quantitatives. Elle examine les compétences en résolution de problèmes mathématiques d’élèves du Burkina Faso pour révéler d’éventuelles relations entre celles-ci et l’utilisation des TIC par les élèves ou leur enseignant de mathématiques. L’intérêt de cette recherche est de fournir des informations aussi bien sur la réalité des TIC dans l’enseignement secondaire au Burkina que sur les effets de leur présence dans l’enseignement et l’apprentissage des mathématiques. Les éléments théoriques ayant servi à l’analyse des données sont présentés suivant trois directions : la résolution des problèmes, le développement des compétences, et les relations entre les TIC, le développement de compétences et la résolution de problèmes. Du croisement de ces éléments émergent trois axes pour le développement de la réponse apportée à la préoccupation de l’étude : 1) décrire l’utilisation de l’ordinateur par les élèves du Burkina Faso pour améliorer leur apprentissage des mathématiques ; 2) identifier des rapports éventuels entre l’utilisation de l’ordinateur par les élèves et leurs compétences en résolution de problèmes mathématiques ; 3) identifier des rapports entre les compétences TIC de l’enseignant de mathématiques et les compétences de ses élèves en résolution de problèmes. Les processus de la résolution de problèmes sont présentés selon l’approche gestaltiste qui les fait passer par une illumination et selon l’approche de la théorie de la communication qui les lie au type de problème. La résolution de problèmes mathématiques passe par des étapes caractéristiques qui déterminent la compétence du sujet. Le concept de compétence est présenté selon l’approche de Le Boterf. Les données révèlent que les élèves du Burkina Faso utilisent l’ordinateur selon une logique transmissive en le considérant comme un répétiteur suppléant de l’enseignant. Par la suite, il n’y a pas de différence significative dans les compétences en résolution de problèmes mathématiques entre les élèves utilisant l’ordinateur et ceux qui ne l’utilisent pas. De même, l’étude révèle que les enseignants présentant des compétences TIC n’ont pas des élèves plus compétents en résolution de problèmes mathématiques que ceux de leurs collègues qui n’ont pas de compétences TIC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (http://www.bib.umontreal.ca/MU).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Malgré le fait que le statut social soit reconnu comme ayant une forte influence sur l’aptitude, les facteurs affectant le statut social et les changements de ce statut demeurent peu connus. De plus, les études sur la dominance ayant un lien avec l’agressivité portent rarement sur des femelles. Nous étudierons ces aspects en utilisant Neolamprologus pulcher, un poisson à reproduction coopérative du lac Tanganyika. La probabilité d’ascension sociale était manipulée sur le terrain et les changements physiologiques et comportementaux, ainsi que le niveau plasmatique de testostérone, associé avec l’ascension à la dominance de femelles subordonnées étaient caractérisés. Le degré de coopération et la masse étaient supérieurs chez les femelles ascendantes par rapport aux femelles non-ascendantes d’un même groupe social. Après une semaine d’ascension sociale, les femelles ascendantes ne différaient pas comportementalement, mais différaient physiologiquement des femelles dominantes. Les femelles dominantes, ascendantes et subordonnées ne différaient pas quant au niveau de testostérone plasmatique. Comprendre les bénéfices des comportements coopératifs pour les subordonnés a longtemps posé un problème évolutif. Nos résultats impliquent que les comportements coûteux métaboliquement peuvent avoir été sélectionnés en améliorant l’aptitude future via l’héritage du territoire et du statut social. De plus, le degré de coopération pourrait être un signal de qualité détecté par les compétiteurs et les collaborateurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Notre contexte pratique — nous enseignons à des élèves doués de cinquième année suivant le programme international — a grandement influencé la présente recherche. En effet, le Programme primaire international (Organisation du Baccalauréat International, 2007) propose un enseignement par thèmes transdisciplinaires, dont un s’intitulant Où nous nous situons dans l’espace et le temps. Aussi, nos élèves sont tenus de suivre le Programme de formation de l’école québécoise (MÉLS Ministère de l'Éducation du Loisir et du Sport, 2001) avec le développement, notamment, de la compétence Résoudre une situation-problème et l’introduction d’une nouveauté : les repères culturels. Après une revue de la littérature, l’histoire des mathématiques nous semble tout indiquée. Toutefois, il existe peu de ressources pédagogiques pour les enseignants du primaire. Nous proposons donc d’en créer, nous appuyant sur l’approche constructiviste, approche prônée par nos deux programmes d’études (OBI et MÉLS). Nous relevons donc les avantages à intégrer l’histoire des mathématiques pour les élèves (intérêt et motivation accrus, changement dans leur façon de percevoir les mathématiques et amélioration de leurs apprentissages et de leur compréhension des mathématiques). Nous soulignons également les difficultés à introduire une approche historique à l’enseignement des mathématiques et proposons diverses façons de le faire. Puis, les concepts mathématiques à l’étude, à savoir l’arithmétique, et la numération, sont définis et nous voyons leur importance dans le programme de mathématiques du primaire. Nous décrivons ensuite les six systèmes de numération retenus (sumérien, égyptien, babylonien, chinois, romain et maya) ainsi que notre système actuel : le système indo-arabe. Enfin, nous abordons les difficultés que certaines pratiques des enseignants ou des manuels scolaires posent aux élèves en numération. Nous situons ensuite notre étude au sein de la recherche en sciences de l’éducation en nous attardant à la recherche appliquée ou dite pédagogique et plus particulièrement aux apports des recherches menées par des praticiens (un rapprochement entre la recherche et la pratique, une amélioration de l’enseignement et/ou de l’apprentissage, une réflexion de l’intérieur sur la pratique enseignante et une meilleure connaissance du milieu). Aussi, nous exposons les risques de biais qu’il est possible de rencontrer dans une recherche pédagogique, et ce, pour mieux les éviter. Nous enchaînons avec une description de nos outils de collecte de données et rappelons les exigences de la rigueur scientifique. Ce n’est qu’ensuite que nous décrivons notre séquence d’enseignement/apprentissage en détaillant chacune des activités. Ces activités consistent notamment à découvrir comment différents systèmes de numération fonctionnent (à l’aide de feuilles de travail et de notations anciennes), puis comment ces mêmes peuples effectuaient leurs additions et leurs soustractions et finalement, comment ils effectuaient les multiplications et les divisions. Enfin, nous analysons nos données à partir de notre journal de bord quotidien bonifié par les enregistrements vidéo, les affiches des élèves, les réponses aux tests de compréhension et au questionnaire d’appréciation. Notre étude nous amène à conclure à la pertinence de cette séquence pour notre milieu : l’intérêt et la motivation suscités, la perception des mathématiques et les apprentissages réalisés. Nous revenons également sur le constructivisme et une dimension non prévue : le développement de la communication mathématique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ces dernières années, les technologies sans fil ont connu un essor fulgurant. Elles ont permis la mise en place de réseaux sans fil à hautes performances. Les réseaux maillées sans fil (RMSF) sont une nouvelle génération de réseaux sans fil qui offrent des débits élevés par rapport aux réseaux Wi-Fi (Wireless Fidelity) classiques et aux réseaux ad-hoc. Ils présentent de nombreux avantages telles que leur forte tolérance aux pannes, leur robustesse, leur faible coût etc. Les routeurs des RMSF peuvent disposer de plusieurs interfaces radio et chaque interface peut opérer sur plusieurs canaux distincts, c’est des RMSF multiples-radios, multiples-canaux. Ce type de réseau peut accroître de manière considérable les performances des RMSF. Cependant plusieurs problèmes subsistent et doivent être résolus notamment celui du routage. Le routage dans les RMSF demeure un défi majeur. Le but des protocoles de routage est de trouver les meilleures routes i.e. des routes qui maximisent les débits et minimisent les délais, lors de l’acheminement du trafic. La qualité des routes dans les RMSF peut être fortement affectée par les interférences, les collisions, les congestions etc. Alors les protocoles doivent être en mesure de détecter ces problèmes pour pouvoir en tenir compte lors de la sélection des routes. Plusieurs études ont été dédiées aux métriques et aux protocoles de routage dans les RMSF afin de maximiser les performances de celles ci. Mais la plupart ne prennent pas en considération toutes les contraintes telles que les interférences, le problème des stations cachées etc. Ce mémoire propose une nouvelle métrique de routage pour RMSF. Nous avons mis en place une nouvelle métrique de routage pour RMSF appelée MBP (Metric Based on Probabilities). Cette métrique est destinée aux RMSF mono-radio ou multiples-radios. Elle permet d’éviter les routes à forte ii interférence. Les résultats des simulations ont montré que MBP présente des améliorations par rapport à certaines métriques : ETT, WCETT et iAWARE qui sont connues dans le domaine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Programme de formation de l’école québécoise situe l’élève au cœur de ses apprentissages. L’enseignant peut faciliter le développement des compétences en offrant une rétroaction permettant à l’élève de progresser dans ses apprentissages. Il est difficile pour les enseignants de faire des annotations pertinentes et efficaces en mathématique, car l’accent est mis sur le concept travaillé et non sur la démarche mathématique. C’est pourquoi, nous avons porté notre regard sur l’incidence que peut avoir l’enseignement explicite des stratégies ainsi que sur les annotations faites par l’enseignant sur les copies des élèves en ce qui a trait au développement de leurs compétences à résoudre des problèmes complexes en mathématique. Nous avons opté pour une recherche qualitative et collaborative pour vivre un échange avec l’enseignant et vivre une interinfluence entre le praticien et le chercheur. La qualité des sujets a été favorisée. La technique d’échantillonnage retenue pour le choix de l’enseignant a été celle de cas exemplaires, tandis que celle que nous avons choisie pour les élèves était l’échantillonnage intentionnel critérié. La recherche a duré du mois de novembre au mois de mai de l’année scolaire 2008-2009. Comme instruments de cueillette de données, nous avons opté pour des entrevues avec l’enseignant et des mini-entrevues avec les élèves à deux moments de la recherche. Nous avons consulté les travaux corrigés des élèves dans leur portfolio. Notre étude fait ressortir l’apport de l’enseignement stratégique de la démarche mathématique. Les résultats précisent que les annotations de type méthodologique ont été celles qui ont été les plus utilisées et ont permis une meilleure compréhension chez l’élève. De plus, elles favorisent le transfert d’une situation à l’autre et permettent à l’élève d’obtenir de meilleurs résultats.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mon projet de recherche avait pour but de caractériser le rôle de deux protéines, ArgR et PepA, qui agissent en tant que facteurs accessoires de la recombinaison au niveau de deux sites cer du plasmide ColE1 présent dans la bactérie Escherichia coli. Ces deux protéines, couplées aux deux recombinases à tyrosine XerC et XerD, permettent la catalyse de la recombinaison site spécifique au niveau de la séquence cer, convertissant les multimères instables de ColE1 en monomères stables. Cette étude a principalement porté sur la région C-terminale de la protéine ArgR. Cette région de la protéine ArgR possède une séquence en acides-aminés et une structure similaire à celle de la protéine AhrC de Bacillus subtilis. De plus, AhrC, le répresseur de l’arginine de cette bactérie, est capable de complémenter des Escherichia coli mutantes déficientes en ArgR. Les régions C-terminales de ces protéines, montrent une forte similarité. De précédents travaux dans notre laboratoire ont démontré que des mutants d’ArgR comprenant des mutations dans cette région, en particulier les mutants ArgR149, une version tronquée d’ArgR de 149 acides-aminés, et ArgR5aa, une version comprenant une insertion de cinq acides-aminés dans la partie C-terminale, perdaient la capacité de permettre la recombinaison au niveau de deux sites cer présents dans le plasmide pCS210. Malgré cette incapacité à promouvoir la réaction de recombinaison en cer, ces deux mutants étaient toujours capables de se lier spécifiquement à l’ADN et de réprimer une fusion argA :: lacZ. Dans ce travail, les versions mutantes et sauvages d’ArgR furent surexprimées en tant que protéines de fusion 6-histidine. Des analyses crosslinking ont montré que la version sauvage et ArgR5aa pouvaient former des hexamères in-vitro de manière efficace, alors qu’ArgR149 formait des multimères de plus faible poids moléculaire. Des formes tronquées d’ArgR qui comportaient 150 acides-aminés ou plus, étaient encore capables de permettre la recombinaison en cer. Les mutants par substitution ArgRL149A et ArgRL151A ont tous montré que les substitutions d’un seul acide-aminé au sein de cette région avaient peu d’effets sur la recombinaison en cer. Les expériences de crosslinking protéine-à-protéine ont montré que le type sauvage et les formes mutantes d’ArgR étaient capables d’interagir avec la protéine accessoire PepA, également impliquée dans la recombinaison en cer. Les expériences de recombinaison in-vitro utilisant la forme sauvage et les formes mutantes d’ArgR combinées avec les protéines PepA, XerC et XerD purifiées, ont montré que le mutant ArgR149 ne soutenait pas la recombinaison, mais que le mutant ArgR5aa permettait la formation d’une jonction d’Holliday. Des expériences de topologie ont montré que PepA était capable de protéger l’ADN de la topoisomérase 1, et d’empêcher ArgRWt de se lier à l’ADN. Les deux mutants ArgR149 et ArgR5aa protègent aussi l’ADN avec plus de surenroulements. Quand on ajoute PepA, les profils de migration montrent un problème de liaison des deux mutants avec PepA. D’autres expériences impliquant le triplet LEL (leucine-acide glutamique-leucine) et les acides-aminés alentour devraient être réalisés dans le but de connaitre l’existence d’un site de liaison potentiel pour PepA.