997 resultados para Modèles concéptuels


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous présentons un modèle pour l’irradiance solaire spectrale entre 200 et 400 nm. Celui-ci est une extension d’un modèle d’irradiance solaire totale basé sur la simulation de la fragmentation et l’érosion des taches qui utilise, en entrée, les positions et aires des taches observées pour chaque pas de temps d’une journée. L’émergence des taches sur la face du Soleil opposée à la Terre est simulée par une injection stochastique. Le modèle simule ensuite leur désintégration, qui produit des taches plus petites et des facules. Par la suite, l’irradiance est calculée en sommant la contribution des taches, des facules et du Soleil inactif. Les paramètres libres du modèle sont ajustés en comparant les séquences temporelles produites avec les données provenant de divers satellites s’étalant sur trois cycles d’activité. Le modèle d’irradiance spectrale, quant à lui, a été obtenu en modifiant le calcul de la contribution des taches et des facules, ainsi que celle du Soleil inactif, afin de tenir compte de leur dépendance spectrale. Le flux de la photosphère inactive est interpolé sur un spectre synthétique non magnétisé, alors que le contraste des taches est obtenu en calculant le rapport du flux provenant d’un spectre synthétique représentatif des taches et de celui provenant du spectre représentatif du Soleil inactif. Le contraste des facules est quand à lui calculé avec une procédure simple d’inversion de corps noir. Cette dernière nécessite l’utilisation d’un profil de température des facules obtenu à l’aide de modèles d’atmosphère. Les données produites avec le modèle d’irradiance spectrale sont comparées aux observations de SOLSTICE sur UARS. L’accord étant peu satisfaisant, particulièrement concernant le niveau d’irradiance minimal ainsi que l’amplitude des variations, des corrections sont appliquées sur le flux du Soleil inactif, sur le profil de température des facules, ainsi qu’à la dépendance centre-bord du contraste des facules. Enfin, un profil de température des facules est reconstruit empiriquement en maximisant l’accord avec les observations grâce à un algorithme génétique. Il est utilisé afin de reconstruire les séquences temporelles d’irradiance jusqu’en 1874 à des longueurs d’ondes d’intérêt pour la chimie et la dynamique stratosphérique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La mesure du déjettement du tronc est un élément important pour évaluer la posture en ce qui a trait à la scoliose idiopathique. Cependant, il y a peu d'informations quant à sa mesure et les associations entre le déjettement du tronc et d'autres indicateurs ou facteurs pertinents. Les objectifs de cette étude sont : 1) d’évaluer la validité et la fiabilité de test-retest du fil à plomb pour mesurer le déjettement du tronc de C7 à S1 chez les personnes atteintes de scoliose idiopathique; et 2) d'étudier l'association entre le déjettement du tronc et les facteurs suivants : la douleur, l’angle de Cobb, le type de scoliose, la santé mentale et l’image de soi chez les personnes atteintes de scoliose idiopathique. Nous avons recruté 55 sujets âgés de 10 à 21 ans atteints de scoliose idiopathique (angle de Cobb : 15º à 60º) de la clinique de scoliose dans un hôpital pédiatrique de soins tertiaires. Le déjettement a été mesuré directement sur les sujets à deux reprises par la même physiothérapeute de même que sur les radiographies prises ce jour-là. Deux mesures ont été prises à chaque fois : une les pieds joints (FT) et l’autre en écartant les pieds (FA). Les sujets ont répondu au questionnaire adressé au patient de la Scoliosis Research Society-22, qui traite de la douleur, de l'image de soi et de la santé mentale. Le type de scoliose et l'angle de Cobb ont été mesurés sur les radiographies prises ce jour-là. Nous avons utilisé la théorie de la généralisabilité pour calculer la fidélité de test-retest pour les mesures FT et FA, en rapportant les coefficients de fiabilité (f) et les erreurs types de mesure (SEM). La validité de la mesure du fil à plomb a été calculée en comparant les mesures prises directement sur les radiographies en utilisant le coefficient de corrélation de Pearson. Les corrélations de Pearson ont été calculées entre le déjettement du tronc et la douleur, l'angle de Cobb, l'image de soi et la santé mentale. Les corrélations de Spearman ont été calculées entre le déjettement du tronc et le type de scoliose. Nous avons ensuite utilisé des modèles de régression linéaire multiple pour déterminer les associations entre ces variables. Nos résultats indiquent que les mesures de déjettement du tronc en utilisant un fil à plomb ont une forte corrélation (r = 0,87) avec la mesure obtenue par radiographie. La mesure du déjettement du tronc en utilisant un fil à plomb a démontré une excellente fidélité de test-retest (f: 0,98 pour la mesure FT et 0,99 pour la mesure FA) et les SEM étaient de 2,0 mm pour la mesure FT et 1,8 mm pour la mesure FA. Le déjettement du tronc est corrélé positivement avec l'angle de Cobb (r = 0,32, p = 0,02), mais il n'est pas corrélé à la douleur, la santé mentale, l'image de soi ou le type de scoliose. Les conclusions de notre étude ont montré que la mesure clinique du déjettement du tronc en utilisant un fil à plomb est une méthode fiable et valide et que le déjettement du tronc est associé à l'angle de Cobb. Une étude longitudinale est nécessaire pour déterminer si le déjettement du tronc est un indicateur pronostique de la progression de la scoliose. Mots-clés: la scoliose idiopathique, le déjettement du tronc, fil à plomb, posture, déplacement latéral du tronc

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis ces deux dernières décennies, des efforts considérables en psychologie cognitive et neuropsychologie ont été déployés pour mieux comprendre les dynamiques entre les différents systèmes cognitifs (fonctions exécutives, mémoire, langage, etc.). L’observation d’une co-existence entre des atteintes en rétention à court terme verbale (RCTv) et en langage dans plusieurs pathologies a conduit certains chercheurs à concevoir une alternative à la conceptualisation classique de la RCTv, telle que proposée par le modèle initial de la mémoire de travail de Baddeley (1986). Particulièrement, les travaux sur l’aphasie ont conduit à l’émergence d’une approche psycholinguistique de la RCTv, postulant que le traitement et le maintien des mots font appel à des processus communs. Cette approche, et particulièrement le modèle d’activation interactive (N. Martin & Gupta, 2004; N. Martin & Saffran, 1997), prédit que les capacités en RCTv sont notamment modulées par les caractéristiques linguistiques engagées durant l’épreuve, variant selon la nature des items verbaux et la modalité de rappel, ainsi que par les compétences linguistiques des individus. L’objectif de la présente thèse était de tester ces prédictions à partir d’une exploration des relations entre le traitement sémantique des mots et la RCTv chez l’adulte sain (article 1) et dans la démence de type Alzheimer (DTA) (article 2). Dans le premier article, deux expériences mettent en évidence l’influence des liens associatifs entre les mots sur les capacités à maintenir temporairement des informations verbales. Les participants ont tendance à faussement reconnaître des mots associés aux mots de la liste, reflet d’une activation du réseau sémantique durant la rétention temporaire. Cette contribution sémantique est accentuée en situation de suppression articulatoire, une condition qui empêche le participant de répéter les listes durant la tâche. Les résultats du second article indiquent que la modalité de réponse module différemment la performance en RCTv chez les participants âgés sans atteinte neurologique et ceux atteints de la DTA. Ces données en RCTv sont compatibles avec les atteintes spécifiques du traitement du mot, également trouvées chez le groupe avec DTA. Les implications théoriques et cliniques de ces résultats sont discutées. Les limites et perspectives futures sont également abordées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

À partir des années 1980, la théorisation de la promotion de la santé et sa mise en place font partie de l’agenda des organisations internationales de santé et de plusieurs gouvernements. Cependant, une certaine tension est observable dans la compréhension de la promotion de la santé, et ce, dès ses débuts. En effet, elle est conçue en général selon une approche comportementale comme stratégie pour le changement de comportements individuels ou collectifs qui met l’accent sur les facteurs de risque et très peu fréquemment conçue selon une approche structurelle, incluant une action sur les déterminants structurels des sociétés responsables de l’état de santé des populations dans une mesure plus importante que les systèmes de soins. Cette recherche qualitative –étude de cas multiples- menée en Argentine et au Brésil, vise à analyser la place et la compréhension de la promotion de la santé dans les politiques nationales de santé de deux pays à travers l’analyse du processus d’élaboration des politiques publiques. Nous viserons à distinguer la promotion de la santé en tant que comportementale ou structurelle et à expliquer les raisons pour lesquelles elle est comprise de telle ou telle autre façon. Finalement, nous essayerons d’identifier les opportunités pour qu’une approche structurelle de la promotion de la santé soit adoptée dans la politique nationale de santé. Les données analysées proviennent d’entrevues semi-structurées (n=28) et de documents divers : sites gouvernementaux sur Internet, documents remis par les interviewés, documents officiels, soit gouvernementaux, soit des organismes de coopération et de financement. Notre cadre conceptuel s’est inspiré des trois modèles : celui du changement des politiques publiques de Sabatier et Jenkins-Smith (1999 ; 2009), celui des courants politiques de Kingdon (1984) et le cadre conceptuel proposé par Walt (1994) pour l’analyse du rôle des organisations internationales. Nous avons identifié deux niveaux d’analyse : l’organisation de l’État et le sous-système de santé. Nous avons aussi tenu compte de l’influence des événements externes et des organisations internationales de coopération technique et de financement. Notre démarche vise à observer, à analyser et à comprendre la façon dont ces niveaux influencent la place et la compréhension de la promotion de la santé dans la politique nationale de santé. La perspective temporelle de plus de douze années nous a permis de mener une analyse sur plusieurs années et de mieux comprendre le changement de la politique de santé à différents moments de son histoire ainsi que l’identification des acteurs et des coalitions les plus importants depuis l’origine des champs de la santé publique dans les deux pays. Les résultats de notre analyse montrent que la promotion de la santé – conçue selon une approche structurelle – ne fait pas encore partie du courant principal de la politique nationale de santé dans aucun des deux pays. Cependant, les explications diffèrent : En Argentine, on observe un sous-système de santé fragmenté avec prédominance du modèle médical ; les actions menées renforcent ce fonctionnement en ne permettant pas la discussion à propos des valeurs sous-jacentes à l’organisation du système de santé ni sur son changement en fonction des besoins de santé du pays. Au Brésil, la réforme sanitaire questionne le modèle préexistant et arrive à instaurer la santé comme droit au niveau de l’État. L’accent mis sur l’organisation des services réduit la compréhension de la promotion de la santé à une « politique nationale de promotion de la santé » qui vise le changement des comportements. L’analyse du rôle des organisations internationales montre deux situations différentes dans les deux pays : pour l’Argentine, il existe une dépendance majeure autant à l’agenda qu’au financement de ces organisations. Le manque d’un agenda national en matière de promotion de la santé fait que le pays adopte l’agenda international avec très peu des questionnements. Dans le cas du Brésil, la situation est bien différente et on observe une capacité importante à négocier avec la coopération internationale. Cela se fait aussi avec un intérêt du pays pour l’adoption de l’agenda des organisations internationales dans le but d’une reconnaissance et de sa participation à des instances internationales. Alors, pour des raisons différentes, les deux pays adoptent l’agenda international de la promotion de la santé avec une approche comportementale. À partir de notre recherche, nous considérons que cinq réflexions doivent guider l’analyse de la promotion de la santé en Amérique latine : 1) Les processus de réforme de l’État des années 1990 et ses conséquences actuelles (type de réforme, valeurs sociétales, arrangements constitutionnels) ; 2) Les processus de réforme des systèmes de santé avec un regard sur la composante de décentralisation (réforme sanitaire ou administrative ?, quel modèle prédomine dans le champ de la santé publique ?) ; 3) La revalorisation des soins primaires de santé de la fin des années 1990 (quel impact dans le pays ?) ; 4) La tendance à la réduction des propositions élargies autant des politiques que des programmes ; et 5) Les défis actuels des systèmes de santé (travailler avec d’autres secteurs pour produire de la santé, pour incorporer et pour mieux maîtriser les déterminants sociaux et structuraux de santé). Les résultats de notre analyse nous permettent d’identifier l’importance du rôle du gouvernement national par rapport au développement et à la compréhension de la promotion de la santé. De plus, cette recherche montre que même s’il existe une influence du contexte et de l’idéologie du gouvernement sur la compréhension de la promotion et l’inclusion des déterminants sociaux de santé, c’est l’organisation de l’État avec ces valeurs de base qui sera déterminante dans la création des conditions pour le développement d’une promotion de la santé structurelle. Alors que la littérature sur la promotion de la santé accorde encore très peu de place au rôle du niveau national et de l’État dans son développement, il est clair que ces derniers ont un impact fondamental sur la place de la promotion de la santé dans la politique et sur la façon de la comprendre et de la mettre en place. Les théories utilisées pour cette recherche nous ont aidée à modéliser notre cadre conceptuel et à mener une démarche d’analyse des politiques publiques. Cette démarche permet d’améliorer les connaissances sur le changement de la politique nationale de santé par rapport à la promotion de la santé en tenant compte des dynamiques gouvernementales, champ peu exploré encore. Ce cadre conceptuel, à la fois souple et rigoureux, pourrait s’avérer approprié pour mener d’autres recherches similaires portant sur la place et la compréhension de la promotion de la santé dans les politiques nationales de santé dans d’autres pays de l’Amérique latine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La conception de systèmes hétérogènes exige deux étapes importantes, à savoir : la modélisation et la simulation. Habituellement, des simulateurs sont reliés et synchronisés en employant un bus de co-simulation. Les approches courantes ont beaucoup d’inconvénients : elles ne sont pas toujours adaptées aux environnements distribués, le temps d’exécution de simulation peut être très décevant, et chaque simulateur a son propre noyau de simulation. Nous proposons une nouvelle approche qui consiste au développement d’un simulateur compilé multi-langage où chaque modèle peut être décrit en employant différents langages de modélisation tel que SystemC, ESyS.Net ou autres. Chaque modèle contient généralement des modules et des moyens de communications entre eux. Les modules décrivent des fonctionnalités propres à un système souhaité. Leur description est réalisée en utilisant la programmation orientée objet et peut être décrite en utilisant une syntaxe que l’utilisateur aura choisie. Nous proposons ainsi une séparation entre le langage de modélisation et la simulation. Les modèles sont transformés en une même représentation interne qui pourrait être vue comme ensemble d’objets. Notre environnement compile les objets internes en produisant un code unifié au lieu d’utiliser plusieurs langages de modélisation qui ajoutent beaucoup de mécanismes de communications et des informations supplémentaires. Les optimisations peuvent inclure différents mécanismes tels que le regroupement des processus en un seul processus séquentiel tout en respectant la sémantique des modèles. Nous utiliserons deux niveaux d’abstraction soit le « register transfer level » (RTL) et le « transaction level modeling » (TLM). Le RTL permet une modélisation à bas niveau d’abstraction et la communication entre les modules se fait à l’aide de signaux et des signalisations. Le TLM est une modélisation d’une communication transactionnelle à un plus haut niveau d’abstraction. Notre objectif est de supporter ces deux types de simulation, mais en laissant à l’usager le choix du langage de modélisation. De même, nous proposons d’utiliser un seul noyau au lieu de plusieurs et d’enlever le bus de co-simulation pour accélérer le temps de simulation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'anémie de l'enfant reste un problème d'importance pour la santé mondiale, malgré les décennies de recherche visant à comprendre son étiologie et à développer des interventions efficaces pour réduire sa prévalence et ses conséquences. Bien que les facteurs de risque individuels de l'anémie soient connus, y compris les facteurs liés à la malnutrition et à la morbidité, l'interaction entre lesdits facteurs est moins documentée dans des contextes où les enfants sont fréquemment exposés à plusieurs facteurs en même temps. Cette étude vise à documenter les efforts de lutte contre l'anémie du programme MICAH qui a été mis en oeuvre au Ghana, au Malawi et en Tanzanie. Ensuite, en utilisant les données relatives à la fois au processus et à l'évaluation colligées au cours du programme, elle vise à mieux comprendre les facteurs de risque d'anémie chez les jeunes enfants dans ces contextes et à comprendre comment les relations entre ces facteurs peuvent avoir changé au fil du temps lors de l'intervention. Spécifiquement, cette étude vérifie s‘il y a des preuves d'une réduction de la vulnérabilité des enfants aux facteurs de risque associés à l'anémie dans chaque contexte. Un examen de la documentation a été réalisé afin de caractériser le contexte du programme et des interventions, leur l'intensité et étendue. Les données transversales sur la nutrition et l'état de santé des enfants âgés de 24 à 59 mois (N = 2405) obtenues en 2000 et 2004 à partir des enquêtes d'évaluation du programme MICAH au Ghana, au Malawi et en Tanzanie, ont été utilisées pour décrire la prévalence de l'anémie. Les modèles polynomiaux de régression logistique et linéaire ont été utilisés pour estimer les risques d'anémie légère et d'anémie modérée / sévère et les niveaux d‘hémoglobine associés à des groupes de variables. Les estimations du risque attribuable à une population (RAP) ont aussi été calculées. Une anémie (Hb <110 g/L) a touché au moins 60% des enfants dans les trois pays; l'anémie modérée / sévère (<100 g/L) constituait la majorité des cas. Une forte diminution de l'anémie a été observée entre 2000 et 2004 au Ghana, mais seulement une légère baisse au Malawi et en Tanzanie. Le risque d'anémie modérée / sévère était associé au retard de croissance chez les enfants du Ghana (OR 2,68, IC 95% 1,70-4,23) et du Malawi (OR 1,71; 1,29-2,27) mais pas de la Tanzanie (OR 1,29; 0,87- 1,92). Le paludisme et les maladies récentes étaient associées à une hémoglobine plus basse. Une atténuation de cette association en 2004 a été observée seulement au Malawi pour le paludisme et au Ghana pour les maladies récentes. Le risque d'anémie modérée / sévère était 44% moindre chez les enfants âgés de 48 à 59 mois comparativement aux enfants de 24 à 35 mois dans les trois pays et cela n'a pas changé entre 2000 et 2004. Les RAP estimés ont montré qu‘environ un cinquième des cas d‘anémie modérée à sévère était attribuable au retard de croissance au Ghana et Malawi, mais pas en Tanzanie. Des RAP moindres et dépendants des contextes ont été trouvés pour le paludisme et les maladies récentes. Dans ces zones d‘intervention intégrées de santé et de nutrition la relation de certains facteurs de risque à l'anémie se modifia avec le temps. Le retard de croissance est resté toutefois un facteur de risque indépendant et non mitigé de l'anémie. Une réduction efficace des causes de la malnutrition chronique est nécessaire afin de réduire la vulnérabilité des enfants et de garantir un impact maximum des programmes de lutte contre l'anémie. Une mitigation de l'impact du paludisme peut par contre être visée dans les régions endémiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’école ne semble plus en mesure de répondre par elle-même aux besoins multidimensionnels des élèves en difficulté qui sont maintenant intégrés dans la classe ordinaire. (Cooper, 1999; Deslandes & Bertrand, 2001; Dryfoos, 1994; Greenberg, 2004; Ministère de l'Éducation du Loisir et du Sport, 2005; Paavola, 1995; Riddle & Tett, 2001; The Learning Partnership, 2004). Les équipes de soutien à l’enseignant semblent un moyen efficace d’appuyer l’enseignant et l’élève, mais cette approche est très peu utilisée dans les milieux éducatifs au Canada. Certains élèves présentant des problèmes complexes ne reçoivent pas l’appui nécessaire faute d’un manque de spécialiste à l’intérieur du cadre scolaire. Dans cette perspective, les services intégrés pourraient être une voie propice pour le travail de partenariat mais plusieurs obstacles semblent empêcher la collaboration et la coopération entre les intervenants scolaires et les partenaires de la communauté. La présente recherche a identifié un modèle qui permet d’appuyer l’enseignant dans sa pratique afin d’aider l’élève en difficulté et de le maintenir dans la classe ordinaire. Le modèle d’équipe de soutien à l’enseignant mis en œuvre dans les écoles d’un conseil francophone scolaire de l’Ontario est un modèle dérivé de Chalfant, Pysh et Moultrie (1979). Vers les années 1970, ces équipes ont été formées en vue d’offrir un appui à l’enseignant de classe ordinaire pour éviter les placements d'élèves en éducation spéciale l’intention est encore la même en 2010. Par ce modèle, nous favorisons l’entrée des services intégrés à l’intérieur du cadre scolaire et les partenaires travaillent en équipe afin de favoriser le succès scolaire des élèves. Un coordonnateur du milieu scolaire est le lien qui assure la coordination et les suivis des différentes recommandations proposées par l’équipe. Le travail de collaboration et de coopération est essentiel pour assurer le succès scolaire de l’élève. Les résultats de cette mise en œuvre nous ont permis de constater que le modèle est efficace dans l’atteinte de ses buts. D’une façon générale, les intervenants scolaires affirment se sentir effectivement appuyés par les équipes de soutien tant dans la formation, les échanges et les discussions que dans les ressources matérielles. Ce qui ressort le plus souvent de leurs propos est qu’ils apprécient la réelle collaboration et la concertation qui existent entre tous les intervenants qui assurent les suivis. Quatre-vingt-treize pour cent des répondants qui ont participé aux équipes de soutien affirment qu’il y a eu des changements positifs chez les élèves. Différents défis ont aussi été relevés. Mentionnons entre autre, la lourdeur du rôle du coordonnateur, la grandeur du territoire du Conseil (perte de temps sur la route), des cas de conflits existants entre les parents et l’école. Indépendamment de ces défis, l’application du modèle d’équipe de soutien à l’enseignant répond à l’objectif d’inclusion scolaire des élèves en difficulté tout en permettant aux enseignants de ne pas se sentir seuls ni d’être effectivement seuls à assumer ce mandat.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous présentons un relevé et une analyse spectroscopiques de plus de 1300 naines blanches brillantes (V < 17.5) et riches en hydrogène. Des spectres dans le domaine du visible avec un rapport signal-sur-bruit élevé ont été obtenus et les données ont ensuite été analysées avec notre méthode spectroscopique habituelle qui compare les profils observés des raies de Balmer à des spectres synthétiques calculés à partir de la dernière génération de modèles d’atmosphère. D’abord, nous présentons une analyse détaillée de 29 naines blanches de type DAO utilisant une nouvelle grille de modèles qui inclut du carbone, de l’azote et de l’oxygène aux abondances solaires. Nous démontrons que l’ajout de ces métaux dans les modèles d’atmosphère est essentiel pour surmonter le problème des raies de Balmer qui empêche un ajustement simultané de toutes les raies de Balmer avec des paramètres atmosphériques cohérents. Nous identifions également 18 naines blanches chaudes de type DA qui souffrent aussi du problème des raies de Balmer. Des spectres dans l’ultraviolet lointain obtenus des archives du satellite FUSE sont ensuite examinés pour démontrer qu’il existe une corrélation entre les abondances métalliques élevées et les cas du problème des raies de Balmer. Les conséquences de ces résultats pour toutes les naines blanches chaudes et riches en hydrogène sont discutées. En particulier, le scénario évolutif pour les naines blanches DAO est révisé et nous n’avons plus besoin d’évoquer l’évolution post-EHB pour expliquer la majorité des étoiles DAO. Finalement, nous élaborons un scénario dans lequel les métaux engendrent un faible vent stellaire qui expliquerait la présence d’hélium dans les étoiles DAO. Ensuite, nous présentons les résultats globaux de notre relevé, ce qui inclut une analyse spectroscopique de plus de 1200 naines blanches de type DA. En premier lieu, nous présentons le contenu spectroscopique de notre échantillon qui contient de nombreuses classifications erronées ainsi que plusieurs naines blanches de type DAB, DAZ et magnétiques. Nous discutons ensuite des nouveaux modèles d'atmosphère utilisés dans notre analyse. De plus, nous utilisons des modèles de naines M pour obtenir de meilleures valeurs des paramètres atmosphériques pour les naines blanches qui sont membres de systèmes binaires DA+dM. Certaines naines blanches uniques et quelques systèmes binaires double-dégénérées sont également analysés de manière plus détaillée. Nous examinons ensuite les propriétés globales de notre échantillon incluant la distribution de masse et la distribution de masse en fonction de la température. Nous étudions également la façon dont les nouveaux profils de raies de Balmer affectent la détermination des paramètres atmosphériques. Nous testons la précision et la robustesse de nos méthodes en comparant nos résultats avec ceux du projet SPY, dans le cadre duquel plus de 300 des mêmes naines blanches ont été analysées d'une manière complètement indépendante. Finalement, nous faisons un retour sur la bande d'instabilité des naines blanches pulsantes de type ZZ Ceti pour voir quels effets ont les nouveaux profils de raies sur la détermination de ses frontières empiriques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse avait pour but premier d’évaluer la douleur chronique endométriosique et ses concomitants (dépression, anxiété et stress), les conséquences de la douleur sur le physique, les activités et le travail, sur la relation maritale et les séquelles sur la qualité de vie chez des participantes souffrant de douleurs pelviennes chroniques diagnostiquées endométriose (laparoscopie). En deuxième lieu, il s’agissait d’évaluer et de comparer l’efficacité des techniques psychologiques de contrôle de la douleur (Hypnose, Cognitif-behavioral) en ajout aux traitements médicaux à un groupe contrôle (Attention thérapeute). L’échantillon était composé de 60 femmes réparties aléatoirement soit à l’un des deux groupes de traitement ou au groupe contrôle. Les instruments de mesure étaient tous des questionnaires déjà traduits en français et validés pour la population francophone québécoise. Des tests du khi-carré ont été effectués pour les variables nominales et des analyses de variances (ANOVA) ont été faites pour les variables continues. Dans des modèles ANOVA estimant l’effet du traitement, du temps et de leur interaction, une différence significative (effet de Groupe ou traitement) a été trouvée pour les variables suivantes : Douleur (McGill :composante évaluative p = 0.02), au moment « présent » de l’Échelle visuelle analogique (EVA, p = 0.05) et dans l’Échelle de Qualité de vie (douleur, p = 0,03) ainsi qu’à la dimension Fonctionnement social de cette dernière échelle (SF-36; p = 0,04). En comparant les données en pré et post-traitement, des résultats significatifs au niveau du Temps ont aussi été mis en évidence pour les variables suivantes : Douleur McGill: Score total, (p = 0,03), Affective (p = 0,04), Évaluative (p = 0,01); Douleur (ÉVA) moment Fort (p < 0,0005), Dépression (p = 0,005), Anxiété (situationnelle/état (p = 0,002), Anxiété/trait (p < 0,001), Stress (p = 0, 003) ainsi que pour quatre composantes de la Qualité de vie (Fonctionnement social, (p = 0,05), Vitalité (p = 0,002), Douleur, (p = 0,003) et Changement de la santé (p < 0,001) et ceci pour les trois groupes à l’exception du groupe Hypnose sur cette dernière variable. Des effets d’Interaction (Groupe X Temps) sont ressortis sur les variables « Conséquences physiques » de la douleur mais sur la dimension « Activités » seulement (p = 0,02), sur l’anxiété situationnelle (État : p = 0,007). Un effet d’interaction se rapprochant de la signification (p = 0,08) a aussi été analysé pour la variable Fonctionnement social (SF-36). L’étude montre une légère supériorité quant au traitement Cognitif-behavioral pour l’anxiété situationnelle, pour le Fonctionnement social et pour la douleur mesurée par le SF-36. L’étude présente des forces (groupe homogène, essai clinique prospectif, répartition aléatoire des participantes et groupe contrôle) mais aussi des lacunes (faible échantillon et biais potentiels reliés à l’expérimentateur et à l’effet placebo). Toute future étude devrait tenir compte de biais potentiels quant au nombre d’expérimentateur et inclure un groupe placebo spécifique aux études à caractère psychologique. Une future étude devrait évaluer le schème cognitif « catastrophisation » impliqué dans la douleur, les traits de personnalité des participantes ainsi que le rôle du conjoint. De plus, des techniques psychologiques (entrevues motivationnelles) récentes utilisées dans plusieurs études devraient aussi être prises en considérations. Tout de même des résultats significatifs offrent des pistes intéressantes pour un essai clinique comportant un échantillon plus élevé et pour un suivi à long terme.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le diabète auto-immun résulte de la destruction des cellules bêta pancréatiques sécrétrices d’insuline par les lymphocytes T du système immunitaire. Il s’ensuit une déficience hormonale qui peut être comblée par des injections quotidiennes d’insuline d’origine exogène, toutefois il demeure à ce jour impossible de guérir les patients atteints de la maladie. De façon générale, un système immunitaire sain reconnaît une multitude d’antigènes différents et assure ainsi notre défense à l’égard de différents pathogènes ou encore de cellules tumorales. Il arrive cependant que, pour des raisons génétiques et/ou environnementales, les lymphocytes T puissent s’activer de façon aberrante suite à la reconnaissance d’antigènes provenant du soi. C’est ce bris de tolérance qui mène au développement de pathologies auto-immunes telles que le diabète auto-immun. Afin de limiter l’auto-immunité, des mécanismes de sélection stricts permettent d’éliminer la majorité des lymphocytes T présentant une forte affinité envers des antigènes du soi lors de leur développement dans le thymus. Certains de ces lymphocytes réussissent toutefois à échapper à l’apoptose et migrent en périphérie afin d’y circuler en quête d’un antigène spécifiquement reconnu. Il est alors primordial que des mécanismes périphériques assurent le maintien de la tolérance immunitaire en faisant obstacle à l’activation et à la prolifération des lymphocytes T auto-réactifs. L’une des avenues afin d’inhiber le développement de réponses immunitaires aberrantes est la génération de lymphocytes T régulateurs. Ces cellules, d’origine thymique ou périphérique, peuvent arborer différents phénotypes et agissent via de multiples mécanismes afin d’inactiver et/ou éliminer les cellules impliquées dans l’apparition de pathologies auto-immunes. L’utilisation de modèles murins transgéniques a permis la mise en évidence d’une population peu caractérisée de lymphocytes T au potentiel régulateur. En effet, la proportion de ces cellules T n’exprimant pas les corécepteurs CD4 et CD8 (double négatives, DN) a été inversement corrélée à la prédisposition à l’auto-immunité chez ces ii souris. L’objectif principal de cette thèse est de démontrer la fonction immuno-régulatrice des lymphocytes T DN, tout en investiguant les facteurs génétiques responsables du maintien de cette population cellulaire. Nous avons observé que les lymphocytes T DN exercent une activité cytotoxique à l’égard des lymphocytes B de façon spécifique à l’antigène, via la libération de granules cytolytiques contenant du granzyme B et de la perforine. Par ailleurs, nous avons établi qu’un unique transfert adoptif de ces cellules est suffisant afin d’inhiber le développement du diabète auto-immun chez des hôtes transgéniques prédisposés à la maladie. Le recours à des souris déficientes pour l’expression du gène CD47 a permis de constater que la voie de signalisation CD47-Sirp est essentielle dans le maintien de la proportion des lymphocytes T DN. De plus, le locus murin de prédisposition au diabète auto-immun Idd13, qui contient le gène Sirp, a été identifié pour son rôle dans la régulation de la proportion de ces cellules. Finalement, une analyse génétique a révélé que d’autres intervalles génétiques sont impliqués dans le contrôle de la population des lymphocytes T DN. Parmi ceux-ci, un locus situé en région proximale du chromosome 12 a été validé grâce à la création de souris congéniques. Grâce aux résultats présentés dans cette thèse, notre compréhension de la biologie ainsi que de la régulation des lymphocytes T DN est approfondie. Ces connaissances constituent un pas important vers la création de thérapies cellulaires novatrices permettant de prévenir et de guérir diverses pathologies auto-immunes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le droit de l’OHADA face au commerce électronique est une réflexion épistémologique sur les questions juridiques que posent les transactions électroniques au sein des pays de l’Organisation pour l’Harmonisation en Afrique du Droit des Affaires (OHADA). Plus précisément, cette réflexion est une prospective sur l’encadrement juridique du commerce électronique par l’OHADA à partir des expériences menées notamment en Amérique du Nord (Canada-Québec) et en Europe. Les nouvelles technologies de l’information posent en Afrique comme elles l’ont fait ailleurs des défis au droit. Plusieurs initiatives régionales et nationales ont vu le jour au cours des dernières années pour relever ces défis. Seulement, le caractère hétérogène des législations mises en place est à même d’altérer la sécurité juridique régionale tant recherchée par l’organisation. Prenant appui sur la théorie de la circulation des modèles juridiques, cette thèse propose une véritable harmonisation dans le cadre de l’OHADA. Harmonisation qui veillera à prendre en compte les « spécificités africaines » tout en faisant de la Cour commune de Justice et d’Arbitrage (CCJA) d’Abidjan la plus haute juridiction communautaire en matière de commerce électronique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Plusieurs études ont confirmé que certains traits de personnalité des enfants et certaines attitudes et pratiques éducatives de leurs parents constituaient des prédicteurs des comportements perturbateurs à l’adolescence. Toutefois, la majorité des recherches ont adopté un modèle postulant des relations directes et indépendantes entre ces facteurs de risque et des comportements perturbateurs. Le modèle transactionnel est plus réaliste parce qu’il postule des relations bidirectionnelles à travers le temps entre ces deux facteurs de risque. Cette étude visait à vérifier l’existence de relations bidirectionnelles entre les traits de personnalité des enfants et les attitudes parentales de leur mère mesurés à deux reprises durant l’enfance (à 6 et 7 ans), pour ensuite vérifier si les comportements perturbateurs des enfants mesurés à l’adolescence (15 ans) pouvaient être prédits par les traits de personnalité et les attitudes parentales. Les données utilisées proviennent d’une étude longitudinale prospective de 1000 garçons et 1000 filles évalués à plusieurs reprises de la maternelle à l’adolescence. Six traits de personnalité des enfants et deux attitudes parentales ont été évalués par les mères à 6 et 7 ans, alors que les diagnostics de troubles perturbateurs (trouble des conduites, trouble oppositionnel avec provocation, trouble de déficit de l’attention/hyperactivité) ont été évalués par les adolescents et les mères à 15 ans. Afin de tester les hypothèses de recherche, des analyses de cheminement (« path analysis ») multi-groupes basées sur la modélisation par équations structurales ont été utilisées. Les résultats ont confirmé la présence de relations bidirectionnelles entre les traits de personnalité de l’enfant et les attitudes parentales durant l’enfance. Toutefois, peu de relations étaient significatives et celles qui l’étaient étaient de faible magnitude. Les modèles multi-groupes ont par ailleurs confirmé la présence de relations bidirectionnelles différentes selon le sexe. En ce qui concerne la prédiction des comportements perturbateurs, de façon générale, surtout les traits de personnalité et les attitudes parentales à 6 ans (plutôt qu’à 7 ans) ont permis de les prédire. Néanmoins, peu de relations prédictives se sont avérées significatives. En somme, cette étude est une des rares à avoir démontré la présence de relations bidirectionnelles entre la personnalité de l’enfant et les attitudes parentales avec des données longitudinales. Ces résultats pourraient avoir des implications théoriques pour les modèles explicatifs des comportements perturbateurs, de même que des implications pratiques pour le dépistage des enfants à risque.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les transferts horizontaux de gènes (THG) ont été démontrés pour jouer un rôle important dans l'évolution des procaryotes. Leur impact a été le sujet de débats intenses, ceux-ci allant même jusqu'à l'abandon de l'arbre des espèces. Selon certaines études, un signal historique dominant est présent chez les procaryotes, puisque les transmissions horizontales stables et fonctionnelles semblent beaucoup plus rares que les transmissions verticales (des dizaines contre des milliards). Cependant, l'effet cumulatif des THG est non-négligeable et peut potentiellement affecter l'inférence phylogénétique. Conséquemment, la plupart des chercheurs basent leurs inférences phylogénétiques sur un faible nombre de gènes rarement transférés, comme les protéines ribosomales. Ceux-ci n'accordent cependant pas autant d'importance au modèle d'évolution utilisé, même s'il a été démontré que celui-ci est important lorsqu'il est question de résoudre certaines divergences entre ancêtres d'espèces, comme pour les animaux par exemple. Dans ce mémoire, nous avons utilisé des simulations et analyser des jeux de données d'Archées afin d'étudier l'impact relatif des THG ainsi que l'impact des modèles d'évolution sur la précision phylogénétique. Nos simulations prouvent que (1) les THG ont un impact limité sur les phylogénies, considérant un taux de transferts réaliste et que (2) l'approche super-matrice est plus précise que l'approche super-arbre. Nous avons également observé que les modèles complexes expliquent non seulement mieux les données que les modèles standards, mais peuvent avoir un impact direct sur différents groupes phylogénétiques et sur la robustesse de l'arbre obtenu. Nos résultats contredisent une publication récente proposant que les Thaumarchaeota apparaissent à la base de l'arbre des Archées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objet de ce travail de recherche est de mettre en dialogue les œuvres de Hans-Georg Gadamer et de Paul Ricœur afin de mettre au jour ce qui caractérise en propre la conception herméneutique du langage et d’en souligner la pertinence. Notre thèse principale est que, pour ce faire, il est impératif de dépasser les lectures dichotomiques des deux œuvres par une interprétation plus dialectique, puisque seule une telle démarche paraît susceptible de saisir l’étendue, la richesse et l’importance de l’intelligence herméneutique du phénomène langagier. Ainsi, dans ce travail, nous défendrons l’idée que, par-delà leurs différences incontestables, précieuses en elles-mêmes car sans elles il n’est pas de dialogue, les herméneutiques de Gadamer et Ricœur se distinguent par une réflexion philosophique incessante sur notre appartenance fondamentale au langage, qui constitue le cœur de la conception herméneutique du langage. Nous proposerons une confrontation des philosophies de Gadamer et Ricœur s’effectuant principalement autour d’une dialectique entre appartenance et distanciation, dans laquelle des approches plus objectivantes du langage pourront s’articuler à une description de notre expérience vécue. Avant de décrire cette dialectique pour elle-même, il nous est apparu indiqué de tenir compte de l’héritage phénoménologique incontournable à partir duquel Gadamer et Ricœur ont développé leurs approches respectives du langage. Cette base nous permettra de faire ressortir l’existence d’un accord de fond entre les deux herméneutiques sur la reconnaissance de notre irréductible appartenance au langage. Cette thèse n’exclut pas la possibilité, voire la nécessité d’intégrer dialectiquement un moment de distanciation au sein de cette appartenance primordiale. Nous montrerons en effet que c’est en s’appuyant sur cette distanciation que, par un mouvement réflexif, la pensée herméneutique peut revenir sur notre expérience langagière pour la thématiser et l’expliciter. Cette réflexion sur le langage s’effectue à partir de trois principaux modèles : ceux du dialogue, du texte et de la traduction. Nous exposerons comment chacun de ces modèles contribue à une meilleure compréhension de la vie du langage et de notre rapport au sens. Ceci nous conduira à examiner les efforts de Gadamer et Ricœur visant à mettre en lumière la puissance créatrice qui anime le langage, telle qu’elle ressort de leurs nombreux travaux sur la métaphore, le dire poétique et le récit. Nous défendrons alors la thèse qu’une conception originale de l’imagination s’élabore à travers la réflexion herméneutique sur l’innovation sémantique et la métaphoricité essentielle du langage. Cette recherche se terminera par une analyse des conceptions gadamérienne et ricœurienne des rapports entre langage et expérience, ainsi que de la portée ontologique du langage. Il y aura ici lieu d’insister sur la thèse partagée par les deux herméneutes selon laquelle il importe de résister à toute hypostase ou absolutisation du langage et de constamment penser le langage comme offrant une ouverture sur l’être et la possibilité de dire ce qui est.