538 resultados para Validité prédictive
Resumo:
Le thème de cette recherche porte sur des perspectives de stagiaires et d'experts de l'enseignement secondaire sur des situations d'indiscipline. Nous avons d'abord élaboré un contexte théorique. À la lumière de Kounin (1970), Martin (1981), Charles (1981), Charles (1989) et Bournot-Trites (in Safty dir., 1990), nous avons retrouvé une description de huit modèles de discipline. Cependant, le contenu de ces écrits ne fournit pas suffisamment d'information afin de développer le thème de notre recherche. Inspirée par Brophy et Evertson (1976), Moskowitz et Hayman (1976), Saunders (1979), Johnson (1980), Ramsey (1981), Fitzpatrick (1981), Jones et Jones (1981), Me Daniel (1982), Gagné (1985), Melvin (1985), Schloss et Sedlack (1986), Doyle (1986) et Barton et Morrison (1988), nous avons recensé des caractéristiques des maîtres efficaces. Ainsi, la littérature des modèles de discipline et celle des caractéristiques des maîtres efficaces nous ont amenée à définir les objectifs de notre recherche. Cette recherche qualitative exploratoire nous a permis d'interviewer des participants, c'est-à-dire des stagiaires et des maîtres experts de différentes écoles secondaires. Dans un premier temps, nous avons construit notre instrument de recherche qui se définit par des mises en situation (trois situations d'indiscipline) accompagné d'un questionnaire. Cet instrument fut pré-expérimenté dans le but d'en vérifier la validité. Par la suite, cet instrument fut présenté aux participants de notre recherche. Il s'agit principalement de trois stagiaires et de trois maîtres experts. Le contenu des entrevues des participants nous a permis de concevoir un modèle d'analyse appelé un discipli-cube. Ce modèle tridimensionnel comporte des composantes (savoir, savoir-être, savoir-faire), des moments (avant, pendant, après ou indéterminé) et des situations d'indiscipline. C'est donc à partir du discipli-cube que nous avons classé les données des participants. Finalement, les résultats de cette recherche nous conduisent à prétendre que, face à une situation d'indiscipline, les stagiaires interviennent en ayant plutôt recours à leur savoir (connaissances) et avec l'intention de sévir vis-à-vis l'élève ou le groupe alors que les maîtres experts interviennent en se référant davantage au savoir-faire dans le but de fournir de l'aide à l'élève ou au groupe. Ils s'interrogent et prennent le temps de considérer globalement la situation problématique ce qu'omettent de faire les stagiaires. Cette recherche comporte des limites parce que la nature de cette recherche et en particulier la situation de simulation ne permettent pas d'inférer les résultats aux situations d'enseignement réelles.
Resumo:
Le processus de planification forestière hiérarchique présentement en place sur les terres publiques risque d’échouer à deux niveaux. Au niveau supérieur, le processus en place ne fournit pas une preuve suffisante de la durabilité du niveau de récolte actuel. À un niveau inférieur, le processus en place n’appuie pas la réalisation du plein potentiel de création de valeur de la ressource forestière, contraignant parfois inutilement la planification à court terme de la récolte. Ces échecs sont attribuables à certaines hypothèses implicites au modèle d’optimisation de la possibilité forestière, ce qui pourrait expliquer pourquoi ce problème n’est pas bien documenté dans la littérature. Nous utilisons la théorie de l’agence pour modéliser le processus de planification forestière hiérarchique sur les terres publiques. Nous développons un cadre de simulation itératif en deux étapes pour estimer l’effet à long terme de l’interaction entre l’État et le consommateur de fibre, nous permettant ainsi d’établir certaines conditions pouvant mener à des ruptures de stock. Nous proposons ensuite une formulation améliorée du modèle d’optimisation de la possibilité forestière. La formulation classique du modèle d’optimisation de la possibilité forestière (c.-à-d., maximisation du rendement soutenu en fibre) ne considère pas que le consommateur de fibre industriel souhaite maximiser son profit, mais suppose plutôt la consommation totale de l’offre de fibre à chaque période, peu importe le potentiel de création de valeur de celle-ci. Nous étendons la formulation classique du modèle d’optimisation de la possibilité forestière afin de permettre l’anticipation du comportement du consommateur de fibre, augmentant ainsi la probabilité que l’offre de fibre soit entièrement consommée, rétablissant ainsi la validité de l’hypothèse de consommation totale de l’offre de fibre implicite au modèle d’optimisation. Nous modélisons la relation principal-agent entre le gouvernement et l’industrie à l’aide d’une formulation biniveau du modèle optimisation, où le niveau supérieur représente le processus de détermination de la possibilité forestière (responsabilité du gouvernement), et le niveau inférieur représente le processus de consommation de la fibre (responsabilité de l’industrie). Nous montrons que la formulation biniveau peux atténuer le risque de ruptures de stock, améliorant ainsi la crédibilité du processus de planification forestière hiérarchique. Ensemble, le modèle biniveau d’optimisation de la possibilité forestière et la méthodologie que nous avons développée pour résoudre celui-ci à l’optimalité, représentent une alternative aux méthodes actuellement utilisées. Notre modèle biniveau et le cadre de simulation itérative représentent un pas vers l’avant en matière de technologie de planification forestière axée sur la création de valeur. L’intégration explicite d’objectifs et de contraintes industrielles au processus de planification forestière, dès la détermination de la possibilité forestière, devrait favoriser une collaboration accrue entre les instances gouvernementales et industrielles, permettant ainsi d’exploiter le plein potentiel de création de valeur de la ressource forestière.
Resumo:
Ce mémoire étudie de façon empirique l'effet des dépenses publiques en biens et services sur le PIB à court et à long terme. Le sujet nous semble particulièrement pertinent dans le contexte de restrictions budgétaires qui est le nôtre. Dans une première étape, nous estimons les relations à court terme entre les dépenses publiques en biens et services G, le produit intérieur brut PIB et la masse monétaire M en mode bi-varié. Un modèle VAR en différence et des données trimestrielles pour la période 1947-1994 et les sous-périodes de change fixe (1947-1970) et de change flexible (1970-1994) sont utilisées. Nos résultats semblent confirmer la validité du modèle IS-LM-BP en économie ouverte avec mobilité des capitaux. À ce sujet, la distinction change fixe/change flexible s'est avérée cruciale. Les modèles de cycles réels ne peuvent expliquer nos résultats de manière satisfaisante, en particulier en ce qui a trait au rôle de la monnaie et au régime de taux de change. Dans une deuxième étape, nous estimons les relations à long terme entre les variables G et PIB au moyen de la procédure de cointégration proposée par Juselius et Johansen (1990). Nos résultats révèlent l'existence de relations stables à long terme entre les variables G et PIB, ce qui ouvre d'intéressantes perspectives. Entre autres, nos travaux confirment de façon empirique la loi de Wagner. De plus, le processus de socialisation de la fonction de production envisagée par Wagner, Schumpeter et d'autres semble toujours être à l'oeuvre.
Resumo:
En traitement du signal audio, les plosives sont des sons de parole très importants au regard de l’intelligibilité et de la qualité. Les plosives sont cependant difficiles à modéliser à l’aide des techniques usuelles (prédiction linéaire et codage par transformée), à cause de leur dynamique propre importante et à cause de leur nature non prédictible. Cette étude présente un exemple de système complet capable de détecter, segmenter, et altérer les plosives dans un flux de parole. Ce système est utilisé afin de vérifier la validité de l’hypothèse suivante : La phase d’éclatement (de burst) des plosives peut être mise à zéro, de façon perceptuellement équivalente. L’impact sur la qualité subjective de cette transformation est évalué sur une banque de phrases enregistrées. Les résultats de cette altération hautement destructive des signaux tendent à montrer que l’impact perceptuel est mineur. Les implications de ces résultats pour le codage de la parole sont abordées.
Resumo:
En plus d’être associé à une espérance de vie précaire, les gliomes de haut grade (GHG) s’accompagnent de déficits cognitifs ayant le potentiel d’avoir un impact majeur sur la qualité de vie. Il demeure une compréhension limitée de l’étendue et de la nature des déficits cognitifs des patients en début de parcours de soins, de l’effet de la tumeur elle-même sur les fonctions cognitives tout comme de son lien avec la qualité de vie. L’objectif général de la présente étude était d’effectuer une évaluation cognitive de patients atteints de GHG avant tout traitement afin de décrire leur profil cognitif. Plus précisément, on visait à décrire l’étendue et la nature des déficits cognitifs des patients et explorer la relation entre les fonctions cognitives des patients et les caractéristiques tumorales (volume tumoral et de l’atteinte parenchymateuse) et le niveau de qualité de vie. Une seconde partie de l’étude visait à explorer l’utilité du Montreal Cognitive Assessment (MOCA), un test de dépistage, pour détecter des déficits cognitifs chez des patients atteints d’un GHG. Une étude descriptive transversale exploratoire, comportant un échantillon de 14 patients atteints de GHG nouvellement diagnostiqués et recrutés au Centre Hospitalier Universitaire de Sherbrooke, a été conduite. Les évaluations cognitives ont été effectuées à l’aide d’une batterie de six tests neuropsychologiques et du MOCA. Les volumes tumoraux provenant des imageries par résonance magnétique ont été obtenus grâce à une méthode volumétrique rigoureuse alors que la qualité de vie a été évaluée à l’aide du Sherbrooke Neuro-oncology Assessment Scale. Les résultats ont démontré que des déficits cognitifs sont bien présents en début de parcours de soins chez ces patients. En ce qui à trait aux caractéristiques tumorales, notre étude n’a pu démontrer de corrélation entre les déficits cognitifs et le volume tumoral, soulevant la possibilité d’une absence de lien entre ces deux variables. L’atteinte parenchymateuse créée par la tumeur corrèle avec un test d’évaluation de la vitesse de traitement de l’information (⍴ = -0,784, p = 0,01). Il semblerait par ailleurs que les fonctions cognitives ne soit pas corrélées avec le niveau de qualité de vie. Finalement, le MOCA semble être un outil prometteur pour l’évaluation cognitive des patients présentant des GHG, alors qu’il semble présenter une valeur prédictive positive satisfaisante malgré une sensibilité plus modeste.
Resumo:
Ce mémoire est consacré à l'étude du modèle statistique bivarié duquel sont issues deux variables aléatoires conditionnellement indépendantes de loi de Poisson, dont les taux ne sont pas nécessairement égaux. Tout au long de ce mémoire, l'emphase est mise sur le développement d'un cadre bayésien au problème d'estimation paramétrique pour un tel modèle. Deux thèmes principaux y sont abordés : l'inférence statistique du rapport des deux paramètres d'intensité poissonniens et les densités prédictives. Ces problèmes surviennent notamment dans le contexte d'estimation de l'efficacité d'un vaccin développé par Laurent (Laurent, 2012) de même que Laurent et Legrand (Laurent et Legrand, 2012), ou encore, par celui d'estimation de l'efficacité d'un traitement contre le cancer par Lindley (Lindley, 2002). Alors que, dans ces articles, aucune contrainte paramétrique n'est imposée sur le rapport des deux taux poissonniens, une partie du mémoire abordera également ces thèmes lorsqu'il y a une contrainte restreignant le domaine du rapport sur l'intervalle $[0,1]$. Il sera alors possible d'établir des liens avec un article sur les files d'attente d'Armero et Bayarri (Armero et Bayarri, 1994).
Resumo:
La diminution des doses administrées ou même la cessation complète d'un traitement chimiothérapeutique est souvent la conséquence de la réduction du nombre de neutrophiles, qui sont les globules blancs les plus fréquents dans le sang. Cette réduction dans le nombre absolu des neutrophiles, aussi connue sous le nom de myélosuppression, est précipitée par les effets létaux non spécifiques des médicaments anti-cancéreux, qui, parallèlement à leur effet thérapeutique, produisent aussi des effets toxiques sur les cellules saines. Dans le but d'atténuer cet impact myélosuppresseur, on administre aux patients un facteur de stimulation des colonies de granulocytes recombinant humain (rhG-CSF), une forme exogène du G-CSF, l'hormone responsable de la stimulation de la production des neutrophiles et de leurs libération dans la circulation sanguine. Bien que les bienfaits d'un traitement prophylactique avec le G-CSF pendant la chimiothérapie soient bien établis, les protocoles d'administration demeurent mal définis et sont fréquemment déterminés ad libitum par les cliniciens. Avec l'optique d'améliorer le dosage thérapeutique et rationaliser l'utilisation du rhG-CSF pendant le traitement chimiothérapeutique, nous avons développé un modèle physiologique du processus de granulopoïèse, qui incorpore les connaissances actuelles de pointe relatives à la production des neutrophiles des cellules souches hématopoïétiques dans la moelle osseuse. À ce modèle physiologique, nous avons intégré des modèles pharmacocinétiques/pharmacodynamiques (PK/PD) de deux médicaments: le PM00104 (Zalypsis®), un médicament anti-cancéreux, et le rhG-CSF (filgrastim). En se servant des principes fondamentaux sous-jacents à la physiologie, nous avons estimé les paramètres de manière exhaustive sans devoir recourir à l'ajustement des données, ce qui nous a permis de prédire des données cliniques provenant de 172 patients soumis au protocol CHOP14 (6 cycles de chimiothérapie avec une période de 14 jours où l'administration du rhG-CSF se fait du jour 4 au jour 13 post-chimiothérapie). En utilisant ce modèle physio-PK/PD, nous avons démontré que le nombre d'administrations du rhG-CSF pourrait être réduit de dix (pratique actuelle) à quatre ou même trois administrations, à condition de retarder le début du traitement prophylactique par le rhG-CSF. Dans un souci d'applicabilité clinique de notre approche de modélisation, nous avons investigué l'impact de la variabilité PK présente dans une population de patients, sur les prédictions du modèle, en intégrant des modèles PK de population (Pop-PK) des deux médicaments. En considérant des cohortes de 500 patients in silico pour chacun des cinq scénarios de variabilité plausibles et en utilisant trois marqueurs cliniques, soient le temps au nadir des neutrophiles, la valeur du nadir, ainsi que l'aire sous la courbe concentration-effet, nous avons établi qu'il n'y avait aucune différence significative dans les prédictions du modèle entre le patient-type et la population. Ceci démontre la robustesse de l'approche que nous avons développée et qui s'apparente à une approche de pharmacologie quantitative des systèmes (QSP). Motivés par l'utilisation du rhG-CSF dans le traitement d'autres maladies, comme des pathologies périodiques telles que la neutropénie cyclique, nous avons ensuite soumis l'étude du modèle au contexte des maladies dynamiques. En mettant en évidence la non validité du paradigme de la rétroaction des cytokines pour l'administration exogène des mimétiques du G-CSF, nous avons développé un modèle physiologique PK/PD novateur comprenant les concentrations libres et liées du G-CSF. Ce nouveau modèle PK a aussi nécessité des changements dans le modèle PD puisqu’il nous a permis de retracer les concentrations du G-CSF lié aux neutrophiles. Nous avons démontré que l'hypothèse sous-jacente de l'équilibre entre la concentration libre et liée, selon la loi d'action de masse, n'est plus valide pour le G-CSF aux concentrations endogènes et mènerait en fait à la surestimation de la clairance rénale du médicament. En procédant ainsi, nous avons réussi à reproduire des données cliniques obtenues dans diverses conditions (l'administration exogène du G-CSF, l'administration du PM00104, CHOP14). Nous avons aussi fourni une explication logique des mécanismes responsables de la réponse physiologique aux deux médicaments. Finalement, afin de mettre en exergue l’approche intégrative en pharmacologie adoptée dans cette thèse, nous avons démontré sa valeur inestimable pour la mise en lumière et la reconstruction des systèmes vivants complexes, en faisant le parallèle avec d’autres disciplines scientifiques telles que la paléontologie et la forensique, où une approche semblable a largement fait ses preuves. Nous avons aussi discuté du potentiel de la pharmacologie quantitative des systèmes appliquées au développement du médicament et à la médecine translationnelle, en se servant du modèle physio-PK/PD que nous avons mis au point.
Resumo:
Le but de cette thèse est d’explorer le potentiel sismique des étoiles naines blanches pulsantes, et en particulier celles à atmosphères riches en hydrogène, les étoiles ZZ Ceti. La technique d’astérosismologie exploite l’information contenue dans les modes normaux de vibration qui peuvent être excités lors de phases particulières de l’évolution d’une étoile. Ces modes modulent le flux émergent de l’étoile pulsante et se manifestent principalement en termes de variations lumineuses multi-périodiques. L’astérosismologie consiste donc à examiner la luminosité d’étoiles pulsantes en fonction du temps, afin d’en extraire les périodes, les amplitudes apparentes, ainsi que les phases relatives des modes de pulsation détectés, en utilisant des méthodes standards de traitement de signal, telles que des techniques de Fourier. L’étape suivante consiste à comparer les périodes de pulsation observées avec des périodes générées par un modèle stellaire en cherchant l’accord optimal avec un modèle physique reconstituant le plus fidèlement possible l’étoile pulsante. Afin d’assurer une recherche optimale dans l’espace des paramètres, il est nécessaire d’avoir de bons modèles physiques, un algorithme d’optimisation de comparaison de périodes efficace, et une puissance de calcul considérable. Les périodes des modes de pulsation de modèles stellaires de naines blanches peuvent être généralement calculées de manière précise et fiable sur la base de la théorie linéaire des pulsations stellaires dans sa version adiabatique. Afin de définir dans son ensemble un modèle statique de naine blanche propre à l’analyse astérosismologique, il est nécessaire de spécifier la gravité de surface, la température effective, ainsi que différents paramètres décrivant la disposition en couche de l’enveloppe. En utilisant parallèlement les informations obtenues de manière indépendante (température effective et gravité de surface) par la méthode spectroscopique, il devient possible de vérifier la validité de la solution obtenue et de restreindre de manière remarquable l’espace des paramètres. L’exercice astérosismologique, s’il est réussi, mène donc à la détermination précise des paramètres de la structure globale de l’étoile pulsante et fournit de l’information unique sur sa structure interne et l’état de sa phase évolutive. On présente dans cette thèse l’analyse complète réussie, de l’extraction des fréquences à la solution sismique, de quatre étoiles naines blanches pulsantes. Il a été possible de déterminer les paramètres structuraux de ces étoiles et de les comparer remarquablement à toutes les contraintes indépendantes disponibles dans la littérature, mais aussi d’inférer sur la dynamique interne et de reconstruire le profil de rotation interne. Dans un premier temps, on analyse le duo d’étoiles ZZ Ceti, GD 165 et Ross 548, afin de comprendre les différences entre leurs propriétés de pulsation, malgré le fait qu’elles soient des étoiles similaires en tout point, spectroscopiquement parlant. L’analyse sismique révèle des structures internes différentes, et dévoile la sensibilité de certains modes de pulsation à la composition interne du noyau de l’étoile. Afin de palier à cette sensibilité, nouvellement découverte, et de rivaliser avec les données de qualité exceptionnelle que nous fournissent les missions spatiales Kepler et Kepler2, on développe une nouvelle paramétrisation des profils chimiques dans le coeur, et on valide la robustesse de notre technique et de nos modèles par de nombreux tests. Avec en main la nouvelle paramétrisation du noyau, on décroche enfin le ”Saint Graal” de l’astérosismologie, en étant capable de reproduire pour la première fois les périodes observées à la précision des observations, dans le cas de l’étude sismique des étoiles KIC 08626021 et de GD 1212.
Resumo:
People go through their life making all kinds of decisions, and some of these decisions affect their demand for transportation, for example, their choices of where to live and where to work, how and when to travel and which route to take. Transport related choices are typically time dependent and characterized by large number of alternatives that can be spatially correlated. This thesis deals with models that can be used to analyze and predict discrete choices in large-scale networks. The proposed models and methods are highly relevant for, but not limited to, transport applications. We model decisions as sequences of choices within the dynamic discrete choice framework, also known as parametric Markov decision processes. Such models are known to be difficult to estimate and to apply to make predictions because dynamic programming problems need to be solved in order to compute choice probabilities. In this thesis we show that it is possible to explore the network structure and the flexibility of dynamic programming so that the dynamic discrete choice modeling approach is not only useful to model time dependent choices, but also makes it easier to model large-scale static choices. The thesis consists of seven articles containing a number of models and methods for estimating, applying and testing large-scale discrete choice models. In the following we group the contributions under three themes: route choice modeling, large-scale multivariate extreme value (MEV) model estimation and nonlinear optimization algorithms. Five articles are related to route choice modeling. We propose different dynamic discrete choice models that allow paths to be correlated based on the MEV and mixed logit models. The resulting route choice models become expensive to estimate and we deal with this challenge by proposing innovative methods that allow to reduce the estimation cost. For example, we propose a decomposition method that not only opens up for possibility of mixing, but also speeds up the estimation for simple logit models, which has implications also for traffic simulation. Moreover, we compare the utility maximization and regret minimization decision rules, and we propose a misspecification test for logit-based route choice models. The second theme is related to the estimation of static discrete choice models with large choice sets. We establish that a class of MEV models can be reformulated as dynamic discrete choice models on the networks of correlation structures. These dynamic models can then be estimated quickly using dynamic programming techniques and an efficient nonlinear optimization algorithm. Finally, the third theme focuses on structured quasi-Newton techniques for estimating discrete choice models by maximum likelihood. We examine and adapt switching methods that can be easily integrated into usual optimization algorithms (line search and trust region) to accelerate the estimation process. The proposed dynamic discrete choice models and estimation methods can be used in various discrete choice applications. In the area of big data analytics, models that can deal with large choice sets and sequential choices are important. Our research can therefore be of interest in various demand analysis applications (predictive analytics) or can be integrated with optimization models (prescriptive analytics). Furthermore, our studies indicate the potential of dynamic programming techniques in this context, even for static models, which opens up a variety of future research directions.
Resumo:
L’obésité est un problème de santé publique reconnu. Dans la dernière décennie l’obésité abdominale (OA) a été considérée comme une maladie métabolique qui contribue davantage au risque de diabète et de maladies cardiovasculaires que l’obésité générale définie par l’indice de masse corporelle. Toutefois, dans les populations d’origine africaine, la relation entre l’OA et les autres biomarqueurs de risque cardiométabolique (RCM) demeure obscure à cause du manque d’études chez ces populations et de l’absence de valeurs-seuils spécifiques pour juger d’une OA. Cette étude visait à comparer la prévalence des biomarqueurs de RCM (OA, hypertension artérielle, hyperglycémie, dyslipidémie, résistance à l'insuline et inflammation pré-clinique) chez les Béninois de Cotonou et les Haïtiens de Port-au-Prince (PAP), à étudier l’association de l’OA avec les autres biomarqueurs de RCM, à documenter le rôle du niveau socio-économique (NSE) et du mode de vie dans cette association et à ’identifier les indicateurs anthropométriques de l’OA -tour de taille (TT) et le ratio TT/hauteur (TT/H)- et les seuils qui prédisent le mieux le RCM à Cotonou et à PAP. Il s’est agi d’une analyse de données transversales chez 452 adultes (52 % hommes) apparemment en bonne santé, âgés de 25 à 60 ans, avec 200 sujets vivant à Cotonou (Bénin) et 252 sujets à PAP (Haïti). Les biomarqueurs de RCM considérés étaient : le syndrome métabolique (SMet) d’après les critères harmonisés de 2009 et ses composantes individuelles - une OA à partir d’un TT ≥ 94cm chez les hommes et ≥ 80cm chez les femmes, une hypertension, une dyslipidémie et une hyperglycémie; la résistance à l’insuline définie chez l’ensemble des sujets de l’étude à partir du 75e centile de l’Homeostasis Model Assessment (HOMA-IR); un ratio d’athérogénicité élevé (Cholestérol sérique total/HDL-Cholestérol); et l’inflammation pré-clinique mesurée à partir d’un niveau de protéine C-réactive ultrasensible (PCRus) entre 3 et 10 mg/l. Le ratio TT/H était aussi considéré pour définir l’OA à partir d’un seuil de 0,5. Les données sur les habitudes alimentaires, la consommation d’alcool, le tabagisme, les caractéristiques sociodémographiques et les conditions socio-économiques incluant le niveau d’éducation et un proxy du revenu (basé sur l’analyse par composante principale des biens et des possessions) ont été recueillies au moyen d’un questionnaire. Sur la base de données de fréquence de consommation d’aliments occidentaux, urbains et traditionnels, des schémas alimentaires des sujets de chaque ville ont été identifiés par analyse typologique. La validité et les valeurs-seuils de TT et du ratio TT/H prédictives du RCM ont été définies à partir des courbes ROC (Receiver Operating Characteristics). Le SMet était présent chez 21,5 % et 16,1 % des participants, respectivement à Cotonou et à PAP. La prévalence d’OA était élevée à Cotonou (52,5 %) qu’à PAP (36%), avec une prévalence plus élevée chez les femmes que chez les hommes. Le profil lipidique sérique était plus athérogène à PAP avec 89,3 % d’HDL-c bas à PAP contre 79,7 % à Cotonou et un ratio CT/HDL-c élevé de 73,4 % à PAP contre 42 % à Cotonou. Les valeurs-seuils spécifiques de TT et du TT/H étaient respectivement 94 cm et 0,59 chez les femmes et 80 cm et 0,50 chez les hommes. Les analyses multivariées de l’OA avec les biomarqueurs de RCM les plus fortement prévalents dans ces deux populations montraient que l’OA était associée à un risque accru de résistance à l’insuline, d’athérogénicité et de tension artérielle élevée et ceci, indépendamment des facteurs socio-économiques et du mode de vie. Deux schémas alimentaires ont émergé, transitionnel et traditionnel, dans chaque ville, mais ceux-ci ne se révélaient pas associés aux biomarqueurs de RCM bien qu’ils soient en lien avec les variables socio-économiques. La présente étude confirme la présence de plusieurs biomarqueurs de RCM chez des sujets apparemment sains. En outre, l’OA est un élément clé du RCM dans ces deux populations. Les seuils actuels de TT devraient être reconsidérés éventuellement à la lumière d’études de plus grande envergure, afin de mieux définir l’OA chez les Noirs africains ou d’origine africaine, ce qui permettra une surveillance épidémiologique plus adéquate des biomarqueurs de RCM.
Resumo:
Bien que le travail soit bénéfique et souhaité par une majorité de personnes aux prises avec un trouble mental grave (TMG), les études réalisées auprès de cette clientèle montrent des taux d’emploi d’environ 10 à 20%. Parmi les services visant le retour au travail, les programmes de soutien à l’emploi (PSE) se sont montrés les plus efficaces avec des taux de placement en emploi standard oscillant entre 50 et 60%, sans toutefois garantir le maintien en emploi. Plusieurs études ont tenté de cerner les déterminants de l’obtention et du maintien en emploi chez cette population sans toutefois s’intéresser à la personnalité, et ce, bien qu’elle soit reconnue depuis toujours comme un déterminant important du fonctionnement des individus. De plus, peu de questionnaires d’évaluation de la personnalité selon le modèle de la personnalité en cinq facteurs (FFM) ont été utilisés auprès d’une clientèle avec un TMG et ceux-ci ont montré des propriétés psychométriques ne respectant pas des normes reconnues et acceptées. Cette thèse porte sur les liens entre la personnalité et l’intégration au travail chez les personnes avec un TMG. La première partie vise la validation d’un outil de mesure de la personnalité selon le FFM afin de répondre aux objectifs de la deuxième partie de la thèse. À cet effet, deux échantillons ont été recrutés, soit 259 étudiants universitaires et 141 personnes avec un TMG. Des analyses factorielles confirmatoires ont mené au développement d’un nouveau questionnaire à 15 items (NEO-15) dont les indices d’ajustement, de cohérence interne et de validité convergente respectent les normes établies, ce qui en fait un questionnaire bien adapté à la mesure de la personnalité normale dans des contextes où le temps d’évaluation est limité. La deuxième partie présente les résultats d’une étude réalisée auprès de 82 personnes aux prises avec un TMG inscrites dans un PSE et visant à identifier les facteurs d’obtention et de maintien en emploi chez cette clientèle, particulièrement en ce qui concerne la contribution des éléments normaux et pathologiques de la personnalité. Les résultats de régressions logistiques et de régressions de Cox (analyses de survie) ont démontré que l’historique d’emploi, les symptômes négatifs et le niveau de pathologie de la personnalité étaient prédictifs de l’obtention d’un emploi standard et du délai avant l’obtention d’un tel emploi. Une autre série de régressions de Cox a pour sa part démontré que l’esprit consciencieux était le seul prédicteur significatif du maintien en emploi. Malgré certaines limites, particulièrement des tailles d’échantillons restreintes, ces résultats démontrent la pertinence et l’importance de tenir compte des éléments normaux et pathologiques de la personnalité dans le cadre d’études portant sur l’intégration au travail de personnes avec un TMG. De plus, cette thèse a permis de démontrer l’adéquation d’un nouvel instrument de mesure de la personnalité auprès de cette clientèle. Des avenues futures concernant la réintégration professionnelle et le traitement des personnes avec un TMG sont discutées à la lumière de ces résultats.
Resumo:
La maladie du greffon contre l’hôte (GVHD) est la principale cause de mortalité et de morbidité suite aux greffes de cellules souches hématopoïétiques. Plusieurs patients demeurent réfractaires aux traitements actuels ce qui rend nécessaire le développement de nouvelles stratégies afin de combattre cette maladie. Dans l’étude qui suit, nous avons utilisé un nouvel agent thérapeutique, le TH9402, une molécule photosensible et démontré qu’elle permet, lorsqu’exposée à la lumière visible (514 nm), d’éliminer sélectivement les cellules T activées in vivo tout en préservant les cellules T au repos et les cellules T régulatrices (Tregs). Les Tregs ainsi préservés peuvent abroger la réponse alloréactive par la sécrétion d’IL-10 ou par contact cellule-cellule via un mécanisme impliquant le CTLA-4. Nous avons découvert que la signalisation du CTLA-4 était associée à une hausse de la population Treg in vitro. Cette hausse est due à la conversion de cellules T CD4+CD25- en Tregs et non à une prolifération sélective des Tregs. Dans la deuxième partie de cette étude, nous avons démontré que la signalisation de CTLA-4 était associée à une augmentation de l’expression de la protéine Indoleamine 2,3 dioxygenase (IDO). Ces effets nécessitent la déplétion du tryptophane ainsi que de la protéine de phase aigue GCN2. Finalement, nous avons observé que l’infusion de cellules traitées au TH9402 chez des patients souffrant de GVHD chronique est associée à une augmentation de la population Treg chez ces patients sans causer de lymphopénie ni de diminution de la réponse immunitaire dirigée contre les antigènes viraux. Ces résultats suggèrent que le traitement au TH9402 pourrait représenter une approche particulièrement intéressante pour le traitement de la GVHD chronique réfractaire aux traitements actuels. De plus, l’augmentation de l’expression d’IDO pourrait être utilisée comme valeur prédictive de la réponse du patient au traitement. Ceci pourrait permettre d’améliorer la qualité de soins ainsi que de la qualité de vie des patients souffrant de GVHD chronique.
Resumo:
Cette thèse développe des méthodes bootstrap pour les modèles à facteurs qui sont couram- ment utilisés pour générer des prévisions depuis l'article pionnier de Stock et Watson (2002) sur les indices de diffusion. Ces modèles tolèrent l'inclusion d'un grand nombre de variables macroéconomiques et financières comme prédicteurs, une caractéristique utile pour inclure di- verses informations disponibles aux agents économiques. Ma thèse propose donc des outils éco- nométriques qui améliorent l'inférence dans les modèles à facteurs utilisant des facteurs latents extraits d'un large panel de prédicteurs observés. Il est subdivisé en trois chapitres complémen- taires dont les deux premiers en collaboration avec Sílvia Gonçalves et Benoit Perron. Dans le premier article, nous étudions comment les méthodes bootstrap peuvent être utilisées pour faire de l'inférence dans les modèles de prévision pour un horizon de h périodes dans le futur. Pour ce faire, il examine l'inférence bootstrap dans un contexte de régression augmentée de facteurs où les erreurs pourraient être autocorrélées. Il généralise les résultats de Gonçalves et Perron (2014) et propose puis justifie deux approches basées sur les résidus : le block wild bootstrap et le dependent wild bootstrap. Nos simulations montrent une amélioration des taux de couverture des intervalles de confiance des coefficients estimés en utilisant ces approches comparativement à la théorie asymptotique et au wild bootstrap en présence de corrélation sérielle dans les erreurs de régression. Le deuxième chapitre propose des méthodes bootstrap pour la construction des intervalles de prévision permettant de relâcher l'hypothèse de normalité des innovations. Nous y propo- sons des intervalles de prédiction bootstrap pour une observation h périodes dans le futur et sa moyenne conditionnelle. Nous supposons que ces prévisions sont faites en utilisant un ensemble de facteurs extraits d'un large panel de variables. Parce que nous traitons ces facteurs comme latents, nos prévisions dépendent à la fois des facteurs estimés et les coefficients de régres- sion estimés. Sous des conditions de régularité, Bai et Ng (2006) ont proposé la construction d'intervalles asymptotiques sous l'hypothèse de Gaussianité des innovations. Le bootstrap nous permet de relâcher cette hypothèse et de construire des intervalles de prédiction valides sous des hypothèses plus générales. En outre, même en supposant la Gaussianité, le bootstrap conduit à des intervalles plus précis dans les cas où la dimension transversale est relativement faible car il prend en considération le biais de l'estimateur des moindres carrés ordinaires comme le montre une étude récente de Gonçalves et Perron (2014). Dans le troisième chapitre, nous suggérons des procédures de sélection convergentes pour les regressions augmentées de facteurs en échantillons finis. Nous démontrons premièrement que la méthode de validation croisée usuelle est non-convergente mais que sa généralisation, la validation croisée «leave-d-out» sélectionne le plus petit ensemble de facteurs estimés pour l'espace généré par les vraies facteurs. Le deuxième critère dont nous montrons également la validité généralise l'approximation bootstrap de Shao (1996) pour les regressions augmentées de facteurs. Les simulations montrent une amélioration de la probabilité de sélectionner par- cimonieusement les facteurs estimés comparativement aux méthodes de sélection disponibles. L'application empirique revisite la relation entre les facteurs macroéconomiques et financiers, et l'excès de rendement sur le marché boursier américain. Parmi les facteurs estimés à partir d'un large panel de données macroéconomiques et financières des États Unis, les facteurs fortement correlés aux écarts de taux d'intérêt et les facteurs de Fama-French ont un bon pouvoir prédictif pour les excès de rendement.
Resumo:
A procura de contra-exemplos é provavelmente a fase mais importante do raciocí - nio dedutivo, uma vez que visa garantir a validade da conclusão. A explicação mais difundida para a diminuta procura de contra-exemplos é a capacidade limitada da memória de trabalho (Markovits & Barrouillet 2002; De Neys, Schaeken & d’Ydewalle, 2002; 2003; 2005a; 2005b) o que não parece ser suficiente para explicar a pouca iniciativa dos sujeitos em utilizarem a procura de contra-exemplos como estratégia de verificação (Oakhill, & Johnson-Laird, 1985). No presente trabalho testou-se a hipótese de que a necessidade de cognição dos sujeitos (Cacioppo & Petty, 1982) tem influência no processo de recuperação de contra-exemplos, para condicionais causais, de modo aprofundar o conhecimento das razões que levam a que os sujeitos procurem tão poucos contra-exemplos durante o raciocínio dedutivo (Oakhill, & Johnson-Laird, 1985; Johnson-laird, 2006). Para o efeito, um total de 60 participantes (15 alunos do mestrado integrado em psicologia, 15 alunos de doutoramento, 15 operários fabris e 15 empregados de mesa) realizou 3 tarefas: escala Necessidade de Cognição (Silva & Garcia-Marques, 2006), uma tarefa de raciocínio e uma tarefa para avaliar a capacidade da memória de trabalho (Guerreiro, Quelhas & Garcia-Madruga, 2006). Os resultados indicam que o processo de recuperação de contra-exemplos é influenciado pela necessidade de cognição e que esta influência além de significativa é superior à influência da capacidade da memória de trabalho.
Resumo:
La Tunisie a été toujours considérée comme terre de rencontre de plusieurs civilisations, compte tenu de son emplacement stratégique et de son histoire très enracinée. En effet, depuis l’Antiquité ce pays a connu l’installation ou le passage de plusieurs ethnies, qui ont profondément marqué les trois milles ans de son Histoire en dépit de la période ou de la nature de l’occupation et dont les traces constituent aujourd’hui le patrimoine de ce pays. Cet héritage matériel et immatériel semble être parmi les plus riche de la Méditerranée, pour ce, plusieurs villes historiques et sites archéologiques ont été inscrites sur la liste du patrimoine mondial depuis plusieurs décennies. Plusieurs composantes de ce patrimoine furent l’objet de certains projets d’inventaire et d’études, de sauvegarde et de valorisation, tels les sites archéologiques libyques, puniques ou romains, ou même les villes arabo-islamiques. Plusieurs musées, circuits culturels et Parcs archéologiques furent crées. D’autres projets de mise en valeur sont en cours, tels ceux des villes et des villages andalous ou ceux des villages montagneux et des Ksours du sud tunisien… alors que le patrimoine architectural espagnol en Tunisie n’a pas eu jusqu’à présent l’intérêt qu’il mérite malgré son importance et son authenticité et doit être aujourd’hui sauvegardé, mis en valeur et intégré dans la vie patrimoniale et le les circuits culturels et touristiques de la région. Le présent travail réalisé dans le cadre du mémoire de master traite la problématique de la sauvegarde et la mise en valeur d’un monument de type défensif comme cas d’étude. Il s’agit de la Karraka, forteresse bâtie à la ville de la Goulette réagissant à son milieu comme un organisme vivant avec toutes ses variations et déformations de volumes et surtout dans cette typologie dite défensive en se concentrant sur le rôle magistral de la Karraka. L’objectif final de ce projet est de mettre en valeur la validité d’une perception dynamique du patrimoine à travers l’étude de ce monument défensif dans son contexte historique et géographique en particulier et l’essai sur l’histoire de la Goulette; ABSTRACT: Tunisia has always been considered as the meeting earth of several civilizations regarding its strategic position on its deep rooted history. Since the antiquity this country was known the installation or the passage of several ethnics which deeply marqued the three Milles years of its history despite the difficult period of the French occupation its traces are still the country's heritage. This tangible and intangible heritage seems to be among the richest in the Mediterranean in several historic towns and archaeological sites have been listed on the World Heritageas well List for several decades. Many components of this heritage were the object of some inventory projects and studies, Backup and recovery, such the archaeological sites Libyan, Punic, Roman, and even the Arab Islamic cities. Many museums created cultural tours and archaeological parks, we have also other development projects are on the way, such as the Andalusian villages and those of mountain villages and southern Tunisia Ksours….. While the heritage of Spanish architecture in Tunisia has no interest despite its importance and authenticity it must be saved, and it must integrated into the life and heritage and the cultural tours of the region. This work carried out under the master thesis deals with the problem of preservation and development of a defensive type of monument as a case study “ Karraka” This fortress was built in the city of « La Goulette » reacting to his environment as a living organism with all its variations and volume deformations and especially in this so-called defensive typology by focusing on the role of magisterial Karraka. The final objective of this project is to highlight the validity of a dynamic perception of heritage through the study of the defensive monument in its historical and geographical context in particular and the article on the history of « La Goulette ».