378 resultados para validité
Resumo:
L’objectif général des travaux présentes dans cette thèse de doctorat était d’établir la relation entre l’alimentation et la composition du lait des vaches laitières, en mettant l’emphase sur les teneurs en matières grasses (TMG), sur l’urée du lait et sur l’efficience d’utilisation de l’azote. Pour la TMG, c’est principalement la relation entre cette teneur et la différence alimentaire cations-anions (DACA) qui a été investiguée. Une base de données de 2 142 troupeaux québécois a été utilisée et la relation entre la composition de la ration, incluant la DACA, et la TMG du lait a été déterminée à l’aide de régressions multiples. Il a été possible de prédire entre 32 et 66 % de la variation de la TMG du lait en fonction du stade de lactation. Malgré plusieurs interactions trouvées, une augmentation de la DACA, une supplémentation avec de l’acide palmitique et une distribution des aliments en ration totale mélangée ont eu une relation positive avec la TMG du lait, tandis qu’une augmentation de la proportion de concentrés dans la ration a eu un effet négatif. Les modèles développés ont montré l’importance de la gestion de l’alimentation sur la TMG du lait. En plus, ils ont démontré l’intérêt de considérer la DACA dans la formulation de rations chez la vache laitière. Dans une deuxième étude, la même base des données a été utilisée pour identifier les facteurs nutritionnels qui peuvent faire varier la teneur en urée du lait. Contrairement à ce qui est mentionné dans la littérature, tant des corrélations positives et que négatives entre les teneurs en urée du lait et en protéines des rations à l’intérieur des troupeaux sur une période de 36 mois ont été obtenues. Pour mieux comprendre ces relations, les résultats de performances et d’alimentation de 100 troupeaux avec des corrélations positives (r > 0,69) et de 100 troupeaux avec des corrélations négatives (r < -0,44) entre la teneur en urée du lait et en protéine brute de la ration ont été comparés. Les résultats n’ont pas montré de différences entre les deux groupes ni pour la composition de la ration, ni pour l’urée du lait. Ces résultats ne permettent pas d’identifier le meilleur contexte pour l’utilisation de la teneur en urée du lait comme un outil de gestion de l’alimentation. Ces observations soulèvent des questions sur la validité de l’utilisation des statistiques d’alimentation provenant de la base de données utilisée pour des évaluations nutritionnelles plus spécifiques. Considérant les résultats du projet précédent, le dernier projet visait à mieux comprendre les caractéristiques des fermes avec différentes efficiences d’utilisation de l’azote en utilisant des données plus fiables. Ainsi, 100 fermes laitières au Québec ont été visitées pour recueillir les données de production, de consommation d’aliments et de gestion de leur troupeau. Ces fermes ont été divisées en quatre groupes par une analyse en grappes selon leur efficience d’utilisation de l’azote. La comparaison entre les groupes a montré que les fermes dans les groupes avec une plus haute efficience d’utilisation d’azote ont une production laitière moyenne par vache plus élevée. Pour les stratégies d’alimentation, les fermes plus efficientes donnent plus d’énergie, mais moins de protéines brutes que les fermes des groupes moins efficients. Les résultats ont également montré l’importance de la prise alimentaire des vaches sur l’efficience d’utilisation de l’azote puisque les fermes des groupes avec la plus grande efficience étaient également celles avec la plus faible prise alimentaire. Aussi, les résultats n’ont pas permis d’établir clairement la relation entre la teneur en urée du lait et l’efficience de l’utilisation de l’azote. En effet, des valeurs différentes pour l’urée du lait étaient obtenues entre le groupe plus efficient et le moins efficient, mais la faible ampleur de variation de l’efficience d’utilisation de l’azote des groupes intermédiaires n’a pas permis d’observer de différences pour l’urée du lait. Finalement, outre une réduction des risques de pollution, les fermes des groupes plus efficaces pour l’utilisation de l’azote étaient également celles avec la marge sur les coûts d’alimentation par les vaches plus élevées. Par conséquent, il y a aussi un intérêt économique à améliorer l’efficience de l’utilisation de l’azote sur les fermes.
Resumo:
Le thème de cette recherche porte sur des perspectives de stagiaires et d'experts de l'enseignement secondaire sur des situations d'indiscipline. Nous avons d'abord élaboré un contexte théorique. À la lumière de Kounin (1970), Martin (1981), Charles (1981), Charles (1989) et Bournot-Trites (in Safty dir., 1990), nous avons retrouvé une description de huit modèles de discipline. Cependant, le contenu de ces écrits ne fournit pas suffisamment d'information afin de développer le thème de notre recherche. Inspirée par Brophy et Evertson (1976), Moskowitz et Hayman (1976), Saunders (1979), Johnson (1980), Ramsey (1981), Fitzpatrick (1981), Jones et Jones (1981), Me Daniel (1982), Gagné (1985), Melvin (1985), Schloss et Sedlack (1986), Doyle (1986) et Barton et Morrison (1988), nous avons recensé des caractéristiques des maîtres efficaces. Ainsi, la littérature des modèles de discipline et celle des caractéristiques des maîtres efficaces nous ont amenée à définir les objectifs de notre recherche. Cette recherche qualitative exploratoire nous a permis d'interviewer des participants, c'est-à-dire des stagiaires et des maîtres experts de différentes écoles secondaires. Dans un premier temps, nous avons construit notre instrument de recherche qui se définit par des mises en situation (trois situations d'indiscipline) accompagné d'un questionnaire. Cet instrument fut pré-expérimenté dans le but d'en vérifier la validité. Par la suite, cet instrument fut présenté aux participants de notre recherche. Il s'agit principalement de trois stagiaires et de trois maîtres experts. Le contenu des entrevues des participants nous a permis de concevoir un modèle d'analyse appelé un discipli-cube. Ce modèle tridimensionnel comporte des composantes (savoir, savoir-être, savoir-faire), des moments (avant, pendant, après ou indéterminé) et des situations d'indiscipline. C'est donc à partir du discipli-cube que nous avons classé les données des participants. Finalement, les résultats de cette recherche nous conduisent à prétendre que, face à une situation d'indiscipline, les stagiaires interviennent en ayant plutôt recours à leur savoir (connaissances) et avec l'intention de sévir vis-à-vis l'élève ou le groupe alors que les maîtres experts interviennent en se référant davantage au savoir-faire dans le but de fournir de l'aide à l'élève ou au groupe. Ils s'interrogent et prennent le temps de considérer globalement la situation problématique ce qu'omettent de faire les stagiaires. Cette recherche comporte des limites parce que la nature de cette recherche et en particulier la situation de simulation ne permettent pas d'inférer les résultats aux situations d'enseignement réelles.
Resumo:
Le processus de planification forestière hiérarchique présentement en place sur les terres publiques risque d’échouer à deux niveaux. Au niveau supérieur, le processus en place ne fournit pas une preuve suffisante de la durabilité du niveau de récolte actuel. À un niveau inférieur, le processus en place n’appuie pas la réalisation du plein potentiel de création de valeur de la ressource forestière, contraignant parfois inutilement la planification à court terme de la récolte. Ces échecs sont attribuables à certaines hypothèses implicites au modèle d’optimisation de la possibilité forestière, ce qui pourrait expliquer pourquoi ce problème n’est pas bien documenté dans la littérature. Nous utilisons la théorie de l’agence pour modéliser le processus de planification forestière hiérarchique sur les terres publiques. Nous développons un cadre de simulation itératif en deux étapes pour estimer l’effet à long terme de l’interaction entre l’État et le consommateur de fibre, nous permettant ainsi d’établir certaines conditions pouvant mener à des ruptures de stock. Nous proposons ensuite une formulation améliorée du modèle d’optimisation de la possibilité forestière. La formulation classique du modèle d’optimisation de la possibilité forestière (c.-à-d., maximisation du rendement soutenu en fibre) ne considère pas que le consommateur de fibre industriel souhaite maximiser son profit, mais suppose plutôt la consommation totale de l’offre de fibre à chaque période, peu importe le potentiel de création de valeur de celle-ci. Nous étendons la formulation classique du modèle d’optimisation de la possibilité forestière afin de permettre l’anticipation du comportement du consommateur de fibre, augmentant ainsi la probabilité que l’offre de fibre soit entièrement consommée, rétablissant ainsi la validité de l’hypothèse de consommation totale de l’offre de fibre implicite au modèle d’optimisation. Nous modélisons la relation principal-agent entre le gouvernement et l’industrie à l’aide d’une formulation biniveau du modèle optimisation, où le niveau supérieur représente le processus de détermination de la possibilité forestière (responsabilité du gouvernement), et le niveau inférieur représente le processus de consommation de la fibre (responsabilité de l’industrie). Nous montrons que la formulation biniveau peux atténuer le risque de ruptures de stock, améliorant ainsi la crédibilité du processus de planification forestière hiérarchique. Ensemble, le modèle biniveau d’optimisation de la possibilité forestière et la méthodologie que nous avons développée pour résoudre celui-ci à l’optimalité, représentent une alternative aux méthodes actuellement utilisées. Notre modèle biniveau et le cadre de simulation itérative représentent un pas vers l’avant en matière de technologie de planification forestière axée sur la création de valeur. L’intégration explicite d’objectifs et de contraintes industrielles au processus de planification forestière, dès la détermination de la possibilité forestière, devrait favoriser une collaboration accrue entre les instances gouvernementales et industrielles, permettant ainsi d’exploiter le plein potentiel de création de valeur de la ressource forestière.
Resumo:
Ce mémoire étudie de façon empirique l'effet des dépenses publiques en biens et services sur le PIB à court et à long terme. Le sujet nous semble particulièrement pertinent dans le contexte de restrictions budgétaires qui est le nôtre. Dans une première étape, nous estimons les relations à court terme entre les dépenses publiques en biens et services G, le produit intérieur brut PIB et la masse monétaire M en mode bi-varié. Un modèle VAR en différence et des données trimestrielles pour la période 1947-1994 et les sous-périodes de change fixe (1947-1970) et de change flexible (1970-1994) sont utilisées. Nos résultats semblent confirmer la validité du modèle IS-LM-BP en économie ouverte avec mobilité des capitaux. À ce sujet, la distinction change fixe/change flexible s'est avérée cruciale. Les modèles de cycles réels ne peuvent expliquer nos résultats de manière satisfaisante, en particulier en ce qui a trait au rôle de la monnaie et au régime de taux de change. Dans une deuxième étape, nous estimons les relations à long terme entre les variables G et PIB au moyen de la procédure de cointégration proposée par Juselius et Johansen (1990). Nos résultats révèlent l'existence de relations stables à long terme entre les variables G et PIB, ce qui ouvre d'intéressantes perspectives. Entre autres, nos travaux confirment de façon empirique la loi de Wagner. De plus, le processus de socialisation de la fonction de production envisagée par Wagner, Schumpeter et d'autres semble toujours être à l'oeuvre.
Resumo:
En traitement du signal audio, les plosives sont des sons de parole très importants au regard de l’intelligibilité et de la qualité. Les plosives sont cependant difficiles à modéliser à l’aide des techniques usuelles (prédiction linéaire et codage par transformée), à cause de leur dynamique propre importante et à cause de leur nature non prédictible. Cette étude présente un exemple de système complet capable de détecter, segmenter, et altérer les plosives dans un flux de parole. Ce système est utilisé afin de vérifier la validité de l’hypothèse suivante : La phase d’éclatement (de burst) des plosives peut être mise à zéro, de façon perceptuellement équivalente. L’impact sur la qualité subjective de cette transformation est évalué sur une banque de phrases enregistrées. Les résultats de cette altération hautement destructive des signaux tendent à montrer que l’impact perceptuel est mineur. Les implications de ces résultats pour le codage de la parole sont abordées.
Resumo:
La diminution des doses administrées ou même la cessation complète d'un traitement chimiothérapeutique est souvent la conséquence de la réduction du nombre de neutrophiles, qui sont les globules blancs les plus fréquents dans le sang. Cette réduction dans le nombre absolu des neutrophiles, aussi connue sous le nom de myélosuppression, est précipitée par les effets létaux non spécifiques des médicaments anti-cancéreux, qui, parallèlement à leur effet thérapeutique, produisent aussi des effets toxiques sur les cellules saines. Dans le but d'atténuer cet impact myélosuppresseur, on administre aux patients un facteur de stimulation des colonies de granulocytes recombinant humain (rhG-CSF), une forme exogène du G-CSF, l'hormone responsable de la stimulation de la production des neutrophiles et de leurs libération dans la circulation sanguine. Bien que les bienfaits d'un traitement prophylactique avec le G-CSF pendant la chimiothérapie soient bien établis, les protocoles d'administration demeurent mal définis et sont fréquemment déterminés ad libitum par les cliniciens. Avec l'optique d'améliorer le dosage thérapeutique et rationaliser l'utilisation du rhG-CSF pendant le traitement chimiothérapeutique, nous avons développé un modèle physiologique du processus de granulopoïèse, qui incorpore les connaissances actuelles de pointe relatives à la production des neutrophiles des cellules souches hématopoïétiques dans la moelle osseuse. À ce modèle physiologique, nous avons intégré des modèles pharmacocinétiques/pharmacodynamiques (PK/PD) de deux médicaments: le PM00104 (Zalypsis®), un médicament anti-cancéreux, et le rhG-CSF (filgrastim). En se servant des principes fondamentaux sous-jacents à la physiologie, nous avons estimé les paramètres de manière exhaustive sans devoir recourir à l'ajustement des données, ce qui nous a permis de prédire des données cliniques provenant de 172 patients soumis au protocol CHOP14 (6 cycles de chimiothérapie avec une période de 14 jours où l'administration du rhG-CSF se fait du jour 4 au jour 13 post-chimiothérapie). En utilisant ce modèle physio-PK/PD, nous avons démontré que le nombre d'administrations du rhG-CSF pourrait être réduit de dix (pratique actuelle) à quatre ou même trois administrations, à condition de retarder le début du traitement prophylactique par le rhG-CSF. Dans un souci d'applicabilité clinique de notre approche de modélisation, nous avons investigué l'impact de la variabilité PK présente dans une population de patients, sur les prédictions du modèle, en intégrant des modèles PK de population (Pop-PK) des deux médicaments. En considérant des cohortes de 500 patients in silico pour chacun des cinq scénarios de variabilité plausibles et en utilisant trois marqueurs cliniques, soient le temps au nadir des neutrophiles, la valeur du nadir, ainsi que l'aire sous la courbe concentration-effet, nous avons établi qu'il n'y avait aucune différence significative dans les prédictions du modèle entre le patient-type et la population. Ceci démontre la robustesse de l'approche que nous avons développée et qui s'apparente à une approche de pharmacologie quantitative des systèmes (QSP). Motivés par l'utilisation du rhG-CSF dans le traitement d'autres maladies, comme des pathologies périodiques telles que la neutropénie cyclique, nous avons ensuite soumis l'étude du modèle au contexte des maladies dynamiques. En mettant en évidence la non validité du paradigme de la rétroaction des cytokines pour l'administration exogène des mimétiques du G-CSF, nous avons développé un modèle physiologique PK/PD novateur comprenant les concentrations libres et liées du G-CSF. Ce nouveau modèle PK a aussi nécessité des changements dans le modèle PD puisqu’il nous a permis de retracer les concentrations du G-CSF lié aux neutrophiles. Nous avons démontré que l'hypothèse sous-jacente de l'équilibre entre la concentration libre et liée, selon la loi d'action de masse, n'est plus valide pour le G-CSF aux concentrations endogènes et mènerait en fait à la surestimation de la clairance rénale du médicament. En procédant ainsi, nous avons réussi à reproduire des données cliniques obtenues dans diverses conditions (l'administration exogène du G-CSF, l'administration du PM00104, CHOP14). Nous avons aussi fourni une explication logique des mécanismes responsables de la réponse physiologique aux deux médicaments. Finalement, afin de mettre en exergue l’approche intégrative en pharmacologie adoptée dans cette thèse, nous avons démontré sa valeur inestimable pour la mise en lumière et la reconstruction des systèmes vivants complexes, en faisant le parallèle avec d’autres disciplines scientifiques telles que la paléontologie et la forensique, où une approche semblable a largement fait ses preuves. Nous avons aussi discuté du potentiel de la pharmacologie quantitative des systèmes appliquées au développement du médicament et à la médecine translationnelle, en se servant du modèle physio-PK/PD que nous avons mis au point.
Resumo:
Le but de cette thèse est d’explorer le potentiel sismique des étoiles naines blanches pulsantes, et en particulier celles à atmosphères riches en hydrogène, les étoiles ZZ Ceti. La technique d’astérosismologie exploite l’information contenue dans les modes normaux de vibration qui peuvent être excités lors de phases particulières de l’évolution d’une étoile. Ces modes modulent le flux émergent de l’étoile pulsante et se manifestent principalement en termes de variations lumineuses multi-périodiques. L’astérosismologie consiste donc à examiner la luminosité d’étoiles pulsantes en fonction du temps, afin d’en extraire les périodes, les amplitudes apparentes, ainsi que les phases relatives des modes de pulsation détectés, en utilisant des méthodes standards de traitement de signal, telles que des techniques de Fourier. L’étape suivante consiste à comparer les périodes de pulsation observées avec des périodes générées par un modèle stellaire en cherchant l’accord optimal avec un modèle physique reconstituant le plus fidèlement possible l’étoile pulsante. Afin d’assurer une recherche optimale dans l’espace des paramètres, il est nécessaire d’avoir de bons modèles physiques, un algorithme d’optimisation de comparaison de périodes efficace, et une puissance de calcul considérable. Les périodes des modes de pulsation de modèles stellaires de naines blanches peuvent être généralement calculées de manière précise et fiable sur la base de la théorie linéaire des pulsations stellaires dans sa version adiabatique. Afin de définir dans son ensemble un modèle statique de naine blanche propre à l’analyse astérosismologique, il est nécessaire de spécifier la gravité de surface, la température effective, ainsi que différents paramètres décrivant la disposition en couche de l’enveloppe. En utilisant parallèlement les informations obtenues de manière indépendante (température effective et gravité de surface) par la méthode spectroscopique, il devient possible de vérifier la validité de la solution obtenue et de restreindre de manière remarquable l’espace des paramètres. L’exercice astérosismologique, s’il est réussi, mène donc à la détermination précise des paramètres de la structure globale de l’étoile pulsante et fournit de l’information unique sur sa structure interne et l’état de sa phase évolutive. On présente dans cette thèse l’analyse complète réussie, de l’extraction des fréquences à la solution sismique, de quatre étoiles naines blanches pulsantes. Il a été possible de déterminer les paramètres structuraux de ces étoiles et de les comparer remarquablement à toutes les contraintes indépendantes disponibles dans la littérature, mais aussi d’inférer sur la dynamique interne et de reconstruire le profil de rotation interne. Dans un premier temps, on analyse le duo d’étoiles ZZ Ceti, GD 165 et Ross 548, afin de comprendre les différences entre leurs propriétés de pulsation, malgré le fait qu’elles soient des étoiles similaires en tout point, spectroscopiquement parlant. L’analyse sismique révèle des structures internes différentes, et dévoile la sensibilité de certains modes de pulsation à la composition interne du noyau de l’étoile. Afin de palier à cette sensibilité, nouvellement découverte, et de rivaliser avec les données de qualité exceptionnelle que nous fournissent les missions spatiales Kepler et Kepler2, on développe une nouvelle paramétrisation des profils chimiques dans le coeur, et on valide la robustesse de notre technique et de nos modèles par de nombreux tests. Avec en main la nouvelle paramétrisation du noyau, on décroche enfin le ”Saint Graal” de l’astérosismologie, en étant capable de reproduire pour la première fois les périodes observées à la précision des observations, dans le cas de l’étude sismique des étoiles KIC 08626021 et de GD 1212.
Resumo:
L’obésité est un problème de santé publique reconnu. Dans la dernière décennie l’obésité abdominale (OA) a été considérée comme une maladie métabolique qui contribue davantage au risque de diabète et de maladies cardiovasculaires que l’obésité générale définie par l’indice de masse corporelle. Toutefois, dans les populations d’origine africaine, la relation entre l’OA et les autres biomarqueurs de risque cardiométabolique (RCM) demeure obscure à cause du manque d’études chez ces populations et de l’absence de valeurs-seuils spécifiques pour juger d’une OA. Cette étude visait à comparer la prévalence des biomarqueurs de RCM (OA, hypertension artérielle, hyperglycémie, dyslipidémie, résistance à l'insuline et inflammation pré-clinique) chez les Béninois de Cotonou et les Haïtiens de Port-au-Prince (PAP), à étudier l’association de l’OA avec les autres biomarqueurs de RCM, à documenter le rôle du niveau socio-économique (NSE) et du mode de vie dans cette association et à ’identifier les indicateurs anthropométriques de l’OA -tour de taille (TT) et le ratio TT/hauteur (TT/H)- et les seuils qui prédisent le mieux le RCM à Cotonou et à PAP. Il s’est agi d’une analyse de données transversales chez 452 adultes (52 % hommes) apparemment en bonne santé, âgés de 25 à 60 ans, avec 200 sujets vivant à Cotonou (Bénin) et 252 sujets à PAP (Haïti). Les biomarqueurs de RCM considérés étaient : le syndrome métabolique (SMet) d’après les critères harmonisés de 2009 et ses composantes individuelles - une OA à partir d’un TT ≥ 94cm chez les hommes et ≥ 80cm chez les femmes, une hypertension, une dyslipidémie et une hyperglycémie; la résistance à l’insuline définie chez l’ensemble des sujets de l’étude à partir du 75e centile de l’Homeostasis Model Assessment (HOMA-IR); un ratio d’athérogénicité élevé (Cholestérol sérique total/HDL-Cholestérol); et l’inflammation pré-clinique mesurée à partir d’un niveau de protéine C-réactive ultrasensible (PCRus) entre 3 et 10 mg/l. Le ratio TT/H était aussi considéré pour définir l’OA à partir d’un seuil de 0,5. Les données sur les habitudes alimentaires, la consommation d’alcool, le tabagisme, les caractéristiques sociodémographiques et les conditions socio-économiques incluant le niveau d’éducation et un proxy du revenu (basé sur l’analyse par composante principale des biens et des possessions) ont été recueillies au moyen d’un questionnaire. Sur la base de données de fréquence de consommation d’aliments occidentaux, urbains et traditionnels, des schémas alimentaires des sujets de chaque ville ont été identifiés par analyse typologique. La validité et les valeurs-seuils de TT et du ratio TT/H prédictives du RCM ont été définies à partir des courbes ROC (Receiver Operating Characteristics). Le SMet était présent chez 21,5 % et 16,1 % des participants, respectivement à Cotonou et à PAP. La prévalence d’OA était élevée à Cotonou (52,5 %) qu’à PAP (36%), avec une prévalence plus élevée chez les femmes que chez les hommes. Le profil lipidique sérique était plus athérogène à PAP avec 89,3 % d’HDL-c bas à PAP contre 79,7 % à Cotonou et un ratio CT/HDL-c élevé de 73,4 % à PAP contre 42 % à Cotonou. Les valeurs-seuils spécifiques de TT et du TT/H étaient respectivement 94 cm et 0,59 chez les femmes et 80 cm et 0,50 chez les hommes. Les analyses multivariées de l’OA avec les biomarqueurs de RCM les plus fortement prévalents dans ces deux populations montraient que l’OA était associée à un risque accru de résistance à l’insuline, d’athérogénicité et de tension artérielle élevée et ceci, indépendamment des facteurs socio-économiques et du mode de vie. Deux schémas alimentaires ont émergé, transitionnel et traditionnel, dans chaque ville, mais ceux-ci ne se révélaient pas associés aux biomarqueurs de RCM bien qu’ils soient en lien avec les variables socio-économiques. La présente étude confirme la présence de plusieurs biomarqueurs de RCM chez des sujets apparemment sains. En outre, l’OA est un élément clé du RCM dans ces deux populations. Les seuils actuels de TT devraient être reconsidérés éventuellement à la lumière d’études de plus grande envergure, afin de mieux définir l’OA chez les Noirs africains ou d’origine africaine, ce qui permettra une surveillance épidémiologique plus adéquate des biomarqueurs de RCM.
Resumo:
Bien que le travail soit bénéfique et souhaité par une majorité de personnes aux prises avec un trouble mental grave (TMG), les études réalisées auprès de cette clientèle montrent des taux d’emploi d’environ 10 à 20%. Parmi les services visant le retour au travail, les programmes de soutien à l’emploi (PSE) se sont montrés les plus efficaces avec des taux de placement en emploi standard oscillant entre 50 et 60%, sans toutefois garantir le maintien en emploi. Plusieurs études ont tenté de cerner les déterminants de l’obtention et du maintien en emploi chez cette population sans toutefois s’intéresser à la personnalité, et ce, bien qu’elle soit reconnue depuis toujours comme un déterminant important du fonctionnement des individus. De plus, peu de questionnaires d’évaluation de la personnalité selon le modèle de la personnalité en cinq facteurs (FFM) ont été utilisés auprès d’une clientèle avec un TMG et ceux-ci ont montré des propriétés psychométriques ne respectant pas des normes reconnues et acceptées. Cette thèse porte sur les liens entre la personnalité et l’intégration au travail chez les personnes avec un TMG. La première partie vise la validation d’un outil de mesure de la personnalité selon le FFM afin de répondre aux objectifs de la deuxième partie de la thèse. À cet effet, deux échantillons ont été recrutés, soit 259 étudiants universitaires et 141 personnes avec un TMG. Des analyses factorielles confirmatoires ont mené au développement d’un nouveau questionnaire à 15 items (NEO-15) dont les indices d’ajustement, de cohérence interne et de validité convergente respectent les normes établies, ce qui en fait un questionnaire bien adapté à la mesure de la personnalité normale dans des contextes où le temps d’évaluation est limité. La deuxième partie présente les résultats d’une étude réalisée auprès de 82 personnes aux prises avec un TMG inscrites dans un PSE et visant à identifier les facteurs d’obtention et de maintien en emploi chez cette clientèle, particulièrement en ce qui concerne la contribution des éléments normaux et pathologiques de la personnalité. Les résultats de régressions logistiques et de régressions de Cox (analyses de survie) ont démontré que l’historique d’emploi, les symptômes négatifs et le niveau de pathologie de la personnalité étaient prédictifs de l’obtention d’un emploi standard et du délai avant l’obtention d’un tel emploi. Une autre série de régressions de Cox a pour sa part démontré que l’esprit consciencieux était le seul prédicteur significatif du maintien en emploi. Malgré certaines limites, particulièrement des tailles d’échantillons restreintes, ces résultats démontrent la pertinence et l’importance de tenir compte des éléments normaux et pathologiques de la personnalité dans le cadre d’études portant sur l’intégration au travail de personnes avec un TMG. De plus, cette thèse a permis de démontrer l’adéquation d’un nouvel instrument de mesure de la personnalité auprès de cette clientèle. Des avenues futures concernant la réintégration professionnelle et le traitement des personnes avec un TMG sont discutées à la lumière de ces résultats.
Resumo:
Cette thèse développe des méthodes bootstrap pour les modèles à facteurs qui sont couram- ment utilisés pour générer des prévisions depuis l'article pionnier de Stock et Watson (2002) sur les indices de diffusion. Ces modèles tolèrent l'inclusion d'un grand nombre de variables macroéconomiques et financières comme prédicteurs, une caractéristique utile pour inclure di- verses informations disponibles aux agents économiques. Ma thèse propose donc des outils éco- nométriques qui améliorent l'inférence dans les modèles à facteurs utilisant des facteurs latents extraits d'un large panel de prédicteurs observés. Il est subdivisé en trois chapitres complémen- taires dont les deux premiers en collaboration avec Sílvia Gonçalves et Benoit Perron. Dans le premier article, nous étudions comment les méthodes bootstrap peuvent être utilisées pour faire de l'inférence dans les modèles de prévision pour un horizon de h périodes dans le futur. Pour ce faire, il examine l'inférence bootstrap dans un contexte de régression augmentée de facteurs où les erreurs pourraient être autocorrélées. Il généralise les résultats de Gonçalves et Perron (2014) et propose puis justifie deux approches basées sur les résidus : le block wild bootstrap et le dependent wild bootstrap. Nos simulations montrent une amélioration des taux de couverture des intervalles de confiance des coefficients estimés en utilisant ces approches comparativement à la théorie asymptotique et au wild bootstrap en présence de corrélation sérielle dans les erreurs de régression. Le deuxième chapitre propose des méthodes bootstrap pour la construction des intervalles de prévision permettant de relâcher l'hypothèse de normalité des innovations. Nous y propo- sons des intervalles de prédiction bootstrap pour une observation h périodes dans le futur et sa moyenne conditionnelle. Nous supposons que ces prévisions sont faites en utilisant un ensemble de facteurs extraits d'un large panel de variables. Parce que nous traitons ces facteurs comme latents, nos prévisions dépendent à la fois des facteurs estimés et les coefficients de régres- sion estimés. Sous des conditions de régularité, Bai et Ng (2006) ont proposé la construction d'intervalles asymptotiques sous l'hypothèse de Gaussianité des innovations. Le bootstrap nous permet de relâcher cette hypothèse et de construire des intervalles de prédiction valides sous des hypothèses plus générales. En outre, même en supposant la Gaussianité, le bootstrap conduit à des intervalles plus précis dans les cas où la dimension transversale est relativement faible car il prend en considération le biais de l'estimateur des moindres carrés ordinaires comme le montre une étude récente de Gonçalves et Perron (2014). Dans le troisième chapitre, nous suggérons des procédures de sélection convergentes pour les regressions augmentées de facteurs en échantillons finis. Nous démontrons premièrement que la méthode de validation croisée usuelle est non-convergente mais que sa généralisation, la validation croisée «leave-d-out» sélectionne le plus petit ensemble de facteurs estimés pour l'espace généré par les vraies facteurs. Le deuxième critère dont nous montrons également la validité généralise l'approximation bootstrap de Shao (1996) pour les regressions augmentées de facteurs. Les simulations montrent une amélioration de la probabilité de sélectionner par- cimonieusement les facteurs estimés comparativement aux méthodes de sélection disponibles. L'application empirique revisite la relation entre les facteurs macroéconomiques et financiers, et l'excès de rendement sur le marché boursier américain. Parmi les facteurs estimés à partir d'un large panel de données macroéconomiques et financières des États Unis, les facteurs fortement correlés aux écarts de taux d'intérêt et les facteurs de Fama-French ont un bon pouvoir prédictif pour les excès de rendement.
Resumo:
A procura de contra-exemplos é provavelmente a fase mais importante do raciocí - nio dedutivo, uma vez que visa garantir a validade da conclusão. A explicação mais difundida para a diminuta procura de contra-exemplos é a capacidade limitada da memória de trabalho (Markovits & Barrouillet 2002; De Neys, Schaeken & d’Ydewalle, 2002; 2003; 2005a; 2005b) o que não parece ser suficiente para explicar a pouca iniciativa dos sujeitos em utilizarem a procura de contra-exemplos como estratégia de verificação (Oakhill, & Johnson-Laird, 1985). No presente trabalho testou-se a hipótese de que a necessidade de cognição dos sujeitos (Cacioppo & Petty, 1982) tem influência no processo de recuperação de contra-exemplos, para condicionais causais, de modo aprofundar o conhecimento das razões que levam a que os sujeitos procurem tão poucos contra-exemplos durante o raciocínio dedutivo (Oakhill, & Johnson-Laird, 1985; Johnson-laird, 2006). Para o efeito, um total de 60 participantes (15 alunos do mestrado integrado em psicologia, 15 alunos de doutoramento, 15 operários fabris e 15 empregados de mesa) realizou 3 tarefas: escala Necessidade de Cognição (Silva & Garcia-Marques, 2006), uma tarefa de raciocínio e uma tarefa para avaliar a capacidade da memória de trabalho (Guerreiro, Quelhas & Garcia-Madruga, 2006). Os resultados indicam que o processo de recuperação de contra-exemplos é influenciado pela necessidade de cognição e que esta influência além de significativa é superior à influência da capacidade da memória de trabalho.
Resumo:
La Tunisie a été toujours considérée comme terre de rencontre de plusieurs civilisations, compte tenu de son emplacement stratégique et de son histoire très enracinée. En effet, depuis l’Antiquité ce pays a connu l’installation ou le passage de plusieurs ethnies, qui ont profondément marqué les trois milles ans de son Histoire en dépit de la période ou de la nature de l’occupation et dont les traces constituent aujourd’hui le patrimoine de ce pays. Cet héritage matériel et immatériel semble être parmi les plus riche de la Méditerranée, pour ce, plusieurs villes historiques et sites archéologiques ont été inscrites sur la liste du patrimoine mondial depuis plusieurs décennies. Plusieurs composantes de ce patrimoine furent l’objet de certains projets d’inventaire et d’études, de sauvegarde et de valorisation, tels les sites archéologiques libyques, puniques ou romains, ou même les villes arabo-islamiques. Plusieurs musées, circuits culturels et Parcs archéologiques furent crées. D’autres projets de mise en valeur sont en cours, tels ceux des villes et des villages andalous ou ceux des villages montagneux et des Ksours du sud tunisien… alors que le patrimoine architectural espagnol en Tunisie n’a pas eu jusqu’à présent l’intérêt qu’il mérite malgré son importance et son authenticité et doit être aujourd’hui sauvegardé, mis en valeur et intégré dans la vie patrimoniale et le les circuits culturels et touristiques de la région. Le présent travail réalisé dans le cadre du mémoire de master traite la problématique de la sauvegarde et la mise en valeur d’un monument de type défensif comme cas d’étude. Il s’agit de la Karraka, forteresse bâtie à la ville de la Goulette réagissant à son milieu comme un organisme vivant avec toutes ses variations et déformations de volumes et surtout dans cette typologie dite défensive en se concentrant sur le rôle magistral de la Karraka. L’objectif final de ce projet est de mettre en valeur la validité d’une perception dynamique du patrimoine à travers l’étude de ce monument défensif dans son contexte historique et géographique en particulier et l’essai sur l’histoire de la Goulette; ABSTRACT: Tunisia has always been considered as the meeting earth of several civilizations regarding its strategic position on its deep rooted history. Since the antiquity this country was known the installation or the passage of several ethnics which deeply marqued the three Milles years of its history despite the difficult period of the French occupation its traces are still the country's heritage. This tangible and intangible heritage seems to be among the richest in the Mediterranean in several historic towns and archaeological sites have been listed on the World Heritageas well List for several decades. Many components of this heritage were the object of some inventory projects and studies, Backup and recovery, such the archaeological sites Libyan, Punic, Roman, and even the Arab Islamic cities. Many museums created cultural tours and archaeological parks, we have also other development projects are on the way, such as the Andalusian villages and those of mountain villages and southern Tunisia Ksours….. While the heritage of Spanish architecture in Tunisia has no interest despite its importance and authenticity it must be saved, and it must integrated into the life and heritage and the cultural tours of the region. This work carried out under the master thesis deals with the problem of preservation and development of a defensive type of monument as a case study “ Karraka” This fortress was built in the city of « La Goulette » reacting to his environment as a living organism with all its variations and volume deformations and especially in this so-called defensive typology by focusing on the role of magisterial Karraka. The final objective of this project is to highlight the validity of a dynamic perception of heritage through the study of the defensive monument in its historical and geographical context in particular and the article on the history of « La Goulette ».
Resumo:
Les délinquants sexuels sadiques sont généralement décrits comme une entité clinique particulière commettant des délits graves. Or, la notion même de sadisme sexuel pose un nombre important de problèmes. Parmi ceux-ci, on retrouve des problèmes de validité et de fidélité. Perçu comme une maladie dont on est atteint ou pas, le sadisme a été étudié comme si les sadiques étaient fondamentalement différents. À l’heure actuelle, plusieurs travaux laissent croire que la majorité des troubles psychologiques se présentent comme une différence d'intensité (dimension) plutôt qu’une différence de nature (taxon). Même si la conception médicale prévaut encore en ce qui concerne le sadisme sexuel, plusieurs évoquent l’idée qu’il pourrait être mieux conceptualisé à l’aide d’une approche dimensionnelle. En parallèle, nos connaissances sur les facteurs contributifs au développement du sadisme sexuel sont limitées et reposent sur de faibles appuis empiriques. Jusqu'à présent, très peu d'études se sont intéressées aux facteurs menant au développement du sadisme sexuel et encore moins ont tenté de valider leurs théories. En outre, nos connaissances proviennent majoritairement d'études de cas portant sur les meurtriers sexuels, un sous-groupe très particulier de délinquants fréquemment motivé par des intérêts sexuels sadiques. À notre connaissance, aucune étude n'a proposé jusqu'à présent de modèle développemental portant spécifiquement sur le sadisme sexuel. Pourtant, l'identification de facteurs liés au développement du sadisme sexuel est essentielle dans notre compréhension ainsi que dans l'élaboration de stratégie d'intervention efficace. La présente thèse s'inscrit dans un contexte visant à clarifier le concept de sadisme sexuel. Plus spécialement, nous nous intéressons à sa structure latente, à sa mesure et à ses origines développementales. À partir d'un échantillon de 514 délinquants sexuels évalué au Massachusetts Treatment Center, la viabilité d’une conception dimensionnelle du sadisme sexuel sera mise à l’épreuve à l'aide d'analyses taxométriques permettant d'étudier la structure latente d'un construit. Dans une seconde étape, à l'aide d'analyses de Rasch et d'analyses appartenant aux théories de la réponse à l'item à deux paramètres, nous développerons la MTC Sadism Scale (MTCSS), une mesure dimensionnelle du sadisme sexuel. Dans une troisième et dernière étape, un modèle développemental sera élaboré à l'aide d'équations structurales. La présente thèse permettra de contribuer à la clarification du concept de sadisme sexuel. Une clarification de la structure latente et des facteurs développementaux permettra de saisir les devis de recherche les plus à même de capturer les aspects essentiels. En outre, ceci permettra d'identifier les facteurs pour lesquels une intervention est la plus appropriée pour réduire la récidive, ou la gravité de celle-ci.
Resumo:
L’émergence du postmodernisme aux Etats-unis, mouvement esthétique rejetant les dogmes modernistes, date des années 1960. En s’imposant, durant les dernières décennies du 20ème siècle, comme le paradigme esthétique de l’architecture, des arts et de la littérature, le postmodernisme a également créé les conditions propres à une renaissance du roman historique. Cependant, la fiction historique postmoderne constitue maintenant une nouvelle forme du genre basée sur la parodie, l’ironie et le scepticisme envers les discours dominants. Cette nouvelle forme ne se limite plus à la présentation des récits dans un cadre historique réaliste. Elle remet plutôt en question la validité et par conséquent la nature même du discours historique, problématisant et mettant ainsi à l’avant le processus d’interprétation et de reconstruction du passé. Dans cette optique, la fiction historique contemporaine reflète les débats actuels sur les formes de l’historiographie, débats lancés par Hayden White. Dans les années 1980, la fiction historique a de nouveau fleuri dans l'espace culturel allemand tout comme ailleurs. Le présent mémoire analyse des formes postmodernes de la fiction historique en se basant sur trois romans historiques de langue allemande parus entre 1981 et 2005: Die Schrecken des Eises und der Finsternis de Christoph Ransmayr, Die Vermessung der Welt de Daniel Kehlmann et Marbot : Eine Biographie de Wolfgang Hildesheimer. L’analyse s'appuie sur divers modèles de la fiction postmoderne, en particulier sur le schéma de catégorisation du roman historique élaboré par Ansgar Nünning. Le mémoire montre dans quelle mesure ces romans appliquent des moyens stylistiques typiques pour le postmodernisme et portent un regard critique ou comique sur l’histoire et la culture allemande et autrichienne.
Resumo:
Objectifs: Examiner les tendances temporelles, les déterminants en lien avec le design des études et la qualité des taux de réponse rapportés dans des études cas-témoins sur le cancer publiées lors des 30 dernières années. Méthodes: Une revue des études cas-témoins sur le cancer a été menée. Les critères d'inclusion étaient la publication (i) dans l’un de 15 grands périodiques ciblés et (ii) lors de quatre périodes de publication (1984-1986, 1995, 2005 et 2013) couvrant trois décennies. 370 études ont été sélectionnées et examinées. La méthodologie en lien avec le recrutement des sujets et la collecte de données, les caractéristiques de la population, les taux de participation et les raisons de la non-participation ont été extraites de ces études. Des statistiques descriptives ont été utilisées pour résumer la qualité des taux de réponse rapportés (en fonction de la quantité d’information disponible), les tendances temporelles et les déterminants des taux de réponse; des modèles de régression linéaire ont été utilisés pour analyser les tendances temporelles et les déterminants des taux de participation. Résultats: Dans l'ensemble, les qualités des taux de réponse rapportés et des raisons de non-participation étaient très faible, particulièrement chez les témoins. La participation a diminué au cours des 30 dernières années, et cette baisse est plus marquée dans les études menées après 2000. Lorsque l'on compare les taux de réponse dans les études récentes a ceux des études menées au cours de 1971 à 1980, il y a une plus grande baisse chez les témoins sélectionnés en population générale ( -17,04%, IC 95%: -23,17%, -10,91%) que chez les cas (-5,99%, IC 95%: -11,50%, -0,48%). Les déterminants statistiquement significatifs du taux de réponse chez les cas étaient: le type de cancer examiné, la localisation géographique de la population de l'étude, et le mode de collecte des données. Le seul déterminant statistiquement significatif du taux de réponse chez les témoins hospitaliers était leur localisation géographique. Le seul déterminant statistiquement significatif du taux de participation chez les témoins sélectionnés en population générale était le type de répondant (sujet uniquement ou accompagné d’une tierce personne). Conclusion: Le taux de participation dans les études cas-témoins sur le cancer semble avoir diminué au cours des 30 dernières années et cette baisse serait plus marquée dans les études récentes. Afin d'évaluer le niveau réel de non-participation et ses déterminants, ainsi que l'impact de la non-participation sur la validité des études, il est nécessaire que les études publiées utilisent une approche normalisée pour calculer leurs taux de participation et qu’elles rapportent ceux-ci de façon transparente.