14 resultados para Wiener criterion test, criterion heat, calore, Laplace

em Université de Montréal, Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le but de ce mémoire de maîtrise est de décrire les propriétés de la loi double Pareto-lognormale, de montrer comment on peut introduire des variables explicatives dans le modèle et de présenter son large potentiel d'applications dans le domaine de la science actuarielle et de la finance. Tout d'abord, nous donnons la définition de la loi double Pareto-lognormale et présentons certaines de ses propriétés basées sur les travaux de Reed et Jorgensen (2004). Les paramètres peuvent être estimés en utilisant la méthode des moments ou le maximum de vraisemblance. Ensuite, nous ajoutons une variable explicative à notre modèle. La procédure d'estimation des paramètres de ce mo-\\dèle est également discutée. Troisièmement, des applications numériques de notre modèle sont illustrées et quelques tests statistiques utiles sont effectués.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Certains symptômes sont les indicateurs incontestés des très graves problèmes que connaît l’Église. S’ils existent aussi dans des confessions et des religions diverses, seuls seront examinés ici ceux qui concernent l’Église catholique. Parmi les plus significatifs figurent un fort déclin dans la participation à des activités religieuses comme les célébrations eucharistiques dominicales, surtout chez les jeunes, une pénurie presque catastrophique de prêtres ordonnés, une perte de prestige et d’influence de l’enseignement dispensé par l’Église. Ces symptômes varient en intensité selon les pays, mais les statistiques indiquent qu’ils se multiplient. Nombre de ces problèmes sont attribuables à l’extrême vélocité de changements qui surviennent partout et à l’apparente inaptitude de l’Église à s’adapter, en raison notamment de son attachement à la pensée néo-scolastique et à la tradition tridentine. Cette fidélité absolue à une tradition vieille de quatre cents ans l’empêche de se faire à un environnement en évolution rapide et radicale. Des changements appropriés s’imposent pratiquement partout dans l’Église. Or, pour que ceux-ci soient efficaces et respectueux de la nature propre de l’Église, la tradition est un guide qui ne suffit pas. S’appuyant sur les termes de l’encyclique Ecclesia de Eucharistia, « le moment décisif où elle (l’Église) a pris forme est certainement celui où a eu lieu l’institution de l’Eucharistie, dans la chambre à l’étage », la thèse présentée suit le plus près possible l’interprétation donnée aux paroles de Jésus, ceci est mon corps, telles qu’elles ont été prononcées la première fois. Selon cette évidence, il est permis d’affirmer que les caractéristiques définitoires de l’Église provenant de ces mots sont agape, unité, service. Tel doit être le principe directeur des changements. C’est sur une telle base que sont décrits les secteurs où les changements s’imposent ainsi que les aspects visés. Ces changements comprennent les points suivants : liturgie, sacrements, catéchèse, mystagogie, théologie, structure, gouvernance de l’Église et ses enseignements, évangélisation. Ces secteurs exigent des efforts sérieux dans la préparation des personnes touchées par ces changements et dans l’attention portée à l’exigence primordiale voulant qu’agape, unité et service soient les principes actifs et évidents régissant l’Église.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In the context of multivariate linear regression (MLR) models, it is well known that commonly employed asymptotic test criteria are seriously biased towards overrejection. In this paper, we propose a general method for constructing exact tests of possibly nonlinear hypotheses on the coefficients of MLR systems. For the case of uniform linear hypotheses, we present exact distributional invariance results concerning several standard test criteria. These include Wilks' likelihood ratio (LR) criterion as well as trace and maximum root criteria. The normality assumption is not necessary for most of the results to hold. Implications for inference are two-fold. First, invariance to nuisance parameters entails that the technique of Monte Carlo tests can be applied on all these statistics to obtain exact tests of uniform linear hypotheses. Second, the invariance property of the latter statistic is exploited to derive general nuisance-parameter-free bounds on the distribution of the LR statistic for arbitrary hypotheses. Even though it may be difficult to compute these bounds analytically, they can easily be simulated, hence yielding exact bounds Monte Carlo tests. Illustrative simulation experiments show that the bounds are sufficiently tight to provide conclusive results with a high probability. Our findings illustrate the value of the bounds as a tool to be used in conjunction with more traditional simulation-based test methods (e.g., the parametric bootstrap) which may be applied when the bounds are not conclusive.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les temps de réponse dans une tache de reconnaissance d’objets visuels diminuent de façon significative lorsque les cibles peuvent être distinguées à partir de deux attributs redondants. Le gain de redondance pour deux attributs est un résultat commun dans la littérature, mais un gain causé par trois attributs redondants n’a été observé que lorsque ces trois attributs venaient de trois modalités différentes (tactile, auditive et visuelle). La présente étude démontre que le gain de redondance pour trois attributs de la même modalité est effectivement possible. Elle inclut aussi une investigation plus détaillée des caractéristiques du gain de redondance. Celles-ci incluent, outre la diminution des temps de réponse, une diminution des temps de réponses minimaux particulièrement et une augmentation de la symétrie de la distribution des temps de réponse. Cette étude présente des indices que ni les modèles de course, ni les modèles de coactivation ne sont en mesure d’expliquer l’ensemble des caractéristiques du gain de redondance. Dans ce contexte, nous introduisons une nouvelle méthode pour évaluer le triple gain de redondance basée sur la performance des cibles doublement redondantes. Le modèle de cascade est présenté afin d’expliquer les résultats de cette étude. Ce modèle comporte plusieurs voies de traitement qui sont déclenchées par une cascade d’activations avant de satisfaire un seul critère de décision. Il offre une approche homogène aux recherches antérieures sur le gain de redondance. L’analyse des caractéristiques des distributions de temps de réponse, soit leur moyenne, leur symétrie, leur décalage ou leur étendue, est un outil essentiel pour cette étude. Il était important de trouver un test statistique capable de refléter les différences au niveau de toutes ces caractéristiques. Nous abordons la problématique d’analyser les temps de réponse sans perte d’information, ainsi que l’insuffisance des méthodes d’analyse communes dans ce contexte, comme grouper les temps de réponses de plusieurs participants (e. g. Vincentizing). Les tests de distributions, le plus connu étant le test de Kolmogorov- Smirnoff, constituent une meilleure alternative pour comparer des distributions, celles des temps de réponse en particulier. Un test encore inconnu en psychologie est introduit : le test d’Anderson-Darling à deux échantillons. Les deux tests sont comparés, et puis nous présentons des indices concluants démontrant la puissance du test d’Anderson-Darling : en comparant des distributions qui varient seulement au niveau de (1) leur décalage, (2) leur étendue, (3) leur symétrie, ou (4) leurs extrémités, nous pouvons affirmer que le test d’Anderson-Darling reconnait mieux les différences. De plus, le test d’Anderson-Darling a un taux d’erreur de type I qui correspond exactement à l’alpha tandis que le test de Kolmogorov-Smirnoff est trop conservateur. En conséquence, le test d’Anderson-Darling nécessite moins de données pour atteindre une puissance statistique suffisante.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il y a 150 ans, John Stuart Mill dénonçait l'emprise tyrannique de la morale publique sur la vie des individus et affirmait que le principe du préjudice à autrui constitue l'unique critère en vertu duquel l'État peut légitimement interférer avec la liberté individuelle. Près d'un siècle plus tard, en réaction au rapport Wolfenden, Lord Devlin articulait une version de la thèse du moralisme juridique en faveur du maintien de l'interdiction criminelle des pratiques homosexuelles en privé entre adultes consentants. Cette thèse du moralisme juridique a fait l'objet de nombreuses critiques. Selon deux des plus influents philosophes et théoriciens du droit du XXe siècle, Herbert L.A. Hart et Ronald Dworkin, le rôle légitime des valeurs de la communauté, dans la justification de l'intervention coerctive de l'État dans la vie des individus, doit être déterminé du point de vue de la morale critique. Ces débats philosophiques ont profondément influencé le discours judiciaire au Canada. La jurisprudence de la Cour suprême du Canada depuis l'avènement de la Charte témoigne de deux tendances dans l'interprétation et l'application du principe du préjudice lors de l'examen de la légitimité des objectifs législatifs à la première étape du test Oakes. Selon une première approche, qui légitimise souvent un activisme judiciaire, la justification des mesures attentatoires doit reposer sur la démonstration d'un préjudice aux valeurs officiellement reconnues. Selon une deuxième approche, qui préconise plutôt une attitude de déférence envers les choix moraux du législateur, la démonstration d'un préjudice n'est pas un prérequis : l'existence de considérations morales objectives suffit.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse porte sur l'analyse bayésienne de données fonctionnelles dans un contexte hydrologique. L'objectif principal est de modéliser des données d'écoulements d'eau d'une manière parcimonieuse tout en reproduisant adéquatement les caractéristiques statistiques de celles-ci. L'analyse de données fonctionnelles nous amène à considérer les séries chronologiques d'écoulements d'eau comme des fonctions à modéliser avec une méthode non paramétrique. Dans un premier temps, les fonctions sont rendues plus homogènes en les synchronisant. Ensuite, disposant d'un échantillon de courbes homogènes, nous procédons à la modélisation de leurs caractéristiques statistiques en faisant appel aux splines de régression bayésiennes dans un cadre probabiliste assez général. Plus spécifiquement, nous étudions une famille de distributions continues, qui inclut celles de la famille exponentielle, de laquelle les observations peuvent provenir. De plus, afin d'avoir un outil de modélisation non paramétrique flexible, nous traitons les noeuds intérieurs, qui définissent les éléments de la base des splines de régression, comme des quantités aléatoires. Nous utilisons alors le MCMC avec sauts réversibles afin d'explorer la distribution a posteriori des noeuds intérieurs. Afin de simplifier cette procédure dans notre contexte général de modélisation, nous considérons des approximations de la distribution marginale des observations, nommément une approximation basée sur le critère d'information de Schwarz et une autre qui fait appel à l'approximation de Laplace. En plus de modéliser la tendance centrale d'un échantillon de courbes, nous proposons aussi une méthodologie pour modéliser simultanément la tendance centrale et la dispersion de ces courbes, et ce dans notre cadre probabiliste général. Finalement, puisque nous étudions une diversité de distributions statistiques au niveau des observations, nous mettons de l'avant une approche afin de déterminer les distributions les plus adéquates pour un échantillon de courbes donné.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La mesure de l’activité physique des personnes âgées dans des études populationnelles est un défi. Peu des outils de mesure trouvés dans la littérature sont jugés suffisamment valides ou fiables pour être utilisés dans une étude internationale et longitudinale sur les déterminants de perte de mobilité de personnes âgées. Une étude pilote a été conduite en 2009 pour déterminer la meilleure forme d’évaluation. Les objectifs de ce mémoire sont l’étude des validité, fiabilité et capacité prédictive des données d’un accéléromètre (gold standard), de deux questionnaires choisis (PAQ, IPAQ 7d-recall). Le but est de combiner des éléments des questionnaires dans un seul pour une étude longitudinale projetée au Canada, au Brésil et en Colombie. Le PAQ évalue la fréquence et la durée d’activités de loisirs, l’IPAQ 7d-recall évalue la durée et l’intensité perçue des activités et le temps assis. La collecte de données s’est faite auprès de participants de Saint-Bruno (n=64) et de Santa Cruz (n=60), de 65 à 74 ans. Le PAQ, l’IPAQ-7d-recall et un test de performance (SPPB) ont été complétés puis des accéléromètres remis. À Saint-Bruno, la validité de critère pour l’IPAQ et le PAQ, et la validité de construit pour l’IPAQ sont bonnes. Le refus de l’accéléromètre à Santa Cruz a empêché les analyses de validité. Le PAQ présente une bonne fiabilité mais ajoute peu d’amélioration au pouvoir de prédiction de la dépense énergétique de l’IPAQ. La recherche populationnelle, voulant estimer la dépense énergétique par l’activité physique des personnes âgées, devrait utiliser des instruments mesurant l’intensité perçue (IPAQ) plutôt que les fréquence et durée d’activités concrètes (PAQ).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Une variété de modèles sur le processus de prise de décision dans divers contextes présume que les sujets accumulent les évidences sensorielles, échantillonnent et intègrent constamment les signaux pour et contre des hypothèses alternatives. L'intégration continue jusqu'à ce que les évidences en faveur de l'une des hypothèses dépassent un seuil de critère de décision (niveau de preuve exigé pour prendre une décision). De nouveaux modèles suggèrent que ce processus de décision est plutôt dynamique; les différents paramètres peuvent varier entre les essais et même pendant l’essai plutôt que d’être un processus statique avec des paramètres qui ne changent qu’entre les blocs d’essais. Ce projet de doctorat a pour but de démontrer que les décisions concernant les mouvements d’atteinte impliquent un mécanisme d’accumulation temporelle des informations sensorielles menant à un seuil de décision. Pour ce faire, nous avons élaboré un paradigme de prise de décision basée sur un stimulus ambigu afin de voir si les neurones du cortex moteur primaire (M1), prémoteur dorsal (PMd) et préfrontal (DLPFc) démontrent des corrélats neuronaux de ce processus d’accumulation temporelle. Nous avons tout d’abord testé différentes versions de la tâche avec l’aide de sujets humains afin de développer une tâche où l’on observe le comportement idéal des sujets pour nous permettre de vérifier l’hypothèse de travail. Les données comportementales chez l’humain et les singes des temps de réaction et du pourcentage d'erreurs montrent une augmentation systématique avec l'augmentation de l'ambigüité du stimulus. Ces résultats sont cohérents avec les prédictions des modèles de diffusion, tel que confirmé par une modélisation computationnelle des données. Nous avons, par la suite, enregistré des cellules dans M1, PMd et DLPFc de 2 singes pendant qu'ils s'exécutaient à la tâche. Les neurones de M1 ne semblent pas être influencés par l'ambiguïté des stimuli mais déchargent plutôt en corrélation avec le mouvement exécuté. Les neurones du PMd codent la direction du mouvement choisi par les singes, assez rapidement après la présentation du stimulus. De plus, l’activation de plusieurs cellules du PMd est plus lente lorsque l'ambiguïté du stimulus augmente et prend plus de temps à signaler la direction de mouvement. L’activité des neurones du PMd reflète le choix de l’animal, peu importe si c’est une bonne réponse ou une erreur. Ceci supporte un rôle du PMd dans la prise de décision concernant les mouvements d’atteinte. Finalement, nous avons débuté des enregistrements dans le cortex préfrontal et les résultats présentés sont préliminaires. Les neurones du DLPFc semblent beaucoup plus influencés par les combinaisons des facteurs de couleur et de position spatiale que les neurones du PMd. Notre conclusion est que le cortex PMd est impliqué dans l'évaluation des évidences pour ou contre la position spatiale de différentes cibles potentielles mais assez indépendamment de la couleur de celles-ci. Le cortex DLPFc serait plutôt responsable du traitement des informations pour la combinaison de la couleur et de la position des cibles spatiales et du stimulus ambigu nécessaire pour faire le lien entre le stimulus ambigu et la cible correspondante.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La présente thèse de doctorat porte sur la relation entre la perception de la justice organisationnelle, l’émission de comportements inadaptés au travail et la santé psychologique des individus au travail. En plus de développer un outil de mesure des comportements inadaptés au travail et d’entreprendre un processus de validation de celui-ci, le présent travail propose que les comportements inadaptés au travail puissent occuper un rôle soit protecteur ou explicatif dans la relation qui unit la perception de la justice organisationnelle avec la santé psychologique des individus au travail. Au sein de cette thèse, le premier article recense la documentation scientifique quant aux variables de la perception de la justice organisationnelle, de l’émission des comportements inadaptés au travail et de la santé psychologique des individus au travail, ainsi que les liens qui unissent ces variables. Aussi, les modèles conceptuels des rôles modérateur et médiateur des comportements inadaptés au travail sont proposés au sein de la relation entre la perception de la justice organisationnelle et la santé psychologique des individus au travail. Le deuxième article a pour objectif de développer un outil de mesure des comportements inadaptés au travail et de tester ses propriétés psychométriques. Ainsi, des analyses statistiques exploratoires et confirmatoires ont été effectuées. Afin d’appuyer la valeur critériée de l’outil proposé, une analyse corrélationnelle a été réalisée avec le critère de l’adaptation. Certaines valeurs psychométriques de l’outil sont validées par les résultats obtenus. Le troisième article examine empiriquement les modèles conceptuels des rôles anticipés des comportements inadaptés au travail dans la relation entre la perception de la justice organisationnelle et la santé psychologique des individus au travail. La perception de la justice organisationnelle a été vue sous les composantes distributive, procédurale, informationnelle et interpersonnelle. De son côté, la santé psychologique des individus a été observée par le biais des éléments du bien-être et de la détresse psychologique au travail. Les différentes analyses de régressions multiples hiérarchiques ont permis d’observer l’absence du rôle modérateur des comportements inadaptés au travail. Pour sa part, l’utilisation du test de Sobel a démontré la présence du rôle médiateur des comportements inadaptés au travail dans certaines relations. Plus exactement, celles-ci sont la relation entre la justice interpersonnelle et le bien-être psychologique au travail, la relation entre la justice interpersonnelle et la détresse psychologique au travail, ainsi que la relation entre la justice distributive et la détresse psychologique au travail. Finalement, la conclusion de la thèse présente une synthèse des résultats et expose les limites et pistes de recherches futures.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le problème de conception de réseaux est un problème qui a été beaucoup étudié dans le domaine de la recherche opérationnelle pour ses caractéristiques, et ses applications dans des nombreux domaines tels que le transport, les communications, et la logistique. Nous nous intéressons en particulier dans ce mémoire à résoudre le problème de conception de réseaux avec coûts fixes et sans capacité, en satisfaisant les demandes de tous les produits tout en minimisant la somme des coûts de transport de ces produits et des coûts fixes de conception du réseau. Ce problème se modélise généralement sous la forme d’un programme linéaire en nombres entiers incluant des variables continues. Pour le résoudre, nous avons appliqué la méthode exacte de Branch-and-Bound basée sur une relaxation linéaire du problème avec un critère d’arrêt, tout en exploitant les méthodes de génération de colonnes et de génération de coupes. Nous avons testé la méthode de Branch-and-Price-and-Cut sur 156 instances divisées en cinq groupes de différentes tailles, et nous l’avons comparée à Cplex, l’un des meilleurs solveurs d’optimisation mathématique, ainsi qu’à la méthode de Branch-and- Cut. Notre méthode est compétitive et plus performante sur les instances de grande taille ayant un grand nombre de produits.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La détection et la caractérisation des nanoparticules manufacturées (NPM) est l’une des premières étapes pour contrôler et diminuer leurs risques potentiels sur la santé humaine et l’environnement. Différents systèmes d’échantillonnage dans l’air existent pour l’évaluation d’une exposition aux NPM. Cependant, ils ne mesurent pas le risque potentiel de cette exposition à la santé humaine ni les mécanismes cellulaires qui en seraient responsables. Nos objectifs de recherche sont 1) Évaluer les effets de différents types de nanoparticules sur des cellules pulmonaires humaines et 2) Identifier de nouveaux mécanismes intracellulaires activés lors de l’exposition à divers types de NPM. Méthodologie: La lignée de cellules A549 a été utilisée. Trois types de NPM ont été étudiés (différentes concentrations et temps d’exposition): les nanoparticules de dioxyde de titane de type anatase (TiO2), les nanotubes de carbone simple paroi (NTCSP) et les nanoparticules de noir de carbone (NC). La viabilité cellulaire a été mesurée par le test MTS, le test PrestoBlue et le test d’exclusion du bleu de Trypan (uniquement pour les NTCSP). La mesure du stress oxydatif a été déterminée par la mesure des dérivés réactifs de l’oxygène (ROS) en utilisant l’essai DCFH-DA. L’activation d’une réponse anti-oxydative a été déterminée par la mesure de la forme réduite (GSH) et oxydée (GSSG) du glutathion, ainsi que du ratio GSH/GSSG (seulement avec NTCSP et TiO2). Résultats: Les trois nanoparticules ne semblent pas être toxiques pour les cellules A549 car il y a une diminution significative mais minime de la viabilité cellulaire. Cependant, elles induisent une augmentation du contenu intracellulaire en ROS qui est à la fois dépendante du temps et de la concentration. Aucun changement dans les concentrations de GSH et GSSG n’a été observé. En conclusion, nos données indiquent que la mesure de la viabilité n’est pas un critère suffisant pour conclure à la toxicité des NPM. La production de ROS est un critère intéressant, cependant il faudra démontrer l’activation de systèmes anti-oxydatifs pour expliquer l’absence de mortalité cellulaire suite à l’exposition aux NPM.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Comprendre ce qui amène un leader à émettre des comportements de leadership transformationnel fascine les chercheurs et praticiens depuis plusieurs années (Bommer, Rubin, & Baldwin, 2004; Bono & Judge, 2004; Shamir & Howell, 1999 ; Stogdill, 1948; Yukl, 1999). Or, jusqu’à présent, ces facteurs sont encore bien peu étudiés et compris comparativement aux conséquences de ce style de leadership. Dans cette lignée, la présente thèse répond à différents enjeux soulevés par les auteurs à ce sujet (Dinh & Lord, 2012; Zaccaro, 2007) en cherchant à préciser le rôle joué par différents antécédents individuels et contextuels du leadership transformationnel. Cet objectif sera poursuivi par l’adoption d’une perspective interactionniste qui intègre des antécédents de personnalité et de contexte ainsi par l’évaluation de la personnalité à l’aide d’une modélisation de la personnalité orientée vers le critère à prédire (variable composite). La présente thèse est composée de trois articles poursuivant les objectifs suivant : 1) Effectuer une synthèse de la littérature empirique portant sur les antécédents individuels et contextuels du leadership transformationnel; 2) Vérifier les liens empiriques entre la personnalité mesurée à l’aide de variables composites, plus précisément le modèle des Great Eight de Bartram (2005), et le leadership transformationnel; 3) Tester empiriquement l’effet d’interaction entre les variables de personnalité et les variables contextuelles pour prédire le leadership transformationnel. Le premier article vise d’abord à circonscrire et organiser les connaissances empiriques actuelles provenant d’une quarantaine d’articles concernant les antécédents du leadership transformationnel. L’article s’organise en trois thèmes principaux : les antécédents individuels de personnalité, les antécédents contextuels et l’étude des interactions entre le volet individuel et contextuel. Plusieurs constats et pistes de recherches sont discutés et mettent la table pour les deux articles subséquents. Ainsi, le second article s’intéresse au potentiel explicatif d’un modèle de personnalité orienté vers le critère pour prédire le leadership. Plus spécifiquement, le modèle des Great Eight proposé par Bartram (2005) est mis en relation avec les comportements de leadership transformationnel et de récompense contingente. Les résultats, obtenus auprès de 113 gestionnaires et de leurs 799 subordonnés, donnent peu d’appui à la valeur ajoutée du modèle utilisé, mais indiquent que certaines tendances de personnalité sont associées au leadership. Des analyses supplémentaires permettent de nuancer la compréhension des effets observés dans la documentation scientifique et offrent quelques pistes de groupements de traits pouvant prédire les différents comportements de leadership. Le troisième article s’inspire de la théorie de l’activation des traits (Tett & Burnett, 2003) pour vérifier l’effet combiné de la personnalité du gestionnaire et du contexte dans lequel il évolue en vue de prédire le leadership transformationnel. Les résultats (ngestionnaires = 89; nsubordonnés = 643) n’offrent qu’un appui modéré au rationnel sous-jacent du modèle de l’activation des traits. Toutefois, il en ressort que l’aspect relationnel du gestionnaire (opérationnalisé par le composite de personnalité « soutien et coopération ») est associé à l’émergence du leadership transformationnel uniquement lorsque les facteurs contextuels (considération organisationnelle, latitude décisionnelle) sont perçus positivement par le gestionnaire. L’étude permet donc d’éclaircir une part de la variabilité observée dans les études antérieures concernant la tendance relationnelle du gestionnaire, en soulignant sa sensibilité à des facteurs contextuels positifs.