495 resultados para Analyse de la démarche basée sur la vidéo
Resumo:
Il sera question dans ce mémoire de maîtrise de l’étude d’une nouvelle classification des états solides de la matière appelée isolant topologique. Plus précisément, nous étudierons cette classification chez le composé demi-Heusler GdBiPt. Nous avons principalement cherché à savoir si ce composé ternaire est un isolant topologique antiferromagnétique. Une analyse de la susceptibilité magnétique ainsi que de la chaleur spécifique du maté- riau montre la présence d’une transition antiferromagnétique à 8.85(3) K. Une mesure d’anisotropie de cette susceptibilité montre que les plans de spins sont ordonnés sui- vant la direction (1,1,1) et finalement des mesures de résistivité électronique ainsi que de l’effet Hall nous indiquent que nous avons un matériau semimétallique lorsque nous sommes en présence d’antiferromagnétisme. Présentement, les expériences menées ne nous permettent pas d’associer cet état métallique aux états surfaciques issus de l’état d’isolant topologique.
Resumo:
Le mode de vie des Cris de la Baie James a changé radicalement au cours des dernières années. La carie dentaire est maintenant un problème de santé publique important, et des données montrent que les Cris utilisent les services dentaires en situation d’urgence plutôt qu’en prévention. Il apparaît donc important de savoir si les Cris sont satisfaits des services dentaires publics qui sont disponibles et de mieux comprendre leurs besoins. Ce projet aborde les deux questions suivantes : Quelles sont les attentes des résidants des localités cries pour les services dentaires? Est-ce que les services existants répondent aux attentes des gens? Nous avons mené une recherche qualitative descriptive basée sur des entrevues semi- structurées (n = 13). Les entrevues ont été enregistrées et transcrites. Nous avons ensuite procédé à une analyse inductive-déductive des transcriptions. Les résultats montrent que les participants ont des attentes très variées, mais que celles-ci sont rarement satisfaites. Premièrement, ils veulent accéder rapidement aux services lorsqu’ils en ressentent le besoin, par exemple en présence de douleur dentaire. Les participants désirent aussi transiger avec des professionnels dentaires attentionnés et expérimentés, ce qui n’est pas toujours le cas, selon eux. En conclusion, nous aimerions faire trois principales recommandations : améliorer l’accès aux services dentaires, en particulier en situation d’urgence; entraîner les professionnels dentaires en approches centrées sur le patient et pour en savoir plus sur la culture crie; et dialoguer avec les Cris pour développer, mettre en place et évaluer les services de santé dentaire.
Resumo:
Malgré l’engouement pour les neurosciences cognitives des émotions et les nombreuses publications des dernières décennies tentant d’élucider les bases neurobiologiques des émotions, nos connaissances sur le domaine restent embryonnaires. Plusieurs questions importantes restent toujours sans réponses incluant s’il existe ou non un système unique pour le traitement de stimuli émotionnels et s’il y a ou non des différences entre les hommes et les femmes pour le traitement de stimuli émotionnels. L’objectif de cette thèse est d’apporter certains éléments de réponses à ces questions à travers une caractérisation du substrat neurobiologique impliqué dans le traitement de stimuli émotionnels visuels et dynamiques. Ce travail a été mené via l’imagerie par résonance magnétique fonctionnelle (IRMf) cérébrale. Le premier chapitre, subdivisé en quatre sections, permet de présenter la perspective dans laquelle s’inscrit la thèse. La première section de ce chapitre sert à établir certaines balises définitionnelles liées aux émotions. La seconde section, basée sur une lecture des textes originaux, retrace les faits historiques saillants de la neurobiologie des émotions allant de Charles Darwin à Joseph Ledoux. La troisième section débute où la seconde s’arrête et continue l’histoire de la neurobiologie des émotions à travers un résumé de toutes les principales méta-analyses d’imagerie fonctionnelle cérébrale des émotions. La dernière section du chapitre permet de présenter la problématique de recherche. La recherche, à proprement parler, qui constitue le corps de la thèse est ensuite présentée sous forme de trois articles. Enfin, les résultats de cette recherche et la manière dont ils s’inscrivent dans la continuité de nos connaissances actuelles font l’objet d’une discussion générale. Le premier article (chapitre II) rapporte, chez les hommes et les femmes, les régions du cerveau qui sont plus activées lors du traitement de films érotiques que lors du traitement de films dits ‘neutres’. Un chevauchement manifeste est observé entre les hommes et les femmes. Par contre, une activation significativement plus grande est observée chez les hommes pour l’hypothalamus, une région importante pour le comportement sexuel à travers la phylogénie. De plus, chez les hommes seulement, l’activation hypothalamique est corrélée à l’excitation sexuelle subjective. Comme la recherche présentée dans le premier article se sert de conditions expérimentales relativement longues pour l’IRMf (i.e. extraits de films de 3 minutes) et que ceci peut induire une nette diminution de signal en lien avec certaines contraintes de l’IRMf, le second article (chapitre III) examine les corrélats du traitement de stimuli sexuels en utilisant, cette fois, un paradigme d’IRMf classique où plusieurs extraits de films de 33 secondes sont présentés à la place. Cette étude démontre que, pour le traitement de stimuli sexuels, ce paradigme classique d’IRMf est beaucoup plus sensible que celui du premier article. De plus, comme ce paradigme mène à une reproduction des résultats du premier papier, ce travail soutient la perspective selon laquelle les paradigmes à époques courtes sont une alternative valide aux longues époques comme méthode d’étude du traitement de stimuli émotionnels. Le troisième article (chapitre IV) capitalise sur le protocole du second article et démontre que les patrons d’activation associés au visionnement de courts extraits de films induisant du dégoût, de l’amusement, ou de l’excitation sexuelle, sont très étendus. Une analyse de conjonction formelle démontre un large chevauchent de ces patrons à travers les différents affects étudiés. Enfin, le cinquième chapitre sert de discussion générale. Les questions des différences entre les hommes et les femmes dans le traitement des émotions, de l’existence ou non d’un système général pour le traitement des émotions, ainsi que de la manière dont un tel système pourrait être conçu, sont des points saillants de la discussion. Ces points sont abordés à la lumières des connaissances actuelles et des résultats des trois articles.
Resumo:
Le méthotrexate (MTX), un agent anti-cancéreux fréquemment utilisé en chimiothérapie, requiert généralement un suivi thérapeutique de la médication (Therapeutic Drug Monitoring, TDM) pour surveiller son niveau sanguin chez le patient afin de maximiser son efficacité tout en limitant ses effets secondaires. Malgré la fenêtre thérapeutique étroite entre l’efficacité et la toxicité, le MTX reste, à ce jour, un des agents anti-cancéreux les plus utilisés au monde. Les techniques analytiques existantes pour le TDM du MTX sont coûteuses, requièrent temps et efforts, sans nécessairement fournir promptement les résultats dans le délai requis. Afin d’accélérer le processus de dosage du MTX en TDM, une stratégie a été proposée basée sur un essai compétitif caractérisé principalement par le couplage plasmonique d’une surface métallique et de nanoparticules d’or. Plus précisément, l’essai quantitatif exploite la réaction de compétition entre le MTX et une nanoparticule d’or fonctionnalisée avec l’acide folique (FA-AuNP) ayant une affinité pour un récepteur moléculaire, la réductase humaine de dihydrofolate (hDHFR), une enzyme associée aux maladies prolifératives. Le MTX libre mixé avec les FA-AuNP, entre en compétition pour les sites de liaison de hDHFR immobilisés sur une surface active en SPR ou libres en solution. Par la suite, les FA-AuNP liées au hDHFR fournissent une amplification du signal qui est inversement proportionnelle à la concentration de MTX. La résonance des plasmons de surface (SPR) est généralement utilisée comme une technique spectroscopique pour l’interrogation des interactions biomoléculaires. Les instruments SPR commerciaux sont généralement retrouvés dans les grands laboratoires d’analyse. Ils sont également encombrants, coûteux et manquent de sélectivité dans les analyses en matrice complexe. De plus, ceux-ci n’ont pas encore démontré de l’adaptabilité en milieu clinique. Par ailleurs, les analyses SPR des petites molécules comme les médicaments n’ont pas été explorés de manière intensive dû au défi posé par le manque de la sensibilité de la technique pour cette classe de molécules. Les développements récents en science des matériaux et chimie de surfaces exploitant l’intégration des nanoparticules d’or pour l’amplification de la réponse SPR et la chimie de surface peptidique ont démontré le potentiel de franchir les limites posées par le manque de sensibilité et l’adsorption non-spécifique pour les analyses directes dans les milieux biologiques. Ces nouveaux concepts de la technologie SPR seront incorporés à un système SPR miniaturisé et compact pour exécuter des analyses rapides, fiables et sensibles pour le suivi du niveau du MTX dans le sérum de patients durant les traitements de chimiothérapie. L’objectif de cette thèse est d’explorer différentes stratégies pour améliorer l’analyse des médicaments dans les milieux complexes par les biocapteurs SPR et de mettre en perspective le potentiel des biocapteurs SPR comme un outil utile pour le TDM dans le laboratoire clinique ou au chevet du patient. Pour atteindre ces objectifs, un essai compétitif colorimétrique basé sur la résonance des plasmons de surface localisée (LSPR) pour le MTX fut établi avec des nanoparticules d’or marquées avec du FA. Ensuite, cet essai compétitif colorimétrique en solution fut adapté à une plateforme SPR. Pour les deux essais développés, la sensibilité, sélectivité, limite de détection, l’optimisation de la gamme dynamique et l’analyse du MTX dans les milieux complexes ont été inspectés. De plus, le prototype de la plateforme SPR miniaturisée fut validé par sa performance équivalente aux systèmes SPR existants ainsi que son utilité pour analyser les échantillons cliniques des patients sous chimiothérapie du MTX. Les concentrations de MTX obtenues par le prototype furent comparées avec des techniques standards, soit un essai immunologique basé sur la polarisation en fluorescence (FPIA) et la chromatographie liquide couplée avec de la spectrométrie de masse en tandem (LC-MS/MS) pour valider l’utilité du prototype comme un outil clinique pour les tests rapides de quantification du MTX. En dernier lieu, le déploiement du prototype à un laboratoire de biochimie dans un hôpital démontre l’énorme potentiel des biocapteurs SPR pour utilisation en milieux clinique.
Resumo:
La duplication est un des évènements évolutifs les plus importants, car elle peut mener à la création de nouvelles fonctions géniques. Durant leur évolution, les génomes sont aussi affectés par des inversions, des translocations (incluant des fusions et fissions de chromosomes), des transpositions et des délétions. L'étude de l'évolution des génomes est importante, notamment pour mieux comprendre les mécanismes biologiques impliqués, les types d'évènements qui sont les plus fréquents et quels étaient les contenus en gènes des espèces ancestrales. Afin d'analyser ces différents aspects de l'évolution des génomes, des algorithmes efficaces doivent être créés pour inférer des génomes ancestraux, des histoires évolutives, des relations d'homologies et pour calculer les distances entre les génomes. Dans cette thèse, quatre projets reliés à l'étude et à l'analyse de l'évolution des génomes sont présentés : 1) Nous proposons deux algorithmes pour résoudre des problèmes reliés à la duplication de génome entier : un qui généralise le problème du genome halving aux pertes de gènes et un qui permet de calculer la double distance avec pertes. 2) Nous présentons une nouvelle méthode pour l'inférence d'histoires évolutives de groupes de gènes orthologues répétés en tandem. 3) Nous proposons une nouvelle approche basée sur la théorie des graphes pour inférer des gènes in-paralogues qui considère simultanément l'information provenant de différentes espèces afin de faire de meilleures prédictions. 4) Nous présentons une étude de l'histoire évolutive des gènes d'ARN de transfert chez 50 souches de Bacillus.
Resumo:
Introduction : Cette thèse est constituée de trois articles liés les uns aux autres. Le premier s’attache à clarifier les perspectives théoriques et problèmes conceptuels entourant la notion de capacité/incapacité au travail, sa définition et son évolution au fil du temps. Les deuxième et troisième articles visent à évaluer les effets différentiels selon le genre de déterminants du retour au travail (RAT) et de la durée d’indemnisation ainsi que les coûts associés, dans une population de travailleurs indemnisés à long terme pour troubles musculosquelettiques (TMS). Méthodes : Dans le premier article, une revue systématique des définitions de l’(in)capacité au travail et une analyse comparative basée sur la théorisation ancrée débouchent sur une carte conceptuelle intégrative. Dans le second article, une cohorte de 455 adultes en incapacité à long terme pour TMS au dos/cou/membres supérieurs est suivie cinq ans au travers d’entretiens structurés et de données d’indemnisation. Des modèles de Cox stratifiés par genre ont été utilisés pour évaluer la durée jusqu’au premier RAT. Dans le troisième article, une cohorte populationnelle de 13,073 hommes et 9032 femmes en incapacité prolongée pour TMS au dos/cou/membres supérieurs a été suivie pendant trois ans à l’aide de données administratives. Des modèles de Cox stratifiés par genre ont été utilisés pour étudier la durée d’indemnisation et détecter les effets dépendants du temps. Les coûts ont également été examinés. Résultats : Les définitions analysées dans la première étude ne reflètent pas une vision intégrée et partagée de l’(in)capacité au travail. Cependant, un consensus relatif semble émerger qu’il s’agit d’un concept relationnel, résultant de l’interaction de multiples dimensions aux niveaux individuel, organisationnel et sociétal. La seconde étude montre que malgré des courbes de survie jusqu’au RAT similaires entre hommes et femmes (p =0.920), plusieurs déterminants diffèrent selon le genre. Les femmes plus âgées (HR=0.734, par tranches de 10 ans), d’un statut économique perçu comme pauvre (HR=0.625), travaillant ≥40 heures/semaine en ayant des personnes à charge (HR=0.508) et ne connaissant pas l’existence d’un programme de santé et sécurité sur leur lieu de travail (HR=0.598) retournent moins vite au travail, tandis qu’un revenu brut annuel plus élevé (par $10,000) est un facteur facilitant (HR=1.225). Les hommes de plus de 55 ans (HR=0.458), au statut économique perçu comme pauvre (HR=0.653), travaillant ≥40 heures/semaine avec une charge de travail physique perçue élevée (HR=0.720) et une plus grande précarité d’emploi (HR=0.825) retournent moins rapidement au travail. La troisième étude a révélé que trois ans après la lésion, 12.3% des hommes et 7.3% des femmes étaient encore indemnisés, avec un ratio de coûts homme-femme pour l’ensemble des réclamations de 2.1 :1. L’effet de certain prédicteurs (e.g. revenu, siège de lésion, industrie) varie selon le genre. De plus, l’effet de l’âge chez les hommes et l’effet de l’historique d’indemnisation chez les femmes varient dans le temps. Conclusion : La façon de définir l’(in)capacité au travail a des implications importantes pour la recherche, l’indemnisation et la réadaptation. Les résultats confirment également la pertinence d’investiguer les déterminants du RAT et de l’indemnisation selon le genre.
Resumo:
L’émergence de nouvelles applications et de nouveaux services (tels que les applications multimédias, la voix-sur-IP, la télévision-sur-IP, la vidéo-sur-demande, etc.) et le besoin croissant de mobilité des utilisateurs entrainent une demande de bande passante de plus en plus croissante et une difficulté dans sa gestion dans les réseaux cellulaires sans fil (WCNs), causant une dégradation de la qualité de service. Ainsi, dans cette thèse, nous nous intéressons à la gestion des ressources, plus précisément à la bande passante, dans les WCNs. Dans une première partie de la thèse, nous nous concentrons sur la prédiction de la mobilité des utilisateurs des WCNs. Dans ce contexte, nous proposons un modèle de prédiction de la mobilité, relativement précis qui permet de prédire la destination finale ou intermédiaire et, par la suite, les chemins des utilisateurs mobiles vers leur destination prédite. Ce modèle se base sur : (a) les habitudes de l’utilisateur en terme de déplacements (filtrées selon le type de jour et le moment de la journée) ; (b) le déplacement courant de l’utilisateur ; (c) la connaissance de l’utilisateur ; (d) la direction vers une destination estimée ; et (e) la structure spatiale de la zone de déplacement. Les résultats de simulation montrent que ce modèle donne une précision largement meilleure aux approches existantes. Dans la deuxième partie de cette thèse, nous nous intéressons au contrôle d’admission et à la gestion de la bande passante dans les WCNs. En effet, nous proposons une approche de gestion de la bande passante comprenant : (1) une approche d’estimation du temps de transfert intercellulaire prenant en compte la densité de la zone de déplacement en terme d’utilisateurs, les caractéristiques de mobilité des utilisateurs et les feux tricolores ; (2) une approche d’estimation de la bande passante disponible à l’avance dans les cellules prenant en compte les exigences en bande passante et la durée de vie des sessions en cours ; et (3) une approche de réservation passive de bande passante dans les cellules qui seront visitées pour les sessions en cours et de contrôle d’admission des demandes de nouvelles sessions prenant en compte la mobilité des utilisateurs et le comportement des cellules. Les résultats de simulation indiquent que cette approche réduit largement les ruptures abruptes de sessions en cours, offre un taux de refus de nouvelles demandes de connexion acceptable et un taux élevé d’utilisation de la bande passante. Dans la troisième partie de la thèse, nous nous penchons sur la principale limite de la première et deuxième parties de la thèse, à savoir l’évolutivité (selon le nombre d’utilisateurs) et proposons une plateforme qui intègre des modèles de prédiction de mobilité avec des modèles de prédiction de la bande passante disponible. En effet, dans les deux parties précédentes de la thèse, les prédictions de la mobilité sont effectuées pour chaque utilisateur. Ainsi, pour rendre notre proposition de plateforme évolutive, nous proposons des modèles de prédiction de mobilité par groupe d’utilisateurs en nous basant sur : (a) les profils des utilisateurs (c’est-à-dire leur préférence en termes de caractéristiques de route) ; (b) l’état du trafic routier et le comportement des utilisateurs ; et (c) la structure spatiale de la zone de déplacement. Les résultats de simulation montrent que la plateforme proposée améliore la performance du réseau comparée aux plateformes existantes qui proposent des modèles de prédiction de la mobilité par groupe d’utilisateurs pour la réservation de bande passante.
Resumo:
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.
Resumo:
L’expansion de l’organisation de la production des biens et services sous forme de réseau, découlant de la recherche de flexibilité face à une concurrence économique accrue, soulève des enjeux importants pour les relations industrielles. Notre thèse s’intéresse au processus de précarisation des emplois dans les segments externalisés des réseaux de production. Elle se base sur trois études de cas portant sur les réseaux de services publics et privés d’aide à domicile au Québec. Les études en droit critique ont montré que le droit du travail, fondé sur le modèle de l’entreprise intégrée et de la relation d’emploi bipartite, ne parvient pas à identifier comme employeurs certaines organisations dont l’action a pourtant un effet déterminant sur les conditions de travail dans les réseaux. Notre thèse visait donc à mettre en lumière la réalité empirique des relations de pouvoir qui traversent les réseaux et leurs effets et ce à partir d’un modèle analytique transdisciplinaire intégrant les dimensions juridiques et sociologiques. Les résultats nous amènent d’abord à constater que l’employeur juridique des travailleuses employées par les prestataires privés intégrés aux réseaux – une majorité de femmes – est le plus souvent une agence de location de personnel, une entreprise d’économie sociale ou même l’usager-ère des services d’aide à domicile. Cet employeur est rarement identifié aux organismes publics, donc sous l’égide de l’État, qui exercent un pouvoir prépondérant dans ces réseaux. Le décalage entre la régulation juridique du travail et la réalité empirique du pouvoir intra-réseau entraîne une précarisation de la protection sociale et des conditions de travail de ces travailleuses. Ainsi, la faible protection de leurs droits de représentation et de négociation collectives facilite l’imposition de la « disponibilité permanente juste-à-temps », combinant les logiques du lean et du travail domestique, ainsi qu’une déqualification sexuée et racialisée de leurs emplois par rapport à la situation dans le secteur public. Notre étude montre néanmoins que certaines pratiques innovatrices d’action collective réticulaire ont pu influencer la dynamique de pouvoir, en particulier celles portées par des associations locales de personnes handicapées recourant aux services et par un syndicat de travailleuses d’agence.
Resumo:
La présente recherche a pour objectif principal d’étudier l’effet que peuvent exercer les normes d’équipe sur le leadership partagé au sein des équipes de travail. Nous voulions vérifier les relations entre trois normes proposées par Day (2007) comme influençant de façon significative le partage du leadership dans les équipes. Il s’agit de la distance hiérarchique, de la sécurité psychologique et de l’orientation vers l’apprentissage. Cette recherche vise également à vérifier l’effet modérateur, d’une part, de l’interdépendance au travail et, d’autre part, celui de la complexité de la tâche sur les relations entre les normes d’équipe et le leadership partagé. Cette recherche se base sur des données secondaires qui ont été recueillies par Vincent Rousseau (professeur à l’Université de Montréal) et Caroline Aubé (professeure à HEC Montréal) auprès de 394 membres appartenant à 77 équipes et auprès de 77 supérieurs immédiats de ces mêmes équipes. L’ensemble de ces participants travaille dans une organisation de sécurité publique canadienne. Les données ont été collectées en utilisant la méthode du questionnaire. Des analyses de régressions ont été utilisées pour vérifier les hypothèses de cette étude. Les résultats montrent que la distance hiérarchique, la sécurité psychologique et l’orientation vers l’apprentissage sont significativement liées au leadership partagé. Ces normes d’équipe sont également fortement reliées entre elles. Les résultats n’ont, cependant, pas permis de confirmer l’effet modérateur de l’interdépendance au travail et de la complexité de la tâche sur les relations entre les normes d’équipe et le leadership partagé. Globalement, les résultats montrent que les gestionnaires tireront avantage à encourager les normes d’équipe associées à une faible distance hiérarchique, à une forte sécurité psychologique et à une orientation davantage axée sur l’apprentissage afin de faciliter l’exercice du leadership partagé et ce, en vue d’améliorer la performance des équipes et de l’organisation.
Resumo:
La gestion des ressources, équipements, équipes de travail, et autres, devrait être prise en compte lors de la conception de tout plan réalisable pour le problème de conception de réseaux de services. Cependant, les travaux de recherche portant sur la gestion des ressources et la conception de réseaux de services restent limités. La présente thèse a pour objectif de combler cette lacune en faisant l’examen de problèmes de conception de réseaux de services prenant en compte la gestion des ressources. Pour ce faire, cette thèse se décline en trois études portant sur la conception de réseaux. La première étude considère le problème de capacitated multi-commodity fixed cost network design with design-balance constraints(DBCMND). La structure multi-produits avec capacité sur les arcs du DBCMND, de même que ses contraintes design-balance, font qu’il apparaît comme sous-problème dans de nombreux problèmes reliés à la conception de réseaux de services, d’où l’intérêt d’étudier le DBCMND dans le contexte de cette thèse. Nous proposons une nouvelle approche pour résoudre ce problème combinant la recherche tabou, la recomposition de chemin, et une procédure d’intensification de la recherche dans une région particulière de l’espace de solutions. Dans un premier temps la recherche tabou identifie de bonnes solutions réalisables. Ensuite la recomposition de chemin est utilisée pour augmenter le nombre de solutions réalisables. Les solutions trouvées par ces deux méta-heuristiques permettent d’identifier un sous-ensemble d’arcs qui ont de bonnes chances d’avoir un statut ouvert ou fermé dans une solution optimale. Le statut de ces arcs est alors fixé selon la valeur qui prédomine dans les solutions trouvées préalablement. Enfin, nous utilisons la puissance d’un solveur de programmation mixte en nombres entiers pour intensifier la recherche sur le problème restreint par le statut fixé ouvert/fermé de certains arcs. Les tests montrent que cette approche est capable de trouver de bonnes solutions aux problèmes de grandes tailles dans des temps raisonnables. Cette recherche est publiée dans la revue scientifique Journal of heuristics. La deuxième étude introduit la gestion des ressources au niveau de la conception de réseaux de services en prenant en compte explicitement le nombre fini de véhicules utilisés à chaque terminal pour le transport de produits. Une approche de solution faisant appel au slope-scaling, la génération de colonnes et des heuristiques basées sur une formulation en cycles est ainsi proposée. La génération de colonnes résout une relaxation linéaire du problème de conception de réseaux, générant des colonnes qui sont ensuite utilisées par le slope-scaling. Le slope-scaling résout une approximation linéaire du problème de conception de réseaux, d’où l’utilisation d’une heuristique pour convertir les solutions obtenues par le slope-scaling en solutions réalisables pour le problème original. L’algorithme se termine avec une procédure de perturbation qui améliore les solutions réalisables. Les tests montrent que l’algorithme proposé est capable de trouver de bonnes solutions au problème de conception de réseaux de services avec un nombre fixe des ressources à chaque terminal. Les résultats de cette recherche seront publiés dans la revue scientifique Transportation Science. La troisième étude élargie nos considérations sur la gestion des ressources en prenant en compte l’achat ou la location de nouvelles ressources de même que le repositionnement de ressources existantes. Nous faisons les hypothèses suivantes: une unité de ressource est nécessaire pour faire fonctionner un service, chaque ressource doit retourner à son terminal d’origine, il existe un nombre fixe de ressources à chaque terminal, et la longueur du circuit des ressources est limitée. Nous considérons les alternatives suivantes dans la gestion des ressources: 1) repositionnement de ressources entre les terminaux pour tenir compte des changements de la demande, 2) achat et/ou location de nouvelles ressources et leur distribution à différents terminaux, 3) externalisation de certains services. Nous présentons une formulation intégrée combinant les décisions reliées à la gestion des ressources avec les décisions reliées à la conception des réseaux de services. Nous présentons également une méthode de résolution matheuristique combinant le slope-scaling et la génération de colonnes. Nous discutons des performances de cette méthode de résolution, et nous faisons une analyse de l’impact de différentes décisions de gestion des ressources dans le contexte de la conception de réseaux de services. Cette étude sera présentée au XII International Symposium On Locational Decision, en conjonction avec XXI Meeting of EURO Working Group on Locational Analysis, Naples/Capri (Italy), 2014. En résumé, trois études différentes sont considérées dans la présente thèse. La première porte sur une nouvelle méthode de solution pour le "capacitated multi-commodity fixed cost network design with design-balance constraints". Nous y proposons une matheuristique comprenant la recherche tabou, la recomposition de chemin, et l’optimisation exacte. Dans la deuxième étude, nous présentons un nouveau modèle de conception de réseaux de services prenant en compte un nombre fini de ressources à chaque terminal. Nous y proposons une matheuristique avancée basée sur la formulation en cycles comprenant le slope-scaling, la génération de colonnes, des heuristiques et l’optimisation exacte. Enfin, nous étudions l’allocation des ressources dans la conception de réseaux de services en introduisant des formulations qui modèlent le repositionnement, l’acquisition et la location de ressources, et l’externalisation de certains services. À cet égard, un cadre de solution slope-scaling développé à partir d’une formulation en cycles est proposé. Ce dernier comporte la génération de colonnes et une heuristique. Les méthodes proposées dans ces trois études ont montré leur capacité à trouver de bonnes solutions.
Resumo:
Cette thèse porte sur l’évolution des relations des « nationalités historiques » espagnoles avec l’Union européenne dans les années 1992-2008. L’analyse se concentre sur la genèse d’une paradiplomatie nationaliste européenne dont l’objectif est la reconnaissance de l’identité nationale de ces communautés au sein de l’Union européenne. Après avoir obtenu une certaine reconnaissance nationale et un statut privilégié en Espagne, les élites de ces « nations sans État » ont remarqué que le processus de construction de l’Union européenne a des conséquences négatives sur leur autonomie et, dans ce contexte, ces élites nationalistes sont obligées à concevoir une vraie politique européenne pour protéger leurs intérêts nationaux en Espagne et dans l’Union européenne. À partir de l’étude des rapports établis entre les « nationalités historiques » espagnoles avec l’Union européenne, nous démontrons que l’involution autonomique (en Espagne) et le manque d’empathie de l’Union européenne envers ces communautés nationales sont les principales causes de la genèse de leur politique européenne. Loin d’être simplement associée à une forme de régionalisme ou de néo-régionalisme, cette politique étrangère (« action extérieure ») de ces entités envers l’Union européenne fait partie d’un processus de construction nationale et pourrait être définie comme une paradiplomatie nationaliste. La présente thèse, basée sur une analyse de la politique européenne des « nationalités historiques » entre 1992 et 2008, soutient que les limites du dessein institutionnel de l’Union européenne représentent la principale raison d’être de l’évolution de la paradiplomatie nationaliste vers une protodiplomatie apparemment incohérente. Dans une telle situation, l’inaptitude institutionnelle de l’Union européenne à accommoder les demandes nationalistes serait une cause majeure de l’échec des initiatives nationalistes autonomistes et, en même temps, une cause de l’émergence d’un nouveau courant nationaliste au sein des élites des « nations sans État » occidentales, dont le but est la construction d’un propre État national à l’intérieur de l’Union européenne.
Resumo:
Les étoiles naines blanches représentent la fin de l’évolution de 97% des étoiles de notre galaxie, dont notre Soleil. L’étude des propriétés globales de ces étoiles (distribution en température, distribution de masse, fonction de luminosité, etc.) requiert l’élaboration d’ensembles statistiquement complets et bien définis. Bien que plusieurs relevés d’étoiles naines blanches existent dans la littérature, la plupart de ceux-ci souffrent de biais statistiques importants pour ce genre d’analyse. L’échantillon le plus représentatif de la population d’étoiles naines blanches demeure à ce jour celui défini dans un volume complet, restreint à l’environnement immédiat du Soleil, soit à une distance de 20 pc (∼ 65 années-lumière) de celui-ci. Malheureusement, comme les naines blanches sont des étoiles intrinsèquement peu lumineuses, cet échantillon ne contient que ∼ 130 objets, compromettant ainsi toute étude statistique significative. Le but de notre étude est de recenser la population d’étoiles naines blanches dans le voisinage solaire a une distance de 40 pc, soit un volume huit fois plus grand. Nous avons ainsi entrepris de répertorier toutes les étoiles naines blanches à moins de 40 pc du Soleil à partir de SUPERBLINK, un vaste catalogue contenant le mouvement propre et les données photométriques de plus de 2 millions d’étoiles. Notre approche est basée sur la méthode des mouvements propres réduits qui permet d’isoler les étoiles naines blanches des autres populations stellaires. Les distances de toutes les candidates naines blanches sont estimées à l’aide de relations couleur-magnitude théoriques afin d’identifier les objets se situant à moins de 40 pc du Soleil, dans l’hémisphère nord. La confirmation spectroscopique du statut de naine blanche de nos ∼ 1100 candidates a ensuite requis 15 missions d’observations astronomiques sur trois grands télescopes à Kitt Peak en Arizona, ainsi qu’une soixantaine d’heures allouées sur les télescopes de 8 m des observatoires Gemini Nord et Sud. Nous avons ainsi découvert 322 nouvelles étoiles naines blanches de plusieurs types spectraux différents, dont 173 sont à moins de 40 pc, soit une augmentation de 40% du nombre de naines blanches connues à l’intérieur de ce volume. Parmi ces nouvelles naines blanches, 4 se trouvent probablement à moins de 20 pc du Soleil. De plus, nous démontrons que notre technique est très efficace pour identifier les étoiles naines blanches dans la région peuplée du plan de la Galaxie. Nous présentons ensuite une analyse spectroscopique et photométrique détaillée de notre échantillon à l’aide de modèles d’atmosphère afin de déterminer les propriétés physiques de ces étoiles, notamment la température, la gravité de surface et la composition chimique. Notre analyse statistique de ces propriétés, basée sur un échantillon presque trois fois plus grand que celui à 20 pc, révèle que nous avons identifié avec succès les étoiles les plus massives, et donc les moins lumineuses, de cette population qui sont souvent absentes de la plupart des relevés publiés. Nous avons également identifié plusieurs naines blanches très froides, et donc potentiellement très vieilles, qui nous permettent de mieux définir le côté froid de la fonction de luminosité, et éventuellement l’âge du disque de la Galaxie. Finalement, nous avons aussi découvert plusieurs objets d’intérêt astrophysique, dont deux nouvelles étoiles naines blanches variables de type ZZ Ceti, plusieurs naines blanches magnétiques, ainsi que de nombreux systèmes binaires non résolus.
Resumo:
Cette thèse est organisée en trois chapitres. Les deux premiers s'intéressent à l'évaluation, par des méthodes d'estimations, de l'effet causal ou de l'effet d'un traitement, dans un environnement riche en données. Le dernier chapitre se rapporte à l'économie de l'éducation. Plus précisément dans ce chapitre j'évalue l'effet de la spécialisation au secondaire sur le choix de filière à l'université et la performance. Dans le premier chapitre, j'étudie l'estimation efficace d'un paramètre de dimension finie dans un modèle linéaire où le nombre d'instruments peut être très grand ou infini. L'utilisation d'un grand nombre de conditions de moments améliore l'efficacité asymptotique des estimateurs par variables instrumentales, mais accroit le biais. Je propose une version régularisée de l'estimateur LIML basée sur trois méthodes de régularisations différentes, Tikhonov, Landweber Fridman, et composantes principales, qui réduisent le biais. Le deuxième chapitre étend les travaux précédents, en permettant la présence d'un grand nombre d'instruments faibles. Le problème des instruments faibles est la consequence d'un très faible paramètre de concentration. Afin d'augmenter la taille du paramètre de concentration, je propose d'augmenter le nombre d'instruments. Je montre par la suite que les estimateurs 2SLS et LIML régularisés sont convergents et asymptotiquement normaux. Le troisième chapitre de cette thèse analyse l'effet de la spécialisation au secondaire sur le choix de filière à l'université. En utilisant des données américaines, j'évalue la relation entre la performance à l'université et les différents types de cours suivis pendant les études secondaires. Les résultats suggèrent que les étudiants choisissent les filières dans lesquelles ils ont acquis plus de compétences au secondaire. Cependant, on a une relation en U entre la diversification et la performance à l'université, suggérant une tension entre la spécialisation et la diversification. Le compromis sous-jacent est évalué par l'estimation d'un modèle structurel de l'acquisition du capital humain au secondaire et de choix de filière. Des analyses contrefactuelles impliquent qu'un cours de plus en matière quantitative augmente les inscriptions dans les filières scientifiques et technologiques de 4 points de pourcentage.
Resumo:
Les débats économiques au 19e siècle, loin d’être l’apanage du monde universitaire, étaient aux États-Unis un des principaux objets de contentieux entre les partis politiques et ceux-ci trouvaient écho dans la sphère publique. Les journaux étaient alors le principal moyen de communiquer les opinions des différents partis. La présente étude vise à mettre en contexte et cerner la position des écrits du plus important économiste américain de son époque, Henry Charles Carey (1793-1879), reconnu comme tel par J.S. Mill et Karl Marx en leur temps, lors de la décennie de 1850 dans le journal le plus influent de cette période, le New York Tribune. Pour ce faire, il a fallu au préalable identifier les articles non signés de Carey dans le journal, ce qui n’avait auparavant jamais été fait. Au moment d’écrire dans le principal organe américain qui défendait la protection aux États-Unis afin d’industrialiser le pays, Carey était alors le représentant le plus prééminent du système américain d’économie. Ce dernier, fondé sur les écrits d’Alexander Hamilton, prônait l’industrialisation des États-Unis et l’intervention de l’État pour défendre le bien commun, s’opposant ainsi à l’école libérale anglaise basée sur les écrits d’Adam Smith. Conceptuellement, la pensée économique de Carey se situe dans la tradition des Autres Canon, basée sur la production et l’innovation. Ceci le mena à s’opposer avec vigueur tant au malthusianisme qu’à la division internationale du travail, justifiée théoriquement par la thèse de l’avantage comparatif de Ricardo. En effet, dans son analyse, la volonté exprimée au milieu du 19e siècle par l’Angleterre de devenir l’atelier du monde et de faire du reste des nations des producteurs de matières premières sous un régime de libre-échange n’était rien d’autre que la continuation de la politique coloniale par d’autres moyens. Pour Carey, la spécialisation dans l’exportation de matières premières, notamment défendue par les planteurs du Sud des États-Unis, loin d’être bénéfique au pays, était le sûr gage de la pauvreté comme les cas de l’Irlande et de l’Inde le démontraient.