409 resultados para Théories de la quatrième dimension
Resumo:
Les paramètres de l’exil, comme déplacement, se transforment aujourd’hui dans un contexte de mondialisation, interrogeant le rôle des nations alors que les sociétés impliquent de plus en plus de mobilité et de diversité culturelle. Cette condition d’exilé aux repères mouvants, inscrite dans une temporalité discontinue et dont l’expérience est toujours douloureuse, a donné lieu à une littérature prolifique dans le domaine des études littéraires au cours du 20e siècle. En quoi le 21e propose-t-il un regard différent sur cette condition ? Dans ce mémoire nous analyserons quatre œuvres contemporaines qui nous proposent différentes variations des transformations identitaires profondes qui caractérisent la condition d’exilé. Deux des grands axes autour desquels s’est articulée la condition d’exilé ont été développés par Edward Said, qui propose une posture critique et politique, et Julia Kristeva, qui présente l’exil comme une condition plutôt psychique. Suivant cette perspective analytique, l’autobiographie de Mourid Barghouti fait écho à la compréhension de l’exil telle que l’entend Said, en pleine autonomie instauratrice. Puis, le roman de Rawi Hage dans une expérience plus psychique de l’exil, plus traumatique et plus violente du vécu avant l’exil, suggère que le rapport avec le milieu environnant a un impact sur l’expérience de l’exil, alors que dans ce cas il reste dysfonctionnel, et qu’un rapport pathologique à l’existence peut ensuite se manifester. Ensuite, le roman d’Abla Farhoud expose la possibilité d’un dépassement de cette expérience pathologique de l’exil par la distance, celle de l’âge et de la prise de parole. Finalement, dans la pièce Incendies de Mouawad, l’expérience psychique de l’exil est dépassée à la fois par une traduction de l’indicible de la violence, par un retour sur les traumas précédant l’exil, et par un travail collectif – comme autres formes de distances. Cette dernière œuvre est donc porteuse d’une compréhension de l’exil impliquant une dimension psychique, tout en devenant critique et politique, telle que le révèlent les écrits de Jacques Rancière. À la lumière de ces analyses, la condition d’exilé réclame d’urgence un retour sur les traumas précédents, le trauma qu’est l’exil, afin qu’une autonomie, une créativité et un engagement s’en dégagent, dans une société, dans un monde plus grand que soi. Pour les trois derniers auteurs, c’est la société québécoise qui révèle à la fois une compréhension des problématiques majeures de la condition d’exilé et une ouverture face à celles-ci, en ce début de 21e siècle.
Resumo:
Ce mémoire a pour objectif général de définir et de caractériser les présences amérindiennes sur l’île de Montréal au cours de la période s’échelonnant du Sylvicole supérieur à la fin du XVIIe siècle ainsi que de tenter de comprendre le rôle qu’exerça le mont Royal dans ce contexte. En nous appuyant sur des théories de l’archéologie du paysage, nous avons étudié la création consciente et inconsciente de paysages et la manière par laquelle ces lieux ont façonné les comportements et les identités de leurs occupants. Grâce à la continuité d’activités répétitives, liées au concept de taskscape, nous avons tenté d’y établir un modèle de trame d’occupation reflétant une utilisation dynamique et stratégique du paysage face aux politiques coloniales. La démarche adoptée est celle d’une approche holistique s’appuyant à la fois sur des données archéologiques, historiques, ethnohistoriques et ethnographiques émanant des rapports de fouilles archéologiques, des traditions orales et des différents documents coloniaux datant des XVIe, XVIIe et XVIIIe siècles. Cette étude a permis de déterminer différentes zones associées à des perceptions différentes du paysage reflétant une stratégie de continuité dans la conceptualisation, l’organisation et la manipulation de l’espace à la suite de l’appropriation des terres par le gouvernement colonial.
Resumo:
Dans certaines circonstances, des actions de groupes sont plus performantes que des actions individuelles. Dans ces situations, il est préférable de former des coalitions. Ces coalitions peuvent être disjointes ou imbriquées. La littérature économique met un fort accent sur la modélisation des accords où les coalitions d’agents économiques sont des ensembles disjoints. Cependant on observe dans la vie de tous les jours que les coalitions politiques, environnementales, de libre-échange et d’assurance informelles sont la plupart du temps imbriquées. Aussi, devient-il impératif de comprendre le fonctionnement économique des coalitions imbriquées. Ma thèse développe un cadre d’analyse qui permet de comprendre la formation et la performance des coalitions même si elles sont imbriquées. Dans le premier chapitre je développe un jeu de négociation qui permet la formation de coalitions imbriquées. Je montre que ce jeu admet un équilibre et je développe un algorithme pour calculer les allocations d’équilibre pour les jeux symétriques. Je montre que toute structure de réseau peut se décomposer de manière unique en une structure de coalitions imbriquées. Sous certaines conditions, je montre que cette structure correspond à une structure d’équilibre d’un jeu sous-jacent. Dans le deuxième chapitre j’introduis une nouvelle notion de noyau dans le cas où les coalitions imbriquées sont permises. Je montre que cette notion de noyau est une généralisation naturelle de la notion de noyau de structure de coalitions. Je vais plus loin en introduisant des agents plus raffinés. J’obtiens alors le noyau de structure de coalitions imbriquées que je montre être un affinement de la première notion. Dans la suite de la thèse, j’applique les théories développées dans les deux premiers chapitres à des cas concrets. Le troisième chapitre est une application de la relation biunivoque établie dans le premier chapitre entre la formation des coalitions et la formation de réseaux. Je propose une modélisation réaliste et effective des assurances informelles. J’introduis ainsi dans la littérature économique sur les assurances informelles, quatre innovations majeures : une fusion entre l’approche par les groupes et l’approche par les réseaux sociaux, la possibilité d’avoir des organisations imbriquées d’assurance informelle, un schéma de punition endogène et enfin les externalités. Je caractérise les accords d’assurances informelles stables et j’isole les conditions qui poussent les agents à dévier. Il est admis dans la littérature que seuls les individus ayant un revenu élevé peuvent se permettre de violer les accords d’assurances informelles. Je donne ici les conditions dans lesquelles cette hypothèse tient. Cependant, je montre aussi qu’il est possible de violer cette hypothèse sous d’autres conditions réalistes. Finalement je dérive des résultats de statiques comparées sous deux normes de partage différents. Dans le quatrième et dernier chapitre, je propose un modèle d’assurance informelle où les groupes homogènes sont construits sur la base de relations de confiance préexistantes. Ces groupes sont imbriqués et représentent des ensembles de partage de risque. Cette approche est plus générale que les approches traditionnelles de groupe ou de réseau. Je caractérise les accords stables sans faire d’hypothèses sur le taux d’escompte. J’identifie les caractéristiques des réseaux stables qui correspondent aux taux d’escomptes les plus faibles. Bien que l’objectif des assurances informelles soit de lisser la consommation, je montre que des effets externes liés notamment à la valorisation des liens interpersonnels renforcent la stabilité. Je développe un algorithme à pas finis qui égalise la consommation pour tous les individus liés. Le fait que le nombre de pas soit fini (contrairement aux algorithmes à pas infinis existants) fait que mon algorithme peut inspirer de manière réaliste des politiques économiques. Enfin, je donne des résultats de statique comparée pour certaines valeurs exogènes du modèle.
Resumo:
Selon la théorie de la double hérédité, les processus de transmission sociale des connaissances permettraient aux cultures humaines d'évoluer de manière darwinienne. On parvient à cette conclusion en inférant que, étant donné qu'une analogie profonde peut être établie entre les mécanismes de transmission génétique et ceux de transmission sociale, on devrait non seulement concevoir que les processus cognitifs d'apprentissage social constituent bel et bien un système d'hérédité distinct du système d'hérédité génétique, mais qu’il est aussi légitime, sur la base de cette même analogie, de transférer les concepts explicatifs et outils formels issus de la biologie évolutionnaire et de les adapter à l'étude des cultures humaines en vue de constituer une théorie darwinienne de l'évolution culturelle. Cette analogie de l’hérédité culturelle fait depuis longtemps l'objet de controverses tant au sein de la littérature scientifique que dans les discussions philosophiques. On ne semble pas s'entendre sur la nature même de cette analogie ni non plus sur la force de justification épistémique qu'une telle analogie donnerait à la mise en place d'une théorie darwinienne de l'évolution culturelle. Néanmoins, à travers plus de quarante années de débats, la structure de cette analogie n'a jamais été examinée en détail et on a rarement examiné l'épistémologie des inférences par analogie dans un tel contexte. L'objectif principal de la présente thèse consistera à offrir une première analyse systématique de la nature, de la structure, de la fonction et de la justification épistémique de l'analogie de l'hérédité culturelle, fondement conceptuel de la théorie de la double hérédité. En portant ici une attention particulière à la structure logique de cette analogie, on pourra constater l'ampleur de sa complexité, complexité passant souvent inaperçue dans les critiques de la théorie de la double hérédité. On défendra ici la thèse selon laquelle l'analogie de l'hérédité culturelle est en fait composée de deux analogies constitutives qui, conjointement, ouvrent la voie à la mise en place et à l’organisation d’un programme de recherche visant à mettre au point une théorie darwinienne de l’évolution culturelle.
Resumo:
Le processus d’enseignement ne se limite pas à un ensemble de méthodes pédagogiques à appliquer et de contenus programmés à transmettre. Il se déploie également dans la construction par l’enseignant d’une relation pédagogique avec ses élèves. Cette relation est considérée comme étant optimale lorsqu’elle est caractérisée par un niveau élevé de chaleur et un faible niveau de conflits. Plusieurs études démontrent l’existence de liens significatifs entre la qualité de cette relation et les différents indicateurs d’adaptation à l’école. En général, les résultats des études démontrent l’influence positive d’une relation élève-enseignant chaleureuse sur le comportement des élèves, leur réussite scolaire ainsi que sur leurs sentiments et attitudes envers l’école. Certaines recherches soulignent également que l’incidence de la qualité de la relation élève-enseignant est particulièrement importante pour les élèves considérés à risque en raison de présence chez eux des certains facteurs de vulnérabilité tels que la pauvreté (facteurs sociaux), la relation parent-enfant difficile (facteurs familiaux) ou le manque d’habiletés sociales (facteurs individuels). La majorité de recherches ne permet toutefois pas de déterminer quels sont précisément les aspects de cette relation qui influencent significativement la qualité de la relation entre l’enseignant et ses élèves. Souhaitant pallier cette lacune, la présente étude poursuit deux objectifs : 1) examiner le lien entre les perceptions des élèves de niveau secondaire considérés à risque concernant les différents aspects de la qualité de la relation élève-enseignant et les problèmes de comportement extériorisés ; 2) vérifier si ce lien évolue avec le temps. Afin d’atteindre ces objectifs, nous avons pris en considération deux dimensions qui permettent de qualifier les profils de la relation élève-enseignant, soit la chaleur et les conflits (Pianta, 1992). La classification de ces deux dimensions en fonction de leur pôle positif et négatif permet de distinguer quatre profils relationnels que l’élève est susceptible d’établir avec ses enseignants soient le profil dit chaleureux, controversé, négligent ou conflictuel. II Cette étude repose sur un devis longitudinal grâce aux données recueillies dans le cadre de l’évaluation de la stratégie d’intervention Agir Autrement réalisée entre 2002 et 2008 (SIAA). Il s’agit donc ici d’analyses secondaires menées sur un échantillon aléatoire tiré de cette vaste recherche. Un échantillon de 563 élèves de 1re secondaire incluant 273 filles et 290 garçons a été constitué. Les analyses ont été effectuées auprès de ces élèves alors qu’ils étaient en premier et en cinquième année de secondaire ce qui a permis d’observer les changements dans le comportement des élèves à risque en fonction de la qualité de la relation élève-enseignant. De façon générale, les résultats obtenus montrent que les liens entre les différents profils de la relation élève-enseignant et les problèmes de comportement extériorisés sont fort complexes et loin d’être univoques. En particulier, ces résultats permettent de constater que le profil chaleureux représente le profil relationnel le moins associé aux problèmes de comportement extériorisés chez les élèves à risque et ce, autant en première qu’en cinquième secondaire. Selon nos résultats, les profils conflictuel et controversé sont significativement liés aux problèmes de comportement extériorisés chez les élèves à risque de 1re secondaire et de 5e secondaire. En ce qui a trait au profil négligent, les résultats de la présente recherche montrent l’existence d’un lien corrélationnel entre ce profil relationnel et les problèmes de comportement extériorisés. Toutefois, la force de l’association s’est avérée plus significative pour les élèves à risque en 5e secondaire secondaire comparativement aux mêmes élèves alors qu’ils étaient en 1re secondaire. Finalement, l’ensemble de résultats obtenus montre que les profils relationnels restent relativement stables dans le temps, tandis que la fréquence de comportements problématiques tels que le vol grave et la consommation de psychotropes augmentent d’une manière significative. De plus, les résultats que nous avons obtenus montrent l’existence d’un lien entre la dimension de conflits de la relation élève-enseignant et la consommation de substances psychotropes chez les élèves de notre échantillon. La présente recherche permet de constater que la dimension de conflits est aussi importante dans la relation élève-enseignant que la dimension de la chaleur, car les III conflits agiraient comme facteurs de risque pouvant augmenter la fréquence de problèmes de comportement extériorisés chez les élèves de secondaire considérés à risque. Ainsi, la réduction de niveau de conflits dans la relation entre les élèves et leurs enseignants peut jouer un rôle important en termes de prévention de ce type de problèmes chez les élèves de niveau secondaire.
Resumo:
Cette thèse propose une contribution théorique et méthodologique pour l’étude de la constitution de l’identité dans les organisations. Elle présente le développement d’une conceptualisation originale du problème de la durée des identités, qui s’incarne à travers la tension stabilité-changement. L’identité, vue soit comme une réalité qui évolue au fil des changements, ou alors comme quelque chose qui perdure, est abondamment étudiée en communication organisationnelle. En effet, plusieurs auteurs mettent l’accent sur la dimension performative de l’identité au détriment de sa dimension stable et fixe. Je propose, dans cette thèse, que ces deux dimensions de l’identité sont l’objet d’une tension dialectique, et que la configuration et l’interprétation de narratifs identitaires par les individus en interaction permet d’effectuer la médiation entre ces deux aspects de l’identité (Ricoeur, 1990). La thèse s’efforce de montrer que la mise en tension des dimensions temporelles de l’identité permet par ailleurs de regarder la construction concomitante des identités personnelles, collectives et de l’organisation. À partir d’une méthode d’analyse élaborée à partir de la théorie de l’identité narrative de Paul Ricoeur (1990) et inspirée de l’analyse de conversation, je réalise une étude minutieuse de narratifs identitaires produits lors d’entrevues de groupe. Cette méthode a permis d’analyser simultanément et comme un tout le contenu textuel des narratifs ainsi que leur performance en contexte. Les données analysées proviennent d’un travail de recherche de terrain que j’ai réalisé en 2007 et 2008 auprès des employés de la division québécoise de la Gendarmerie royale du Canada.
Resumo:
Dans cette thèse, nous présentons une nouvelle méthode smoothed particle hydrodynamics (SPH) pour la résolution des équations de Navier-Stokes incompressibles, même en présence des forces singulières. Les termes de sources singulières sont traités d'une manière similaire à celle que l'on retrouve dans la méthode Immersed Boundary (IB) de Peskin (2002) ou de la méthode régularisée de Stokeslets (Cortez, 2001). Dans notre schéma numérique, nous mettons en oeuvre une méthode de projection sans pression de second ordre inspirée de Kim et Moin (1985). Ce schéma évite complètement les difficultés qui peuvent être rencontrées avec la prescription des conditions aux frontières de Neumann sur la pression. Nous présentons deux variantes de cette approche: l'une, Lagrangienne, qui est communément utilisée et l'autre, Eulerienne, car nous considérons simplement que les particules SPH sont des points de quadrature où les propriétés du fluide sont calculées, donc, ces points peuvent être laissés fixes dans le temps. Notre méthode SPH est d'abord testée à la résolution du problème de Poiseuille bidimensionnel entre deux plaques infinies et nous effectuons une analyse détaillée de l'erreur des calculs. Pour ce problème, les résultats sont similaires autant lorsque les particules SPH sont libres de se déplacer que lorsqu'elles sont fixes. Nous traitons, par ailleurs, du problème de la dynamique d'une membrane immergée dans un fluide visqueux et incompressible avec notre méthode SPH. La membrane est représentée par une spline cubique le long de laquelle la tension présente dans la membrane est calculée et transmise au fluide environnant. Les équations de Navier-Stokes, avec une force singulière issue de la membrane sont ensuite résolues pour déterminer la vitesse du fluide dans lequel est immergée la membrane. La vitesse du fluide, ainsi obtenue, est interpolée sur l'interface, afin de déterminer son déplacement. Nous discutons des avantages à maintenir les particules SPH fixes au lieu de les laisser libres de se déplacer. Nous appliquons ensuite notre méthode SPH à la simulation des écoulements confinés des solutions de polymères non dilués avec une interaction hydrodynamique et des forces d'exclusion de volume. Le point de départ de l'algorithme est le système couplé des équations de Langevin pour les polymères et le solvant (CLEPS) (voir par exemple Oono et Freed (1981) et Öttinger et Rabin (1989)) décrivant, dans le cas présent, les dynamiques microscopiques d'une solution de polymère en écoulement avec une représentation bille-ressort des macromolécules. Des tests numériques de certains écoulements dans des canaux bidimensionnels révèlent que l'utilisation de la méthode de projection d'ordre deux couplée à des points de quadrature SPH fixes conduit à un ordre de convergence de la vitesse qui est de deux et à une convergence d'ordre sensiblement égale à deux pour la pression, pourvu que la solution soit suffisamment lisse. Dans le cas des calculs à grandes échelles pour les altères et pour les chaînes de bille-ressort, un choix approprié du nombre de particules SPH en fonction du nombre des billes N permet, en l'absence des forces d'exclusion de volume, de montrer que le coût de notre algorithme est d'ordre O(N). Enfin, nous amorçons des calculs tridimensionnels avec notre modèle SPH. Dans cette optique, nous résolvons le problème de l'écoulement de Poiseuille tridimensionnel entre deux plaques parallèles infinies et le problème de l'écoulement de Poiseuille dans une conduite rectangulaire infiniment longue. De plus, nous simulons en dimension trois des écoulements confinés entre deux plaques infinies des solutions de polymères non diluées avec une interaction hydrodynamique et des forces d'exclusion de volume.
Resumo:
Le sujet sur lequel porte la présente étude est inspiré de la problématique à la base du développement du commerce électronique : la confiance. En effet, l’accroissement exponentiel du nombre d’internautes et des sites Web commerciaux pose un sérieux problème à ce niveau. Ces sites présentent au public une information et des services divers, mais peu vérifiables. Ainsi, le principal obstacle au développement du commerce électronique avec les particuliers est le manque de confiance qu’inspirent les lieux visités. En effet, comment savoir si l’entreprise existe, quelles sont ses politiques concernant la sécurité ou la gestion des renseignements personnels, etc. La vérification et la certification des sites apparaissent comme une solution de plus en plus attrayante et utilisée pour ajouter cet élément de confiance. Déjà, de nombreux sceaux de qualité sont apparus sur les sites commerciaux. Certains sceaux portent sur la confidentialité tandis que d’autres ciblent la protection des consommateurs. La certification peut provenir de la compagnie même, d’un tiers certificateur ou d’un organisme public. Ces éléments constituent des balises et repères importants pour le consommateur sur Internet. Toutefois, les incidences légales sont multiples et certains concepts demeurent flous. Pour apporter une réponse à ces questions, nous définirons le concept de certification des sites Web et ses enjeux dont plus particulièrement la problématique de la confiance des consommateurs. Les différents objets de la certification seront analysés, tant au niveau de l’entité, du contenu du site que de la dimension transactionnelle de celui-ci. Les processus possibles et les impacts de la certification occupent la seconde partie du travail. Il s’agit d’examiner successivement les étapes menant à la certification, soit l’établissement des standards, de l’évaluation de l’entité et de la certification elle-même. L’analyse des impacts de la certification, tant sur le plan de la portée, de la responsabilité légale et des effets sur la concurrence de la certification constitue quant à eux, l’aboutissement de la recherche, soit de savoir quel est l’impact juridique d’un tel mécanisme. Le but de la recherche est de permettre au lecteur de mieux cerner ce phénomène de l’utilisation de la certification sur Internet avec ses avantages et ses limites. Certes, cet outil peut s’avérer très utile pour bâtir la confiance des consommateurs, promouvoir l’essor du commerce électronique et constituer une forme d’autoréglementation. Toutefois, mal utilisé ou mal encadré, il peut engendrer l’effet inverse et détruire cette confiance si fragile à construire dans un environnement dématérialisé.
Resumo:
"Il est une question centrale que la science politique au Canada a quelque peu délaissée : qui gouverne? Ainsi, les nombreux analystes du pouvoir judiciaire, dont plusieurs n’ont pas manqué depuis 1982 de critiquer l’accroissement de son influence dans la gouverne démocratique du pays, n’ont pas vraiment cherché à enquêter sur l’emprise des juristes sur la politique au-delà des juges. La présente étude tente de combler cette lacune en livrant, d’une part, les résultats d’une enquête empirique sur la présence des juristes au sein des assemblées élues fédérale et québécoise, ainsi que dans leurs exécutifs respectifs, de 1984 à 2006 ; et d’autre part, en fournissant un jeu d’hypothèses et d’interprétations en vue de comprendre les facteurs à l’origine de la surreprésentation structurelle et persistante des juristes dans la classe politique canadienne et québécoise. Plusieurs auteurs, dont John Porter, Guy Bouthillier, Jean-Charles Falardeau et Yoland Sénécal, avaient déjà étudié le phénomène et avancé des éléments d’explication de cette surreprésentation, historiquement plus marquée parmi les parlementaires et les ministres québécois des deux capitales. La présente étude montre que la baisse tendancielle de la surreprésentation des juristes dans les assemblées élues, observée à partir des années 1960, s’est poursuivie au-delà de 1984 dans le cas de la Chambre des communes , alors qu’elle s’est arrêtée à l’Assemblée nationale et que les juristes ont continué à être surreprésentés au sein de l’exécutif, dans une proportion plus forte encore que dans la chambre élue. La surreprésentation des juristes est plus prononcée chez certains partis (les partis libéraux fédéral et québécois) et tout indique que les candidats juristes aux élections fédérales connaissent un taux d’élection élevé, en particulier chez les deux grands partis gouvernementaux. En comparaison avec les États-Unis, le cas canadien présente des particularismes dont on ne peut rendre compte en se référant aux seules théories générales de Tocqueville et de Weber sur la « prédisposition » à gouverner des juristes en démocratie. Certains facteurs plus spécifiques semblent aussi jouer, tels que le régime fédéral et le système de partis canadien, les avantages « concurrentiels » dont jouissent les avocats par rapport à d’autres professions, la culture politique au Québec et le rôle anthropologique des juristes, dont la parole au Québec vaudrait celle d’un clerc laïque."
Resumo:
La coopération structurée permanente (CSP) est un « élément » introduit par le traité de Lisbonne en matière de défense. Cette nouvelle coopération est difficile de compréhension, c’est l’une des raisons pour laquelle elle est passée inaperçue jusqu’à présent. La CSP s’adresse aux pays « qui remplissent des critères plus élevés de capacités militaires » et qui entendent s’unir sur la base d’« objectifs agrées concernant le niveau des dépenses d’investissement en matière d’équipements de défense ». La structure du contenu de la CSP est floue et reste encore à être défini. Cependant, la CSP présente trois caractéristiques étonnantes pour une initiative qui concerne la défense. Tout d’abord, la CSP est unique et permanente. Ensuite, la CSP sera instituée à la majorité qualifiée. Cela s’applique aussi en cas d’exclusion d’un participant. Enfin, le traité n’établit aucun quota minimum relatif au nombre d’adhérents. De façon générale, ces trois particularités semblent avoir été mises en œuvre dans le but de créer un mécanisme encourageant les États membres à augmenter leurs dépenses dans le domaine militaire, au moins en ce qui concerne les investissements et la recherche. La CSP aura donc pour objectif de créer une Europe à deux vitesses. Cependant, plusieurs États ont critiqué cette hypothèse. Ceci a donné lieu à un débat sur le niveau d’inclusivité de la CSP et sur ses paramètres d’adhésion. Il y a une réelle confusion autour de la CSP. Les dispositions qui la définissent semblent être le fruit d’une bataille diplomatique. A première vue, une CSP trop inclusive risquerait d’alourdir la machine administrative de la politique de sécurité et de défense, déjà complexe, sans y apporter de nouvelles perspectives. A l’inverse, un projet plus exclusif pourrait offrir une réelle valeur à l’Union européenne, à la condition qu’il ne reste pas enfermé dans un domaine simplement capacitaire. Par exemple, si l’on confère à la CSP une dimension opérationnelle, par conséquent une dimension politique. Pour mettre en application ce projet plus exclusif, il faudrait surmonter certains dogmes qui planent sur le politique de sécurité et de défense.
Resumo:
Réalisé en cotutelle avec l'Université de la Sorbonne - Paris IV
Resumo:
L’objectif de ce mémoire est de comprendre l’impact de la justice organisationnelle sur l’engagement organisationnel des travailleurs du secteur des technologies de l’information et des communications (TIC). Afin d’étudier ce sujet, trois hypothèses de recherche ont été formulés à partir des théories suivantes : 1- la théorie des attentes d’Adams (1965), 2- la théorie de l’échange social de Blau (1964) et 3- la théorie de Leventhal (1980). La première hypothèse stipule que, toutes choses étant égales par ailleurs, la justice distributive fait augmenter l’engagement affectif des travailleurs du secteur des TIC. La seconde hypothèse indique que toutes choses étant égales par ailleurs, la justice procédurale fait augmenter l’engagement affectif des travailleurs du secteur des TIC. La dernière hypothèse énonce que toutes choses étant égales par ailleurs, la justice procédurale a un impact plus important sur l’engagement affectif des travailleurs du secteur des TIC que la justice distributive. Les données utilisées proviennent d’une enquête par questionnaires électroniques auprès de l’ensemble des nouveaux employés d’une entreprise d’envergure internationale du secteur des TIC ayant un établissement à Montréal. Les employés ont été sondés à trois reprises. Les résultats indiquent que la justice distributive fait augmenter l’engagement affectif auprès des travailleurs, ce qui appuie la première hypothèse. Ils démontrent également qu’il n’existe aucune relation statistiquement significative entre la justice procédurale et l’engagement affectif. Seule la justice distributive a un effet sur l’engagement affectif du travailleur. Les résultats montrent l’existence de relations significatives et positives entre trois des variables de contrôle et l’engagement affectif. Il s’agit de : 1- travail sous supervision, 2- soutien organisationnel perçu et 3- satisfaction intrinsèque.
Resumo:
La maladie des artères périphériques (MAP) se manifeste par une réduction (sténose) de la lumière de l’artère des membres inférieurs. Elle est causée par l’athérosclérose, une accumulation de cellules spumeuses, de graisse, de calcium et de débris cellulaires dans la paroi artérielle, généralement dans les bifurcations et les ramifications. Par ailleurs, la MAP peut être causée par d`autres facteurs associés comme l’inflammation, une malformation anatomique et dans de rares cas, au niveau des artères iliaques et fémorales, par la dysplasie fibromusculaire. L’imagerie ultrasonore est le premier moyen de diagnostic de la MAP. La littérature clinique rapporte qu’au niveau de l’artère fémorale, l’écho-Doppler montre une sensibilité de 80 à 98 % et une spécificité de 89 à 99 % à détecter une sténose supérieure à 50 %. Cependant, l’écho-Doppler ne permet pas une cartographie de l’ensemble des artères des membres inférieurs. D’autre part, la reconstruction 3D à partir des images échographiques 2D des artères atteintes de la MAP est fortement opérateur dépendant à cause de la grande variabilité des mesures pendant l’examen par les cliniciens. Pour planifier une intervention chirurgicale, les cliniciens utilisent la tomodensitométrie (CTA), l’angiographie par résonance magnétique (MRA) et l’angiographie par soustraction numérique (DSA). Il est vrai que ces modalités sont très performantes. La CTA montre une grande précision dans la détection et l’évaluation des sténoses supérieures à 50 % avec une sensibilité de 92 à 97 % et une spécificité entre 93 et 97 %. Par contre, elle est ionisante (rayon x) et invasive à cause du produit de contraste, qui peut causer des néphropathies. La MRA avec injection de contraste (CE MRA) est maintenant la plus utilisée. Elle offre une sensibilité de 92 à 99.5 % et une spécificité entre 64 et 99 %. Cependant, elle sous-estime les sténoses et peut aussi causer une néphropathie dans de rares cas. De plus les patients avec stents, implants métalliques ou bien claustrophobes sont exclus de ce type d`examen. La DSA est très performante mais s`avère invasive et ionisante. Aujourd’hui, l’imagerie ultrasonore (3D US) s’est généralisée surtout en obstétrique et échocardiographie. En angiographie il est possible de calculer le volume de la plaque grâce à l’imagerie ultrasonore 3D, ce qui permet un suivi de l’évolution de la plaque athéromateuse au niveau des vaisseaux. L’imagerie intravasculaire ultrasonore (IVUS) est une technique qui mesure ce volume. Cependant, elle est invasive, dispendieuse et risquée. Des études in vivo ont montré qu’avec l’imagerie 3D-US on est capable de quantifier la plaque au niveau de la carotide et de caractériser la géométrie 3D de l'anastomose dans les artères périphériques. Par contre, ces systèmes ne fonctionnent que sur de courtes distances. Par conséquent, ils ne sont pas adaptés pour l’examen de l’artère fémorale, à cause de sa longueur et de sa forme tortueuse. L’intérêt pour la robotique médicale date des années 70. Depuis, plusieurs robots médicaux ont été proposés pour la chirurgie, la thérapie et le diagnostic. Dans le cas du diagnostic artériel, seuls deux prototypes sont proposés, mais non commercialisés. Hippocrate est le premier robot de type maitre/esclave conçu pour des examens des petits segments d’artères (carotide). Il est composé d’un bras à 6 degrés de liberté (ddl) suspendu au-dessus du patient sur un socle rigide. À partir de ce prototype, un contrôleur automatisant les déplacements du robot par rétroaction des images échographiques a été conçu et testé sur des fantômes. Le deuxième est le robot de la Colombie Britannique conçu pour les examens à distance de la carotide. Le mouvement de la sonde est asservi par rétroaction des images US. Les travaux publiés avec les deux robots se limitent à la carotide. Afin d’examiner un long segment d’artère, un système robotique US a été conçu dans notre laboratoire. Le système possède deux modes de fonctionnement, le mode teach/replay (voir annexe 3) et le mode commande libre par l’utilisateur. Dans ce dernier mode, l’utilisateur peut implémenter des programmes personnalisés comme ceux utilisés dans ce projet afin de contrôler les mouvements du robot. Le but de ce projet est de démontrer les performances de ce système robotique dans des conditions proches au contexte clinique avec le mode commande libre par l’utilisateur. Deux objectifs étaient visés: (1) évaluer in vitro le suivi automatique et la reconstruction 3D en temps réel d’une artère en utilisant trois fantômes ayant des géométries réalistes. (2) évaluer in vivo la capacité de ce système d'imagerie robotique pour la cartographie 3D en temps réel d'une artère fémorale normale. Pour le premier objectif, la reconstruction 3D US a été comparée avec les fichiers CAD (computer-aided-design) des fantômes. De plus, pour le troisième fantôme, la reconstruction 3D US a été comparée avec sa reconstruction CTA, considéré comme examen de référence pour évaluer la MAP. Cinq chapitres composent ce mémoire. Dans le premier chapitre, la MAP sera expliquée, puis dans les deuxième et troisième chapitres, l’imagerie 3D ultrasonore et la robotique médicale seront développées. Le quatrième chapitre sera consacré à la présentation d’un article intitulé " A robotic ultrasound scanner for automatic vessel tracking and three-dimensional reconstruction of B-mode images" qui résume les résultats obtenus dans ce projet de maîtrise. Une discussion générale conclura ce mémoire. L’article intitulé " A 3D ultrasound imaging robotic system to detect and quantify lower limb arterial stenoses: in vivo feasibility " de Marie-Ange Janvier et al dans l’annexe 3, permettra également au lecteur de mieux comprendre notre système robotisé. Ma contribution dans cet article était l’acquisition des images mode B, la reconstruction 3D et l’analyse des résultats pour le patient sain.
Resumo:
Ce mémoire porte sur l’efficacité des campagnes sociales sur Internet afin d’encourager les jeunes adultes à voter. La constatation du déclin de la participation électorale des jeunes adultes nous a poussés à vouloir comprendre quels sont les enjeux qui touchent à cette problématique et comment les campagnes sociales incitatives au vote peuvent répondre à un certain besoin. La campagne électorale des élections générales canadiennes du 2 mai 2011, durant laquelle plusieurs outils Internet ont été développés pour inciter la population à voter, le plus connu étant la Boussole électorale, a constitué un contexte clé pour nous permettre d’explorer le sujet. À l’aide des théories sur l’influence des médias et de celles de la persuasion, nous allons mieux comprendre les possibilités qu’offre le Web pour la mobilisation sociale. Deux cueillettes de données ont été faites, soit une première quantitative par questionnaire pour voir le niveau de pénétration de ces outils Internet ainsi que leur appréciation, soit une deuxième qualitative par groupe de discussion afin d’approfondir la problématique de la désaffection politique et d’analyser la pertinence des campagnes sociales incitatives au vote. La mise en commun des résultats nous a permis de comprendre, entre autres, que les campagnes sociales sur Internet peuvent constituer un outil de conscientisation politique dans certaines circonstances et qu’elles peuvent bénéficier des réseaux sociaux comme Facebook et Twitter. Toutefois, le besoin d’éducation civique demeure une solution récurrente lorsqu’on parle d’encourager les jeunes adultes à voter.
Resumo:
L’objectif principal du présent mémoire réside dans l’exploration des liens concomitants existant entre les trois dimensions de l’épuisement professionnel telles que définies par Maslach (1981) et la consommation de substances psychoactives, plus précisément au niveau de la consommation épisodique excessive et hebdomadaire à risque d’alcool et de la consommation de médicaments psychotropes. À partir d’un échantillon composé de 1809 travailleurs provenant de 83 milieux de travail québécois, des profils-types correspondant à des formes particulières de comorbidité de santé mentale au travail sont identifiés grâce à la méthode d’analyse en classes latentes. Ainsi quatre profils-types sont dégagés: un premier regroupant les individus dits «sains», dont les scores aux différentes dimensions de l’épuisement professionnel sont faibles et dont la consommation de substances psychoactives est modérée; deux autres correspondant à des formes intermédiaires de risques; et un quatrième rassemblant des travailleurs dits «fragiles» dont les scores pour chacune des dimensions de l’épuisement professionnel se situent dans le quintile le plus élevé et dont les probabilités de consommation de substances psychoactives sont grandes. De plus, cette recherche s’est penchée sur l’identification de facteurs de risque et de protection associés à chacun des profils-types. À cet effet, les résultats des analyses corroborent la plupart des associations retrouvées au sein de la littérature quant aux facteurs du travail (composantes des modèles du stress professionnel de Karasek et Theorell (1990) ainsi que de Siegrist (1990)), hors travail (statut matrimonial, obligations parentales, revenu du ménage) et certaines caractéristiques individuelles (âge et genre). De faibles récompenses et un fort degré de surinvestissement de la part de l’individu se révèlent être des facteurs de risque particulièrement significatifs pour les formes intermédiaires et à risque de comorbidité de la santé mentale au travail. Dans une moindre mesure, une faible utilisation des compétences, des demandes psychologiques élevées, un soutien social inadéquat et le jeune âge expliquent une part de la variation observée entre les différents profils-types. Enfin, les résultats soutiennent une conceptualisation tridimensionnelle de l’épuisement professionnel.