668 resultados para Ces deux-là


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Soit une famille de couples (ft,Xt)t∈J , où J est un intervalle, ft est une fonction lisse à valeurs réelles définie sur une variété lisse et compacte V , et Xt est un pseudo-gradient associé à la fonction ft. L’objet de ce mémoire est l’étude des bifurcations subies par les complexes de Morse associés à ces couples. Deux approches sont utilisées : l’étude directe des bifurcations et l’approche par homotopie. On montre que finalement ces deux approches permettent d’obtenir les mêmes résultats d’un point de vue fonctoriel.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les kinases constituent une famille majeure de protéines qui régulent divers processus par la phosphorylation de leurs substrats, mais aussi par leur activité non- catalytique. Ce rôle indépendant de l’activité kinase a été observé chez quelques protéines dont des membres de la famille Sterile-20. La kinase Ste20 Slik de Drosophila aide au maintien de l’intégrité des tissus épithéliaux en phosphorylant l’ERM Moesin et peut aussi induire une prolifération cellulaire non-autonome indépendamment de son activité catalytique. La méthode de régulation de ces deux rôles était jusqu’ici inconnue. Nous avons identifié 19 sites de phosphorylation chez Slik par spectrométrie de masse. À l’aide de mutants, nous démontrons que les deux fonctions de Slik sont régulées par la phosphorylation d’au moins 2 résidus conservés de son segment d’activation par un mécanisme d’auto- et/ou trans-phosphorylation. Cette étude amène une meilleure compréhension de la régulation de l’intégrité épithéliale et de la croissance, deux processus clés qui sont souvent déréglés dans le cancer et certaines maladies génétiques.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les logiciels sont de plus en plus complexes et leur développement est souvent fait par des équipes dispersées et changeantes. Par ailleurs, de nos jours, la majorité des logiciels sont recyclés au lieu d’être développés à partir de zéro. La tâche de compréhension, inhérente aux tâches de maintenance, consiste à analyser plusieurs dimensions du logiciel en parallèle. La dimension temps intervient à deux niveaux dans le logiciel : il change durant son évolution et durant son exécution. Ces changements prennent un sens particulier quand ils sont analysés avec d’autres dimensions du logiciel. L’analyse de données multidimensionnelles est un problème difficile à résoudre. Cependant, certaines méthodes permettent de contourner cette difficulté. Ainsi, les approches semi-automatiques, comme la visualisation du logiciel, permettent à l’usager d’intervenir durant l’analyse pour explorer et guider la recherche d’informations. Dans une première étape de la thèse, nous appliquons des techniques de visualisation pour mieux comprendre la dynamique des logiciels pendant l’évolution et l’exécution. Les changements dans le temps sont représentés par des heat maps. Ainsi, nous utilisons la même représentation graphique pour visualiser les changements pendant l’évolution et ceux pendant l’exécution. Une autre catégorie d’approches, qui permettent de comprendre certains aspects dynamiques du logiciel, concerne l’utilisation d’heuristiques. Dans une seconde étape de la thèse, nous nous intéressons à l’identification des phases pendant l’évolution ou pendant l’exécution en utilisant la même approche. Dans ce contexte, la prémisse est qu’il existe une cohérence inhérente dans les évènements, qui permet d’isoler des sous-ensembles comme des phases. Cette hypothèse de cohérence est ensuite définie spécifiquement pour les évènements de changements de code (évolution) ou de changements d’état (exécution). L’objectif de la thèse est d’étudier l’unification de ces deux dimensions du temps que sont l’évolution et l’exécution. Ceci s’inscrit dans notre volonté de rapprocher les deux domaines de recherche qui s’intéressent à une même catégorie de problèmes, mais selon deux perspectives différentes.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Travail dirigé présenté à la Faculté des sciences infirmières en vue de l’obtention du grade de Maître ès sciences (M.Sc.) en sciences infirmières option formation des sciences infirmières

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La prise de décision est un mécanisme qui fait intervenir les structures neuronales supérieures afin d’effectuer un lien entre la perception du signal et l’action. Plusieurs travaux qui cherchent à comprendre les mécanismes de la prise de décision sont menés à divers ni- veaux allant de l’analyse comportementale cognitive jusqu'à la modélisation computationnelle. Le but de ce projet a été d’évaluer d’un instant à l’autre comment la variabilité du signal observé («bruit»), influence la capacité des sujets humains à détecter la direction du mouvement dans un stimulus visuel. Dans ces travaux, nous avons éliminé l’une des sources potentielles de variabilité, la variabilité d’une image à l’autre, dans le nombre de points qui portaient les trois signaux de mouvements cohérents (gauche, droite, et aléatoire) dans les stimuli de Kinématogramme de points aléatoires (KPA), c’est-à-dire la variabilité d’origine périphérique. Les stimuli KPA de type « V6 » étaient des stimuli KPA standard avec une variabilité instantanée du signal, et par contre les stimuli KPA de type « V8 », étaient modifiés pour éliminer la variabilité stochastique due à la variabilité du nombre de pixels d’un instant à l’autre qui portent le signal cohérent. Si la performance des sujets, qui correspond à leur temps de réaction et au nombre de bonnes réponses, diffère en réponse aux stimuli dont le nombre de points en mouvement cohérent varie (V6) ou ne varie pas (V8), ceci serait une preuve que la variabilité d’origine périphérique modulerait le processus décisionnel. Par contre, si la performance des sujets ne diffère pas entre ces deux types de stimuli, ceci serait une preuve que la source majeure de variabilité de performance est d’origine centrale. Dans nos résultats nous avons constaté que le temps de réaction et le nombre de bonnes réponses sont modulés par la preuve nette du mouvement cohérent. De plus on a pu établir qu’en éliminant la variabilité d’origine périphérique définit ci-dessus, on n’observe pas réellement de modification dans les enregistrements. Ce qui nous à amené à penser qu’il n y a pas de distinction claire entre la distribution des erreurs et les bonnes réponses effectuées pour chacun des essais entre les deux stimuli que nous avons utilisé : V6 et V8. C’est donc après avoir mesuré la « quantité d’énergie » que nous avons proposé que la variabilité observée dans les résultats serait probablement d’origine centrale.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le but de notre recherche est de répondre à la question suivante : Quelles sont les sources d’influence des pratiques d’emploi instaurées par les EMN originaires de pays européens dans leurs filiales québécoises? Comme les EMN constituent notre objet de recherche, nous avons, dans un premier temps, recensé les principales caractéristiques de celles-ci. Il faut noter que les EMN ont un portrait différent par rapport à celui des entreprises qui ne sont pas multinationales. Comme le Québec est l’endroit où notre recherche a eu lieu, nous avons aussi expliqué les caractéristiques socioéconomiques du marché québécois. Nous avons constaté que le marché québécois se distingue du reste du Canada par son hybridité résultant d’un mélange de caractéristiques libérales et coordonnées. Comme les EMN étudiées sont d’origine européenne, nous avons aussi expliqué les caractéristiques des pays européens à économie coordonnée et libérale. Il faut noter que les pays à économie coordonnée et à économie libérale ont de caractéristiques différentes, voire opposées. Dans un deuxième temps, nous avons recensé les études qui ont tenté de répondre à notre question de recherche. La littérature identifie quatre sources d’influence des pratiques d’emploi que les EMN instaurent dans leurs filiales étrangères : le pays d’accueil, le pays d’origine, les sources d’influence hybrides, et les sources d’influence globales. Les sources d’influence provenant des pays d’accueil déterminent les pratiques d’emploi des filiales étrangères en mettant en valeur l’isomorphisme, les principes calculateur et collaborateur, et la capacité des filiales à modifier les marchés dans lesquels elles opèrent. Les sources d’influence provenant des pays d’origine influencent les pratiques d’emploi en mettant en valeur l’isomorphisme culturel, l’effet du pays d’origine, et l’effet du pays de gestion. Les sources d’influence hybrides combinent les facteurs en provenance des pays d’accueil, des pays d’origine, et du marché global pour déterminer les pratiques d’emploi des filiales étrangères. Finalement, les sources d’influence globales mettent en valeur les pressions d’intégration au marché mondial pour expliquer la convergence des pratiques d’emploi des filiales étrangères vers un modèle universel anglo-saxon. Pour répondre à notre question de recherche, nous avons identifié les niveaux de coordination des pays d’origine comme variable indépendante, et les niveaux de coordination des pratiques d’emploi comme variable dépendante. Sept hypothèses avec leurs indicateurs respectifs ont tenu compte des relations entre nos variables indépendantes et dépendante. Nous avons préparé un questionnaire de recherche, et avons interviewé des membres du personnel de RH de dix EMN européennes ayant au moins une filiale au Québec. Les filiales faisant partie de notre échantillon appartiennent à des EMN originaires de divers pays européens, autant à marché libéral que coordonné. Nous avons décrit en détail les caractéristiques de chacune de ces EMN et de leurs filiales québécoises. Nous avons identifié des facteurs explicatifs (index de coordination de Hall et Gingerich, secteur d’activité, taille des filiales, et degré de globalisation des EMN) qui auraient pu aussi jouer un rôle dans la détermination et la nature des pratiques d’emploi des filiales. En matière de résultats, nous n’avons constaté de lien entre le type de marché du pays d’origine et le degré de coordination des pratiques d’emploi que pour les pratiques salariales; confirmant ainsi notre première hypothèse. Les pratiques de stabilité d’emploi, de formation, et de relations de travail ont un lien avec le secteur d’activité; soit le secteur de la production des bien, ou celui des services. Ainsi, les filiales dans le secteur de la production de biens font preuve de plus de coordination en matière de ces trois pratiques comparativement aux filiales dans le secteur des services. Finalement, les pratiques de développement de carrière et de partage d’information et consultation sont de nature coordonnée dans toutes les filiales, mais aucun facteur explicatif n’explique ce résultat. Compte tenu que le marché d’accueil québécois est commun à toutes les filiales, le Québec comme province d’accueil pourrait expliquer le fort degré de coordination de ces deux pratiques. Outre le marché d’accueil, le caractère multinational des EMN auxquelles ces filiales appartiennent pourrait aussi expliquer des résultats semblables en matière des pratiques d’emploi. Notre recherche comporte des forces et des faiblesses. Concernant les forces, notre méthode de recherche nous a permis d’obtenir des données de source directe, car nous avons questionné directement les gens concernées par les pratiques d’emploi. Ceci a pour effet d’assurer une certaine validité à notre recherche. Concernant nos faiblesses, la nature restreinte de notre échantillon ne nous permet pas de généraliser les résultats. Il faudrait réaliser d’autres recherches pour améliorer la fiabilité. De plus, les pays d’origine des filiales demeure ambigu pour certaines d’entre elles, car celles-ci ont changé de propriétaire plusieurs fois. D’autres ont au moins deux propriétaires originaires de pays distincts.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Clostridium perfringens est ubiquitaire dans l’environnement. Ce microorganisme peut être retrouvé dans la flore normale du tractus gastro-intestinal des mammifères et peut également causer une variété d’infections intestinales. Le phénotype de résistance à la bacitracine a déjà été rapporté chez C. perfringens mais les gènes associés n’ont pas été caractérisés. Dans cette étude, 24 des 99 isolats de C. perfringens aviaires testés ont démontré une résistance à la bacitracine. Les analyses ont révélé la présence d’un transporteur ABC ainsi que d’une undécaprénol kinase surproduite. Ces deux mécanismes semblent être codés par l’opéron bcrABDR. En amont et en aval des gènes bcr, un élément IS1216-like a été identifié, celui-ci pouvant jouer un rôle dans la dissémination de la résistance à la bacitracine. Des analyses d’hybridation sur ADN ont révélé que les gènes bcrABDR étaient localisés sur le chromosome. De plus, il a été démontré que les gènes bcr étaient exprimés en présence de bacitracine. Plusieurs études ont associé la tolérance aux antibiotiques et aux désinfectants à la formation de biofilm. Dans la littérature, peu d’informations sont disponibles sur le biofilm de C. perfringens. La majorité des isolats testés dans cette étude ont démontré la formation d’un biofilm. L’analyse de la matrice a démontré que celle-ci contenait des protéines, de l’ADN extracellulaire ainsi que des polysaccharides liés en bêta-1,4. Une meilleure survie des cellules en biofilm a été observée suite à une exposition à de fortes concentrations d’antibiotiques. Une exposition à de faibles doses de certains antibiotiques semblait diminuer le biofilm formé alors que pour d’autres, le biofilm semblait augmenter. Dans la présente étude, la susceptibilité des biofilms de C. perfringens à la désinfection a été également analysée. Les résultats ont démontré que la formation de biofilm protégeait les cellules de l’action du monopersulfate de potassium, des ammoniums quaternaires, du peroxyde d’hydrogène et du glutéraldéhyde. Toutefois, l’hypochlorite de sodium a été démontré comme étant efficace contre le biofilm de C. perfringens. Il a été démontré que les biofilms mixtes de C. perfringens cultivés en présence de Staphylococcus aureus ou d’Escherichia coli étaient plus résistants à la désinfection en comparaison aux biofilms simples de S. aureus ou d’E. coli. Toutefois, le biofilm simple de C. perfringens était plus résistant à la désinfection que les biofilms mixtes. Finalement, les profils de transcription entre les populations planctoniques et en biofilm ont été analysés par séquençage d’ARN. L’analyse transcriptomique du biofilm a identifié 238 gènes différentiellement exprimés entre les deux conditions. Les gènes négativement régulés sont impliqués dans la virulence, la production d’énergie, le métabolisme des sucres ainsi que dans la biosynthèse des acides gras et des acides aminés alors que les gènes induits sont impliqués dans la réponse au stress et au stress oxydatif, dans la biosynthèse d’acides gras et de phospholipides ainsi que dans la virulence. Cette étude décrit pour la première fois la découverte des gènes associés à la résistance à la bacitracine chez C. perfringens. Elle rapporte également de nouvelles données sur la matrice du biofilm, la tolérance aux antibiotiques et aux désinfectants ainsi que sur le transcriptome du biofilm de C. perfringens.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’entrée en vigueur de la Loi concernant le cadre juridique des technologies de l’information (ci-après la Loi), est la concrétisation de la prise en compte par le droit, de la preuve technologique. La notion de document technologique est à la fois centrale dans la Loi et dans le Code civil du Québec. Il s’est parfaitement intégré aux divers moyens de preuve du Code civil. Nous allons nous intéresser à cette notion qu’est le document technologique, mais davantage à ses éléments structurants, les métadonnées. Nous allons nous pencher sur la notion, ses origines et ses domaines de prédilection, faisant d’elles, un objet a priori essentiellement technologique, avant de les envisager dans un contexte de preuve. Nous allons voir quel potentiel probatoire les métadonnées représentent, à l’appui d’un document technologique. Enfin, nous nous interrogerons sur leur rôle probatoire autour des notions de copie-transfert et des obligations posées par la Loi, afin que ces deux modes de reproduction des document, puissent légalement tenir lieu du document original, soit la certification et la documentation.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le processus de vieillissement humain est un processus complexe qui varie grandement d’une personne à l’autre. Malgré l’ampleur des recherches faites sur le sujet, il reste encore beaucoup à explorer et à comprendre. Cette thèse propose trois expériences qui nous permettent d’améliorer notre compréhension des changements qui s’opèrent dans la mémoire de travail visuelle et l’attention visuospatiale avec la prise en âge. La première expérience propose d’examiner les changements dans les capacités de mémoire de travail visuelle entre des jeunes adultes, des adultes âgés sains et des personnes atteintes de trouble cognitif léger (TCL). De plus, grâce à un suivi fait avec les personnes ayant un TCL, nous avons pu examiner si des différences existaient au niveau comportemental entre les âgés qui ont déclinés vers un type de démence et ceux dont l’état est resté stable. Plusieurs techniques peuvent être utilisées pour étudier les effets du vieillissement sur le cerveau. Les tests neuropsychologiques et les tâches comportementales présentées dans la première expérience en sont un exemple. La neuroimagerie peut aussi s’avérer particulièrement utile. En effet, certaines mesures électrophysiologiques, aussi appelées potentiels reliés aux évènements (PRE), sont associées à des fonctions cognitives précises. Ces composantes nous permettent de suivre ces processus et d’observer les modulations causées par les caractéristiques des stimuli ou l’âge par exemple. C’est le cas de la N2pc (négativité 2 postérieure controlatérale) et de la SPCN (sustained posterior contralateral negativity), des composantes électrophysiologiques liées respectivement à l’attention visuospatiale et la mémoire de travail visuelle. On connait bien ces deux composantes ainsi que les facteurs qui les modulent, or elles sont peu utilisées pour les changements qui occurrent dans l’attention et la mémoire de travail visuelle dans le cadre du processus de vieillissement. Les deuxième et troisième expériences proposent d’utiliser une tâche de recherche visuelle (nombre d’items de couleur et identification d’une relation spatiale entre deux items de couleur) afin d’explorer les changements observables sur ces composantes électrophysiologiques. La deuxième expérience examine l’efficacité d’un paradigme à présentations multiples (‘multiple frame’) afin de mesurer la N2pc et la SPCN chez de jeunes adultes. La troisième expérience a pour but d’examiner les effets du vieillissement normal sur l’amplitude et la latence de la N2pc et la SPCN en utilisant le même type de tâche de recherche visuelle.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cette version de la thèse a été tronquée des certains éléments protégés par le droit d’auteur. Une version plus complète est disponible en ligne pour les membres de la communauté de l’Université de Montréal et peut aussi être consultée dans une des bibliothèques UdeM.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les restructurations et les mutations de plus en plus nombreuses dans les entreprises font évoluer la trajectoire de carrière des employés vers un cheminement moins linéaire et amènent une multiplication des changements de rôle (Delobbe & Vandenberghe, 2000). Les organisations doivent de plus en plus se soucier de l’intégration de ces nouveaux employés afin de leur transmettre les éléments fondamentaux du fonctionnement et de la culture qu’elles privilégient. Par contre, la plupart des recherches sur la socialisation organisationnelle portent sur les « meilleures pratiques », et les résultats qui en découlent sont mixtes. Cette étude comparative cherche à déterminer si et sur quelles variables les nouveaux employés socialisés par leur entreprise diffèrent des nouveaux employés « non socialisés ». Premièrement, cette étude vise à comparer ces deux groupes sur 1) les résultantes proximales (la maîtrise du contenu de la socialisation organisationnelle et la clarté de rôle) et 2) les résultantes distales (l’engagement organisationnel affectif, la satisfaction au travail et l’intention de quitter) du processus de socialisation organisationnelle, ainsi que sur 3) les caractéristiques des réseaux sociaux d’information, en contrôlant pour la proactivité. Dans un second temps, cette étude a pour objectif d’explorer si le processus de socialisation organisationnelle (les relations entre les variables) diffère entre les nouveaux employés socialisés ou non. Cinquante-trois nouveaux employés (moins d’un an d’ancienneté) d’une grande entreprise québécoise ont participé à cette étude. L’entreprise a un programme de socialisation en place, mais son exécution est laissée à la discrétion de chaque département, créant deux catégories de nouveaux employés : ceux qui ont été socialisés par leur département, et ceux qui n’ont pas été socialisés (« non socialisés »). Les participants ont été sondés sur les stratégies proactives, les résultantes proximales et distales et les caractéristiques des réseaux sociaux d’information. Pour le premier objectif, les résultats indiquent que les nouveaux employés socialisés maîtrisent mieux le contenu de la socialisation organisationnelle que les nouveaux employés non socialisés. En ce qui a trait au deuxième objectif, des différences dans le processus de socialisation organisationnelle ont été trouvées. Pour les nouveaux employés « non socialisés », la recherche proactive d’informations et la recherche de rétroaction sont liées à certaines caractéristiques des réseaux sociaux, alors que le cadrage positif est lié à la satisfaction au travail et à l’intention de quitter, et que la clarté de rôle est liée uniquement à la satisfaction au travail. Les nouveaux employés socialisés, quant à eux, démontrent des liens entre la maîtrise du contenu de la socialisation organisationnelle et chacune des résultantes distales (l’engagement organisationnel affectif, la satisfaction au travail et l’intention de quitter). Globalement, l’intégration des nouveaux employés non socialisés serait plutôt influencée par leurs stratégies proactives, tandis que celle des nouveaux employés non socialisés serait facilitée par leur maîtrise du contenu de la socialisation organisationnelle. De façon générale, cette étude comparative offre un aperçu intéressant des nouveaux employés rarement trouvé dans les recherches portant sur les « meilleures pratiques » de la socialisation organisationnelle. Des recommandations pour la recherche et la pratique en suivent.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Commentaire / Commentary

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le but de la recherche est d’étudier les tensions éthiques que peuvent vivre les médecins militaires, qui doivent agir à la fois comme soignants, militaires (même s’ils sont non combattants) et parfois comme acteurs humanitaires. Parmi la littérature sur l’éthique de la médecine militaire, les dilemmes la concernant sont souvent présentés comme le fruit de pressions réelles ou perçues provenant de l’institution militaire, des règles, codes, lois ou de politiques, ceci afin de détourner le médecin de son but premier, soit l’intérêt du patient. Pour mieux comprendre les défis éthiques auxquels sont confrontés les médecins militaires canadiens et comment ceux-ci les traitent, la recherche utilise une approche de bioéthique empirique. À partir d’une analyse de la littérature, nous examinons les dilemmes éthiques des médecins militaires, le concept de profession, ainsi que les codes d’éthique (médicaux et militaires) canadiens. L’expérience éthique est ensuite explorée à partir d’entrevues semi-directives effectuées auprès de quatorze médecins militaires ayant participé à des missions opérationnelles, notamment à Kandahar en Afghanistan, entre 2006 et 2010. Les résultats, tant conceptuels qu’empiriques, nous indiquent que plusieurs nuances s’imposent. Tout d’abord, les médecins militaires canadiens ne vivent pas les dilemmes tels qu’ils sont présentés dans la littérature, ni en nombre ni en fréquence. Ils sont conscients qu’ils doivent à la fois tenir compte de l’intérêt du patient et du bien commun, mais n’en ressentent pas pour autant un sentiment de double loyauté professionnelle. De plus, ils ont l’impression de partager l’objectif de la mission qui est de maintenir la force de combat. Des distinctions s’imposent aussi entre les médecins eux-mêmes, dans la conception qu’ils se font de leur profession, ainsi que dans les contextes (opération ou garnison), selon le type de travail qu’ils exercent (généraliste ou spécialiste). Les principaux défis éthiques rapportés portent sur les inégalités de soins entre les soldats de la coalition et les victimes locales (soldats et civils), ainsi que sur le manque de ressources, engendrant des décisions cliniques éprouvantes. Un résultat étonnant des entrevues est la présence de deux groupes distincts au plan de l’identification professionnelle. Huit médecins militaires se considèrent avant tout comme médecin, alors que les six autres ne sont pas arrivés à accorder une priorité à l’une ou l’autre des professions. Ces deux groupes se différencient également sur d’autres plans, comme le nombre et le type de défis éthiques identifiés, ainsi que les mécanismes de résolution des dilemmes utilisés. Malgré les formations éthiques offertes par l’institution, des lacunes subsistent dans la capacité d’identification des expériences éthiques et des valeurs impliquées, de même que des mécanismes de résolution utilisés. Compte tenu du faible échantillonnage, ces résultats sont difficilement généralisables. Néanmoins, ils peuvent nous inspirer au niveau théorique en faisant ressortir le caractère multidimensionnel de la médecine militaire, ainsi qu’au niveau pratique en nous permettant de suggérer des éléments de formation facilitant la réflexion éthique des médecins militaires.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Ce mémoire porte sur la simulation d'intervalles de crédibilité simultanés dans un contexte bayésien. Dans un premier temps, nous nous intéresserons à des données de précipitations et des fonctions basées sur ces données : la fonction de répartition empirique et la période de retour, une fonction non linéaire de la fonction de répartition. Nous exposerons différentes méthodes déjà connues pour obtenir des intervalles de confiance simultanés sur ces fonctions à l'aide d'une base polynomiale et nous présenterons une méthode de simulation d'intervalles de crédibilité simultanés. Nous nous placerons ensuite dans un contexte bayésien en explorant différents modèles de densité a priori. Pour le modèle le plus complexe, nous aurons besoin d'utiliser la simulation Monte-Carlo pour obtenir les intervalles de crédibilité simultanés a posteriori. Finalement, nous utiliserons une base non linéaire faisant appel à la transformation angulaire et aux splines monotones pour obtenir un intervalle de crédibilité simultané valide pour la période de retour.