542 resultados para Méthodologie mixte
Resumo:
Cette recherche s’intéresse aux formes et à la capacité des associations patronales à façonner les règles du travail au niveau sectoriel, plus précisément dans le secteur de l’hôtellerie au Québec. Elle vise également à mieux comprendre comment ces règles contribuent à modifier les pratiques locales en relations industrielles de leurs entreprises membres. Notre première question de recherche vise donc à cerner l’impact des logiques de représentation et d’action des associations patronales sur les pratiques en relations industrielles. Pour certains auteurs, notamment Behrens et Traxler (2004 et 2007), Carley et al. (2010), Charest, Laroche et Hickey (à paraître), les logiques de représentation et d’action chez les acteurs patronaux se distinguent l’une de l’autre et influencent de manière différente les pratiques en relations industrielles. Ainsi, la présence, la forme et le rôle d’une association patronale auront un impact significatif sur les pratiques en relations industrielles, car les membres peuvent être influencés par les orientations de leurs associations. Notre seconde question de recherche aborde la manière dont les entreprises membres utilisent leurs ressources de pouvoir afin d’influencer les actions des associations patronales. La littérature existante à ce sujet mentionne que les acteurs patronaux détenant plusieurs ressources de pouvoir, qu’elles soient internes ou externes (Charest, Laroche et Hickey, à paraître; Laroche et Hickey, à paraître), sont en mesure d’exercer une influence dans les institutions politiques. Nous tenterons donc de vérifier si, plus une association patronale sera en mesure de mobiliser ses ressources de pouvoir, plus elle sera apte à influencer le contexte institutionnel dans lequel elle agit. Au plan théorique, cette recherche s’appuie sur les idées développées par les théories néo-institutionnalistes. D’une part, nous reconnaissons que les acteurs doivent réagir et s’adapter aux changements qui s’opèrent au sein de leur environnement. Ils développeront donc des stratégies diverses, autant en matière de coordination des actions patronales que de relations du travail au niveau local, en fonction de leur interprétation de ces transformations (Traxler et Huemer, 2007). D’autre part, nous reconnaissons que les acteurs sont aussi en mesure de mobiliser leurs ressources de pouvoir pour déployer des initiatives stratégiques qui seront susceptibles de provoquer en retour des changements au sein de leur environnement (Crouch, 2005). Ces entrepreneurs institutionnels sont ainsi à la recherche active d’opportunités et de leviers de pouvoir à utiliser pour maximiser leurs intérêts respectifs et, par le fait même, réduire les incertitudes issues de leur environnement (Campbell, 2004; Streeck et Thelen, 2005; Crouch, 2005). Notre recherche reconnaît également que les acteurs qui détiennent le plus grand pouvoir au sein d’un groupe, soient les porteurs de projets, vont être en mesure de façonner les institutions en fonction de leurs intérêts spécifiques (Thelen, 2003). C’est d’ailleurs sur ce plan que notre recherche veut se démarquer des travaux plus larges dans laquelle elle s’insère. Au plan empirique, cette recherche étudie l’acteur patronal dans l’industrie de l’hôtellerie au Québec et vise trois objectifs : 1) faire la cartographie des associations patronales dans le secteur de l’hôtellerie au Québec (formes, structures, activités, missions, etc.); 2) analyser l’impact des règles issues du processus de régulation au niveau sectoriel sur les pratiques de relations du travail locales; et 3) identifier les employeurs dominants au sein du secteur et analyser de quelle manière ils parviennent à modifier les institutions et l’environnement dans lequel ils agissent. Pour atteindre nos objectifs de recherche, nous avons utilisé une méthodologie qualitative de recherche, et plus particulièrement l’étude de cas. Cette dernière a été conduite en trois étapes : la préparation, la collecte des données et l’interprétation (Merriam, 1998). Les données de cette étude ont été recueillies à l’automne 2011, par le biais d’entrevues semi-dirigées auprès de gestionnaires d’hôtels et d’associations hôtelières dans les régions de Québec et de Montréal. Une analyse qualitative du contenu de ces entrevues a été effectuée en lien avec la revue de littérature et nos propositions de recherche. À cette fin, nous avons utilisé la technique de l’appariement logique de Yin (1994), ce qui nous a permis de comparer nos observations à nos propositions de recherche. Il est à noter que puisque cette recherche est une étude de cas, cette dernière présente des limites méthodologiques surtout liées à la généralisation des résultats. Ainsi, il est très difficile d’affirmer que les résultats de cette microanalyse soient généralisables. En contrepartie, les analyses ont servi à consolider le modèle pour utilisation dans des études futures.
Resumo:
Plusieurs aminoglycosides font partie d’une famille d’antibiotiques à large spectre d’action. Les aminoglycosides ayant une activité antibiotique viennent interférer dans la synthèse protéique effectuée par les bactéries. Les protéines mal codées entraineront la mort cellulaire. Au fil des années, de nombreux cas de résistance ont émergé après une utilisation soutenue des aminoglycosides. De nombreux aminoglycosides semi-synthétiques ont été synthétisés avec comme objectif de restaurer leur activité antimicrobienne. Parmi les modifications ayant connu du succès, notons la didésoxygénation d’un diol et l’introduction de la chaine latérale HABA. Des études précédentes ont montré l’efficacité de ces modifications sur les aminoglycosides. Les présents travaux portent sur l’installation de la chaine latérale HABA et la didésoxygénation d’un diol sur la paromomycine et la néomycine. La didésoxygénation sélective des diols a été effectuée en utilisant la méthodologie développée par Garegg et Samuelsson, une variation de la réaction de Tipson-Cohen. Cette méthode a permis l’obtention du motif didésoxygéné sur les cycles A et D dans des rendements jamais égalés pour ce motif synthétique. La chaîne latérale a été introduite en tirant profit de la réactivité et de la sélectivité d’un carbamate cyclique. Ces méthodes combinées ont permis la synthèse efficace de nombreux analogues semi-synthétiques nouveaux. La 3',4'-didéhydro-N-1-HABA-néomycine et la 3',4',3''',4'''-tétradésoxy-N-1-HABA-néomycine montrent une activité impressionnante contre des souches de bactéries résistantes aux aminoglycosides. Des tests de toxicité effectués en collaboration avec Achaogen Inc. ont démontré que ces composés sont relativement toxiques sur les cellules rénales de type H2K, ce qui réduit de façon importante leur index thérapeutique. Afin d’abaisser la toxicité des composés, la relation entre toxicité et basicité a été explorée. Des substitutions de l’amine en 6''' ont été effectuées afin d’abaisser la basicité de l’amine. Les résultats de toxicité et d’activité antimicrobienne démontrent une corrélation importante entre la basicité des amines et la toxicité/activité des aminoglycosides antibiotiques. L’effet d’une modulation du pKa a aussi été exploré en installant des chaines fluorées sur l’amine en 6''' de la paromomycine et de la néomycine. Une séquence synthtétique pour isoler l’amine en 6''' de la néomycine a aussi été développée.
Criteria for the validation of specialized verb equivalents : application in bilingual terminography
Resumo:
Multilingual terminological resources do not always include valid equivalents of legal terms for two main reasons. Firstly, legal systems can differ from one language community to another and even from one country to another because each has its own history and traditions. As a result, the non-isomorphism between legal and linguistic systems may render the identification of equivalents a particularly challenging task. Secondly, by focusing primarily on the definition of equivalence, a notion widely discussed in translation but not in terminology, the literature does not offer solid and systematic methodologies for assigning terminological equivalents. As a result, there is a lack of criteria to guide both terminologists and translators in the search and validation of equivalent terms. This problem is even more evident in the case of predicative units, such as verbs. Although some terminologists (L‘Homme 1998; Lerat 2002; Lorente 2007) have worked on specialized verbs, terminological equivalence between units that belong to this part of speech would benefit from a thorough study. By proposing a novel methodology to assign the equivalents of specialized verbs, this research aims at defining validation criteria for this kind of predicative units, so as to contribute to a better understanding of the phenomenon of terminological equivalence as well as to the development of multilingual terminography in general, and to the development of legal terminography, in particular. The study uses a Portuguese-English comparable corpus that consists of a single genre of texts, i.e. Supreme Court judgments, from which 100 Portuguese and 100 English specialized verbs were selected. The description of the verbs is based on the theory of Frame Semantics (Fillmore 1976, 1977, 1982, 1985; Fillmore and Atkins 1992), on the FrameNet methodology (Ruppenhofer et al. 2010), as well as on the methodology for compiling specialized lexical resources, such as DiCoInfo (L‘Homme 2008), developed in the Observatoire de linguistique Sens-Texte at the Université de Montréal. The research reviews contributions that have adopted the same theoretical and methodological framework to the compilation of lexical resources and proposes adaptations to the specific objectives of the project. In contrast to the top-down approach adopted by FrameNet lexicographers, the approach described here is bottom-up, i.e. verbs are first analyzed and then grouped into frames for each language separately. Specialized verbs are said to evoke a semantic frame, a sort of conceptual scenario in which a number of mandatory elements (core Frame Elements) play specific roles (e.g. ARGUER, JUDGE, LAW), but specialized verbs are often accompanied by other optional information (non-core Frame Elements), such as the criteria and reasons used by the judge to reach a decision (statutes, codes, previous decisions). The information concerning the semantic frame that each verb evokes was encoded in an xml editor and about twenty contexts illustrating the specific way each specialized verb evokes a given frame were semantically and syntactically annotated. The labels attributed to each semantic frame (e.g. [Compliance], [Verdict]) were used to group together certain synonyms, antonyms as well as equivalent terms. The research identified 165 pairs of candidate equivalents among the 200 Portuguese and English terms that were grouped together into 76 frames. 71% of the pairs of equivalents were considered full equivalents because not only do the verbs evoke the same conceptual scenario but their actantial structures, the linguistic realizations of the actants and their syntactic patterns were similar. 29% of the pairs of equivalents did not entirely meet these criteria and were considered partial equivalents. Reasons for partial equivalence are provided along with illustrative examples. Finally, the study describes the semasiological and onomasiological entry points that JuriDiCo, the bilingual lexical resource compiled during the project, offers to future users.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Rapport de stage présenté à la Faculté des études supérieures en vue de l’obtention de la Maîtrise (M.Sc.) en criminologie
Resumo:
réalisé en cotutelle à l'Université de Franche-Comté (France)
Resumo:
Comment fonder théoriquement des indicateurs culturels? Issue de problèmes méthodologiques reliés à l’étude des rapports entre le temps de travail et le temps libre, cette question émerge à la suite du constat du déficit théorique de la statistique culturelle. En effet, l’étude du temps libre, comme du temps de travail, nécessite de questionner les fondements de cette répartition, en même temps qu’elle exige d’analyser concrètement les pratiques sociales reliées à ces catégories. Or, les ana-lyses sur l’emploi du temps libre sont souvent fondées sur des statistiques à propos des activités culturelles, statistiques dont la portée explicative est singulièrement limitée. Bien que des statistiques sur certaines de ces activités existent au moins depuis le début du XXe siècle, c’est à partir des années 1970 que les besoins de connaissance reliés à la mise en œuvre des politiques culturelles stimulent la production de statistiques plus nombreuses et plus détaillées. Afin de donner des significations à cette masse de statistiques, il est nécessaire de délimiter les frontières de ce qui est culture et communication parmi toutes les autres activités sociales. L’élaboration de cadres conceptuels de la culture par l’UNESCO et d’autres agences statistiques tente de répondre à cette exigence, tandis que les projets d’indicateurs avancés cherchent à donner un sens à l’information statistique. Ces tentatives se caractérisent toutefois par la faiblesse de leur assise théorique, problème qui se manifeste de manière aiguë dans la définition d’indicateurs qui ont nécessairement une portée normative. La résolution de cette impasse de la statistique culturelle passe au moins par une clarification des concepts reliés à la notion de culture. À cette fin, la méthodologie de la recherche repose sur une analyse critique de certains documents fondamentaux qui ont conduit à la création du cadre conceptuel pour la statistique culturelle de l’UNESCO, ainsi que sur des textes phares de Fernand Dumont, Pierre Bourdieu et Jürgen Habermas, choisis pour leur capacité à penser les activités culturelles dans l’ensemble social selon leur temporalité. La notion de temporalité est elle-même examinée sous l’angle de plusieurs approches théoriques. Il ressort de cet examen que la différenciation du temps en temps abstrait et temps concret permet d’entrevoir que les pratiques culturelles pourraient être mesurées non seulement selon la quantité de temps social qui leur est dévolue, mais aussi comme un temps qui a une valeur marchande. Les acquis de l’analyse critique des cadres conceptuels de la statistique culturelle et des textes de Dumont, Bourdieu et Habermas servent de points d’appui pour l’élaboration d’un projet d’indicateurs culturels pour le compte de l’Observatoire de la culture et des communications du Québec (OCCQ). Ce système d’indicateurs a été élaboré selon une grille qui définit ce qu’est un indicateur culturel, son objectif et sa signification. Les indicateurs ont été choisis au cours d’un processus de consultation mené par l’OCCQ auprès des agents gouvernementaux concernés et des représentants des associations professionnelles des secteurs de la culture et des communications du Québec.
Resumo:
Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.
Resumo:
La présente thèse porte sur l’évaluation de l’efficacité d’un nouveau traitement pour le trouble de stress post-traumatique (TSPT). Le traitement a été développé selon les prémisses de la théorie de la reconsolidation des souvenirs. Il consiste en six courtes séances de remémoration de l’événement traumatique réalisées sous l’effet du propranolol, un bêtabloquant. La population de l’étude est constituée de patients souffrant d’un TSPT chronique. La thèse comporte cinq chapitres. Le premier chapitre est l’introduction, on y retrouve une description du TSPT, des traitements validés empiriquement, de diverses théories de la mémoire, d’un modèle étiologique du TSPT, d’études sur la consolidation et la reconsolidation, de la pharmacocinétique et du mécanisme d’action du propranolol,ainsi que des objectifs de la thèse. Le second chapitre est une revue critique de littérature sur la théorie de la reconsolidation. Comme l’étude du phénomène de la reconsolidation est récente, nous tentons de faire le point sur l’état des connaissances dans le domaine, dans un effort de réflexion sur la validité de la théorie. Nous proposons une série de critères permettant de différencier la reconsolidation d’autres processus connexes. Nous concluons que la théorie paraît valide, bien que d’autres études soient nécessaires afin de rendre compte de résultats négatifs publiés par le passé. Le troisième chapitre est un essai ouvert, et vise à évaluer l’efficacité d’un traitement basé sur la reconsolidation à diminuer la sévérité et l’incidence du TSPT, auprès de 42 patients souffrant d’un TSPT chronique. Le traitement consiste en six séances de remémoration de l’événement traumatique sous propranolol. Lors d’un suivi à trois mois, nous rapportons une diminution des symptômes de TSPT de 41%-56%, ainsi qu’une diminution de l’incidence du TSPT de 74%. En comparaison, seulement 2/25 patients du groupe contrôle (ayant participé uniquement aux évaluations) ne souffrent plus d’un TSPT. Dans le groupe traitement, les tailles d’effet (d de Cohen)varient entre 1.32-2.19. Le quatrième chapitre a comme objectif d’identifier des caractéristiques des patients prédisant l’efficacité du traitement, et d’explorer s’ils s’améliorent dans des domaines de santé autres que le TSPT. Nous rapportons que les femmes s’améliorent davantage que les hommes, mais que d’autres facteurs, tels que la sévérité des traits de personnalité borderline ou le type de trauma (enfance versus adulte), n’influent pas sur l’efficacité. Également, les patients s’améliorent dans les domaines de santé suivants : la qualité de vie, la symptomatologie dépressive, l’intensité des émotions négatives au rappel de l’événement traumatique et dans la vie courante. Le cinquième chapitre contient la discussion générale de la thèse. Nous effectuons une synthèse et interprétation des résultats, nous examinons les hypothèses alternatives à l’amélioration clinique et abordons des pistes de recherches futures. Nous concluons que le traitement à l’étude a été efficace dans notre échantillon de patients souffrant d’un TSPT chronique. Étant donné la méthodologie employée (essai ouvert), nous ne pouvons statuer sur le mécanisme d’action du traitement, à savoir si l’amélioration clinique a été réellement causée par un blocage de la reconsolidation des souvenirs.