92 resultados para implies
Resumo:
Les pensées de l’action de Weil et de Camus se heurtent à une même antinomie : la volonté d’agir raisonnablement implique à la fois de renoncer à toute action, car une action ne peut être efficace que si elle est potentiellement violente, et d’agir, car s’abstenir de toute action signifie accepter la violence présente. L’agent doit dès lors justifier la violence qu’il met en œuvre. En conséquence, cet article confronte la manière dont ces deux auteurs s’efforcent de résoudre cette difficulté. Une telle confrontation nous permet, d’une part, de trouver chez Weil les fondements philosophiques qui manquent à la pensée camusienne. D’autre part, la lecture de Camus nous prémunit contre une interprétation erronée de la justification weilienne de moyens violents par une fin raisonnable.
Resumo:
Cette thèse s’intéresse aux fondements épistémologiques et à la vision que des enseignants d’histoire au secondaire entretiennent à l’égard de l’enseignement de l’histoire et de la formation citoyenne. La réflexion s’inscrit dans le contexte de la refonte des programmes d’enseignement de l’histoire qui engage dorénavant les maîtres d’histoire à éduquer à la citoyenneté démocratique. Ce projet éducationnel repose sur le postulat suivant : l’apprentissage de l’histoire, de sa pensée et de sa méthode permet de former des individus capables de réflexion critique autonome et informée. Cette vision de l’enseignement de l’histoire implique que les élèves s’exercent à la pensée historienne, à l’analyse des sources et à la construction d’interprétations historiques. Ce faisant, ils développeraient une compréhension du monde fondée sur la maîtrise de concepts et une pensée complexe, ce qui servirait de ce fait la citoyenneté. La recherche a par ailleurs démontré que les maîtres avaient recours à des méthodes pédagogiques plus traditionnelles (Charland, 2003; Martineau, 1997). C’est donc à des changements de pratiques qu’appelle le ministère de l’Éducation. Or un tel changement ne se déclare pas « d’en haut ». Les convictions des maîtres sont lentes à se transformer et ce sont elles qui déterminent la formation historienne et citoyenne que recevront les élèves. Nous en avons fait notre objet d’étude pour cette recherche en recourant à la théorie des représentations sociales. Nous avons adopté le modèle du noyau central (Abric, 1994) et celui des principes organisateurs qui permet d’identifier les relations existantes entre plusieurs représentations. Nous avons effectué une recherche exploratoire de type qualitative. Des entretiens individuels semi-dirigés d’une durée moyenne de 120 minutes ont été réalisés avec un échantillon comptant 18 enseignants d’histoire au secondaire de Montréal, de Québec et de communautés amérindiennes du Québec. L’outil de cueillette et d’analyse des données s’inspire grandement des développements méthodologiques réalisés par la recherche sur les représentations sociales (évocation hiérarchisée continuée ou limitée, schémas conceptuels) (Abric, 1994; 1997). Les résultats permettent d’identifier les fondements épistémologiques et didactiques, le contenu et la structure, de même que les relations existant entre les représentations de l’enseignement de l’histoire et de la formation à la citoyenneté. Ils ont également mis en lumière les convictions idéologiques et pédagogiques des maîtres d’histoire.
Resumo:
Les récepteurs couplés aux protéines G forment des complexes multimériques comprenant protéines G et effecteurs. Nous cherchons à caractériser de tels complexes comprenant les récepteurs opioïdes delta (DOR) et les canaux Kir3, qui nous sont d’intérêt vu leur implication dans l’analgésie des opioïdes. Des expériences d’immunopurification, de BRET et de liaison GTPgS ont été réalisées à l’intérieur de cellules HEK293 transfectées. Les canaux Kir3 ont été co-immunopurifiés avec les DOR, suggérant une interaction spontanée entre récepteur et effecteur. Des essais BRET ont corroboré que l’interaction était présente dans des cellules vivantes et nous ont permis d’identifier une interaction spontanée et spécifique entre DOR/Gg et Gg/Kir3, indiquant leur coexistence en un même complexe. Puisque l’activation du récepteur implique la présence de changements conformationnels à l’intérieur de celui-ci, nous étions intéressés à vérifier si l’information conformationnelle circule à partir du récepteur lié au ligand jusqu’à l’effecteur en aval. Ainsi, nous avons déterminé l’effet de différents ligands sur le signal BRET généré par les paires suivantes : DOR/Gbg, DOR/Kir3 et Kir3/Gbg. Nous avons constaté une modulation de l’interaction DOR/Gbg et Gbg/Kir3 suivant l’ordre d’efficacité des ligands à stimuler la protéine G, ce que nous n’avons pas observé entre DOR et Kir3. Donc, nous concluons que l’information conformationnelle circule du récepteur au canal Kir3 via la protéine Gbg. Ces résultats nous ont permis de développer un biosenseur BRET (EYFP-Gg2/Kir3.1-Rluc) qui pourrait être utilisé dans le criblage à haut débit afin de détecter de nouvelles molécules ayant une grande efficacité à activer les canaux Kir3.
Resumo:
Les tendances de la participation à la formation des adultes au Canada n’ont pas évolué depuis des décennies, malgré les nouvelles influences économiques qui ont stimulé l’augmentation et la diversification permanente de la formation des employés et malgré les initiatives plus nombreuses en faveur de l’apprentissage des employés en milieu de travail. Il est donc nécessaire de ne plus se contenter d’étudier les prédicteurs de la formation déjà connus dans les profils des employés et des employeurs. Il est, en revanche, indispensable d’étudier les antécédents de la participation des employés à la formation, y compris les aspects et les étapes du processus qui la précède. Cette étude porte sur les antécédents de la participation des employés aux formations dans un important collège communautaire urbain en Ontario. Afin de préparer le recueil des données, un cadre théorique a été élaboré à partir du concept d’expression de la demande. Ce cadre implique l’existence d’un processus qui comporte plusieurs étapes, au cours desquelles plusieurs intervenants interagissent et dont la formation est susceptible d’être le résultat. Les résultats de l’enquête sur le profil d’apprentissage ont permis de conclure que le comportement des employés et de l’employeur est conforme aux modèles de prédicteurs existants et que les taux et les types de participation étaient similaires aux tendances nationales et internationales. L’analyse des entrevues d’un groupe d’employés atypiques, de leurs superviseurs, ainsi que de représentants du collège et du syndicat, a révélé d’importants thèmes clés : l’expression de la demande n’est pas structurée et elle est communiquée par plusieurs canaux, en excluant parfois les superviseurs. De plus, la place de l’auto évaluation est importante, ainsi que la phase de prise de décision. Ces thèmes ont souligné l’interaction de plusieurs intervenants dans le processus d’expression de la demande d’apprentissage et pendant la prise de décision. L’examen des attentes de chacun de ces intervenants au cours de ce processus nous a permis de découvrir un désir tacite chez les superviseurs et les employés, à savoir que la conversation soit à l’initiative de « l’autre ». Ces thèmes clés ont été ensuite abordés dans une discussion qui a révélé une discordance entre le profil de l’employeur et les profils des employés. Celle-ci se prête à la correction par l’employeur de son profil institutionnel pour l’harmoniser avec le profil dispositionnel des employés et optimiser ainsi vraisemblablement son offre de formation. Ils doivent, pour cela, appliquer un processus plus systématique et plus structuré, doté de meilleurs outils. La discussion a porté finalement sur les effets des motivations économiques sur la participation des employés et a permis de conclure que, bien que les employés ne semblent pas se méfier de l’offre de formation de l’employeur et que celle ci ne semble pas non plus les décourager, des questions de pouvoir sont bel et bien en jeu. Elles se sont principalement manifestées pendant le processus de prise de décision et, à cet égard, les superviseurs comme les employés reconnaissent qu’un processus plus structuré serait bénéfique, puisqu’il atténuerait les problèmes d’asymétrie et d’ambiguïté. Les constatations de cette étude sont pertinentes pour le secteur de la formation des adultes et de la formation en milieu de travail et, plus particulièrement, pour la méthodologie de recherche. Nous avons constaté l’avantage d’une méthodologie à deux volets, à l’écoute de l’employeur et des employés, afin de mieux comprendre la relation entre l’offre de formation et la participation à la formation. La définition des antécédents de la participation sous la forme d’un processus dans lequel plusieurs intervenants remplissent plusieurs rôles a permis de créer un modèle plus détaillé qui servira à la recherche future. Ce dernier a démontré qu’il est indispensable de reconnaître que la prise de décision constitue une étape à part entière, située entre l’expression de la demande et la participation à la formation. Ces constatations ont également révélé qu’il est véritablement indispensable que le secteur de la formation des adultes continue à traiter les questions reliées à la reconnaissance de la formation informelle. Ces conclusions et la discussion sur les constatations clés nous ont inspiré des recommandations à appliquer pour modifier les retombées du processus précédant la participation des employés à la formation. La majorité de ces recommandations ont trait à l’infrastructure de ce processus et ciblent donc principalement l’employeur. Certaines recommandations sont cependant destinées aux syndicats, aux superviseurs et aux employés qui peuvent aider l’employeur à remplir son rôle et favoriser la participation efficace de tous à ce processus. Les recommandations qui précédent impliquent que ce sont les antécédents de la formation qui gagneraient à être plus structurés et non la formation elle même. La structuration de l’infrastructure de l’apprentissage présente cependant des risques à elle seule. En liaison avec ce phénomène, une étude spécifique des effets de la nature, de la qualité et de l’asymétrie de la relation superviseur employé sur la participation des employés à la formation serait bénéfique. Mots clés : formation en entreprise, formation professionnelle continue, antécédents à la participation, employés de soutien
Resumo:
RÉSUMÉ La richesse en ressources naturelles est une source de développement économique et social, mais peut également constituer un facteur de dégradation environnementale et de problèmes pour la santé humaine. Les systèmes techniques de gestion des ressources naturelles ne sont pas suffisants pour apporter des solutions à tous les problèmes environnementaux. Mises à part les catastrophes naturelles, c'est l'intervention humaine qui cause la grande majorité des problèmes environnementaux. C'est pour comprendre cette dynamique entre les facteurs naturels et les facteurs économiques, sociaux, politiques, culturels et psychosociologiques que nous avons choisi de centrer cette thèse sur la dimension humaine des problèmes environnementaux – ce qui implique l'analyse des dimensions psychosociologiques et sociales entourant les problèmes environnementaux. Pour une gestion efficace des ressources naturelles, il nous faut donc comprendre l'action humaine, ses motivations et ses contraintes, ses orientations de valeurs et ses croyances, qui orientent les perceptions, les attitudes et les comportements humains par rapport à leur environnement. Pour ce faire, l’étude de valeurs, attitudes, croyances et comportements passe par l’examen attentif des concepts et de leurs définitions, ainsi que par l’analyse des diverses « dimensions » auxquelles chacun des concepts fait référence. Cette thèse porte justement sur les relations entre les valeurs, les croyances, les attitudes et les comportements humains par rapport aux problèmes environnementaux. Pour ce faire, nous avons utilisé un sondage auprès de 1800 répondants, habitants de la région du bassin versant de la Rio das Velhas, située dans la province du Minas Gerais, au Brésil.
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
Toutes les illustrations qui ponctuent cette thèse ont été réalisées par Chantal Poirier. Elles ont été insérées dans le texte selon un ordre méticuleusement aléatoire.
Resumo:
Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.
Resumo:
Dans cette thèse de sociologie du droit, nous étudions l'influence du droit de l'État sur les sujets de droit. Notre hypothèse générale est que les intermédiaires du droit de l'État contribuent de façon importante à façonner le« rapport au droit» des sujets de droit. C'est-à-dire qu'ils auraient une incidence sur la construction de la relation d'influence du droit sur ces acteurs sociaux et, par là, un effet marqué sur la « légitimité empirique » du droit. Par leurs pratiques professionnelles les intermédiaires du droit auraient une incidence notable, quoique non exclusive, sur les formes concrètes de «rapports au droit» des sujets de droit. Dans l'étude de ce phénomène, nous comparons empiriquement les liens existant entre différents « rapports au droit » des sujets de droit et un droit caractérisé par une rationalité juridique fort différente selon qu'il aurait été porté par un avocat ou un médiateur. Ces deux groupes de professionnels sont les intermédiaires du droit qui font 1’objet de notre observation, laquelle n'est ni générale, ni globale, mais spécifique au divorce, géographiquement localisée à Montréal et historiquement située au début des années 1990. L'intérêt de cette période pour une étude de l'influence du droit sur les sujets de droit est qu'elle constitue un moment unique de l'histoire à Montréal. À cette époque, les différences entre les pratiques professionnelles des avocats et des médiateurs auraient été les plus extrêmes, ce qui favorise un travail de comparaison d'autant plus éclairant. En effet, au début des années 1990, après une dizaine d'années d'expérience, le Service de médiation à la famille de Montréal avait réussi à assurer une solide pratique professionnelle. Par ailleurs, la pratique professionnelle des avocats dans le domaine du divorce était déjà fort « modernisée », mais elle demeurait encore très peu influencée par la médiation familiale. Puisque le « rapport au droit » des personnes qui ont consulté ces intermédiaires du droit en vue de leur divorce est au cœur de 1 'étude, c'est auprès d'eux que nous avons réalisé des entretiens, et c'est l'analyse de ces entretiens qui permet de comprendre leur « rapport au droit». La sociologie de Max Weber est la perspective scientifique dans laquelle nous avons inscrit notre recherche. Une telle ambition exigeait que nous ne restions pas confinée aux seuls concepts les plus populaires. Par conséquent, une partie importante de cette thèse est consacrée à une présentation substantielle de la sociologie wébérienne. Sur cette base, nous avons construit notre stratégie d'enquête et nos instruments d'analyse idéal typiques. Non seulement il n'y a pas, chez Weber, de théorie systémique générale composée de lois explicatives des relations sociales, mais il n'y a pas non plus de modèle de cadre d'analyse particulier préfabriqué qui serait constitué comme un «prêt-à-porter» applicable en vue de réaliser des recherches empiriques, que ce soit dans le domaine du droit ou dans n'importe quel autre domaine d'activité humaine. En revanche, la sociologie wébérienne fournit plusieurs séries de repères conceptuels. Ils permettent d'organiser la recherche empirique sans jamais limiter les objets d'enquêtes possibles, ni l'imagination du chercheur, en autant que celui-ci a pour but de comprendre l'action sociale en l'interprétant et, par-là, de l'expliquer causalement dans son déroulement et ses effets. C'est là le projet de connaissance que Weber désigne par « sociologie ». Il vise ce projet de connaissance, non pas de manière générale et globale, mais toujours de manière particulière selon les domaines d'activité, les lieux, les époques, les sphères de valeurs, etc. Dans cette thèse, nous proposons un cadre d'analyse qui peut servir à poser et à approfondir toutes sortes de questions sur le droit et son influence, sans jamais qu'il soit considéré comme un système de lois à la manière du droit positif. Ce cadre d'analyse vise à appréhender le droit comme une sorte de relation sociale que l'on peut comprendre sociologiquement en considérant, notamment, les représentations juridiques des différentes catégories d'acteurs sociaux. C'est là la première, non pas la seule, condition à rencontrer en vue de respecter les exigences de la connaissance empirique du droit parce que le « droit empirique » ne se trouve pas dans la règle de droit positif. Il se trouve là où il est « porté » par des êtres humains et, en particulier, par des groupes d'humains qui détiennent une importante dose d'influence sociale. Nous souhaitons que cette étude, grâce à 1 'immense apport de la sociologie de Max Weber, contribue à la compréhension sociologique d'un aspect du « droit empirique» de l’État contemporain.
Resumo:
Les mécanismes cellulaires anti-prolifératifs, lesquels comprennent l’apoptose, aussi appelée la mort cellulaire programmée, l’arrêt transitoire du cycle cellulaire et la sénescence, permettent à la cellule de prévenir, en réponse à différents stress, l’accumulation de mutations pouvant conduire à une prolifération incontrôlée et, éventuellement, au développement d’une tumeur. La régulation de ces différents mécanismes requiert l’activation de protéines appelées des suppresseurs de tumeur, dont le principal est p53. p53 est un facteur de transcription dont la stabilisation et l’activation conduit à une hausse de l’expression de gènes directement impliqués dans l’arrêt de la prolifération. Au cours des dernières années, l’ensemble des travaux sur p53 ont permis de mettre en évidence la complexité de sa fonction, de même que la multitude de voies de signalisation et de protéines avec lesquelles il coopère pour maintenir l’intégrité du génome. De ce fait, l’étude des mécanismes d’activation de p53 est de mise pour la compréhension de sa régulation et, éventuellement, pour la prévention et l’élaboration de nouvelles stratégies de traitement contre le cancer. L’objet de cette thèse est la mise en évidence d’un mécanisme d’activation de p53 et de la sénescence par la protéine SOCS1, un suppresseur de la signalisation par les cytokines. Ce mécanisme implique une interaction directe entre les deux protéines, plus précisément entre le domaine SH2 de SOCS1 et le domaine de transactivation de p53. SOCS1 interagit également, au niveau de son SOCS Box, avec les kinases ATM et ATR de la voie du dommage à l’ADN de façon à faciliter la phosphorylation de p53 en sérine 15. Ainsi, en interagissant à la fois avec p53 et ATM/ATR, SOCS1 contribue à la stabilisation et à l’activation de p53. En accord avec ce modèle, l’inhibition de SOCS1 dans des fibroblastes humains normaux tend à diminuer le nombre de cellules sénescentes suite à l’expression de l’oncogène ca-STAT5A et à réduire l’accumulation nucléaire de p53 dans ces cellules. De la même façon, les lymphocytes T provenant de souris Socs1-/-Ifnγ-/- sont moins susceptibles d’entrer en apoptose que les lymphocytes provenant de souris Socs1+/+Ifnγ+/+, suite à une exposition à des radiations. Dans les deux contextes, on observe une baisse de l’expression des gènes cibles de p53, ce qui démontre que SOCS1 est impliquée dans l’activation de p53 in vivo. Cette thèse a également pour but de mettre en évidence l’implication de SOCS1 dans l’activation d’autres facteurs de transcription et, par le fait même, de démontrer qu’elle peut agir comme un régulateur plus général de la transcription. Une étude approfondie de l’interaction entre SOCS1 et p53 a permis de démontrer que le domaine de transactivation II de p53 (acides aminés 36-67) est suffisant pour l’interaction. Plus précisément, il semble que le tryptophane 53 (W53) et la phénylalanine 54 (F54) sont les principaux résidus impliqués. Une analyse structurale de ce domaine de p53 a conduit à l’identification d’un motif conservé dans plusieurs autres facteurs de transcription pourvus d’un domaine de transactivation acide, dont p63, p73 et E2F1. En accord avec ces résultats, SOCS1 est en mesure d’interagir avec chacune des deux protéines. Ainsi, la capacité de SOCS1 d’interagir et de réguler l’activité de p53 peut s’étendre à d’autres facteurs de transcription. En terminant, le mécanisme présenté dans cette thèse contribue à la compréhension de la régulation de p53, le principal suppresseur de tumeur de la cellule. De plus, il met en évidence une nouvelle fonction de SOCS1, laquelle était jusqu’alors essentiellement connue pour inhiber la voie de signalisation JAK/STAT. Ce nouveau rôle pour SOCS1 permet d’expliquer de quelle manière une activation aberrante de la signalisation par les cytokines peut déclencher la sénescence ou l’apoptose. Enfin, le fait que SOCS1 puisse réguler différents facteurs de transcription permet de la qualifier de régulateur général des facteurs de transcription composés d’un domaine de transactivation acide.
Resumo:
Réalisée en cotutelle avec l'Unité de Formation à la Recherche Lettres Arts et Sciences Humaines - Université Nice-Sophia Antipolis.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Ce mémoire traite de la diversité culturelle sous l’optique de la notion d’exception culturelle. Dans la Convention sur la protection et la promotion de la diversité des expressions culturelles, la diversité culturelle acquiert le statut de notion pivot entre les politiques culturelles promulguées à l’échelle nationale, européenne et internationale. L’objectif de ce mémoire a été de déterminer la conception de la diversité culturelle dans l’intention de montrer les tensions qui résultent de la formulation du rôle des États-nations et du pouvoir dévolu à la libre circulation des biens et produits culturels à l’échelle supranationale. D’où l’hypothèse que la notion de diversité culturelle est sujette à des glissements de sens afin de rallier les parties en présence. Selon ces constats et l’hypothèse de Bourdieu selon laquelle on assiste à l’homogénéisation des cultures, nous avons répondu aux questions suivantes : comment la Convention peut-elle concilier l’ouverture des marchés des biens et services culturels et la protection de la diversité culturelle ? Comment la diversité culturelle s’orchestre-t-elle sous l’égide de la Convention de l’UNESCO ? Sous la tutelle de l’État-nation chargé de défendre les couleurs de la culture nationale ? Ou par l’intermédiaire du marché capable de réguler l’offre et la demande en matière de culture ? La Convention a donc fait l’objet d’une analyse de discours dans l’intention d’exhiber les tensions sous-jacentes à la conception de la diversité culturelle. En effet, la diversité culturelle est sujette à des glissements de sens, car elle est orchestrée en partie par le droit souverain des États-nations qui sont en mesure de protéger et promouvoir la diversité des expressions culturelles sur leur territoire, mais aussi, elle est basée sur des principes de libre échange et de libre circulation des produits, activités, biens et services culturels découlant de la coopération régionale, bilatérale et internationale mise de l’avant par la Convention. La Convention permet jusqu’à un certain point une conciliation entre l’ouverture du marché des biens et services culturels et la protection de la diversité culturelle grâce à ces mécanismes et ces organes.
Resumo:
Cette dissertation traite des (re)configurations postcoloniales de la résistance et de la négociation comme concepts permettant d’aborder les représentations des conflits nationaux dans les littératures Africaines contemporaines. Ensemble, ces concepts ouvrent de nouvelles voix et possibilités de se remémorer, de raconter, et de lire la violence en problématisant non seulement les discours sur la guerre civile en Afrique, mais aussi les conceptions d’histoire nationale, de la mémoire, et de leur représentation. Si cette étude cherche à reconfigurer la négociation et la résistance au-delà des définitions qui tendent à les opposer, elle se consacre surtout à développer la notion de négociation comme stratégie de dépassement, de lecture, et d’écriture, qui, néanmoins, ne vise pas de résolution. La négociation implique ainsi une conception pluraliste d’un pouvoir d’action sociale, politique, et culturelle. Cette dissertation avance que la négociation est un concept d’écriture et de lecture qui intervient dans les événements, discours, et pratiques de remémoration en prenant compte de leurs multiplicités et définitions instables. Cette étude explore les manières selon lesquelles Nuruddin Farah, Chenjerai Hove, Yvonne Vera, Chimamanda Adichie, et Sefi Atta déploient la négociation et la résistance comme outils d’engagement esthétique et sociopolitique dans la narration de la violence en Somalie, au Zimbabwe, et au Nigeria. En outre, la négociation marque mon analyse de l’intervention des textes dans les discours d’historiographie et de représentation. Si ces romans mettent en exergue la généalogie complexe du conflit postcolonial, ils négocient aussi les implications multiples, incluant la leur, dans les questions problématiques de la responsabilité et de la représentation. La vii négociation représente un acte conscient à travers lequel nous reconnaissons l’instabilité de toute bataille politique, morale, ou éthique sans pour autant céder à un cynisme paralysant. De par son approche négociée et interdisciplinaire, cette dissertation ne fait pas qu’entrer en débat avec des discours multiples des études postcoloniales, Africaines, et littéraires. Elle intervient aussi dans les conceptions de la nation, la violence, la mémoire, la responsabilité, et la justice selon les études philosophiques, politiques, et culturelles. Outre les critiques littéraires, les chapitres interrogent les théories de penseurs tels Ngugi wa Thiong’o, David Jefferess, Pheng Cheah, et Wole Soyinka. Cette approche éclectique reflète l’attention des romans à la complexité irréductible des responsabilités individuelles et collectives dans les récits d’histoire et d’appartenance nationales. Cet engagement négocié avec les questions entourant la postcolonialité, malgré la dominance actuelle des discours de la globalisation, permet de reconceptualiser l’approche postcoloniale pour contrer les analyses déhistorisées et décontextualisées des conflits sociopolitiques en Afrique. Le chapitre 1 élabore les concepts clés de la dissertation. Le chapitre 2 explore la résistance et la négociation dans le langage figuré métonymique dans les représentations de la guerre en Somalie. Le chapitre 3 se consacre à l’analyse de la figure de la spectralité dans la narration de l’histoire et de la violence nationales au Zimbabwe. Finalement, le chapitre 4 négocie les concepts de représentation et de responsabilité dans les récits du trauma postcolonial au Nigeria. viii Mots-clés : négociation, résistance, littératures africaines, violence, responsabilité, nation, représentation
Resumo:
Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.