41 resultados para d(x2)-(y2) and d(xy) order parameters
Resumo:
Les troubles de sommeil et les cauchemars occupent une position centrale dans le tableau clinique des victimes de traumatismes. Cette thèse, composée d’un article théorique et d’un article empirique, vise à clarifier le lien entre la fréquence et le contenu des cauchemars et l’exposition à un traumatisme. Plus spécifiquement, l’article théorique propose une synthèse des études sur la fréquence et le contenu de différents types de rêves que l’on retrouve dans la période post-traumatique. La fréquence des rêves, des mauvais rêves et des cauchemars est examinée en fonction des caractéristiques du traumatisme et des variables relatives à l’individu. Enfin, le contenu des rêves des victimes de différents types de traumatismes est décrit et exploré, afin de clarifier l’impact onirique d’un traumatisme. Quant à l’article empirique, il s’intéresse spécifiquement à la maltraitance qui fait partie des événements traumatiques les plus répandus au cours de l’enfance. L’étude réalisée examine la relation entre une histoire de maltraitance dans l'enfance, la fréquence des rêves troublants (c.-à-d. cauchemars et mauvais rêves), la détresse associée à ces rêves et la psychopathologie. Les participants de l’étude (n=352 femmes) ont répondu à des questionnaires évaluant le rappel de rêves, la fréquence des rêves troublants, la détresse associée aux cauchemars, le niveau de dépression et d’anxiété ainsi qu’un passé de maltraitance. Quatre groupes ont été formés selon le type et la sévérité des expériences d'abus ou de négligence vécues dans l’enfance. Les femmes qui ont subi les mauvais traitements les plus sévères rapportent davantage de rêves troublants et des scores plus élevés de psychopathologie. Les analyses démontrent que la détresse associée aux rêves troublants et le niveau de psychopathologie sont des médiateurs du lien entre les traumatismes subis et la fréquence des rêves troublants. Les implications des deux articles issus de cette thèse sont discutées à la lumière des différents modèles théoriques accordant une fonction de régulation affective au processus onirique. Le rôle central des rêves dans l’adaptation des individus à la suite d’un traumatisme est mis en évidence ainsi que l’importance clinique et empirique d’évaluer la détresse associée aux rêves troublants indépendamment de la fréquence de ces rêves.
Resumo:
Dans cette thèse, nous présentons une nouvelle méthode smoothed particle hydrodynamics (SPH) pour la résolution des équations de Navier-Stokes incompressibles, même en présence des forces singulières. Les termes de sources singulières sont traités d'une manière similaire à celle que l'on retrouve dans la méthode Immersed Boundary (IB) de Peskin (2002) ou de la méthode régularisée de Stokeslets (Cortez, 2001). Dans notre schéma numérique, nous mettons en oeuvre une méthode de projection sans pression de second ordre inspirée de Kim et Moin (1985). Ce schéma évite complètement les difficultés qui peuvent être rencontrées avec la prescription des conditions aux frontières de Neumann sur la pression. Nous présentons deux variantes de cette approche: l'une, Lagrangienne, qui est communément utilisée et l'autre, Eulerienne, car nous considérons simplement que les particules SPH sont des points de quadrature où les propriétés du fluide sont calculées, donc, ces points peuvent être laissés fixes dans le temps. Notre méthode SPH est d'abord testée à la résolution du problème de Poiseuille bidimensionnel entre deux plaques infinies et nous effectuons une analyse détaillée de l'erreur des calculs. Pour ce problème, les résultats sont similaires autant lorsque les particules SPH sont libres de se déplacer que lorsqu'elles sont fixes. Nous traitons, par ailleurs, du problème de la dynamique d'une membrane immergée dans un fluide visqueux et incompressible avec notre méthode SPH. La membrane est représentée par une spline cubique le long de laquelle la tension présente dans la membrane est calculée et transmise au fluide environnant. Les équations de Navier-Stokes, avec une force singulière issue de la membrane sont ensuite résolues pour déterminer la vitesse du fluide dans lequel est immergée la membrane. La vitesse du fluide, ainsi obtenue, est interpolée sur l'interface, afin de déterminer son déplacement. Nous discutons des avantages à maintenir les particules SPH fixes au lieu de les laisser libres de se déplacer. Nous appliquons ensuite notre méthode SPH à la simulation des écoulements confinés des solutions de polymères non dilués avec une interaction hydrodynamique et des forces d'exclusion de volume. Le point de départ de l'algorithme est le système couplé des équations de Langevin pour les polymères et le solvant (CLEPS) (voir par exemple Oono et Freed (1981) et Öttinger et Rabin (1989)) décrivant, dans le cas présent, les dynamiques microscopiques d'une solution de polymère en écoulement avec une représentation bille-ressort des macromolécules. Des tests numériques de certains écoulements dans des canaux bidimensionnels révèlent que l'utilisation de la méthode de projection d'ordre deux couplée à des points de quadrature SPH fixes conduit à un ordre de convergence de la vitesse qui est de deux et à une convergence d'ordre sensiblement égale à deux pour la pression, pourvu que la solution soit suffisamment lisse. Dans le cas des calculs à grandes échelles pour les altères et pour les chaînes de bille-ressort, un choix approprié du nombre de particules SPH en fonction du nombre des billes N permet, en l'absence des forces d'exclusion de volume, de montrer que le coût de notre algorithme est d'ordre O(N). Enfin, nous amorçons des calculs tridimensionnels avec notre modèle SPH. Dans cette optique, nous résolvons le problème de l'écoulement de Poiseuille tridimensionnel entre deux plaques parallèles infinies et le problème de l'écoulement de Poiseuille dans une conduite rectangulaire infiniment longue. De plus, nous simulons en dimension trois des écoulements confinés entre deux plaques infinies des solutions de polymères non diluées avec une interaction hydrodynamique et des forces d'exclusion de volume.
Resumo:
Un modèle de croissance et de réponse à la radiothérapie pour le glioblastome multiforme (GBM) basé le formalisme du modèle de prolifération-invasion (PI) et du modèle linéaire-quadratique a été développé et implémenté. La géométrie spécifique au patient est considérée en modélisant, d'une part, les voies d'invasion possibles des GBM avec l'imagerie du tenseur de diffusion (DTI) et, d'autre part, les barrières à la propagation à partir des images anatomiques disponibles. La distribution de dose réelle reçue par un patient donné est appliquée telle quelle dans les simulations, en respectant l'horaire de traitement. Les paramètres libres du modèle (taux de prolifération, coefficient de diffusion, paramètres radiobiologiques) sont choisis aléatoirement à partir de distributions de valeurs plausibles. Un total de 400 ensembles de valeurs pour les paramètres libres sont ainsi choisis pour tous les patients, et une simulation de la croissance et de la réponse au traitement est effectuée pour chaque patient et chaque ensemble de paramètres. Un critère de récidive est appliqué sur les résultats de chaque simulation pour identifier un lieu probable de récidive (SPR). La superposition de tous les SPR obtenus pour un patient donné permet de définir la probabilité d'occurrence (OP). Il est démontré qu'il existe des valeurs de OP élevées pour tous les patients, impliquant que les résultats du modèle PI ne sont pas très sensibles aux valeurs des paramètres utilisés. Il est également démontré comment le formalisme développé dans cet ouvrage pourrait permettre de définir un volume cible personnalisé pour les traitements de radiothérapie du GBM.
Resumo:
Dans le cadre de la Western Climate Iniative, le Québec a déployé en 2012, un système de plafonnement et d’échange de droits d’émission de gaz à effet de serre (SPEDE). Il s’agit de l’un des premiers régimes de ce type en Amérique du Nord et celui-ci pourrait à terme, constituer l'un des maillons d’un marché commun du carbone à l’échelle du continent. Toutefois, le SPEDE appartient à une catégorie d’instruments économiques de protection de l’environnement encore peu connue des juristes. Il s’inscrit en effet dans la régulation économique de l’environnement et repose sur des notions tirées de la théorie économique, dont la rareté, la propriété et le marché. La thèse s’insère donc dans le dialogue entre juristes et économistes autour de la conception et de la mise en œuvre de ce type d’instrument. Afin d’explorer son architecture et de révéler les enjeux juridiques qui le traversent, nous avons eu recours à la méthode de l’analyse économique du droit. Celle-ci permet notamment de montrer les dynamiques d'incitation et d’efficacité qui sont à l'œuvre dans les règles qui encadrent le SPEDE. Elle permet également à donner un aperçu du rôle décisif joué par la formulation des règles de droit dans l’opérationnalisation des hypothèses économiques sous-jacentes à cette catégorie d’instrument. L’exploration est menée par l’entremise d’une modélisation progressive de l’échange de droits d’émission qui prend en compte les coûts de transaction. Le modèle proposé dans la thèse met ainsi en lumière, de manière générale, les points de friction qui sont susceptibles de survenir aux différentes étapes de l'échange de droits d'émission et qui peuvent faire obstacle à son efficacité économique. L’application du modèle aux règles du SPEDE a permis de contribuer à l’avancement des connaissances en donnant aux juristes un outil permettant de donner une cohérence et une intelligibilité à l’analyse des règles de l’échange. Elle a ainsi fourni une nomenclature des règles encadrant l’échange de droits d’émission. Cette nomenclature fait ressortir les stratégies de diversification de l’échange, d’institutionnalisation de ses modalités ainsi que les enjeux de la surveillance des marchés, dont celui des instruments dérivés adossés aux droits d’émission, dans un contexte de fragmentation des autorités de tutelle.
Resumo:
Les cas d’entreprises touchées par des scandales financiers, environnementaux ou concernant des conditions de travail abusives imposées à leur main-d’œuvre, n’ont cessé de jalonner l’actualité ces vingt dernières années. La multiplication des comportements à l’origine de ces scandales s’explique par l’environnement moins contraignant, que leur ont offert les politiques de privatisation, dérégulation et libéralisation, amorcées à partir des années 1980. Le développement de la notion de responsabilité sociale des entreprises à partir des années 1980, en réaction à ces excès, incarne l'idée que si une entreprise doit certes faire des profits et les pérenniser elle se doit de les réaliser en favorisant les comportements responsables, éthiques et transparents avec toutes ses parties prenantes. Nous analysons dans cette thèse le processus par lequel, face à des dysfonctionnements et abus, touchant les conditions de travail de leur main d’œuvre ou leur gouvernance, des entreprises peuvent être amenées, ou non, à questionner et modifier leurs pratiques. Nous avons axé notre étude de cas sur deux entreprises aux trajectoires diamétralement opposées. La première entreprise, issue du secteur de la fabrication de vêtements et dont la crise concernait des atteintes aux droits des travailleurs, a surmonté la crise en réformant son modèle de production. La seconde entreprise, située dans le secteur des technologies de l'information et de la communication, a fait face à une crise liée à sa gouvernance d’entreprise, multiplié les dysfonctionnements pendant dix années de crises et finalement déclaré faillite en janvier 2009. Les évolutions théoriques du courant néo-institutionnel ces dernières années, permettent d’éclairer le processus par lequel de nouvelles normes émergent et se diffusent, en soulignant le rôle de différents acteurs, qui pour les uns, définissent de nouvelles normes et pour d’autres se mobilisent en vue de les diffuser. Afin d’augmenter leur efficacité à l’échelle mondiale, il apparaît que ces acteurs agissent le plus souvent en réseaux, parfois concurrents. L’étude du cas de cette compagnie du secteur de la confection de vêtement nous a permis d’aborder le domaine lié aux conditions de travail de travailleurs œuvrant au sein de chaînes de production délocalisées dans des pays aux lois sociales absentes ou inefficaces. Nous avons analysé le cheminement par lequel cette entreprise fut amenée à considérer, avec plus de rigueur, la dimension éthique dans sa chaîne de production. L’entreprise, en passant par différentes étapes prenant la forme d’un processus d’apprentissage organisationnel, a réussi à surmonter la crise en réformant ses pratiques. Il est apparu que ce processus ne fut pas spontané et qu’il fut réalisé suite aux rôles joués par deux types d’acteurs. Premièrement, par la mobilisation incessante des mouvements de justice globale afin que l’entreprise réforme ses pratiques. Et deuxièmement, par le cadre normatif et le lieu de dialogue entre les différentes parties prenantes, fournis par un organisme privé source de normes. C’est fondamentalement le risque de perdre son accréditation à la cet organisme qui a poussé l’entreprise à engager des réformes. L’entreprise est parvenue à surmonter la crise, certes en adoptant et en respectant les normes définies par cette organisation mais fondamentalement en modifiant sa culture d'entreprise. Le leadership du CEO et du CFO a en effet permis la création d'une culture d'entreprise favorisant la remise en question, le dialogue et une plus grande prise en considération des parties prenantes, même si la gestion locale ne va pas sans poser parfois des difficultés de mise en œuvre. Concernant le domaine de la gouvernance d’entreprise, nous mettons en évidence, à travers l’étude des facteurs ayant mené au déclin et à la faillite d’une entreprise phare du secteur des technologies de l’information et de la communication, les limites des normes en la matière comme outil de bonne gouvernance. La légalité de la gestion comptable et la conformité de l’entreprise aux normes de gouvernance n'ont pas empêché l’apparition et la multiplication de dysfonctionnements et abus stratégiques et éthiques. Incapable de se servir des multiples crises auxquelles elle a fait face pour se remettre en question et engager un apprentissage organisationnel profond, l'entreprise s'est focalisée de manière obsessionnelle sur la rentabilité à court terme et la recherche d'un titre boursier élevé. La direction et le conseil d'administration ont manqué de leadership afin de créer une culture d'entreprise alliant innovation technologique et communication honnête et transparente avec les parties prenantes. Alors que l'étude consacrée à l’entreprise du secteur de la confection de vêtement illustre le cas d'une entreprise qui a su, par le biais d'un changement stratégique, relever les défis que lui imposait son environnement, l'étude des quinze dernières années de la compagnie issue du secteur des technologies de l’information et de la communication témoigne de la situation inverse. Il apparaît sur base de ces deux cas que si une gouvernance favorisant l'éthique et la transparence envers les parties prenantes nécessite la création d'une culture d'entreprise valorisant ces éléments, elle doit impérativement soutenir et être associée à une stratégie adéquate afin que l'entreprise puisse pérenniser ses activités.
Resumo:
Notre thèse a pour objectif de déterminer la nature des liens entre la multiplication des processus de macro-régionalisation, dans un contexte de mondialisation, et le renouvellement des politiques d’aménagement du territoire à travers la mise en place de nouvelles formes de coopération décentralisée entre villes et territoires. Notre projet de recherche cherche ainsi à établir comment la régionalisation permet la mise en place d’une gouvernance à niveaux multiples mettant en relation des acteurs territoriaux, à différents échelons de décision (supranational, national et infranational) dans le but de faire face à la complexité grandissante des problèmes actuels à l’échelle mondiale. Parmi ces projets régionaux qui émergent dans plusieurs parties du monde, nous avons choisi le Partenariat euro-méditerranéen comme cas d'étude en s'intéressant de manière particulière aux projets et programmes de coopération décentralisée et transfrontalière qui se mettent en place autour de la Méditerranée et qui mettent en relation plusieurs villes et régions riveraines. Afin de répondre à ces questions, nous avons décliné notre argumentation en plusieurs axes de réflexion. Un premier axe de réflexion tourne autour de la nature du projet régional euro-méditerranéen et de son implication au niveau des stratégies territoriales principales. Un deuxième axe concerne le contenu et les processus de mise en œuvre des programmes et projets de coopération décentralisée et transfrontalière et leur pertinence au niveau du développement local des territoires du Sud. Un troisième axe s’intéresse au rôle de l’État central en face du développement de ces initiatives qui le contourne. Enfin, un quatrième axe de réflexion concerne l’attitude de l’échelon local par rapport à ces initiatives qui l’interpellent et le sollicitent en tous sens.
Resumo:
La voie de signalisation Notch est conservée au cours de l'évolution. Elle joue un rôle clé dans le développement, et elle est impliquée dans de nombreuses décisions de destin cellulaire, dans le maintien des cellules souches, et dans le contrôle de la prolifération et de la différenciation cellulaires. Une dérégulation de la signalisation Notch est impliquée dans diverses maladies et cancers, y compris les tumeurs solides, comme les cancers du sein et du col de l'utérus, et les leucémies, comme la Leucémie Aiguë Lymphoblastique des cellules T (LAL-T). Notch est un récepteur transmembranaire activé par des ligands transmembranaires de la famille DSL (Delta/Serrate/Lag-2). Bien que plusieurs mutations oncogéniques ont été identifiées au niveau du récepteur Notch, de nombreux cancers modulés par Notch demeurent ligand-dépendants. Étonnamment, les mécanismes moléculaires régulant l'activation du ligand sont encore relativement peu caractérisés par rapport à ceux qui régissent le récepteur Notch lui-même. Utilisant un essai de co-culture avec un rapporteur luciférase de Notch, nous avons effectué le premier crible d'ARNi pan-génomique visant spécifiquement à identifier des régulateurs des ligands de Notch dans la cellule émettrice du signal. Nous avons ainsi pu découvrir de nouvelles classes de régulateurs communs pour les ligands Delta-like1 et 4. Ces régulateurs comprennent des inhibiteurs de protéases, des facteurs de transcription, et des gènes divers à fonction inconnue, tels que Tmem128 « Transmembrane protein 128 », ou à fonction préalablement caractérisée tels que la co-chaperonne moléculaire Cdc37 « Cell division cycle 37 homolog ». Par la suite, nous avons développé des cribles secondaires fonctionnels où nous avons démontré l'importance de ces régulateurs pour des événements Notch-dépendants, comme la différenciation des cellules T normales, et la survie des cellules souches pré-leucémiques isolées à partir d'un modèle murin de LAL-T. En outre, nous avons prouvé que les régulateurs les plus forts du crible de survie sont également nécessaires pour l'activité d'auto-renouvellement des cellules souches pré-leucémiques. Finalement, nous avons entamé une caractérisation moléculaire préliminaire de deux régulateurs nouvellement identifiés; Tmem128 et Cdc37 afin d'étudier leur mécanisme d'action sur les ligands. En conclusion, cette étude nous a permis d'identifier de nouveaux régulateurs de la voie Notch qui pourraient servir de cibles thérapeutiques potentielles dans les cancers; tel qu'illustré par le modèle LAL-T. La compréhension des détails moléculaires sous-jacents aux fonctions de ces régulateurs sera essentielle afin de développer des inhibiteurs pharmacologiques pour bloquer leur action et entraver la signalisation Notch dans le cancer.
Resumo:
En Amérique du Nord, les pratiques actuelles de conception de l’industrie de la construction suscitent de nombreux et importants problèmes, tant au niveau environnemental, que social et économique. Certaines tendances conceptuelles, telles que l’industrialisation de la construction, le bâtiment vert, l’approche diachronique et la rationalisation spatiale proposent des moyens afin de répondre à cette problématique. La conception synchronique, qui ne se base encore que sur des besoins immédiats, produit des bâtiments statiques qui ne peuvent accommoder l’évolution des besoins. En plus de la phase d’usage qui se révèle la plus coûteuse en termes de consommation d’énergie, d’eau, de matériaux et de génération de déchets, le bâtiment statique est amené à subir de nombreuses rénovations, profondément délétères pour l’environnement et la situation économique des ménages. Dans une perspective d’opérationnalisation du développement durable, la problématique de recherche concerne la considération de la phase d’usage dans le processus conceptuel de l’habitation. Dans l’optique de favoriser une conception plutôt diachronique, 55 projets de rénovation résidentiels ont été analysés et comparés afin de décrire la nature et l’intensité des interventions effectuées. L’examen des plans avant/après rénovation a permis de quantifier le niveau d’intensité des interventions et ainsi, mettre en relief certaines tendances et récurrences des pratiques actuelles. Dans le but de valider si le bâtiment vert est en mesure de répondre aux enjeux environnementaux contemporains de l’habitation, les contenus de trois programmes de certification utilisés en Amérique du Nord, à savoir BOMA-BESt®, LEED®, et Living Building ChallengeTM, sont analysés. Une classification des stratégies proposées montre la répartition des préoccupations envers le bâtiment, les systèmes et l’usager. Une analyse permet de mettre en relief que les considérations semblent, de façon générale, cohérentes avec les impacts associés à l’habitation. Un examen plus ciblé sur la teneur et les objectifs des stratégies considérant l’usager permet l’émergence de deux ensembles thématiques : les cinq sources potentielles d’impacts (énergie, eau, matériaux, déchets et environnement intérieur), ainsi que les quatre thèmes reliés aux objectifs et aux finalités des stratégies (entretien et surveillance; sensibilisation et formation; modélisation et mesurage; comportement et habitude). La discussion a permis d’émettre des pistes d’écoconception pour permettre à l’habitation d’accommoder l’évolution des besoins des occupants, à savoir la « démontabilité », l’aptitude à l’évolution et l’accessibilité. Des recommandations, telles que la nécessité de mieux prendre en compte l’usager comme facteur d’influence des impacts occasionnés par la phase d’usage, sont ensuite proposées. D’autres suggestions appellent à une concrétisation de la performance en suscitant l’implication, l’engagement, la responsabilisation et l’autonomisation des occupants. Enfin, il semble que certaines modifications des programmes de certification et de la législation en vigueur pourraient favoriser l’émergence d’une vision nouvelle concernant la nécessaire réduction de la superficie habitable. Toutes ces opportunités d’amélioration ont le potentiel de mener ce secteur vers une démarche plus globale et systémique, tout en bonifiant de façon majeure les implications environnementales, économiques et sociales de l’habitation.
Resumo:
L'arthrose est la maladie musculo-squelettique la plus commune dans le monde. Elle est l'une des principales causes de douleur et d’incapacité chez les adultes, et elle représente un fardeau considérable sur le système de soins de santé. L'arthrose est une maladie de l’articulation entière, impliquant non seulement le cartilage articulaire, mais aussi la synoviale, les ligaments et l’os sous-chondral. L’arthrose est caractérisée par la dégénérescence progressive du cartilage articulaire, la formation d’ostéophytes, le remodelage de l'os sous-chondral, la détérioration des tendons et des ligaments et l'inflammation de la membrane synoviale. Les traitements actuels aident seulement à soulager les symptômes précoces de la maladie, c’est pour cette raison que l'arthrose est caractérisée par une progression presque inévitable vers la phase terminale de la maladie. La pathogénie exacte de l'arthrose est encore inconnue, mais on sait que l'événement clé est la dégradation du cartilage articulaire. Le cartilage articulaire est composé uniquement des chondrocytes; les cellules responsables de la synthèse de la matrice extracellulaire et du maintien de l'homéostasie du cartilage articulaire. Les chondrocytes maintiennent la matrice du cartilage en remplaçant les macromolécules dégradées et en répondant aux lésions du cartilage et aux dégénérescences focales en augmentant l'activité de synthèse locale. Les chondrocytes ont un taux faible de renouvellement, c’est pour cette raison qu’ils utilisent des mécanismes endogènes tels que l'autophagie (un processus de survie cellulaire et d’adaptation) pour enlever les organelles et les macromolécules endommagés et pour maintenir l'homéostasie du cartilage articulaire. i L'autophagie est une voie de dégradation lysosomale qui est essentielle pour la survie, la différenciation, le développement et l’homéostasie. Elle régule la maturation et favorise la survie des chondrocytes matures sous le stress et des conditions hypoxiques. Des études effectuées par nous et d'autres ont montré qu’un dérèglement de l’autophagie est associé à une diminution de la chondroprotection, à l'augmentation de la mort cellulaire et à la dégénérescence du cartilage articulaire. Carames et al ont montré que l'autophagie est constitutivement exprimée dans le cartilage articulaire humain normal. Toutefois, l'expression des inducteurs principaux de l'autophagie est réduite dans le vieux cartilage. Nos études précédentes ont également identifié des principaux gènes de l’autophagie qui sont exprimés à des niveaux plus faibles dans le cartilage humain atteint de l'arthrose. Les mêmes résultats ont été montrés dans le cartilage articulaire provenant des modèles de l’arthrose expérimentaux chez la souris et le chien. Plus précisément, nous avons remarqué que l'expression d’Unc-51 like kinase-1 (ULK1) est faible dans cartilage humain atteint de l'arthrose et des modèles expérimentaux de l’arthrose. ULK1 est la sérine / thréonine protéine kinase et elle est l’inducteur principal de l’autophagie. La perte de l’expression de ULK1 se traduit par un niveau d’autophagie faible. Etant donné qu’une signalisation adéquate de l'autophagie est nécessaire pour maintenir la chondroprotection ainsi que l'homéostasie du cartilage articulaire, nous avons proposé l’hypothèse suivante : une expression adéquate de ULK1 est requise pour l’induction de l’autophagie dans le cartilage articulaire et une perte de cette expression se traduira par une diminution de la chondroprotection, et une augmentation de la mort des chondrocytes ce qui conduit à la dégénérescence du cartilage articulaire. Le rôle exact de ULK1 dans la pathogénie de l'arthrose est inconnue, j’ai alors créé pour la première fois, des souris KO ULK1spécifiquement dans le cartilage en utilisant la technologie Cre-Lox et j’ai ensuite soumis ces souris à la déstabilisation du ménisque médial (DMM), un modèle de l'arthrose de la souris pour élucider le rôle spécifique in vivo de ULK1 dans pathogenèse de l'arthrose. Mes résultats montrent que ULK1 est essentielle pour le maintien de l'homéostasie du cartilage articulaire. Plus précisément, je montre que la perte de ULK1 dans le cartilage articulaire a causé un phénotype de l’arthrose accéléré, associé à la dégénérescence accélérée du cartilage, l’augmentation de la mort cellulaire des chondrocytes, et l’augmentation de l'expression des facteurs cataboliques. En utilisant des chondrocytes provenant des patients atteints de l’arthrose et qui ont été transfectées avec le plasmide d'expression ULK1, je montre qu’ULK1 est capable de réduire l’expression de la protéine mTOR (principal régulateur négatif de l’autophagie) et de diminuer l’expression des facteurs cataboliques comme MMP-13 et ADAMTS-5 et COX-2. Mes résultats jusqu'à présent indiquent que ULK1 est une cible thérapeutique potentielle pour maintenir l'homéostasie du cartilage articulaire.
Resumo:
Le présent travail explore le phénomène de la rivalité interétatique1 et les mesures de son intensité. Chacune des définitions existantes de la rivalité fait la lumière sur l’une de ses caractéristiques. La rivalité durable met l’accent sur la compétition militarisée, la rivalité stratégique accorde une importance particulière à la perception de l’ennemi, tandis que la rivalité interétatique est axée sur les questions autour desquelles la compétition se déroule. Ces visions différentes du phénomène de la rivalité laissent leur empreinte sur son opérationnalisation et sur le choix des paramètres visant à le capter. Nous réunissons ces trois interprétations dans une seule définition de rivalité interacteur, en proposant une nouvelle classification des actions hostiles, ainsi que la mesure alternative d’hostilité fondée sur la fréquence de ces dernières. Les quatre études de cas suivantes nous ont permis d’atteindre ces objectifs : les relations de rivalité entre l’Afghanistan et le Pakistan, entre l’Arménie et l’Azerbaïdjan, entre le Bélize et le Guatemala, ainsi qu’entre la Somalie et l’Éthiopie.
Resumo:
Ce mémoire explore les productions et les articulations des appartenances au mouvement Slow Fashion sur Twitter. En réaction au modèle actuel prédominant du Fast Fashion, basé sur une surproduction et une surconsommation des vêtements, le Slow Fashion sensibilise les différents acteurs du secteur de la mode à avoir une vision plus consciente des impacts de leurs pratiques sur les travailleurs, les communautés et les écosystèmes (Fletcher, 2007) et propose une décélération des cycles de production et de consommation des vêtements. L’enjeu de cette recherche est de montrer que le Slow Fashion se dessine notamment à travers les relations entres les différents acteurs sur Twitter et que l'ensemble de ces interactions prend la forme d'un rhizome, c’est-à-dire d’un système dans lequel les éléments qui le composent ne suivent aucune arborescence, aucune hiérarchie et n’émanent pas d’un seul point d’origine. (Deleuze & Guattari, 1976) Sur Twitter, les appartenances au Slow Fashion font surface, se connectent les unes aux autres par des liens de nature différente. Consommateurs, designers, entreprises, journalistes, etc., ces parties prenantes construisent collectivement le Slow Fashion comme mouvement alternatif à la mode mainstream actuelle. Mon cadre théorique s’est construit grâce à une analyse de la littérature des concepts de mode, d’identité et d’appartenance afin de mieux appréhender le contexte dans lequel le mouvement a émergé. Puis, j’ai également réalisé une étude exploratoire netnographique sur Twitter au cours de laquelle j’ai observé, tout en y participant, les interactions sur la plateforme abordant le Slow Fashion et/ou la mode éthique. Publiée sur ce blogue (http://belongingtoslowfashion.blogspot.ca), cette « creative presentation of research » (Chapman & Sawchuk, 2012) ne constitue pas une histoire présentant les prétendues origines de ce mouvement mais plutôt une photographie partielle à un certain moment du Slow Fashion. Construite tel un rhizome, elle n’a ni début, ni fin, ni hiérarchie. J’invite alors les lectrices/lecteurs à choisir n’importe quelle entrée et à délaisser toute logique linéaire et déductive. Cette exploration sera guidée par des liens hypertextes ou des annotations qui tisseront des connexions avec d’autres parties ou feront émerger d’autres questionnements. Il s’agit d’offrir une introduction aux enjeux que pose le Slow Fashion, d’ouvrir la voie à d’autres recherches et d’autres réflexions, ou encore de sensibiliser sur ce sujet.