795 resultados para Règle Majorité


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche, de type exploratoire et descriptif, s’intéresse à l’expérience et au point de vue des parents à l’égard de l’implication directe de leurs enfants en médiation familiale. La méthodologie privilégiée pour réaliser cette étude est qualitative, et la perspective théorique utilisée est la phénoménologie. L’échantillon est constitué de huit parents, tous ayant participé à une entrevue semi-dirigée au sujet de l’implication de leurs enfants dans le processus de médiation familiale. Les données ont été recueillies entre le mois de mai et octobre 2013, et ont été analysées en s’appuyant sur la méthode d’analyse de contenu telle que proposée par L’Écuyer (1990) ainsi que Mayer et Deslauriers (2000). Il ressort de cette recherche que l’implication directe des enfants en médiation familiale a une influence considérable sur le processus. En effet, la majorité des participants de la présente étude ont rapporté que l’implication de leurs enfants a été déterminante afin de conclure une entente au sujet du partage des responsabilités parentales. Aussi, les résultats suggèrent que la majorité des participants ont vécu de manière positive la participation de leurs enfants et sont satisfaits des retombées de l’implication. Par contre, quelques parents ont vécu de manière négative cette expérience. De tels résultats mettent en lumière les limites et risques liés à l’implication directe des enfants en médiation familiale. De plus, les modalités d’implication choisies par les médiateurs familiaux semblent avoir influencé le vécu des parents et de leurs enfants dans le processus. Les résultats donnent également accès à la perception des parents au sujet du vécu de leurs enfants avant, pendant et après le processus d’implication. Une suggestion qui émane de cette recherche est que l’enfant, bien qu’amené à prendre parole dans la médiation familiale, ne doit pas être tenu responsable d’une décision liée au partage des responsabilités parentales. Les conclusions de ce mémoire alimentent une stratégie en médiation familiale qui est peu documentée à partir de l’expérience et du point de vue des parents.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les travaux effectués dans le cadre de cette thèse de doctorat avaient pour but de mettre au point des nouvelles formulations d’antifongiques sous forme de nanoparticules polymériques (NP) en vue d’améliorer l’efficacité et la spécificité des traitements antifongiques sur des souches sensibles ou résistantes de Candida spp, d’Aspergillus spp et des souches de Candida albicans formant du biofilm. Dans la première partie de ce travail, nous avons synthétisé et caractérisé un polymère à base de polyester-co-polyéther branché avec du poly(éthylène glycol) (PEG-g-PLA). En plus d’être original et innovant, ce co-polymère a l’avantage d’être non-toxique et de posséder des caractéristiques de libération prolongée. Trois antifongiques couramment utilisés en clinique et présentant une biodisponibilité non optimale ont été choisis, soient deux azolés, le voriconazole (VRZ) et l’itraconazole (ITZ) et un polyène, l’amphotéricine B (AMB). Ces principes actifs (PA), en plus des problèmes d’administration, présentent aussi d’importants problèmes de toxicité. Des NP polymériques encapsulant ces PA ont été préparées par une technique d’émulsion huile-dans-l’eau (H/E) suivie d’évaporation de solvant. Une fois fabriquées, les NP ont été caractérisées et des particules de d’environ 200 nm de diamètre ont été obtenues. Les NP ont été conçues pour avoir une structure coeur/couronne avec un coeur constitué de polymère hydrophobe (PLA) et une couronne hydrophile de PEG. Une faible efficacité de chargement (1,3% m/m) a été obtenue pour la formulation VRZ encapsulé dans des NP (NP/VRZ). Toutefois, la formulation AMB encapsulée dans des NP (NP/AMB) a montré des taux de chargement satisfaisants (25,3% m/m). En effet, le caractère hydrophobe du PLA a assuré une bonne affinité avec les PA hydrophobes, particulièrement l’AMB qui est le plus hydrophobe des agents sélectionnés. Les études de libération contrôlée ont montré un relargage des PA sur plusieurs jours. La formulation NP/AMB a été testée sur un impacteur en cascade, un modèle in vitro de poumon et a permis de démontrer le potentiel de cette formulation à être administrée efficacement par voie pulmonaire. En effet, les résultats sur l’impacteur en cascade ont montré que la majorité de la formulation s’est retrouvée à l’étage de collecte correspondant au niveau bronchique, endroit où se situent majoritairement les infections fongiques pulmonaires. Dans la deuxième partie de ces travaux, nous avons testé les nouvelles formulations d’antifongiques sur des souches planctoniques de Candida spp., d’Aspergillus spp. et des souches de Candida albicans formant du biofilm selon les procédures standardisées du National Committee for Clinical Laboratory Standards (NCCLS). Les souches choisies ont démontré des résistances aux azolés et aux polyènes. Les études d’efficacité in vitro ont permis de prouver hors de tout doute que les nouvelles formulations offrent une efficacité nettement améliorée comparée à l’agent antifongique libre. Pour mettre en lumière si l’amélioration de l’efficacité antifongique était due à une internalisation des NP, nous avons évalué le comportement des NP avec les cellules de champignons. Nous avons procédé à des études qualitatives de microscopie de fluorescence sur des NP marquées avec de la rhodamine (Rh). Tel qu’attendu, les NP ont montré une localisation intracellulaire. Pour exclure la possibilité d’une simple adhésion des NP à la surface des levures, nous avons aussi confirmé leur internalisation en microscopie confocale de fluorescence. Il est important de noter que peu d’études à ce jour ont mis l’accent sur l’élaboration de nouvelles formulations d’antifongiques à base de polymères non toxiques destinées aux traitements des mycoses, donnant ainsi une grande valeur et originalité aux travaux effectués dans cette thèse. Les résultats probants obtenus ouvrent la voie vers une nouvelle approche pour contourner les problèmes de résistances fongiques, un problème de plus en plus important dans le domaine de l’infectiologie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La maintenance du logiciel est une phase très importante du cycle de vie de celui-ci. Après les phases de développement et de déploiement, c’est celle qui dure le plus longtemps et qui accapare la majorité des coûts de l'industrie. Ces coûts sont dus en grande partie à la difficulté d’effectuer des changements dans le logiciel ainsi que de contenir les effets de ces changements. Dans cette perspective, de nombreux travaux ont ciblé l’analyse/prédiction de l’impact des changements sur les logiciels. Les approches existantes nécessitent de nombreuses informations en entrée qui sont difficiles à obtenir. Dans ce mémoire, nous utilisons une approche probabiliste. Des classificateurs bayésiens sont entraînés avec des données historiques sur les changements. Ils considèrent les relations entre les éléments (entrées) et les dépendances entre changements historiques (sorties). Plus spécifiquement, un changement complexe est divisé en des changements élémentaires. Pour chaque type de changement élémentaire, nous créons un classificateur bayésien. Pour prédire l’impact d’un changement complexe décomposé en changements élémentaires, les décisions individuelles des classificateurs sont combinées selon diverses stratégies. Notre hypothèse de travail est que notre approche peut être utilisée selon deux scénarios. Dans le premier scénario, les données d’apprentissage sont extraites des anciennes versions du logiciel sur lequel nous voulons analyser l’impact de changements. Dans le second scénario, les données d’apprentissage proviennent d’autres logiciels. Ce second scénario est intéressant, car il permet d’appliquer notre approche à des logiciels qui ne disposent pas d’historiques de changements. Nous avons réussi à prédire correctement les impacts des changements élémentaires. Les résultats ont montré que l’utilisation des classificateurs conceptuels donne les meilleurs résultats. Pour ce qui est de la prédiction des changements complexes, les méthodes de combinaison "Voting" et OR sont préférables pour prédire l’impact quand le nombre de changements à analyser est grand. En revanche, quand ce nombre est limité, l’utilisation de la méthode Noisy-Or ou de sa version modifiée est recommandée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Parmi l’ensemble des désordres métaboliques retrouvés en insuffisance rénale chronique (IRC), la résistance à l’insuline demeure l’un des plus importantes à considérer en raison des risques de morbidité et de mortalité qu’elle engendre via les complications cardiovasculaires. Peu d’études ont considéré la modulation de transporteurs de glucose comme mécanisme sous-jacent à l’apparition et à la progression de la résistance à l’insuline en IRC. Nous avons exploré cette hypothèse en étudiant l’expression de transporteurs de glucose issus d’organes impliqués dans son homéostasie (muscles, tissus adipeux, foie et reins) via l’utilisation d’un modèle animal d’IRC (néphrectomie 5/6e). La sensibilité à l’insuline a été déterminée par un test de tolérance au glucose (GTT), où les résultats reflètent une intolérance au glucose et une hyperinsulinémie, et par les études de transport au niveau musculaire qui témoignent d’une diminution du métabolisme du glucose en IRC (~31%; p<0,05). La diminution significative du GLUT4 dans les tissus périphériques (~40%; p<0,001) peut être à l’origine de la résistance à l’insuline en IRC. De plus, l’augmentation de l’expression protéique de la majorité des transporteurs de glucose (SGLT1, SGLT2, GLUT1; p<0,05) au niveau rénal en IRC engendre une plus grande réabsorption de glucose dont l’hyperglycémie subséquente favorise une diminution du GLUT4 exacerbant ainsi la résistance à l’insuline. L’élévation des niveaux protéiques de GLUT1 et GLUT2 au niveau hépatique témoigne d’un défaut homéostatique du glucose en IRC. Les résultats jusqu’ici démontrent que la modulation de l’expression des transporteurs de glucose peut être à l’origine de la résistance à l’insuline en IRC. L’impact de la parathyroïdectomie (PTX) sur l’expression du GLUT4 a été étudié étant donné que la PTX pourrait corriger l’intolérance au glucose en IRC. Nos résultats démontrent une amélioration de l’intolérance au glucose pouvant être attribuable à la moins grande réduction de l’expression protéique du GLUT4 dans les tissus périphériques et ce malgré la présence d’IRC. L’excès de PTH, secondaire à l’hyperparathyroïdie, pourrait alors être à l’origine de la résistance à l’insuline en IRC en affectant l’expression du GLUT4. L’IRC partage de nombreuses similitudes avec le prédiabète quant aux défaillances du métabolisme du glucose tout comme l’hyperinsulinémie et l’intolérance au glucose. Aucune étude n’a tenté d’évaluer si l’IRC pouvait ultimement mener au diabète. Nos résultats ont par ailleurs démontré que l’induction d’une IRC sur un modèle animal prédisposé (rats Zucker) engendrait une accentuation de leur intolérance au glucose tel que constaté par les plus hautes glycémies atteintes lors du GTT. De plus, certains d’entre eux avaient des glycémies à jeun dont les valeurs surpassent les 25 mmol/L. Il est alors possible que l’IRC puisse mener au diabète via l’évolution de la résistance à l’insuline par l’aggravation de l’intolérance au glucose.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le déroulement du commerce électronique sur un marché global suscite de nombreux questionnements juridiques. D'une part, le droit est conçu à l'échelle nationale en fonction d'un milieu social tributaire de son histoire et de sa culture et d'autre part, le commerce électronique global présente des caractéristiques très singulières : dématérialisation, ubiquité et dimension transfrontalière. Or, une telle confrontation est susceptible de menacer la sécurité juridique des parties dans leurs transactions commerciales en ligne mais aussi la confiance nécessaire à leur développement. Les territoires nationaux, en limitant le pouvoir d’action effectif des États, pose un problème d’échelle : réglementer un phénomène global confronté à des souverainetés territoriales multiples. L’encadrement normatif du commerce électronique global se développe désormais, en partie, à un niveau extra étatique, confirmant l’érosion du monopole des États dans la régulation des rapports juridiques globalisés. La normativité devient le résultat d’un jeu normatif ouvert non seulement quant aux acteurs de la régulation, mais également quant à la qualification des normes impliquées dans cette régulation. Prenant la mesure de la complexité croissante de la normativité, les États interviennent pour tenter de concilier les pratiques nouvelles avec la règle de droit dans une logique de définition des règles du jeu et d’harmonisation du comportement des acteurs économiques. Les systèmes de droit nationaux apprennent à interagir avec des normes multiples de sources différentes. Cette évolution reflète l’articulation des dynamiques de mutation de la normativité avec le phénomène de globalisation du commerce électronique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Entre 1378 et 1417, l’Église est d’abord divisée entre deux, puis entre trois papes concurrents. Alors qu’Urbain VI et ses successeurs s’installent à Rome, Clément VII et son successeur rentrent en Avignon. Cette thèse répertorie et analyse les différentes expériences normandes en réponse au Grand Schisme d’Occident. Les engagements normands pour résoudre le schisme sont pluriels et s’expriment différemment selon les milieux. S’appuyant sur des sources diverses telles que le Registre des suppliques des archives du Vatican, les archives de l’Université de Paris et les archives locales, elle met en évidence les différents courants qui ont coexisté en Normandie en réaction au Grand Schisme d’Occident. Alors que la noblesse normande était généralement favorable aux papes d’Avignon, reconnus officiellement par le roi de France, d’importants courants de résistance envers cette papauté se sont aussi manifestés dans les milieux universitaires et au sein du clergé normand, poussant même certains à choisir l’exil en terre urbaniste. Ces exilés normands, bien que peu nombreux, ont exercé une influence considérable et ont été peu étudiés en tant que groupe auparavant. Parmi l’importante majorité de ceux qui restèrent dans l’obédience avignonnaise, plusieurs intellectuels normands furent pourtant reconnus comme étant d’acerbes critiques, voire des ennemis de Clément VII et de Benoît XIII. Les liens qu’ont maintenus les exilés normands avec leurs collègues restés en terre clémentiste ont joué un rôle appréciable dans le rapprochement des obédiences opposées au début du XVe siècle. La présente thèse permet de mettre en lumière les multiples attitudes normandes en réponse au schisme, d’approfondir la connaissance portant sur les milieux normands touchés par la crise, ainsi que sur les débats qui l’ont entourée, et de poursuivre la réflexion sur la question de l’obéissance et des réseaux normands à l’œuvre pendant cette période.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'arthrose est une maladie articulaire dégénérative, avec une pathogenèse inconnue. Des études récentes suggèrent que l'activation du facteur de transcription du récepteur activateur de la prolifération des peroxysomes (PPAR) gamma est une cible thérapeutique pour ce maladie. Les agonistes du PPARγ inhibent l'inflammation et réduisent la synthèse des produits de dégradation du cartilage in vitro et in vivo. Cependant, des études utilisant des agonistes du PPARγ n’élucident pas les effets exacts médiés par ce gène complexe. En effet, certains de ces agonistes ont la capacité de régulariser d'autres voies de signalisation indépendantes de PPARγ, ainsi entraînant des effets secondaires graves. Afin d'obtenir une efficacité thérapeutique avec potentiellement moins de problèmes de sécurité, il est donc essentiel d'élucider, in vivo, le rôle exact de PPARγ dans la physiopathologie OA. Mon projet de thèse permettra de déterminer, pour la première fois, le rôle spécifique de PPARγ in vivo dans la physiopathologie OA. Les souris utilisées pour l’étude avaient une délétion conditionnelle du gène PPARγ dans le cartilage. Ces dernières ont été générées en employant le système LoxP/Cre. Pour tester cette hypothèse, j'ai généré deux types de souris avec une délétion au PPARγ, (a) une suppression du gène PPARγ spécifiquement dans le cartilage germinale pour l'étude de l'arthrose liée au développement et à l'âge et (b) la suppression inductible du gène PPARγ spécifiquement dans le cartilage chez la souris adulte pour les études OA. L’étude précédente dans notre laboratoire, utilisant ces souris ayant une délétion au gène PPARγ germinales, montre que ces souris présentent des anomalies du développement du cartilage. J'ai également exploré si ces souris qui présentent des défauts précoces du développement ont toutes les modifications phénotypiques dans le cartilage au cours du vieillissement. Mes résultats ont montré que les souris adultes, ayant une délétion au gène PPARγ, ont présenter un phénotype de l'arthrose spontanée associée à une dégradation du cartilage, l’hypocellularité, la fibrose synoviale. Cette étude a montré que PPARγ est un régulateur essentiel pour le cartilage, et c’est le manque (l’absence) de ce dernier qui conduit à un phénotype de l'arthrose spontanée accélérée (American Journal of Pathologie). A partir de ce but de l'étude, on n’a pas pu vérifier si ces souris présentaient l’OA spontanée en raison des défauts de développement ou à la suite de la délétion du gène PPARγ. Pour contourner les défauts de développement, j'ai généré des souris ayant une délétion du gène PPARγ spécifiquement dans le cartilage inductible avec le système Col2rTACre. Ces souris ont été soumises à modèle de la chirurgie OA (DMM: déstabilisation du ménisque médial) et les résultats révèlent que les souris PPARγ KO ont une dégradation accélérée du cartilage, une hypocellularité, une fibrose synoviale et une augmentation de l'expression des marqueurs cataboliques et des marqueurs inflammatoire. La perte de PPAR dans le cartilage articulaire est un évènement critique qui initie la dégradation de cartilage dans OA. Les études récentes suggèrent que le procès d’autophagie, une forme de survie cellulaire programmée, est altéré pendant l’OA et peut contribuer vers une protection diminuée des cellules, résultant la dégradation du cartilage. J’ai donc exploré le rôle de PPARγ dans la protection des cellules en déterminant l’effet de manque de PPARγ dans le cartilage par l’expression de mTOR (régulateur négatif principal d’autophagie) et les gènes d’autophagie durant OA. Mes résultats ont montré que les souris KO PPARγ présentent également une augmentation sur l'expression de mTOR et une diminution sur l’expression des marqueurs autophagiques en comparaison avec les chondrocytes articulaires isolés des souris contrôles OA. J'ai suggéré l'hypothèse que PPARγ contrôle la régulation de la signalisation de mTOR/autophagie, et finalement la mort des chondrocytes et l’expression des facteurs cataboliques et les facteurs inflammatoire. Pour tester cette hypothèse, j’ai fait la transfection des chondrocytes arthrosiques PPARγ-KO avec le vecteur d’expression de PPARγ pour déterminer si la restauration de l'expression de PPARγ peut sauver le phénotype des cellules PPARγ-KO OA. J'ai observé que la restauration de l'expression de PPARγ dans les cellules PPARγ-KO en présence du vecteur d'expression PPARγ, a pu considérablement régulariser négativement l'expression de mTOR et mettre en règle positivement l'expression des gènes autophagiques ainsi que le sauvetage significative de l'expression du collagène de type II et l’aggrecan et de baisser de manière significative l'expression de marqueurs cataboliques critiques et des marqueurs inflammatoires. Pour prouver que l’augmentation de la signalisation de mTOR et la diminution de l'autophagie est responsable du phénotype OA accélérée observée dans les souris PPARγ KO in vivo, j'ai généré les souris doubles KO PPARγ- mTOR inductible spécifique du cartilage en utilisant le système Col2 - rtTA -Cre et soumis ces souris à DMM modèle de l'arthrose. Mes résultants démontrent que les souris avec PPARγ- mTOR doubles KO ont été significativement protégés contre les OA DMM induites associées à une protection significative contre la destruction du cartilage, la perte de protéoglycanes et la perte de chondro-cellularité par rapport aux souris témoins. Considérant que mTOR est un répresseur majeur de l'autophagie, j'ai trouvé que l'expression de deux marqueurs de l'autophagie critiques (ULK1 et LC3B) a été significativement plus élevée dans les chondrocytes extraits les souris doubles KO PPARγ-mTOR par rapport aux souris témoins. En plus, les études de sauvetage in vitro en utilisant le vecteur d'expression PPAR et les études in vivo utilisant les souris doubles KO PPARγ- mTOR montrent que PPARγ est impliqué dans la régulation de la protéine signalant de mTOR/autophagie dans le cartilage articulaire. Ces résultats contournent PPARγ et sa signalisation en aval de mTOR/autophagie en tant que cibles thérapeutiques potentielles pour le traitement de l'arthrose.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’expansion de l’organisation de la production des biens et services sous forme de réseau, découlant de la recherche de flexibilité face à une concurrence économique accrue, soulève des enjeux importants pour les relations industrielles. Notre thèse s’intéresse au processus de précarisation des emplois dans les segments externalisés des réseaux de production. Elle se base sur trois études de cas portant sur les réseaux de services publics et privés d’aide à domicile au Québec. Les études en droit critique ont montré que le droit du travail, fondé sur le modèle de l’entreprise intégrée et de la relation d’emploi bipartite, ne parvient pas à identifier comme employeurs certaines organisations dont l’action a pourtant un effet déterminant sur les conditions de travail dans les réseaux. Notre thèse visait donc à mettre en lumière la réalité empirique des relations de pouvoir qui traversent les réseaux et leurs effets et ce à partir d’un modèle analytique transdisciplinaire intégrant les dimensions juridiques et sociologiques. Les résultats nous amènent d’abord à constater que l’employeur juridique des travailleuses employées par les prestataires privés intégrés aux réseaux – une majorité de femmes – est le plus souvent une agence de location de personnel, une entreprise d’économie sociale ou même l’usager-ère des services d’aide à domicile. Cet employeur est rarement identifié aux organismes publics, donc sous l’égide de l’État, qui exercent un pouvoir prépondérant dans ces réseaux. Le décalage entre la régulation juridique du travail et la réalité empirique du pouvoir intra-réseau entraîne une précarisation de la protection sociale et des conditions de travail de ces travailleuses. Ainsi, la faible protection de leurs droits de représentation et de négociation collectives facilite l’imposition de la « disponibilité permanente juste-à-temps », combinant les logiques du lean et du travail domestique, ainsi qu’une déqualification sexuée et racialisée de leurs emplois par rapport à la situation dans le secteur public. Notre étude montre néanmoins que certaines pratiques innovatrices d’action collective réticulaire ont pu influencer la dynamique de pouvoir, en particulier celles portées par des associations locales de personnes handicapées recourant aux services et par un syndicat de travailleuses d’agence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’épidémie de tabagisme est responsable de la mort de millions de personnes et malgré cela, la consommation mondiale de produits du tabac ne cesse d’augmenter. La majorité des fumeurs vivent aujourd’hui dans les pays à revenu faible et intermédiaire, et les maladies non-transmissibles liées au tabac représentent un important fardeau pour ces systèmes de santé. L’Amérique du Sud n’y échappe pas et un fait très préoccupant est certainement la prévalence élevée chez les adolescents de cette région. La présente étude visait à évaluer l’effet du prix des cigarettes et de l’exposition à la publicité en faveur du tabac sur le tabagisme des adolescents d’Amérique du Sud, et ce à partir des données du Global Youth Tobacco Survey. Les niveaux d’exposition à la publicité et les prix auto-déclarés ont été utilisés pour modéliser ces relations, et les comportements tabagiques étudiés étaient l’expérimentation, la participation et la consommation. L’échantillon total comprenait 134 073 répondants provenant de 12 pays. Les résultats de l’étude ont montré que l’exposition à la publicité en faveur du tabac avait un effet positif sur le tabagisme des adolescents, mais contrairement au consensus établi dans la littérature, la relation négative entre le prix des cigarettes et le tabagisme n’a pas été observée de façon convaincante. Des lacunes inhérentes à la base de données utilisée pourraient expliquer ces résultats inattendus, et certains éléments méthodologiques du sondage sont remis en question.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire porte sur l’étude des macrorestes végétaux provenant du site villageois Droulers occupé durant la 2e moitié du XVe siècle par une communauté iroquoienne du Saint-Laurent. Il vise à vérifier les pratiques de ces habitants en ce qui a trait à la part végétale de leur alimentation à moins d’un siècle avant la fin de la préhistoire. Des vestiges découlant de la pratique de l’agriculture et de la cueillette sont présents sur différents contextes du site. L’analyse de ces derniers permet d’établir l’importance de ces activités dans la vie quotidienne des habitants du site. Ainsi, il est possible de valider l’importance du maïs dans le mode de subsistance de ce groupe par l’ubiquité de cette espèce sur le site. Le maïs est effectivement l’espèce végétale la plus présente dans les différents contextes étudiés. La présence de cette espèce jumelée à celle du haricot en quantité considérable et à celle de la courge démontre la pratique de l’agriculture des Trois Soeurs au site Droulers, une pratique documentée historiquement par les premiers chroniqueurs. Les macrorestes de fruits et de noix sont relativement bien représentés sur le site ce qui suggère la place importante de la cueillette dans la diète des habitants de Droulers. L’étude comparative synchronique et diachronique de ces macrorestes avec ceux recueillis ailleurs en Iroquoisie aide à mieux situer le degré d’importance des activités mentionnées ci-haut au site Droulers par rapport à celui sur d’autres sites plus anciens, contemporains et plus récents du même grand groupe culturel. La majorité des fruits présents sur ce site étaient également cueillis par les groupes proto-iroquoiens Glen Meyer et Princess Point et par d’autres groupes iroquoiens (préhistoriques et historiques). Le degré d’utilisation des fruits sauvages sur le site Droulers est en continuité avec celui des groupes apparentés plus anciens et plus récents. L’utilisation des cultigènes et des noix par les occupants du site Droulers est comparable à celle d’autres groupes iroquoiens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Chez la bactérie Escherichia coli, la topoisomérase I et la gyrase représentent deux topoisomérases majeures qui participent à la régulation du surenroulement de l’ADN. Celles-ci sont codées respectivement par les gènes topA et par gyrA et gyrB. Chez les mutants topA, l’excès de surenroulement négatif qui est généré en amont de la polymérase ARN lors de la phase d’élongation de la transcription de l’ADN, entraine la formation de R-loops. Les R-loops sont des hybrides ARN-ADN qui in vivo sont formés lorsque l’ARN nouvellement transcrit forme un hybride avec le brin d’ADN matrice, le brin d’ADN complémentaire demeurant sous forme simple brin. La RNase HI est une endoribonucléase codée par le gène rnhA. Elle dégrade l’ARN de R-loops, entre autres, pour empêcher l’initiation de la réplication à des sites autres que l’origine normale, oriC. Chez les mutants rnhA, on observe une réplication indépendante de l’origine oriC. Ce type de réplication appelé cSDR, pourrait donc expliquer, du moins en partie, l’inhibition de la croissance de doubles mutants topA rnhA. A l’aide de la mutagenèse au transposon Tn5, il a été possible d’isoler des suppresseurs extragéniques qui permettaient la croissance des doubles mutants topA rnhA. Plusieurs de ces suppresseurs ont le transposon inséré dans le gène codant pour la RNase E, l’endoribonucléase principale impliquée dans la dégradation des ARNms chez E. coli. La majorité des insertions se retrouvent dans la partie C-terminale de la protéine qui est impliquée dans l’assemblage d’un complexe multiprotéique appelé l’ARN dégradosome. Les résultats obtenus démontrent que ces suppresseurs diminuent le cSDR ainsi que la réponse SOS induite constitutivement en l’absence de la RNase HI. Sachant que la RNase HI est une endoribonucléase tout comme la RNase E, une collaboration entre les deux enzymes suggère que la RNase E pourrait également jouer un rôle potentiel dans le contrôle de la formation des R-loops et bien évidemment de leur retrait au sein de la cellule. À l’opposé, il est possible que la RNase HI puisse avoir comme autre fonction la prise en charge de la maturation et de la dégradation des molécules d’ARNs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le neuroblastome (NB) est une tumeur fréquente et agressive du jeune enfant. Les tumeurs de haut grade de forme métastatique, généralement développées chez l'enfant de plus de 1 an, sont associées à une importante mortalité malgré un traitement lourd incluant une chimiothérapie à haute dose. La chimiorésistance est donc un problème majeur qui caractérise ces NB de haut grade. Une des hypothèses pour expliquer cette chimiorésistance est celle de l’activation de l’autophagie, un mécanisme auquel recourent les cellules afin de faire face aux situations de stress. D’ailleurs, plusieurs études ont démontré que l'autophagie était activée à la suite des thérapies anticancéreuses. Son inhibition pourrait donc représenter une stratégie thérapeutique très intéressante pour le traitement de cancers. Le but de ce projet de recherche a été de mettre en évidence l'importance de l'autophagie dans les cellules du NB ainsi que l'effet de son inhibition sur la sensibilité des cellules du NB à la chimiothérapie conventionnelle. La présence d'autophagie dans les cellules de NB et sa valeur pronostic ont été évaluées par une étude immunohistochimique et par western blot sur 184 tumeurs patient. Ensuite, dans le but de déterminer l'effet de la chimiothérapie conventionnelle sur le niveau d'autophagie, des études in vitro sur 6 lignées cellulaires ont été effectuées utilisant des tests de mesure d'autophagie (MDC, monodanylcadaverine), de viabilité cellulaire (MTT) et de western blot. Celles ci ont été suivies par des tests d'inhibition de l'autophagie par deux méthodes: l’inactivation du gène ATG5 par un lentivirus contenant un shRNA ciblant ATG5 ou de l'hydroxychloroquine (HCQ), un inhibiteur pharmacologique de l’autophagie. Cette inhibition a été testée seule ou en combinaison avec une chimiothérapie conventionnelle dans le but de déterminer le rôle de l'autophagie dans la sensibilisation des cellules de NB à la chimiothérapie. Ensuite, l’intérêt de l’inhibition de l’autophagie a été évalué sur des modèles murins. Enfin, le niveau d'autophagie a été testé dans des cellules souches de NB. Notre étude a démonté que l'autophagie est présente à un niveau basal dans une majorité des NB mais qu'elle ne représentait pas un facteur pronostic dans ce type de tumeur. Les différentes chimiothérapies testées induisent une augmentation de l'autophagie dans les cellules du NB. Les deux tests d'inhibition ont démontré in vitro que l'autophagie participe à la résistance des cellules aux traitements chimiothérapeutiques classiques du NB. Le blocage de l’autophagie in vivo augmente l’efficacité de la chimiothérapie, cependant certaines données associées au traitement par HCQ devront être complétées. Cette étude démontre que l'inhibition de l'autophagie en combinaison avec la chimiothérapie classique représente une approche thérapeutique prometteuse dans le traitement du NB.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire présente une analyse photométrique et spectroscopique d'un échantillon de 16 naines blanches magnétiques froides riches en hydrogène. L'objectif principal de cette étude est de caractériser leurs propriétés atmosphériques et magnétiques afin d'obtenir une vision d'ensemble représentative de cette population d'étoiles. Pour ce faire, il a fallu réunir le plus d'information possible sur toutes les candidates sous la forme de spectres visibles à haut signal-sur-bruit et de données photométriques. Il a également été nécessaire de mettre à jour les modèles d'atmosphère de Bergeron et al. (1992) à l'aide des avancées réalisées par Tremblay & Bergeron (2009). Les paramètres atmosphériques de chacune des étoiles ont ensuite été déterminés en modélisant les distributions d'énergie photométriques observées tandis que la topologie et l'intensité du champ magnétique ont été obtenues en comparant des spectres synthétiques magnétiques au profil d'absorption Zeeman autour de H-alpha. Qui plus est, un processus de déconvolution combinant ces deux approches a aussi été créé afin de traiter adéquatement les systèmes binaires présents dans l'échantillon. Les résultats de ces analyses sont ensuite exposés, incluant une discussion sur la possible corrélation entre les paramètres atmosphériques et les propriétés magnétiques de ces naines blanches. Finalement, cette étude démontre que les données spectroscopiques de la majorité de ces étoiles peuvent uniquement être reproduites si ces dernières se trouvent dans un système binaire composé d'une seconde naine blanche. De plus, les résultats suggèrent que le champ magnétique de ces naines blanches froides ne peut pas être d'origine fossile et doit être généré par un mécanisme physique devant encore être identifié.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’hypothyroïdie congénitale par dysgénésie thyroïdienne (HCDT) est la condition endocrinienne néonatale la plus fréquemment rencontrée, avec une incidence d’un cas sur 4000 naissances vivantes. L’HCDT comprend toutes les anomalies du développement de la thyroïde. Parmi ces anomalies, le diagnostic le plus fréquent est l’ectopie thyroïdienne (~ 50% des cas). L’HCDT est fréquemment associée à un déficit sévère en hormones thyroïdiennes (hypothyroïdisme) pouvant conduire à un retard mental sévère si non traitée. Le programme de dépistage néonatal assure un diagnostic et un traitement précoce par hormones thyroïdiennes. Cependant, même avec un traitement précoce (en moyenne à 9 jours de vie), un retard de développement est toujours observé, surtout dans les cas les plus sévères (c.-à-d., perte de 10 points de QI). Bien que des cas familiaux soient rapportés (2% des cas), l’HCTD est essentiellement considérée comme une entité sporadique. De plus, plus de 92% des jumeaux monozygotiques sont discordants pour les dysgénésies thyroïdiennes et une prédominance féminine est rapportée (spécialement dans le cas d’ectopies thyroïdiennes), ces deux observations étant clairement incompatible avec un mode de transmission héréditaire mendélien. Il est donc cohérent de constater que des mutations germinales dans les facteurs de transcription thyroïdiens connus (NKX2.1, PAX8, FOXE1, and NKX2.5) ont été identifiées dans seulement 3% des cas sporadiques testés et furent, de plus, exclues lors d’analyse d’association dans certaines familles multiplex. Collectivement, ces données suggèrent que des mécanismes non mendéliens sont à l’origine de la majorité des cas de dysgénésie thyroïdienne. Parmi ces mécanismes, nous devons considérer des modifications épigénétiques, des mutations somatiques précoces (au stade du bourgeon thyroïdien lors des premiers stades de l’embryogenèse) ou des défauts développementaux stochastiques (c.-à-d., accumulation aléatoire de mutations germinales ou somatiques). Voilà pourquoi nous proposons un modèle «2 hits » combinant des mutations (épi)génétiques germinales et somatiques; ce modèle étant compatible avec le manque de transmission familial observé dans la majorité des cas d’HCDT. Dans cette thèse, nous avons déterminé si des variations somatiques (épi)génétiques sont associées à l’HCTD via une approche génomique et une approche gène candidat. Notre approche génomique a révélé que les thyroïdes ectopiques ont un profil d’expression différent des thyroïdes eutopiques (contrôles) et que ce profil d’expression est enrichi en gènes de la voie de signalisation Wnt. La voie des Wnt est cruciale pour la migration cellulaire et pour le développement de plusieurs organes dérivés de l’endoderme (p.ex. le pancréas). De plus, le rôle de la voie des Wnt dans la morphogénèse thyroïdienne est supporté par de récentes études sur le poisson-zèbre qui montrent des anomalies du développement thyroïdien lors de la perturbation de la voie des Wnt durant différentes étapes de l’organogénèse. Par conséquent, l’implication de la voie des Wnt dans l’étiologie de la dysgénésie thyroïdienne est biologiquement plausible. Une trouvaille inattendue de notre approche génomique fut de constater que la calcitonine était exprimée autant dans les thyroïdes ectopiques que dans les thyroïdes eutopiques (contrôles). Cette trouvaille remet en doute un dogme de l’embryologie de la thyroïde voulant que les cellules sécrétant la calcitonine (cellules C) proviennent exclusivement d’une structure extrathyroïdienne (les corps ultimobranchiaux) fusionnant seulement avec la thyroïde en fin de développement, lorsque la thyroïde a atteint son emplacement anatomique définitif. Notre approche gène candidat ne démontra aucune différence épigénétique (c.-à-d. de profil de méthylation) entre thyroïdes ectopiques et eutopiques, mais elle révéla la présence d’une région différentiellement méthylée (RDM) entre thyroïdes et leucocytes dans le promoteur de FOXE1. Le rôle crucial de FOXE1 dans la migration thyroïdienne lors du développement est connu et démontré dans le modèle murin. Nous avons démontré in vivo et in vitro que le statut de méthylation de cette RDM est corrélé avec l’expression de FOXE1 dans les tissus non tumoraux (c.-à-d., thyroïdes et leucocytes). Fort de ces résultats et sachant que les RDMs sont de potentiels points chauds de variations (épi)génétiques, nous avons lancé une étude cas-contrôles afin de déterminer si des variants génétiques rares localisés dans cette RDM sont associés à la dysgénésie thyroïdienne. Tous ces résultats générés lors de mes études doctorales ont dévoilé de nouveaux mécanismes pouvant expliquer la pathogenèse de la dysgénésie thyroïdienne, condition dont l’étiologie reste toujours une énigme. Ces résultats ouvrent aussi plusieurs champs de recherche prometteurs et vont aider à mieux comprendre tant les causes des dysgénésies thyroïdiennes que le développement embryonnaire normal de la thyroïde chez l’homme.