391 resultados para Outil
Resumo:
La présente thèse de doctorat porte sur la relation entre la perception de la justice organisationnelle, l’émission de comportements inadaptés au travail et la santé psychologique des individus au travail. En plus de développer un outil de mesure des comportements inadaptés au travail et d’entreprendre un processus de validation de celui-ci, le présent travail propose que les comportements inadaptés au travail puissent occuper un rôle soit protecteur ou explicatif dans la relation qui unit la perception de la justice organisationnelle avec la santé psychologique des individus au travail. Au sein de cette thèse, le premier article recense la documentation scientifique quant aux variables de la perception de la justice organisationnelle, de l’émission des comportements inadaptés au travail et de la santé psychologique des individus au travail, ainsi que les liens qui unissent ces variables. Aussi, les modèles conceptuels des rôles modérateur et médiateur des comportements inadaptés au travail sont proposés au sein de la relation entre la perception de la justice organisationnelle et la santé psychologique des individus au travail. Le deuxième article a pour objectif de développer un outil de mesure des comportements inadaptés au travail et de tester ses propriétés psychométriques. Ainsi, des analyses statistiques exploratoires et confirmatoires ont été effectuées. Afin d’appuyer la valeur critériée de l’outil proposé, une analyse corrélationnelle a été réalisée avec le critère de l’adaptation. Certaines valeurs psychométriques de l’outil sont validées par les résultats obtenus. Le troisième article examine empiriquement les modèles conceptuels des rôles anticipés des comportements inadaptés au travail dans la relation entre la perception de la justice organisationnelle et la santé psychologique des individus au travail. La perception de la justice organisationnelle a été vue sous les composantes distributive, procédurale, informationnelle et interpersonnelle. De son côté, la santé psychologique des individus a été observée par le biais des éléments du bien-être et de la détresse psychologique au travail. Les différentes analyses de régressions multiples hiérarchiques ont permis d’observer l’absence du rôle modérateur des comportements inadaptés au travail. Pour sa part, l’utilisation du test de Sobel a démontré la présence du rôle médiateur des comportements inadaptés au travail dans certaines relations. Plus exactement, celles-ci sont la relation entre la justice interpersonnelle et le bien-être psychologique au travail, la relation entre la justice interpersonnelle et la détresse psychologique au travail, ainsi que la relation entre la justice distributive et la détresse psychologique au travail. Finalement, la conclusion de la thèse présente une synthèse des résultats et expose les limites et pistes de recherches futures.
Resumo:
This paper offers an institutional approach to the problems raised by Mafia infiltration of legitimate businesses. It contributes to an economic theory that reconnects economics, law and ethics. It demonstrates that the efficiency criterion alone is not sufficient to correctly analyze the nature and consequences of Mafia infiltration on economies and societies. On the contrary, the reintroduction of ethics enables a better understanding of the phenomenon to the point that law – driven by ethical and not only efficiency considerations – is a necessary tool for those wanting to fight against the destruction of legal economies by Mafiosi.
Resumo:
La Seconde Guerre mondiale était riche en possibilités d’avancement pour la population noire. Les leaders afro-américains, conscients du caractère favorable du contexte, mirent sur pied de nouvelles stratégies afin d’optimiser les gains afro-américains. L’économie de guerre favorisa les migrations internes vers les centres industriels du Nord et de l’Ouest. Les migrants noirs s’extirpaient donc du carcan contraignant du Sud où ils étaient régulièrement privés de leur droit de vote. Les leaders noirs brandirent alors un nouvel outil pour faire pression sur les deux principaux partis politiques fédéraux : le nouveau poids électoral afro-américain. La période fut aussi marquée par une hausse de l’activisme noir. Celui-ci se voyait légitimé par les idéaux de liberté et de démocratie prétendument défendus par les États-Unis. Finalement, le plein-emploi permit l’essor du statut économique noir et les leaders afro-américains tentèrent d’exploiter cette conjoncture particulière afin d’en faire bénéficier leur communauté à long terme.
Resumo:
Les cas d’entreprises touchées par des scandales financiers, environnementaux ou concernant des conditions de travail abusives imposées à leur main-d’œuvre, n’ont cessé de jalonner l’actualité ces vingt dernières années. La multiplication des comportements à l’origine de ces scandales s’explique par l’environnement moins contraignant, que leur ont offert les politiques de privatisation, dérégulation et libéralisation, amorcées à partir des années 1980. Le développement de la notion de responsabilité sociale des entreprises à partir des années 1980, en réaction à ces excès, incarne l'idée que si une entreprise doit certes faire des profits et les pérenniser elle se doit de les réaliser en favorisant les comportements responsables, éthiques et transparents avec toutes ses parties prenantes. Nous analysons dans cette thèse le processus par lequel, face à des dysfonctionnements et abus, touchant les conditions de travail de leur main d’œuvre ou leur gouvernance, des entreprises peuvent être amenées, ou non, à questionner et modifier leurs pratiques. Nous avons axé notre étude de cas sur deux entreprises aux trajectoires diamétralement opposées. La première entreprise, issue du secteur de la fabrication de vêtements et dont la crise concernait des atteintes aux droits des travailleurs, a surmonté la crise en réformant son modèle de production. La seconde entreprise, située dans le secteur des technologies de l'information et de la communication, a fait face à une crise liée à sa gouvernance d’entreprise, multiplié les dysfonctionnements pendant dix années de crises et finalement déclaré faillite en janvier 2009. Les évolutions théoriques du courant néo-institutionnel ces dernières années, permettent d’éclairer le processus par lequel de nouvelles normes émergent et se diffusent, en soulignant le rôle de différents acteurs, qui pour les uns, définissent de nouvelles normes et pour d’autres se mobilisent en vue de les diffuser. Afin d’augmenter leur efficacité à l’échelle mondiale, il apparaît que ces acteurs agissent le plus souvent en réseaux, parfois concurrents. L’étude du cas de cette compagnie du secteur de la confection de vêtement nous a permis d’aborder le domaine lié aux conditions de travail de travailleurs œuvrant au sein de chaînes de production délocalisées dans des pays aux lois sociales absentes ou inefficaces. Nous avons analysé le cheminement par lequel cette entreprise fut amenée à considérer, avec plus de rigueur, la dimension éthique dans sa chaîne de production. L’entreprise, en passant par différentes étapes prenant la forme d’un processus d’apprentissage organisationnel, a réussi à surmonter la crise en réformant ses pratiques. Il est apparu que ce processus ne fut pas spontané et qu’il fut réalisé suite aux rôles joués par deux types d’acteurs. Premièrement, par la mobilisation incessante des mouvements de justice globale afin que l’entreprise réforme ses pratiques. Et deuxièmement, par le cadre normatif et le lieu de dialogue entre les différentes parties prenantes, fournis par un organisme privé source de normes. C’est fondamentalement le risque de perdre son accréditation à la cet organisme qui a poussé l’entreprise à engager des réformes. L’entreprise est parvenue à surmonter la crise, certes en adoptant et en respectant les normes définies par cette organisation mais fondamentalement en modifiant sa culture d'entreprise. Le leadership du CEO et du CFO a en effet permis la création d'une culture d'entreprise favorisant la remise en question, le dialogue et une plus grande prise en considération des parties prenantes, même si la gestion locale ne va pas sans poser parfois des difficultés de mise en œuvre. Concernant le domaine de la gouvernance d’entreprise, nous mettons en évidence, à travers l’étude des facteurs ayant mené au déclin et à la faillite d’une entreprise phare du secteur des technologies de l’information et de la communication, les limites des normes en la matière comme outil de bonne gouvernance. La légalité de la gestion comptable et la conformité de l’entreprise aux normes de gouvernance n'ont pas empêché l’apparition et la multiplication de dysfonctionnements et abus stratégiques et éthiques. Incapable de se servir des multiples crises auxquelles elle a fait face pour se remettre en question et engager un apprentissage organisationnel profond, l'entreprise s'est focalisée de manière obsessionnelle sur la rentabilité à court terme et la recherche d'un titre boursier élevé. La direction et le conseil d'administration ont manqué de leadership afin de créer une culture d'entreprise alliant innovation technologique et communication honnête et transparente avec les parties prenantes. Alors que l'étude consacrée à l’entreprise du secteur de la confection de vêtement illustre le cas d'une entreprise qui a su, par le biais d'un changement stratégique, relever les défis que lui imposait son environnement, l'étude des quinze dernières années de la compagnie issue du secteur des technologies de l’information et de la communication témoigne de la situation inverse. Il apparaît sur base de ces deux cas que si une gouvernance favorisant l'éthique et la transparence envers les parties prenantes nécessite la création d'une culture d'entreprise valorisant ces éléments, elle doit impérativement soutenir et être associée à une stratégie adéquate afin que l'entreprise puisse pérenniser ses activités.
Resumo:
Les anomalies du tube neural (ATN) sont des malformations congénitales parmi les plus fréquentes chez l’humain en touchant 1-2 nouveau-nés par 1000 naissances. Elles résultent d’un défaut de fermeture du tube neural pendant l’embryogenèse. Les formes les plus courantes d'ATN chez l'homme sont l'anencéphalie et le spina-bifida. Leur étiologie est complexe impliquant à la fois des facteurs environnementaux et des facteurs génétiques. Un dérèglement dans la signalisation Wnt, incluant la signalisation canonique Wnt/β-caténine et non-canonique de la polarité planaire cellulaire (PCP), peut causer respectivement le cancer ou les anomalies du tube neural (ATN). Les deux voies semblent s’antagoniser mutuellement. Dans cette étude, nous investiguons les rôles de Lrp6 et deANKRD6, entant qu’interrupteurs moléculaires entre les deux voies de signalisation Wnt, et CELSR1, en tant que membre de la PCP, chez la souris mutante Skax26m1Jus, générée par l’agent mutagène N-Ethyl-N-Nitrosuera, et dans une cohorte de patients humains ATN. Pour Lrp6, nous avons démontré que Skax26m1Jus représente un allèle hypermorphe de Lrp6 avec une augmentation de l’activité de la signalisation Wnt/canonique et une diminution de l’activité JNK induite par la voie PCP. Nous avons également montré que Lrp6Skax26m1Jus interagit génétiquement avec un mutant PCP (Vangl2Lp) où les doubles hétérozygotes ont montré une fréquence élevée d’ATN et des défauts dans la polarité des cellules ciliées de la cochlée. Particulièrement, notre étude démontre l'association des nouvelles et rares mutations faux-sens dans LRP6 avec les ATN humaines. Nous montrons que trois mutations de LRP6 causent une activité canonique réduite et non-canonique élevée. Pour ANKRD6, nous avons identifié quatre nouvelles et rares mutations faux-sens chez 0,8% des patients ATN et deux chez 1,3% des contrôles. Notamment, seulement deux, des six mutations validées (p.Pro548Leu et p.Arg632His) ont démontré un effet significatif sur l’activité de ANKRD6 selon un mode hypomorphique. Pour CELSR1, nous avons identifié une mutation non-sens dans l'exon 1 qui supprime la majeure partie de la protéine et une délétionde 12 pb. Cette perte de nucléotides ne change pas le cadre de lecture et élimine un motif putatif de phosphorylation par la PKC " SSR ". Nous avons également détecté un total de 13 nouveaux et rares variants faux-sens qui avaient été prédits comme étant pathogènes in silico. Nos données confirment le rôle inhibiteur de Lrp6 dans la signalisation PCP pendant la neurulation et indiquent aussi que les mutations faux-sens identifiées chez LRP6 et ANKRD6 pourraient affecter un équilibre réciproque et un antagonisme très sensible à un dosage précis entre les deux voies Wnt. Ces variants peuvent aussi agir comme facteurs prédisposants aux ATN. En outre, nos résultats impliquent aussi CELSR1 comme un facteur de risque pour les anomalies du tube neural ou l’agénésie caudale. Nos résultats fournissent des preuves supplémentaires que la voie de signalisation PCP a un rôle pathogène dans ces malformations congénitales et un outil important pour mieux comprendre leurs mécanismes moléculaires.
Resumo:
La non-violence fait référence à une idéologie et un ensemble de pratiques qui ont pour caractéristique commune de rejeter la violence sous toutes ses formes dans l’actualisation quotidienne. La non-violence est cependant devenue également un outil auquel certains recourrent dans des objectifs qui ne servent pas nécessairement le bien commun. En d’autres termes, la non-violence n’est pas systématiquement un outil de paix. Elle est un moyen d’obtenir ce que l’on veut, sans recourir à la violence. Cette thèse propose une vision de la non-violence au service du bien commun. Elle puise dans l’historicité de grands événements et acteurs qui ont utilisé la non-violence pour libérer une collectivité de formes d’oppression qui amenuisaient la dignité humaine. Elle fait référence à des auteurs et acteurs qui ont influencé le théologien processuel David Ray Griffin dans sa propre démarche d’enseignement et de recherche théologiques sur une quarantaine d’années, soient de la guerre du Vietnam à celle d’Iraq. Les dates survolées vont de 1968 à 2008. Une première démarche entreprise par la recherche est de comprendre le plus précisément possible quelles sont les avenues les plus récentes concernant la non-violence et d’explorer ses influences sur la vie et la carrière du théologien processuel États-Unien David Ray Griffin. En second lieu, une rétrospective historique des événements marquants aux États-Unis permet de cerner le contexte au sein duquel Griffin a évolué et comment son discours a laissé transparaître ces influences historiques, sociales et académiques. Une analyse plus centrée sur la politique extérieure des États-Unis en matière d’économie et de militarisme aiguille vers l’identification de signes que Griffin qualifie lui-même d’anti-théologiques, ce qui l’incite à élaborer une vision paradigmatique globalisante, équilibrée selon lui, où les ressources planétaires sont redistribuées dans un souci d’équité et de justice. Pour ce faire, un tribunal international, une religion globale, à l’image de ce que propose la pensée processuelle whiteheadienne-hartshornienne sont proposés. Griffin en brosse les grands traits dans un discours où l’exhortation s’assortit d’une méthodologie et d’une pédagogie éprouvés depuis 40 ans. Une grille d’analyse des textes griffiniens est par la suite élaborée, structurant les différentes composantes fondamentales de sa pensée. Un modèle d’intégration des valeurs de la non-violence est dégagé des lectures, applicable à d’autres disciplines. Appuyé sur une tradition authentique d’auteurs non-violents, David Ray Griffin présente les caractéristiques d’un homme de paix, duquel les idéaux débordent le cadre national pour rejoindre le planétaire, dans une visée résolument sotériologique. Cette visée devient urgente alors que les événements des attentats terroristes du World Trade Center du 11 septembre 2001 font dire à Griffin que non seulement les États-Unis sont engagés dans une démarche impérialiste démoniaque, mais qu’ils contribuent de manière accélérée à la destruction de la planète. Il faut absolument, croit-il, renverser le courant et devenir, pour le monde, un leader de la réparation des écosystèmes, des économies et des sociétés. S’adjoignant des auteurs d’autres disciplines, et toujours dans un cadre processuel, Griffin entreprend le long périple pédagogique qu’est celui de convaincre le plus grand nombre d’individus possible que le temps est venu d’agir.
Resumo:
Le nombre important de véhicules sur le réseau routier peut entraîner des problèmes d'encombrement et de sécurité. Les usagers des réseaux routiers qui nous intéressent sont les camionneurs qui transportent des marchandises, pouvant rouler avec des véhicules non conformes ou emprunter des routes interdites pour gagner du temps. Le transport de matières dangereuses est réglementé et certains lieux, surtout les ponts et les tunnels, leur sont interdits d'accès. Pour aider à faire appliquer les lois en vigueur, il existe un système de contrôles routiers composé de structures fixes et de patrouilles mobiles. Le déploiement stratégique de ces ressources de contrôle mise sur la connaissance du comportement des camionneurs que nous allons étudier à travers l'analyse de leurs choix de routes. Un problème de choix de routes peut se modéliser en utilisant la théorie des choix discrets, elle-même fondée sur la théorie de l'utilité aléatoire. Traiter ce type de problème avec cette théorie est complexe. Les modèles que nous utiliserons sont tels, que nous serons amenés à faire face à des problèmes de corrélation, puisque plusieurs routes partagent probablement des arcs. De plus, puisque nous travaillons sur le réseau routier du Québec, le choix de routes peut se faire parmi un ensemble de routes dont le nombre est potentiellement infini si on considère celles ayant des boucles. Enfin, l'étude des choix faits par un humain n'est pas triviale. Avec l'aide du modèle de choix de routes retenu, nous pourrons calculer une expression de la probabilité qu'une route soit prise par le camionneur. Nous avons abordé cette étude du comportement en commençant par un travail de description des données collectées. Le questionnaire utilisé par les contrôleurs permet de collecter des données concernant les camionneurs, leurs véhicules et le lieu du contrôle. La description des données observées est une étape essentielle, car elle permet de présenter clairement à un analyste potentiel ce qui est accessible pour étudier les comportements des camionneurs. Les données observées lors d'un contrôle constitueront ce que nous appellerons une observation. Avec les attributs du réseau, il sera possible de modéliser le réseau routier du Québec. Une sélection de certains attributs permettra de spécifier la fonction d'utilité et par conséquent la fonction permettant de calculer les probabilités de choix de routes par un camionneur. Il devient alors possible d'étudier un comportement en se basant sur des observations. Celles provenant du terrain ne nous donnent pas suffisamment d'information actuellement et même en spécifiant bien un modèle, l'estimation des paramètres n'est pas possible. Cette dernière est basée sur la méthode du maximum de vraisemblance. Nous avons l'outil, mais il nous manque la matière première que sont les observations, pour continuer l'étude. L'idée est de poursuivre avec des observations de synthèse. Nous ferons des estimations avec des observations complètes puis, pour se rapprocher des conditions réelles, nous continuerons avec des observations partielles. Ceci constitue d'ailleurs un défi majeur. Nous proposons pour ces dernières, de nous servir des résultats des travaux de (Bierlaire et Frejinger, 2008) en les combinant avec ceux de (Fosgerau, Frejinger et Karlström, 2013). Bien qu'elles soient de nature synthétiques, les observations que nous utilisons nous mèneront à des résultats tels, que nous serons en mesure de fournir une proposition concrète qui pourrait aider à optimiser les décisions des responsables des contrôles routiers. En effet, nous avons réussi à estimer, sur le réseau réel du Québec, avec un seuil de signification de 0,05 les valeurs des paramètres d'un modèle de choix de routes discrets, même lorsque les observations sont partielles. Ces résultats donneront lieu à des recommandations sur les changements à faire dans le questionnaire permettant de collecter des données.
Resumo:
Dans le contexte du DESS en administration de l’éducation, le portfolio est un outil d’apprentissage qui amène l’étudiant à vivre un processus réflexif supervisé et à organiser une collection de productions significatives s’accumulant progressivement à l’intérieur du déroulement des cours. Le guide pédagogique explique les choix qui ont donné lieu au Portfolio pour les étudiants. Le portfolio suppose une réflexion en deux temps, le premier en a priori et portant sur le profil de sortie, le glossaire, le guide de choix de cours et le choix des compétences à développer par l’étudiant selon les cours et le second, a posteriori, et portant essentiellement sur l’écart existant entre les intentions d’apprentissage exprimées au départ et le niveau atteint à la fin du programme.
Resumo:
En apprentissage automatique, domaine qui consiste à utiliser des données pour apprendre une solution aux problèmes que nous voulons confier à la machine, le modèle des Réseaux de Neurones Artificiels (ANN) est un outil précieux. Il a été inventé voilà maintenant près de soixante ans, et pourtant, il est encore de nos jours le sujet d'une recherche active. Récemment, avec l'apprentissage profond, il a en effet permis d'améliorer l'état de l'art dans de nombreux champs d'applications comme la vision par ordinateur, le traitement de la parole et le traitement des langues naturelles. La quantité toujours grandissante de données disponibles et les améliorations du matériel informatique ont permis de faciliter l'apprentissage de modèles à haute capacité comme les ANNs profonds. Cependant, des difficultés inhérentes à l'entraînement de tels modèles, comme les minima locaux, ont encore un impact important. L'apprentissage profond vise donc à trouver des solutions, en régularisant ou en facilitant l'optimisation. Le pré-entraînnement non-supervisé, ou la technique du ``Dropout'', en sont des exemples. Les deux premiers travaux présentés dans cette thèse suivent cette ligne de recherche. Le premier étudie les problèmes de gradients diminuants/explosants dans les architectures profondes. Il montre que des choix simples, comme la fonction d'activation ou l'initialisation des poids du réseaux, ont une grande influence. Nous proposons l'initialisation normalisée pour faciliter l'apprentissage. Le second se focalise sur le choix de la fonction d'activation et présente le rectifieur, ou unité rectificatrice linéaire. Cette étude a été la première à mettre l'accent sur les fonctions d'activations linéaires par morceaux pour les réseaux de neurones profonds en apprentissage supervisé. Aujourd'hui, ce type de fonction d'activation est une composante essentielle des réseaux de neurones profonds. Les deux derniers travaux présentés se concentrent sur les applications des ANNs en traitement des langues naturelles. Le premier aborde le sujet de l'adaptation de domaine pour l'analyse de sentiment, en utilisant des Auto-Encodeurs Débruitants. Celui-ci est encore l'état de l'art de nos jours. Le second traite de l'apprentissage de données multi-relationnelles avec un modèle à base d'énergie, pouvant être utilisé pour la tâche de désambiguation de sens.
Resumo:
Dans ce rapport de mémoire, nous avons utilisé les méthodes numériques telles que la dynamique moléculaire (code de Lammps) et ART-cinétique. Ce dernier est un algorithme de Monte Carlo cinétique hors réseau avec construction du catalogue d'événements à la volée qui incorpore exactement tous les effets élastiques. Dans la première partie, nous avons comparé et évalué des divers algorithmes de la recherche du minimum global sur une surface d'énergie potentielle des matériaux complexes. Ces divers algorithmes choisis sont essentiellement ceux qui utilisent le principe Bell-Evans-Polanyi pour explorer la surface d'énergie potentielle. Cette étude nous a permis de comprendre d'une part, les étapes nécessaires pour un matériau complexe d'échapper d'un minimum local vers un autre et d'autre part de contrôler les recherches pour vite trouver le minimum global. En plus, ces travaux nous ont amené à comprendre la force de ces méthodes sur la cinétique de l'évolution structurale de ces matériaux complexes. Dans la deuxième partie, nous avons mis en place un outil de simulation (le potentiel ReaxFF couplé avec ART-cinétique) capable d'étudier les étapes et les processus d'oxydation du silicium pendant des temps long comparable expérimentalement. Pour valider le système mis en place, nous avons effectué des tests sur les premières étapes d'oxydation du silicium. Les résultats obtenus sont en accord avec la littérature. Cet outil va être utilisé pour comprendre les vrais processus de l'oxydation et les transitions possibles des atomes d'oxygène à la surface du silicium associée avec les énergies de barrière, des questions qui sont des défis pour l'industrie micro-électronique.
Resumo:
Ce mémoire explore la question du rapport intérieur-extérieur chez Le Corbusier se questionnant sur la façon dont la notion d’interpénétration spatiale, postulat majeur de l’architecture moderne, est présente dans son discours. À travers l’étude des croquis, photos et notes de son Voyage d’Orient, ainsi que de certains principes architecturaux énoncés dans ses ouvrages théoriques emblématiques des années 1920, nous allons saisir chez Le Corbusier une pensée qui transcende l’idée d’objet architectural et révèle un intérêt spécial porté au site et à la dialectique horizontale-verticale. Certains dispositifs ou éléments architecturaux, tels que la colonnade et la colonne, vont se révéler aux yeux du maître, lorsqu’ils se trouvent dans des espaces de transition entre l’intérieur et l’extérieur, porteurs d’une fonction médiatrice entre l’homme et son milieu, et ce sera par le biais d’un outil de mesure : l’angle droit. Cette recherche entend contribuer à la compréhension de la pensée architecturale de Le Corbusier, notamment en ce qui concerne la relation architecture-paysage en tant qu’expérience phénoménale.
Resumo:
La chromatine possède une plasticité complexe et essentielle pour répondre à différents mécanismes cellulaires fondamentaux tels la réplication, la transcription et la réparation de l’ADN. Les histones sont les constituants essentiels de la formation des nucléosomes qui assurent le bon fonctionnement cellulaire d’où l’intérêt de cette thèse d’y porter une attention particulière. Un dysfonctionnement de la chromatine est souvent associé à l’émergence du cancer. Le chapitre II de cette thèse focalise sur la répression transcriptionnelle des gènes d’histones par le complexe HIR (HIstone gene Repressor) en réponse au dommage à l'ADN chez Saccharomyces cerevisiae. Lors de dommage à l’ADN en début de phase S, les kinases du point de contrôle Mec1, Tel1 et Rad53 s’assurent de bloquer les origines tardives de réplication pour limiter le nombre de collisions potentiellement mutagéniques ou cytotoxiques entre les ADN polymérases et les lésions persistantes dans l'ADN. Lorsque la synthèse totale d’ADN est soudainement ralentie par le point de contrôle, l’accumulation d'un excès d'histones nouvellement synthétisées est néfaste pour les cellules car les histones libres se lient de manière non-spécifique aux acides nucléiques. L'un des mécanismes mis en place afin de minimiser la quantité d’histones libres consiste à réprimer la transcription des gènes d'histones lors d'une chute rapide de la synthèse d'ADN, mais les bases moléculaires de ce mécanisme étaient très mal connues. Notre étude sur la répression des gènes d’histones en réponse aux agents génotoxiques nous a permis d’identifier que les kinases du point de contrôle jouent un rôle dans la répression des gènes d’histones. Avant le début de mon projet, il était déjà connu que le complexe HIR est requis pour la répression des gènes d’histones en phase G1, G2/M et lors de dommage à l’ADN en phase S. Par contre, la régulation du complexe HIR en réponse au dommage à l'ADN n'était pas connue. Nous avons démontré par des essais de spectrométrie de masse (SM) que Rad53 régule le complexe HIR en phosphorylant directement une de ses sous-unités, Hpc2, à de multiples résidus in vivo et in vitro. La phosphorylation d’Hpc2 est essentielle pour le recrutement aux promoteurs de gènes d’histones du complexe RSC (Remodels the Structure of Chromatin) dont la présence sur les promoteurs des gènes d'histones corrèle avec leur répression. De plus, nous avons mis à jour un nouveau mécanisme de régulation du complexe HIR durant la progression normale à travers le cycle cellulaire ainsi qu'en réponse aux agents génotoxiques. En effet, durant le cycle cellulaire normal, la protéine Hpc2 est très instable durant la transition G1/S afin de permettre la transcription des gènes d’histones et la production d'un pool d'histones néo-synthétisées juste avant l'initiation de la réplication de l’ADN. Toutefois, Hpc2 n'est instable que pour une brève période de temps durant la phase S. Ces résultats suggèrent qu'Hpc2 est une protéine clef pour la régulation de l'activité du complexe HIR et la répression des gènes d’histones lors du cycle cellulaire normal ainsi qu'en réponse au dommage à l’ADN. Dans le but de poursuivre notre étude sur la régulation des histones, le chapitre III de ma thèse concerne l’analyse globale de l’acétylation des histones induite par les inhibiteurs d’histone désacétylases (HDACi) dans les cellules normales et cancéreuses. Les histones désacétylases (HDACs) sont les enzymes qui enlèvent l’acétylation sur les lysines des histones. Dans plusieurs types de cancers, les HDACs contribuent à l’oncogenèse par leur fusion aberrante avec des complexes protéiques oncogéniques. Les perturbations causées mènent souvent à un état silencieux anormal des suppresseurs de tumeurs. Les HDACs sont donc une cible de choix dans le traitement des cancers engendrés par ces protéines de fusion. Notre étude de l’effet sur l’acétylation des histones de deux inhibiteurs d'HDACs de relevance clinique, le vorinostat (SAHA) et l’entinostat (MS-275), a permis de démontrer une augmentation élevée de l’acétylation globale des histones H3 et H4, contrairement à H2A et H2B, et ce, autant chez les cellules normales que cancéreuses. Notre quantification en SM de l'acétylation des histones a révélé de façon inattendue que la stœchiométrie d'acétylation sur la lysine 56 de l’histone H3 (H3K56Ac) est de seulement 0,03% et, de manière surprenante, cette stœchiométrie n'augmente pas dans des cellules traitées avec différents HDACi. Plusieurs études de H3K56Ac chez l’humain présentes dans la littérature ont rapporté des résultats irréconciliables. Qui plus est, H3K56Ac était considéré comme un biomarqueur potentiel dans le diagnostic et pronostic de plusieurs types de cancers. C’est pourquoi nous avons porté notre attention sur la spécificité des anticorps utilisés et avons déterminé qu’une grande majorité d’anticorps utilisés dans la littérature reconnaissent d’autres sites d'acétylation de l’histone H3, notamment H3K9Ac dont la stœchiométrie d'acétylation in vivo est beaucoup plus élevée que celle d'H3K56Ac. De plus, le chapitre IV fait suite à notre étude sur l’acétylation des histones et consiste en un rapport spécial de recherche décrivant la fonction de H3K56Ac chez la levure et l’homme et comporte également une évaluation d’un anticorps supposément spécifique d'H3K56Ac en tant qu'outil diagnostic du cancer chez l’humain.
Resumo:
En la actualidad, el uso de las tecnologías ha sido primordial para el avance de las sociedades, estas han permitido que personas sin conocimientos informáticos o usuarios llamados “no expertos” se interesen en su uso, razón por la cual los investigadores científicos se han visto en la necesidad de producir estudios que permitan la adaptación de sistemas, a la problemática existente dentro del ámbito informático. Una necesidad recurrente de todo usuario de un sistema es la gestión de la información, la cual se puede administrar por medio de una base de datos y lenguaje específico, como lo es el SQL (Structured Query Language), pero esto obliga al usuario sin conocimientos a acudir a un especialista para su diseño y construcción, lo cual se ve reflejado en costos y métodos complejos, entonces se plantea una pregunta ¿qué hacer cuando los proyectos son pequeñas y los recursos y procesos son limitados? Teniendo como base la investigación realizada por la universidad de Washington[39], donde sintetizan sentencias SQL a partir de ejemplos de entrada y salida, se pretende con esta memoria automatizar el proceso y aplicar una técnica diferente de aprendizaje, para lo cual utiliza una aproximación evolucionista, donde la aplicación de un algoritmo genético adaptado origina sentencias SQL válidas que responden a las condiciones establecidas por los ejemplos de entrada y salida dados por el usuario. Se obtuvo como resultado de la aproximación, una herramienta denominada EvoSQL que fue validada en este estudio. Sobre los 28 ejercicios empleados por la investigación [39], 23 de los cuales se obtuvieron resultados perfectos y 5 ejercicios sin éxito, esto representa un 82.1% de efectividad. Esta efectividad es superior en un 10.7% al establecido por la herramienta desarrollada en [39] SQLSynthesizer y 75% más alto que la herramienta siguiente más próxima Query by Output QBO[31]. El promedio obtenido en la ejecución de cada ejercicio fue de 3 minutos y 11 segundos, este tiempo es superior al establecido por SQLSynthesizer; sin embargo, en la medida un algoritmo genético supone la existencia de fases que amplían los rangos de tiempos, por lo cual el tiempo obtenido es aceptable con relación a las aplicaciones de este tipo. En conclusión y según lo anteriormente expuesto, se obtuvo una herramienta automática con una aproximación evolucionista, con buenos resultados y un proceso simple para el usuario “no experto”.
Resumo:
La résonance magnétique cardiovasculaire sensible à l'oxygénation (OS-CMR) est devenue une modalité d'imagerie diagnostique pour la surveillance de changements dans l'oxygénation du myocarde. Cette technique offre un grand potentiel en tant qu'outil diagnostic primaire pour les maladies cardiovasculaires, en particulier la détection non-invasive d'ischémie. Par contre, il existe plusieurs facteurs potentiellement confondants de cette technique, quelques-uns d'ordre méthodologique comme les paramètres de séquençage et d'autres de nature physiologiques qui sont peut compris. En raison des effets causés par le contenu tissulaire d'eau, l'état d'hydratation peut avoir un impact sur l'intensité du signal. Ceci est un des aspects physiologiques en particulier dont nous voulions quantifier l'effet confondant par la manipulation de l'état d'hydratation chez des humains et l'observation des changements de l'intensité du signal dans des images OS-CMR. Méthodes: In vitro: Du sang artériel et veineux de huit porcs a été utilisé pour évaluer la dilution en série du sang et son effet correspondant sur l'intensité du signal de la séquence OS. In vivo: Vingt-deux volontaires en santé ont subi OS-CMR. Les concentrations d'hémoglobine (Hb) ont été mesurées au niveau de base et immédiatement après une l'infusion cristalloïde rapide de 1000 mL de solution Lactate Ringer's (LRS). Les images OS-CMR ont été prises dans une vue mid-ventriculaire court axe. L'intensité du signal myocardique a été mesurée durant une rétention respiratoire volontaire maximale, suite à une période d'hyperventilation de 60 secondes. Les changements dans l'intensité du signal entre le début et la fin de la rétention de la respiration ont été exprimés relativement au niveau de base (% de changement). Résultats: L'infusion a résulté en une diminution significative de l'Hb mesurée (142.5±3.3 vs. 128.8±3.3 g/L; p<0.001), alors que l'IS a augmenté de 3.2±1.2% entre les images du niveau de base en normo- et hypervolémie (p<0.05). L'IS d'hyperventilation ainsi que les changements d'IS induits par l'apnée ont été attenués après hémodilution (p<0.05). L'évaluation quantitative T2* a démontré une corrélation négative entre le temps de T2* et la concentration d'hémoglobine (r=-0.46, p<0.005). Conclusions: Il existe plusieurs éléments confondants de la technique OS-CMR qui requièrent de l'attention et de l'optimisation pour une future implémentation clinique à grande échelle. Le statut d'hydratation en particulier pourrait être un élément confondant dans l'imagerie OS-CMR. L'hypervolémie mène à une augmentation en IS au niveau de base et atténue la réponse IS durant des manoeuvres de respiration vasoactives. Cette atténuation de l'intensité du signal devrait être tenue en compte et corrigée dans l'évaluation clinique d'images OS-CMR.
Resumo:
Les mesures cosmologiques les plus récentes ont montré la présence d’un type de matière exotique constituant 85% de la masse de l’univers. Ce type de matière non baryonique serait formé de particules neutres, non relativistes, massives et interagissant faiblement avec la matière baryonique. L’ensemble des candidats est regroupé sous le nom générique WIMP (Weakly Interactive Massive Particles). L’expérience PICASSO (Projet d’Identification des CAndidats Supersymétriques de la matière SOmbre) est une expérience utilisant des détecteurs à seuil d’énergie contenant des gouttelettes surchauffées constituées de C4F10. Cette technique de détection est basée sur le principe de la chambre à bulles. Le projet PICASSO a pour but de détecter directement une particule de matière sombre. Le principe de détection est qu’une particule de matière sombre interagissant avec le liquide actif engendre un recul nucléaire du 19F. L’énergie de recul serait suffisante pour engendrer une transition de phase accompagnée d’un signal acoustique enregistrée par des senseurs piézoélectriques. Dans le cadre de ce mémoire, une simulation du taux de comptage de l’étalonnage des détecteurs PICASSO soumis à des neutrons monoénergétiques a été effectuée en utilisant la théorie de Seitz qui décrit les critères pour qu’une transition de phase ait lieu pour un liquide en état de surchauffe. De plus, un modèle calculant le signal acoustique émis lors d’une transition de phase engendré par différents types de radiations a été créé permettant de caractériser la discrimination entre différents bruits de fond en fonction de l’énergie de seuil. Finalement, un outil d’analyse, la localisation des évènements, a été utilisé pour appliquer des coupures sur le volume dans le but d’améliorer la discrimination alpha-neutron.