376 resultados para cammino acqua secco stabilità variabilità affidabile


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis des années, le Kenya avait donné l’impression d’être un pays relativement stable dans la région d’Afrique sub-saharienne, régulièrement secouée par les conflits, et un « centre » autour duquel la communauté internationale coordonne ses missions vers certains pays d’Afrique comme ceux faisant partie de la Région des Grandes Lacs (Burundi, Rwanda, Ouganda, République démocratique du Congo, Kenya et Tanzanie) et ceux de la Corne de l’Afrique (Kenya, Somalie, Éthiopie, Djibouti et Ouganda). Toutefois, les élections présidentielles très contestées en 2007 et les conflits qui se sont enchaînés ont entrainé de nombreuses préoccupations en ce qui concerne la stabilité du Kenya à l’ère de l’insécurité globale. Alors que le rétablissement de la paix continue, la coexistence entre groupes est toujours délicate car le Kenya compte au moins quarante-deux ethnies qui sont toutes distinctes les unes par rapport aux autres. Par ailleurs, l’ouverture d’une enquête judiciaire, par la Cour Pénale Internationale (CPI), contre quatre des six personnes présumées être les principaux auteurs des violences postélectorales de 2007/08, s’ajoute aux problèmes liés à la coexistence pacifique entre les différents groupes avant les prochaines élections. Cette thèse examine les politiques relatives à l’accommodation des différents groupes à travers les radios vernaculaires et comment ces politiques ont influencé les relations entre les groupes lors des conflits de 2007/08 au Kenya. Partant du constat qu’un conflit est un processus communicatif, elle intègre le concept d’encadrement médiatique à la théorie de Protracted Social Conflict (PSC) définie par Azar (1990) pour tracer non seulement les changements dans les discours d’encadrement de ces conflits, mais aussi pour illustrer les mutations des attitudes à l’égard des relations entre groupes survenues avant, durant et après ces conflits. Cette étude emploie principalement les méthodes qualitatives pour rassembler les données issues des trois régions au Kenya qui sont ethniquement et linguistiquement divergentes: Nyeri (la majorité Kikuyu), Kisumu (la majorité Luo) et Eldoret (la majorité Kalenjin). L’argument central de cette thèse est que l’encadrement des relations entre groupes, notamment lors des conflits, est soit différencié soit concerté dépendamment du stade auquel le conflit se manifeste. Alors que dans l’encadrement différencié, les discours médiatiques sont articulés de façon à ce que ceux-ci soient susceptibles d’entrainer une polarisation entre groupes, l’encadrement concerté décrit les discours médiatiques négociés de manière à ce que ceux-ci reflètent les valeurs partagées au travers des différents groupes, et donc sont susceptibles d’engendrer une coopération entre groupes. J’argumente que les changements dans le discours des radios vernaculaires prennent effet lorsque de nouveaux éléments sont ajoutés aux discours caractérisant un conflit déjà existant, et les « nouveaux significations » que ces éléments apportent à la compréhension du conflit en question. J’argumente également que le changement du l’encadrement différentiée à l’encadrement concerté (et vice-versa) dépende du degré de résonance de ces discours avec la population cible. De façon générale, cette étude suggère que le langage de diffusion et la proximité culturelle induisent l’encadrement entre groupes à travers les radios vernaculaires au Kenya. La force de cette thèse se trouve donc dans les perspectives analytiques qu’elle propose pour localiser les discours changeants lors des conflits, plus particulièrement dans les états multiethniques où les politiques d’accommodation entre les différents groupes demeurent toujours fragiles et conditionnelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce projet a été réalisé au Québec et en France et vise à évaluer empiriquement la complémentarité des services de soins en lien avec les besoins exprimés par les personnes ayant un TCC, leurs proches et le point de vue des professionnels de la santé. Il vise spécifiquement à identifier   les   éléments   de   convergence   et   de   divergence   entre   l’offre   de   services   québécoise   et   française   et   la   perception   des   acteurs   de   ces   réseaux   quant   à   l’adéquation   entre   les   besoins   des   personnes ayant un TCC et de leurs proches et les services offerts. Pour ce faire, des personnes ayant un TCC ainsi que des proches ont été invités à identifier leurs besoins au moment du traumatisme crânien et tout au long du processus de réadaptation et d’intégration   sociale.     Les   intervenants   devaient   partager   leur   perception   des   besoins ressentis par les personnes et les proches. Dans cette étude, les résultats obtenus en France et au Québec seront comparés afin d’identifier  les  éléments  de  convergence  et  de  divergence  entre  l’offre  de  services  québécoise  et   française   et   la   perception   des   acteurs   de   ces   réseaux   quant   à   l’adéquation   entre   les   besoins   des   usagers et les services offerts.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

BRCA1 est un suppresseur de tumeur majeur jouant un rôle dans la transcription, la réparation de l’ADN et le maintien de la stabilité génomique. En effet, des mutations dans le gène BRCA1 augmentent considerablement le risque de cancers du sein et de l’ovaire. BRCA1 a été en majorité caractérisé pour son rôle dans la réparation de l’ADN par la voie de recombinaison homologue (HR) en présence de bris double brins, par example, induits par l’irradiation gamma (IR). Cependant, la fonction de BRCA1 dans d’autres voies de réparation de l’ADN, comme la réparation par excision de nucléotides (NER) ou par excision de base (BER), demeurent toutefois obscures. Il est donc important de comprendre la régulation de BRCA1 en présence d’agents génotoxiques comme le méthyle méthanesulfonate (MMS) ou l’UV, qui promouvoient le BER et le NER respectivement. Nos observations suggèrent que BRCA1 est dégradée par le protéasome après traitement avec le MMS ou les UV, et non avec l’IR. Par ailleurs, cette dégradation semble compromettre le recrutement de Rad51, suggérant que la voie de HR est inhibée. Nos résultats suggèrent que la HR est inhibée afin d’éviter l’activation simultanée de multiples voies de réparation. Nous avons aussi observé que la dégradation BRCA1 est réversible et que la restauration des niveaux de BRCA1 coïncide avec le recrutement de Rad51 aux sites de dommages. Cela suggère que la HR est réactivée tardivement par les bris double brins générés suite à l’effondrement des fourches de réplication. Ayant observé que BRCA1 est hautement régulé par l’ubiquitination et est ciblé par le protéasome pour dégradation, nous avons émis une hypothèse que BRCA1 est régulé par des déubiquitinases. Cela amène à caractériser plus en profondeur par un criblage en déplétant les déubiquitinases individuellement par RNAi et en observant leur effet sur le recrutement de BRCA1 et des protéines reliées à cette voie. Un criblage préliminaire nous a permi d’identifié candidats potentiels tel que BAP1, CXORF53, DUB3, OTUB1 et USP36.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En simulant l’écoulement du sang dans un réseau de capillaires (en l’absence de contrôle biologique), il est possible d’observer la présence d’oscillations de certains paramètres comme le débit volumique, la pression et l’hématocrite (volume des globules rouges par rapport au volume du sang total). Ce comportement semble être en concordance avec certaines expériences in vivo. Malgré cet accord, il faut se demander si les fluctuations observées lors des simulations de l’écoulement sont physiques, numériques ou un artefact de modèles irréalistes puisqu’il existe toujours des différences entre des modélisations et des expériences in vivo. Pour répondre à cette question de façon satisfaisante, nous étudierons et analyserons l’écoulement du sang ainsi que la nature des oscillations observées dans quelques réseaux de capillaires utilisant un modèle convectif et un modèle moyenné pour décrire les équations de conservation de masse des globules rouges. Ces modèles tiennent compte de deux effets rhéologiques importants : l’effet Fåhraeus-Lindqvist décrivant la viscosité apparente dans un vaisseau et l’effet de séparation de phase schématisant la distribution des globules rouges aux points de bifurcation. Pour décrire ce dernier effet, deux lois de séparation de phase (les lois de Pries et al. et de Fenton et al.) seront étudiées et comparées. Dans ce mémoire, nous présenterons une description du problème physiologique (rhéologie du sang). Nous montrerons les modèles mathématiques employés (moyenné et convectif) ainsi que les lois de séparation de phase (Pries et al. et Fenton et al.) accompagnés d’une analyse des schémas numériques implémentés. Pour le modèle moyenné, nous employons le schéma numérique explicite traditionnel d’Euler ainsi qu’un nouveau schéma implicite qui permet de résoudre ce problème d’une manière efficace. Ceci est fait en utilisant une méthode de Newton- Krylov avec gradient conjugué préconditionné et la méthode de GMRES pour les itérations intérieures ainsi qu’une méthode quasi-Newton (la méthode de Broyden). Cette méthode inclura le schéma implicite d’Euler et la méthode des trapèzes. Pour le schéma convectif, la méthode explicite de Kiani et al. sera implémentée ainsi qu’une nouvelle approche implicite. La stabilité des deux modèles sera également explorée. À l’aide de trois différentes topologies, nous comparerons les résultats de ces deux modèles mathématiques ainsi que les lois de séparation de phase afin de déterminer dans quelle mesure les oscillations observées peuvent être attribuables au choix des modèles mathématiques ou au choix des méthodes numériques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le glaucome représente la première cause de cécité irréversible à l’échelle mondiale. C’est une maladie neuro-dégénérative caractérisée traditionnellement par une pression intraoculaire (PIO) élevée, un dommage du nerf optique et un défaut du champ visuel correspondant. En fait, la PIO élevée constitue le facteur de risque central associé au développement du glaucome. Cependant, en dépit d’un contrôle adéquat de la PIO, la maladie continue à progresser chez certains patients. Cela montre qu’il existe d’autres facteurs impliqués dans la pathogenèse du glaucome. Des études récentes indiquent qu’un dérèglement de l’oxygène est associé à son développement. En utilisant une nouvelle technologie multi-spectrale capable de mesurer la saturation en oxygène (SaO2) dans les structures capillaires de la rétine, cette étude tentera de déterminer si un état d’oxygénation anormal pourrait se retrouver à la papille optique des patients souffrant de glaucome. Une meilleure compréhension du rôle de l’oxygène pourrait aider à améliorer le pronostic du glaucome. Les résultats de l’étude indiquent que le facteur de position (supérieure, temporale et inférieure de la papille optique) n’a aucun effet sur la mesure SaO2 ainsi que sa variabilité chez les patients normaux. La comparaison de la SaO2 entre les sujets normaux et glaucomateux ne montre pas de différence statistiquement significative. En conclusion, la SaO2 «normale» mesurée dans les yeux glaucomateux n'exclut pas nécessairement que l'hypoxie ne soit pas impliquée dans la pathogenèse. Au moment de l’étude, la PIO était bien contrôlée par des médicaments topiques, ce qui pourrait influencer l’oxygénation à la papille optique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La fibrillation auriculaire (FA) est une arythmie touchant les oreillettes. En FA, la contraction auriculaire est rapide et irrégulière. Le remplissage des ventricules devient incomplet, ce qui réduit le débit cardiaque. La FA peut entraîner des palpitations, des évanouissements, des douleurs thoraciques ou l’insuffisance cardiaque. Elle augmente aussi le risque d'accident vasculaire. Le pontage coronarien est une intervention chirurgicale réalisée pour restaurer le flux sanguin dans les cas de maladie coronarienne sévère. 10% à 65% des patients qui n'ont jamais subi de FA, en sont victime le plus souvent lors du deuxième ou troisième jour postopératoire. La FA est particulièrement fréquente après une chirurgie de la valve mitrale, survenant alors dans environ 64% des patients. L'apparition de la FA postopératoire est associée à une augmentation de la morbidité, de la durée et des coûts d'hospitalisation. Les mécanismes responsables de la FA postopératoire ne sont pas bien compris. L'identification des patients à haut risque de FA après un pontage coronarien serait utile pour sa prévention. Le présent projet est basé sur l'analyse d’électrogrammes cardiaques enregistrées chez les patients après pontage un aorte-coronaire. Le premier objectif de la recherche est d'étudier si les enregistrements affichent des changements typiques avant l'apparition de la FA. Le deuxième objectif est d'identifier des facteurs prédictifs permettant d’identifier les patients qui vont développer une FA. Les enregistrements ont été réalisés par l'équipe du Dr Pierre Pagé sur 137 patients traités par pontage coronarien. Trois électrodes unipolaires ont été suturées sur l'épicarde des oreillettes pour enregistrer en continu pendant les 4 premiers jours postopératoires. La première tâche était de développer un algorithme pour détecter et distinguer les activations auriculaires et ventriculaires sur chaque canal, et pour combiner les activations des trois canaux appartenant à un même événement cardiaque. L'algorithme a été développé et optimisé sur un premier ensemble de marqueurs, et sa performance évaluée sur un second ensemble. Un logiciel de validation a été développé pour préparer ces deux ensembles et pour corriger les détections sur tous les enregistrements qui ont été utilisés plus tard dans les analyses. Il a été complété par des outils pour former, étiqueter et valider les battements sinusaux normaux, les activations auriculaires et ventriculaires prématurées (PAA, PVA), ainsi que les épisodes d'arythmie. Les données cliniques préopératoires ont ensuite été analysées pour établir le risque préopératoire de FA. L’âge, le niveau de créatinine sérique et un diagnostic d'infarctus du myocarde se sont révélés être les plus importants facteurs de prédiction. Bien que le niveau du risque préopératoire puisse dans une certaine mesure prédire qui développera la FA, il n'était pas corrélé avec le temps de l'apparition de la FA postopératoire. Pour l'ensemble des patients ayant eu au moins un épisode de FA d’une durée de 10 minutes ou plus, les deux heures précédant la première FA prolongée ont été analysées. Cette première FA prolongée était toujours déclenchée par un PAA dont l’origine était le plus souvent sur l'oreillette gauche. Cependant, au cours des deux heures pré-FA, la distribution des PAA et de la fraction de ceux-ci provenant de l'oreillette gauche était large et inhomogène parmi les patients. Le nombre de PAA, la durée des arythmies transitoires, le rythme cardiaque sinusal, la portion basse fréquence de la variabilité du rythme cardiaque (LF portion) montraient des changements significatifs dans la dernière heure avant le début de la FA. La dernière étape consistait à comparer les patients avec et sans FA prolongée pour trouver des facteurs permettant de discriminer les deux groupes. Cinq types de modèles de régression logistique ont été comparés. Ils avaient une sensibilité, une spécificité et une courbe opérateur-receveur similaires, et tous avaient un niveau de prédiction des patients sans FA très faible. Une méthode de moyenne glissante a été proposée pour améliorer la discrimination, surtout pour les patients sans FA. Deux modèles ont été retenus, sélectionnés sur les critères de robustesse, de précision, et d’applicabilité. Autour 70% patients sans FA et 75% de patients avec FA ont été correctement identifiés dans la dernière heure avant la FA. Le taux de PAA, la fraction des PAA initiés dans l'oreillette gauche, le pNN50, le temps de conduction auriculo-ventriculaire, et la corrélation entre ce dernier et le rythme cardiaque étaient les variables de prédiction communes à ces deux modèles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La réduction de la taille des particules jusqu’à l’obtention de nanocristaux est l’une des approches utilisées afin d’améliorer la pénétration cutanée des médicaments à usage topique. Nous proposons que la fabrication d’une formulation semi solide (hydrogel) à base de nanosuspension de docosanol, aboutira à une diffusion du principe actif supérieure à celle du produit commercial Abreva®, à travers des membranes synthétiques de polycarbonates. Le broyage humide est la technique proposée pour la production des nanoparticules de docosanol. Nous proposons aussi la préparation d’une formulation semi-solide (hydrogel) à usage topique à partir de la nanosuspension de docosanol. La nanosuspension de docosanol est obtenue par dispersion du docosanol en solution aqueuse en présence du polymère stabilisant hydroxypropylcellulose (HPC) et du surfactant laurylsulfate de sodium (SDS) suivi d’un broyage humide à faible ou à haute énergie. L’hydrogel de docosanol nanoformulé est préparé à l’aide de la nanosuspension de docosanol qui subit une gélification par le carbopol Ultrez 21 sous agitation mécanique suivie d’une neutralisation au triéthanolamine TEA. La taille des particules de la nanosuspension et de l’hydrogel a été déterminée par diffusion dynamique de la lumière (DLS). Une méthode analytique de chromatographie liquide à haute performance (HPLC) munie d’un détecteur évaporatif (ELSD) a été développée et validée pour évaluer la teneur de docosanol dans les préparations liquides, dans les différentes nanosuspensions et dans les hydrogels de docosanol. L’état de cristallinité des nanocristaux dans la nanosuspension et dans l’hydrogel a été étudié par calorimétrie différentielle à balayage. La morphologie de la nanosuspension et de l’hydrogel de docosanol a été examinée par microscopie électronique à balayage (MEB). Les propriétés rhéologiques et de stabilité physique à différentes températures ont été aussi étudiées pour la formulation semi-solide (hydrogel). De même, la libération in vitro du docosanol contenu dans l’hydrogel et dans le produit commercial Abreva® a été étudiée à travers deux membranes de polycarbonates de taille de pores 400 et 800 nm. Dans le cas de nanosuspensions, des cristaux de docosanol de taille nanométrique ont été produits avec succès par broyage humide. Les nanoparticules de tailles variant de 197 nm à 312 nm ont été produites pour des pourcentages différents en docosanol, en polymère HPC et en surfactant SDS. Après lyophilisation, une augmentation de la taille dépendant de la composition de la formulation a été observée tout en restant dans la gamme nanométrique pour la totalité presque des formulations étudiées. Dans le cas des hydrogels examinés, la taille moyenne des particules de docosanol est maintenue dans la gamme nanométrique avant et après lyophilisation. L’analyse thermique des mélanges physiques, des nanosuspensions et des hydrogels de docosanol a révélé la conservation de l’état de cristallinité des nanocristaux de docosanol après broyage et aussi après gélification. L’examen par microscopie électronique à balayage (MEB) a montré que la nanosuspension et l’hydrogel ont tous deux une morphologie régulière et les nanoparticules ont une forme sphérique. De plus les nanoparticules de la nanosuspension ont presque la même taille inférieure à 300 nm en accord avec le résultat obtenu par diffusion dynamique de la lumière (DLS). Les nanoparticules de l’hydrogel ont une légère augmentation de taille par rapport à celle de la nanosuspension, ce qui est en accord avec les mesures de DLS. D’après les mesures rhéologiques, l’hydrogel de docosanol a un comportement pseudoplastique et un faible degré de thixotropie. L’étude de stabilité physique a montré que les formulations d’hydrogel sont stables à basse température (5°C) et à température ambiante (21°C) pendant une période d’incubation de 13 semaines et instable au-delà de 30°C après deux semaines. La méthode HPLC-ELSD a révélé des teneurs en docosanol comprises entre 90% et 110% dans le cas des nanosuspensions et aux alentours de 100% dans le cas de l’hydrogel. L’essai de diffusion in vitro a montré qu’il y a diffusion de docosanol de l’hydrogel à travers les membranes de polycarbonates, qui est plus marquée pour celle de pore 800 nm, tandis que celui du produit commercial Abreva® ne diffuse pas. Le broyage humide est une technique bien adaptée pour la préparation des nanosuspensions docosanol. Ces nanosuspensions peuvent être utilisée comme base pour la préparation de l’hydrogel de docosanol nanoformulé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'ubiquitination est une modification post-traductionnelle qui joue un rôle central dans divers processus biologiques. Elle peut être contrecarrée par les déubiquitinases (DUBs). "BRCA1-Associated Protein 1" (BAP1) est une déubiquitinase, qui fait partie de complexes multiprotéiques, possèdant une fonction de suppression tumorale ainsi qu'un potentiel anti-métastatique. De plus, BAP1 est phosphorylée suite aux dommages à l’ADN par les kinases ATM/ATR. En nous basant sur ces données, nous avons purifié les protéines associées à BAP1 dans des conditions de stress génotoxique. Bien que la composition du complexe et l’activité DUB semblent inchangées, nous avons pu identifier des changements critiques dans les niveaux et les sites de phosphorylation, confirmant la régulation de BAP1 suite aux dommages à l’ADN. En déplétant BAP1 par ARNi et en utilisant des mutants dominants négatifs, nous avons obtenu des résultats suggèrant que suite au stress génotoxique, cette DUB est requise pour prolonger le point de contrôle en G2/M et ce, en retardant la reprise du cycle cellulaire. D'un autre côté, l'expression de BAP1 dans des cellules cancéreuses qui en sont déficientes restore une ploïdie normale et diminue la fréquence d'aberrations nucléaires, suggérant que cette protéine joue un rôle dans la stabilité génomique. Nos résultats suggèrent fortement que BAP1 joue un rôle dans la réponse des cellules au stress génotoxique et la stabilité génomique. Nos travaux permettront ainsi d’identifier et de caractériser les voies de signalisation cellulaire régulant l’activité et la fonction de BAP1 durant les périodes d’exposition à des agents qui endommagent l’ADN. Les connaissances acquises seront donc d’une valeur tangible pour nôtre compréhension de la mutagenèse induite par des agents carcinogènes, un déterminant clé de la formation des tumeurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les modèles pharmacocinétiques à base physiologique (PBPK) permettent de simuler la dose interne de substances chimiques sur la base de paramètres spécifiques à l’espèce et à la substance. Les modèles de relation quantitative structure-propriété (QSPR) existants permettent d’estimer les paramètres spécifiques au produit (coefficients de partage (PC) et constantes de métabolisme) mais leur domaine d’application est limité par leur manque de considération de la variabilité de leurs paramètres d’entrée ainsi que par leur domaine d’application restreint (c. à d., substances contenant CH3, CH2, CH, C, C=C, H, Cl, F, Br, cycle benzénique et H sur le cycle benzénique). L’objectif de cette étude est de développer de nouvelles connaissances et des outils afin d’élargir le domaine d’application des modèles QSPR-PBPK pour prédire la toxicocinétique de substances organiques inhalées chez l’humain. D’abord, un algorithme mécaniste unifié a été développé à partir de modèles existants pour prédire les PC de 142 médicaments et polluants environnementaux aux niveaux macro (tissu et sang) et micro (cellule et fluides biologiques) à partir de la composition du tissu et du sang et de propriétés physicochimiques. L’algorithme résultant a été appliqué pour prédire les PC tissu:sang, tissu:plasma et tissu:air du muscle (n = 174), du foie (n = 139) et du tissu adipeux (n = 141) du rat pour des médicaments acides, basiques et neutres ainsi que pour des cétones, esters d’acétate, éthers, alcools, hydrocarbures aliphatiques et aromatiques. Un modèle de relation quantitative propriété-propriété (QPPR) a été développé pour la clairance intrinsèque (CLint) in vivo (calculée comme le ratio du Vmax (μmol/h/kg poids de rat) sur le Km (μM)), de substrats du CYP2E1 (n = 26) en fonction du PC n octanol:eau, du PC sang:eau et du potentiel d’ionisation). Les prédictions du QPPR, représentées par les limites inférieures et supérieures de l’intervalle de confiance à 95% à la moyenne, furent ensuite intégrées dans un modèle PBPK humain. Subséquemment, l’algorithme de PC et le QPPR pour la CLint furent intégrés avec des modèles QSPR pour les PC hémoglobine:eau et huile:air pour simuler la pharmacocinétique et la dosimétrie cellulaire d’inhalation de composés organiques volatiles (COV) (benzène, 1,2-dichloroéthane, dichlorométhane, m-xylène, toluène, styrène, 1,1,1 trichloroéthane et 1,2,4 trimethylbenzène) avec un modèle PBPK chez le rat. Finalement, la variabilité de paramètres de composition des tissus et du sang de l’algorithme pour les PC tissu:air chez le rat et sang:air chez l’humain a été caractérisée par des simulations Monte Carlo par chaîne de Markov (MCMC). Les distributions résultantes ont été utilisées pour conduire des simulations Monte Carlo pour prédire des PC tissu:sang et sang:air. Les distributions de PC, avec celles des paramètres physiologiques et du contenu en cytochrome P450 CYP2E1, ont été incorporées dans un modèle PBPK pour caractériser la variabilité de la toxicocinétique sanguine de quatre COV (benzène, chloroforme, styrène et trichloroéthylène) par simulation Monte Carlo. Globalement, les approches quantitatives mises en œuvre pour les PC et la CLint dans cette étude ont permis l’utilisation de descripteurs moléculaires génériques plutôt que de fragments moléculaires spécifiques pour prédire la pharmacocinétique de substances organiques chez l’humain. La présente étude a, pour la première fois, caractérisé la variabilité des paramètres biologiques des algorithmes de PC pour étendre l’aptitude des modèles PBPK à prédire les distributions, pour la population, de doses internes de substances organiques avant de faire des tests chez l’animal ou l’humain.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les mauvais traitements représentent un facteur de risque pouvant entraver le développement normal des enfants qui en sont victimes. L’objectif général de cette thèse est de mieux comprendre le concept d’état de stress post-traumatique-complexe (ÉSPT-C) et ce, en permettant l’évaluation rigoureuse de ses symptômes et en documentant sa relation avec d’autres variables. La présente thèse est composée de deux articles empiriques. L’objectif du premier article est d’obtenir une mesure de l’ÉSPT-C pour une population francophone. Pour ce faire, les qualités psychométriques de la traduction francophone du Structured Interview of Disorders of Extreme Stress-Self-Report (SIDES-SR) ont été testées par le biais d’analyses préliminaires auprès de 438 adultes canadiens-français provenant de la population générale et de l’Université de Montréal. Les résultats démontrent que l’instrument possède une structure factorielle de 5 facteurs comparable à celle obtenue pour l’instrument en anglais dans sa version originale. Les facteurs obtenus sont : 1) les croyances pessimistes par rapport aux autres et au futur, 2) la gestion des affects, 3) l’évitement des contacts physiques et sexuels, 4) la somatisation et 5) la prise de risques. La cohérence interne de 4 facteurs sur 5 varie d’acceptable à très satisfaisante alors que leur stabilité temporelle et leur validité convergente, divergente et concurrente ressortent comme étant assez satisfaisantes. Le but du deuxième article de cette thèse est d’examiner l’apport des symptômes d’ÉSPT-C retrouvés chez les mères et de leurs pratiques parentales (supervision et utilisation abusive de la punition) pour expliquer les symptômes d’ordre psychologique chez leurs enfants victimes d’agression sexuelle (AS). Les symptômes d’ÉSPT-C des mères et leurs pratiques éducatives ont été évalués auprès de 96 mères à l’aide de mesures auto-rapportées alors que les symptômes de leur enfant ont été mesurés à partir d’un instrument qui leur était destiné. Les résultats suggèrent qu’en contrôlant les variables sociodémographiques et les caractéristiques de l’AS de l’enfant, les symptômes d’ÉSPT-C des mères sont liés à plusieurs symptômes retrouvés chez les enfants après le dévoilement de l’AS qu’ils ont subie. Le rôle modérateur de la supervision maternelle dans la relation entre l’ÉSPT-C des mères et les symptômes de dépression et d’opposition des enfants a également été démontré. Les implications théoriques et cliniques concernant les résultats obtenus dans le cadre de ce projet doctoral sont finalement abordées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La douleur est une expérience humaine des plus universelles et d’une riche variabilité culturelle. Néanmoins, il y a peu d’études sur ce sujet en général et qui plus est, la recherche sur la douleur chez les Amérindiens est presque inexistante. L’expérience de douleur de quelques 28 millions d’Amérindiens en Amérique du Sud, dont les Quichuas (Inca), est encore méconnue. Cette recherche interdisciplinaire, psychophysiologique et anthropologique, vise deux buts : (1) Étudier les effets de type analgésique du défi verbal culturellement significatif chez les Quichuas ; et (2) Faire un survol de leur système de croyances concernant la douleur, leur façon de la percevoir, de la décrire, et de la contrôler. Pour le volet expérimental, on a recruté 40 hommes en bonne santé. Les volontaires étaient assignés de façon alternée soit au groupe expérimental (20) soit au groupe contrôle (20). On a enregistré chez eux les seuils de la douleur, et celui de la tolérance à la douleur. Chez le groupe expérimental, on a, de plus, mesuré le seuil de la tolérance à la douleur avec défi verbal. La douleur était provoquée par pression au temporal, et mesurée à l’aide d’un algésimètre. Après chaque seuil, on a administré une échelle visuelle analogique. Pour le deuxième volet de l’étude, un groupe de 40 participants (15 femmes et 25 hommes) a répondu verbalement à un questionnaire en quichua sur la nature de la douleur. Celui-ci touchait les notions de cause, de susceptibilité, les caractéristiques de la douleur, les syndromes douloureux, les méthodes de diagnostic et de traitement, ainsi que la prévention. Notre étude a révélé que les participants ayant reçu le défi verbal ont présenté une tolérance accrue à la douleur statistiquement significative. Les valeurs de l’échelle visuelle analogique ont aussi augmenté chez ce groupe, ce qui indique un état accru de conscience de la douleur. L’expérience de la douleur chez les Quichuas est complexe et les stratégies pour la combattre sont sophistiquées. Selon leur théorie, le vécu d’émotions intenses, dues à des évènements de la vie, à l’existence d’autres maladies qui affectent la personne de façon concomitante, et aux esprits présents dans la nature ou chez d’autres personnes joue un rôle dans l’origine, le diagnostic et le traitement de la douleur. Les Quichuas accordent une grande crédibilité à la biomédecine ainsi qu’à la médecine traditionnelle quichua. Ils perçoivent la famille et le voisinage comme étant des sources supplémentaires de soutien. Il ressort également que les Quichuas préfèrent un service de santé de type inclusif et pluraliste. En conclusion, cette étude a révélé que des mots culturellement significatifs ayant une connotation de défi semblent augmenter la tolérance à la douleur chez les Quichuas. Il s’agit de la première étude à documenter les effets analgésiques de la parole. D’autre part, cette étude souligne également la potentielle utilité clinique de connaître le système quichua de croyances entourant la douleur et le contrôle de cette dernière. Ceci s’avère particulièrement utile pour les cliniciens soucieux d’offrir des soins de santé de meilleure qualité, culturellement adaptés, dans les Andes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans certaines circonstances, des actions de groupes sont plus performantes que des actions individuelles. Dans ces situations, il est préférable de former des coalitions. Ces coalitions peuvent être disjointes ou imbriquées. La littérature économique met un fort accent sur la modélisation des accords où les coalitions d’agents économiques sont des ensembles disjoints. Cependant on observe dans la vie de tous les jours que les coalitions politiques, environnementales, de libre-échange et d’assurance informelles sont la plupart du temps imbriquées. Aussi, devient-il impératif de comprendre le fonctionnement économique des coalitions imbriquées. Ma thèse développe un cadre d’analyse qui permet de comprendre la formation et la performance des coalitions même si elles sont imbriquées. Dans le premier chapitre je développe un jeu de négociation qui permet la formation de coalitions imbriquées. Je montre que ce jeu admet un équilibre et je développe un algorithme pour calculer les allocations d’équilibre pour les jeux symétriques. Je montre que toute structure de réseau peut se décomposer de manière unique en une structure de coalitions imbriquées. Sous certaines conditions, je montre que cette structure correspond à une structure d’équilibre d’un jeu sous-jacent. Dans le deuxième chapitre j’introduis une nouvelle notion de noyau dans le cas où les coalitions imbriquées sont permises. Je montre que cette notion de noyau est une généralisation naturelle de la notion de noyau de structure de coalitions. Je vais plus loin en introduisant des agents plus raffinés. J’obtiens alors le noyau de structure de coalitions imbriquées que je montre être un affinement de la première notion. Dans la suite de la thèse, j’applique les théories développées dans les deux premiers chapitres à des cas concrets. Le troisième chapitre est une application de la relation biunivoque établie dans le premier chapitre entre la formation des coalitions et la formation de réseaux. Je propose une modélisation réaliste et effective des assurances informelles. J’introduis ainsi dans la littérature économique sur les assurances informelles, quatre innovations majeures : une fusion entre l’approche par les groupes et l’approche par les réseaux sociaux, la possibilité d’avoir des organisations imbriquées d’assurance informelle, un schéma de punition endogène et enfin les externalités. Je caractérise les accords d’assurances informelles stables et j’isole les conditions qui poussent les agents à dévier. Il est admis dans la littérature que seuls les individus ayant un revenu élevé peuvent se permettre de violer les accords d’assurances informelles. Je donne ici les conditions dans lesquelles cette hypothèse tient. Cependant, je montre aussi qu’il est possible de violer cette hypothèse sous d’autres conditions réalistes. Finalement je dérive des résultats de statiques comparées sous deux normes de partage différents. Dans le quatrième et dernier chapitre, je propose un modèle d’assurance informelle où les groupes homogènes sont construits sur la base de relations de confiance préexistantes. Ces groupes sont imbriqués et représentent des ensembles de partage de risque. Cette approche est plus générale que les approches traditionnelles de groupe ou de réseau. Je caractérise les accords stables sans faire d’hypothèses sur le taux d’escompte. J’identifie les caractéristiques des réseaux stables qui correspondent aux taux d’escomptes les plus faibles. Bien que l’objectif des assurances informelles soit de lisser la consommation, je montre que des effets externes liés notamment à la valorisation des liens interpersonnels renforcent la stabilité. Je développe un algorithme à pas finis qui égalise la consommation pour tous les individus liés. Le fait que le nombre de pas soit fini (contrairement aux algorithmes à pas infinis existants) fait que mon algorithme peut inspirer de manière réaliste des politiques économiques. Enfin, je donne des résultats de statique comparée pour certaines valeurs exogènes du modèle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse étudie la stabilité et l’instabilité politique des régimes hybrides. Elle pose la question suivante : dans quelles conditions l’autorité des élites au pouvoir est-elle reconnue ou contestée? Notre réponse s’articule en lien avec le caractère inclusif ou exclusif de la coalition dirigeante : c’est-à-dire, l’alliance stratégique des élites dirigeantes avec les groupes sociaux dominants. L’inclusion de ces derniers favorise le consentement et la stabilité; leur exclusion entraîne l’affrontement et l’instabilité politique. Sa composition dépend (i) du degré de violence organisée extra-légale et (ii) du degré de pénétration de l’État sur le territoire et dans l’économie. La première variable permet d’identifier quel groupe social au sein de l’État (militaires) ou du régime (partis d’opposition) est dominant et influence les formes de communication politique avec les élites dirigeantes. La deuxième variable permet d’identifier quel groupe social au sein de l’État (fonctionnaires) ou de la société (chefs locaux) est dominant et oriente les rapports entre les régions et le pouvoir central. L’apport de la recherche est d’approfondir notre compréhension des institutions politiques dans les régimes hybrides en mettant l’accent sur l’identité des groupes sociaux dominants dans un contexte donné. La thèse propose un modèle simple, flexible et original permettant d’appréhender des relations causales autrement contre-intuitives. En ce sens, la stabilité politique est également possible dans un pays où l’État est faible et/ou aux prises avec des mouvements de rébellion; et l’instabilité dans un contexte inverse. Tout dépend de la composition de la coalition dirigeante. Afin d’illustrer les liens logiques formulés et d’exposer les nuances de notre théorie, nous employons une analyse historique comparative de la coalition dirigeante en Malaisie (1957-2010), en Indonésie (1945-1998), au Sénégal (1960-2010) et au Paraguay (1945-2008). La principale conclusion est que les deux variables sont incontournables. L’une sans l’autre offre nécessairement une explication incomplète des alliances politiques qui forgent les conditions de stabilité et d'instabilité dans les régimes hybrides.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le mode vie autotrophique des plantes repose entièrement sur l’intégrité du chloroplaste et notamment l’étape de la biogénèse. La transcription des gènes chloroplastiques, assurée par une PEP (ARN polymérase encodée par le chloroplaste) et deux NEPs (ARN polymérase encodée par le noyau), est l’une des étapes primordiales dans le développement d’un chloroplaste photosynthétique. On distingue trois classes de gènes chloroplastiques : les gènes de classe I, transcrit par la PEP exclusivement; les gènes de classe II, transcrits par la PEP ou les NEPs; et les gènes de classe III, transcrits exclusivement par les NEPs. Pour assurer sa fonction, la PEP doit être associée à des facteurs sigmas. L’un de ceux-ci, la protéine SIG6, est un facteur sigma général et, associé à la PEP, assure la transcription de l’ensemble des gènes de classe I et II lors du développement du chloroplaste photosynthétique. Ainsi, le mutant sig6 présente un phénotype de cotylédons pâles, associé à un retard de biogénèse chloroplastique, ainsi qu’une diminution de la transcription des gènes de classe I, provoquant la diminution de la quantité de protéines de classe I. Dans le laboratoire, nous étudions les deux protéines WHIRLY chloroplastiques (WHY1 et WHY3) pour leur rôle dans le maintien de la stabilité génomique chloroplastique. Toutefois, peu de choses sont encore connues sur leur rôle potentiel dans la transcription ou la biogénèse chloroplastique. Par exemple, lorsque l’on tente de purifier la PEP, on obtient un gros complexe transcriptionnel nommé PTAC (Plastid Transcriptionally Active Chromosome) dans lequel sont retrouvées les deux protéines WHIRLY, suggérant qu’elles pourraient être impliquées dans la transcription chloroplastique. De plus, un possible rôle dans la biogénèse chloroplastique leur a été prêté, notamment chez le maïs. Dans cette étude, nous avons donc cherché à vérifier l’implication des protéines WHIRLY dans la biogénèse chloroplastique par une approche génétique de croisements entre les mutants sig6 et why1why3. Pour cela, nous avons isolé des doubles mutants sig6why1 et sig6why3, ainsi qu’un triple mutant sig6why1why3. À l’aide d’une caractérisation phénotypique et de la quantification de quelques protéines chloroplastiques, nous avons remarqué que la perte d’un des WHIRLY permet de complémenter le phénotype de cotylédons pâles du mutant sig6 et favorise l’expression normale de protéines en principe sous-exprimées dans le mutant sig6. Toutefois, la perte des deux WHIRLY ne permet pas de compenser le phénotype de cotylédons pâles et provoque l’apparition d’un phénotype persistant associé à une expression anormale des protéines chloroplastiques. Ces résultats ne peuvent être expliqués par le rôle des WHIRLY dans le maintien de la stabilité génomique chloroplastique étant donné que le triple mutant sig6why1why3 présente moins de réarrangements que le double mutant why1why3. Finalement, nous montrons que les effets de la perte d’un WHIRLY sur le mutant sig6 peuvent être mimés par l’utilisation de la rifampicine, une drogue inhibant l’ARN polymérase chloroplastique de type bactérienne (PEP). Ensemble, ces résultats démontrent donc l’implication des protéines WHIRLY chloroplastiques dans la biogénèse chloroplastique en association avec la protéine SIG6. Nous proposons un modèle selon lequel les deux protéines WHIRLY permettraient de favoriser l’activité de l’ARN polymérase de type bactérienne, notamment lors du développement du chloroplaste photosynthétique. En cas d’absence d’une des deux protéines, cette diminution partielle d’activité de la PEP favoriserait la mise en place d’un mécanisme de complémentation par le NEPs, permettant finalement de rétablir la biogénèse chloroplastique dans un mutant sig6. En l’absence des deux WHIRLY, le mécanisme de complémentation par les NEPs serait incapable de compenser la forte inhibition de la PEP, se traduisant par une aggravation du retard de développement du chloroplaste dans le mutant sig6.