958 resultados para A Modification of de la Escalera’s Algorithm


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La scoliose idiopathique de l’adolescent (SIA) est une déformation tri-dimensionelle du rachis. Son traitement comprend l’observation, l’utilisation de corsets pour limiter sa progression ou la chirurgie pour corriger la déformation squelettique et cesser sa progression. Le traitement chirurgical reste controversé au niveau des indications, mais aussi de la chirurgie à entreprendre. Malgré la présence de classifications pour guider le traitement de la SIA, une variabilité dans la stratégie opératoire intra et inter-observateur a été décrite dans la littérature. Cette variabilité s’accentue d’autant plus avec l’évolution des techniques chirurgicales et de l’instrumentation disponible. L’avancement de la technologie et son intégration dans le milieu médical a mené à l’utilisation d’algorithmes d’intelligence artificielle informatiques pour aider la classification et l’évaluation tridimensionnelle de la scoliose. Certains algorithmes ont démontré être efficace pour diminuer la variabilité dans la classification de la scoliose et pour guider le traitement. L’objectif général de cette thèse est de développer une application utilisant des outils d’intelligence artificielle pour intégrer les données d’un nouveau patient et les évidences disponibles dans la littérature pour guider le traitement chirurgical de la SIA. Pour cela une revue de la littérature sur les applications existantes dans l’évaluation de la SIA fut entreprise pour rassembler les éléments qui permettraient la mise en place d’une application efficace et acceptée dans le milieu clinique. Cette revue de la littérature nous a permis dealiser que l’existence de “black box” dans les applications développées est une limitation pour l’intégration clinique ou la justification basée sur les évidence est essentielle. Dans une première étude nous avons développé un arbre décisionnel de classification de la scoliose idiopathique basé sur la classification de Lenke qui est la plus communément utilisée de nos jours mais a été critiquée pour sa complexité et la variabilité inter et intra-observateur. Cet arbre décisionnel a démontré qu’il permet d’augmenter la précision de classification proportionnellement au temps passé à classifier et ce indépendamment du niveau de connaissance sur la SIA. Dans une deuxième étude, un algorithme de stratégies chirurgicales basé sur des règles extraites de la littérature a été développé pour guider les chirurgiens dans la sélection de l’approche et les niveaux de fusion pour la SIA. Lorsque cet algorithme est appliqué à une large base de donnée de 1556 cas de SIA, il est capable de proposer une stratégie opératoire similaire à celle d’un chirurgien expert dans prêt de 70% des cas. Cette étude a confirmé la possibilité d’extraire des stratégies opératoires valides à l’aide d’un arbre décisionnel utilisant des règles extraites de la littérature. Dans une troisième étude, la classification de 1776 patients avec la SIA à l’aide d’une carte de Kohonen, un type de réseaux de neurone a permis de démontrer qu’il existe des scoliose typiques (scoliose à courbes uniques ou double thoracique) pour lesquelles la variabilité dans le traitement chirurgical varie peu des recommandations par la classification de Lenke tandis que les scolioses a courbes multiples ou tangentielles à deux groupes de courbes typiques étaient celles avec le plus de variation dans la stratégie opératoire. Finalement, une plateforme logicielle a été développée intégrant chacune des études ci-dessus. Cette interface logicielle permet l’entrée de données radiologiques pour un patient scoliotique, classifie la SIA à l’aide de l’arbre décisionnel de classification et suggère une approche chirurgicale basée sur l’arbre décisionnel de stratégies opératoires. Une analyse de la correction post-opératoire obtenue démontre une tendance, bien que non-statistiquement significative, à une meilleure balance chez les patients opérés suivant la stratégie recommandée par la plateforme logicielle que ceux aillant un traitement différent. Les études exposées dans cette thèse soulignent que l’utilisation d’algorithmes d’intelligence artificielle dans la classification et l’élaboration de stratégies opératoires de la SIA peuvent être intégrées dans une plateforme logicielle et pourraient assister les chirurgiens dans leur planification préopératoire.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La polykystose rénale autosomique dominante (ADPKD) est une des maladies génétiques les plus communes. ADPKD se manifeste le plus souvent au stade adulte par la présence de kystes rénaux, et bien souvent de kystes hépatiques, avec une progression très variable. ADPKD mène à une insuffisance rénale: les seuls recours sont la dialyse puis la transplantation rénale. Les mutations dispersées sur les gènes PKD1 (majoritairement; la protéine polycystine-1, PC1) et PKD2 (la protéine polycystine-2, PC2) sont responsables de l’ADPKD. Le mécanisme pathogénétique de perte de fonction (LOF) et donc d’un effet récessif cellulaire est évoqué comme causatif de l’ADPKD. LOF est en effet supporté par les modèles murins d’inactivation de gènes PKD1/PKD2, qui développent de kystes, quoique in utéro et avec une rapidité impressionnante dans les reins mais pas dans le foie. Malgré de nombreuses études in vitro, le rôle de PC1/PC2 membranaire/ciliaire reste plutôt hypothétique et contexte-dépendant. Ces études ont associé PC1/PC2 à une panoplie de voies de signalisation et ont souligné une complexité structurelle et fonctionnelle exceptionnelle, dont l’implication a été testée notamment chez les modèles de LOF. Toutefois, les observations patho-cellulaires chez l’humain dont une expression soutenue, voire augmentée, de PKD1/PC1 et l’absence de phénotypes extrarénaux particuliers remet en question l’exclusivité du mécanisme de LOF. Il était donc primordial 1) d’éclaircir le mécanisme pathogénétique, 2) de générer des outils in vivo authentiques d’ADPKD en terme d’initiation et de progression de la maladie et 3) de mieux connaitre les fonctions des PC1/PC2 indispensables pour une translation clinique adéquate. Cette thèse aborde tous ces points. Tout d’abord, nous avons démontré qu’une augmentation de PKD1 endogène sauvage, tout comme chez l’humain, est pathogénétique en générant et caractérisant en détail un modèle murin transgénique de Pkd1 (Pkd1TAG). Ce modèle reproduit non seulement les caractéristiques humaines rénales, associées aux défauts du cil primaire, mais aussi extrarénales comme les kystes hépatiques. La sévérité du phénotype corrèle avec le niveau d’expression de Pkd1 ce qui supporte fortement un modèle de dosage. Dans un deuxième temps, nous avons démontré par les études de complémentations génétiques que ces deux organes reposent sur une balance du clivage GPS de Pc1, une modification post-traductionelle typique des aGPCR, et dont l’activité et l’abondance semblent strictement contrôlées. De plus, nous avons caractérisé extensivement la biogénèse de Pc1 et de ses dérivés in vivo générés suite au clivage GPS. Nous avons identifié une toute nouvelle forme et prédominante à la membrane, la forme Pc1deN, en plus de confirmer deux fragments N- et C-terminal de Pc1 (NTF et CTF, respectivement) qui eux s’associent de manière non-covalente. Nous avons démontré de façon importante que le trafic de Pc1deN i.e., une forme NTF détachée du CTF, est toutefois dépendant de l’intégrité du fragment CTF in vivo. Par la suite, nous avons généré un premier modèle humanisant une mutation PKD1 non-sens tronquée au niveau du domaine NTF(E3043X) en la reproduisant chez une souris transgénique (Pkd1extra). Structurellement, cette mutation, qui mimique la forme Pc1deN, s’est également avérée causative de PKD. Le modèle Pkd1extra a permis entre autre de postuler l’existence d’une cross-interaction entre différentes formes de Pc1. De plus, nos deux modèles murins sont tous les deux associés à des niveaux altérés de c-Myc et Pc2, et soutiennent une implication réelle de ces derniers dans l’ADPKD tou comme une interaction fonctionnelle entre les polycystines. Finalement, nous avons démontré un chevauchement significatif entre l’ADPKD et le dommage rénal aigüe (ischémie/AKI) dont une expression augmentée de Pc1 et Pc2 mais aussi une stimulation de plusieurs facteurs cystogéniques tel que la tubérine, la β-caténine et l’oncogène c-Myc. Nos études ont donc apporté des évidences cruciales sur la contribution du gène dosage dans l’ADPKD. Nous avons développé deux modèles murins qui serviront d’outil pour l’analyse de la pathologie humaine ainsi que pour la validation préclinique ADPKD. L’identification d’une nouvelle forme de Pc1 ajoute un niveau de complexité supplémentaire expliquant en partie une capacité de régulation de plusieurs voies de signalisation par Pc1. Nos résultats nous amènent à proposer de nouvelles approches thérapeutiques: d’une part, le ciblage de CTF i.e., de style chaperonne, et d’autre part le ciblage de modulateurs intracellulaires (c-Myc, Pc2, Hif1α). Ensemble, nos travaux sont d’une importance primordiale du point de vue informatif et pratique pour un avancement vers une thérapie contre l’ADPKD. Le partage de voies communes entre AKI et ADPKD ouvre la voie aux approches thérapeutiques parallèles pour un traitement assurément beaucoup plus rapide.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En la actualidad, el uso de las tecnologías ha sido primordial para el avance de las sociedades, estas han permitido que personas sin conocimientos informáticos o usuarios llamados “no expertos” se interesen en su uso, razón por la cual los investigadores científicos se han visto en la necesidad de producir estudios que permitan la adaptación de sistemas, a la problemática existente dentro del ámbito informático. Una necesidad recurrente de todo usuario de un sistema es la gestión de la información, la cual se puede administrar por medio de una base de datos y lenguaje específico, como lo es el SQL (Structured Query Language), pero esto obliga al usuario sin conocimientos a acudir a un especialista para su diseño y construcción, lo cual se ve reflejado en costos y métodos complejos, entonces se plantea una pregunta ¿qué hacer cuando los proyectos son pequeñas y los recursos y procesos son limitados? Teniendo como base la investigación realizada por la universidad de Washington[39], donde sintetizan sentencias SQL a partir de ejemplos de entrada y salida, se pretende con esta memoria automatizar el proceso y aplicar una técnica diferente de aprendizaje, para lo cual utiliza una aproximación evolucionista, donde la aplicación de un algoritmo genético adaptado origina sentencias SQL válidas que responden a las condiciones establecidas por los ejemplos de entrada y salida dados por el usuario. Se obtuvo como resultado de la aproximación, una herramienta denominada EvoSQL que fue validada en este estudio. Sobre los 28 ejercicios empleados por la investigación [39], 23 de los cuales se obtuvieron resultados perfectos y 5 ejercicios sin éxito, esto representa un 82.1% de efectividad. Esta efectividad es superior en un 10.7% al establecido por la herramienta desarrollada en [39] SQLSynthesizer y 75% más alto que la herramienta siguiente más próxima Query by Output QBO[31]. El promedio obtenido en la ejecución de cada ejercicio fue de 3 minutos y 11 segundos, este tiempo es superior al establecido por SQLSynthesizer; sin embargo, en la medida un algoritmo genético supone la existencia de fases que amplían los rangos de tiempos, por lo cual el tiempo obtenido es aceptable con relación a las aplicaciones de este tipo. En conclusión y según lo anteriormente expuesto, se obtuvo una herramienta automática con una aproximación evolucionista, con buenos resultados y un proceso simple para el usuario “no experto”.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les scores de propension (PS) sont fréquemment utilisés dans l’ajustement pour des facteurs confondants liés au biais d’indication. Cependant, ils sont limités par le fait qu’ils permettent uniquement l’ajustement pour des facteurs confondants connus et mesurés. Les scores de propension à hautes dimensions (hdPS), une variante des PS, utilisent un algorithme standardisé afin de sélectionner les covariables pour lesquelles ils vont ajuster. L’utilisation de cet algorithme pourrait permettre l’ajustement de tous les types de facteurs confondants. Cette thèse a pour but d’évaluer la performance de l’hdPS vis-à-vis le biais d’indication dans le contexte d’une étude observationnelle examinant l’effet diabétogénique potentiel des statines. Dans un premier temps, nous avons examiné si l’exposition aux statines était associée au risque de diabète. Les résultats de ce premier article suggèrent que l’exposition aux statines est associée avec une augmentation du risque de diabète et que cette relation est dose-dépendante et réversible dans le temps. Suite à l’identification de cette association, nous avons examiné dans un deuxième article si l’hdPS permettait un meilleur ajustement pour le biais d’indication que le PS; cette évaluation fut entreprise grâce à deux approches: 1) en fonction des mesures d’association ajustées et 2) en fonction de la capacité du PS et de l’hdPS à sélectionner des sous-cohortes appariées de patients présentant des caractéristiques similaires vis-à-vis 19 caractéristiques lorsqu’ils sont utilisés comme critère d’appariement. Selon les résultats présentés dans le cadre du deuxième article, nous avons démontré que l’évaluation de la performance en fonction de la première approche était non concluante, mais que l’évaluation en fonction de la deuxième approche favorisait l’hdPS dans son ajustement pour le biais d’indication. Le dernier article de cette thèse a cherché à examiner la performance de l’hdPS lorsque des facteurs confondants connus et mesurés sont masqués à l’algorithme de sélection. Les résultats de ce dernier article indiquent que l’hdPS pourrait, au moins partiellement, ajuster pour des facteurs confondants masqués et qu’il pourrait donc potentiellement ajuster pour des facteurs confondants non mesurés. Ensemble ces résultats indiquent que l’hdPS serait supérieur au PS dans l’ajustement pour le biais d’indication et supportent son utilisation lors de futures études observationnelles basées sur des données médico-administratives.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Bien qu’elle ne constitue en rien une pratique marginale, la révision, en tant que relecture et modification d’une traduction existante dans le but d’une nouvelle édition, a suscité jusqu’à maintenant très peu d’intérêt en traductologie. La retraduction, activité avec laquelle elle entretient de nombreux liens, a quant à elle souvent été abordée comme le résultat de simples schémas monocausaux, fondés sur la défaillance ou sur l’évolution des normes. Le présent mémoire, à partir de l’analyse comparative de la trilogie Mémoire du feu (publiée pour la première fois chez Plon en 1985 et 1988) — traduction fraaise de Memoria del fuego, d’Eduardo Galeano (1982, 1984 et 1986) — et de sa révision (publiée chez Lux en 2013), démontre plutôt la multiplicité des facteurs sous-tendant le processus de révision et la nécessité d’étudier leurs interactions. Notre étude de cas, alliant une analyse textuelle, une étude contextuelle et un travail de terrain, révèle l’influence significative des pratiques, des positions idéologiques et des conceptions des agents tant sur l’entreprise d’une révision que sur son déroulement.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'adaptation à l'environnement est essentielle à la survie cellulaire et des organismes en général. La capacité d'adaptation aux variations en oxygène repose sur des mécanismes de détection de l'hypoxie et une capacité à répondre en amorçant un programme d'angiogenèse. Bien que la contribution du facteur induit par l'hypoxie (HIF) est bien définie dans l'induction d'une telle réponse, d'autres mécanismes sont susceptibles d'être impliqués. Dans cette optique, les études démontrant l'influence du métabolisme énergétique sur le développement vasculaire sont de plus en plus nombreuses. L'un de ces composés, le succinate, a récemment été démontré comme étant le ligand du GPR91, un récepteur couplé aux protéines G. Parmi les différents rôles attribués à ce récepteur, notre laboratoire s'intéressa aux rôles du GPR91 dans la revascularisation observée suite à des situations d'hypoxie dont ceux affectant la rétine. Il existe cependant d'autres conditions pour lesquelles une revascularisation serait bénéfique notamment suite à un stress hypoxique-ischémique cérébral. Nos travaux ont pour objectifs de mieux comprendre le rôle et le fonctionnement de ce récepteur durant le développement et dans le cadre de pathologies affectant la formation de vaisseaux sanguins. Dans un premier temps, nous avons déterminé le rôle du GPR91 dans la guérison suite à un stress hypoxique-ischémique cérébral chez le nouveau-né. Nous montrons que ce récepteur est exprimé dans le cerveau et en utilisant des souris n'exprimant pas le GPR91, nous démontrons que dans un modèle d'hypoxie-ischémie cérébrale néonatal l'angiogenèse prenant place au cours de la phase de guérison dépend largement du récepteur. L'injection intracérébrale de succinate induit également l'expression de nombreux facteurs proangiogéniques et les résultats suggèrent que le GPR91 contrôle la production de ces facteurs. De plus, l'injection de ce métabolite avant le modèle d'hypoxie-ischémie réduit substantiellement la taille de l'infarctus. In vitro, des essaies de transcription génique démontrent qu'à la fois les neurones et les astrocytes répondent au succinate en induisant l'expression de facteurs bénéfiques à la revascularisation. En considérant le rôle physiologique important du GPR91, une seconde étude a été entreprise afin de comprendre les déterminants moléculaires régissant son activité. Bien que la localisation subcellulaire des RCPG ait traditionnellement été considérée comme étant la membrane plasmique, un nombre de publications indique la présence de ces récepteurs à l'intérieur de la cellule. En effet, tel qu'observé par microscopie confocale, le récepteur colocalise avec plusieurs marqueurs du réticulum endoplasmique, que celui-ci soit exprimé de façon endogène ou transfecté transitoirement. De plus, l’activation des gènes par stimulation avec le succinate est fortement affectée en présence d'inhibiteur du transport d'acides organiques. Nous montrons que le profil de facteurs angiogéniques est influencé selon la localisation ce qui affecte directement l'organisation du réseau tubulaire ex vivo. Finalement, nous avons identifié une région conservée du GPR91 qui agit de signal de rétention. De plus, nous avons découvert l'effet de l'hypoxie sur la localisation. Ces travaux confirment le rôle de régulateur maître de l'angiogenèse du GPR91 lors d'accumulation de succinate en condition hypoxique et démontrent pour la première fois l'existence, et l'importance, d'un récepteur intracellulaire activé par un intermédiaire du métabolisme. Ces données pavent donc la voie à une nouvelle avenue de traitement ciblant GPR91 dans des pathologies hypoxiques ischémiques cérébrales et soulèvent l'importance de tenir compte de la localisation subcellulaire de la cible dans le processus de découverte du médicament.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La relocalisation et la dégradation médiée par ubiquitination sont utilisées par la cellule pour contrôler la localisation et l’expression de ses protéines. L’E3 ubiquitine ligase MARCH1 est impliqué dans la régulation post-traductionnelle de CMH-II et de CD86. Dans ce mémoire, on propose un rôle additionnel à MARCH1. Nos résultats expérimentaux nous portent à croire que MARCH1 pourrait moduler le métabolisme cellulaire en favorisant la relocalisation et la dégradation d’enzymes impliquées dans la glycolyse. La grande majorité des cellules utilise la phosphorylation oxydative pour générer de l’ATP en présence d’oxygène. Dans un environnement hypoxique, cette dernière est non fonctionnelle et la cellule doit utiliser la glycolyse anaérobique pour produire son ATP. Une cellule cancéreuse à des besoins énergétiques supérieurs en raison de l’augmentation de sa biomasse et de sa prolifération incontrôlée. Pour subvenir à ces besoins, elle maximise sa production d’énergie en modifiant son métabolisme; c’est l’effet Warburg. On retrouve dans les cellules immunitaires des modifications similaires au métabolisme cellulaire suite à un signal d’activation. Ici, nous montrons que la respiration mitochondriale maximale, la réserve respiratoire et la glycolyse maximale sont diminuées dans les cellules présentatrice d’antigènes qui expriment MARCH1. Nous avons montré que MARCH1 était localisable au niveau de la mitochondrie, ce qui lui permet d’interagir avec les enzymes de la glycolyse. Finalement, nous avons quantifié l’expression de Eno1 et de LDHB par Western Blot, pour montrer une augmentation de l’expression de ces enzymes en absence de MARCH1. À la lumière de ces résultats, nous discutons des avantages que procure la diminution de l’expression de MARCH1 dans un contexte inflammatoire, suite à l’activation des cellules présentatrices d’antigènes. Ce phénomène permettrait une présentation antigénique plus efficace, une augmentation de la production d’énergie et une meilleure résistance aux ROS produits lors de la réponse inflammatoire.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’inflammation fait partie des processus réactionnels de défense dont dispose l’organisme en réponse aux agressions, assurant l’intégrité de l’hôte. En réponse au dommage tissulaire, plusieurs médiateurs inflammatoires interviennent dans le processus de l’inflammation. Lors de ces dommages, des signaux de dangers provenant de cellules endommagées sont relâchés dans l’environnement tissulaire, pouvant causer des dommages cellulaires et tissulaires. Les macrophages, tout comme d’autres cellules, peuvent être activés par ces signaux de danger, menant à la sécrétion de molécules telles que des cytokines et des chimiokines pouvant modifier le microenvironnement tissulaire. Les insultes au tissu sain peuvent entrainer la mort cellulaire telle que l’apoptose. Les molécules pouvant être relâchées lors de celle-ci contribuent au microenvironnement, notamment de par l’influence de celles-ci sur le macrophage. Parmi ces médiateurs, nous avons identifié le Milk Fat Globule-Epidermal growth factor 8 (MFG-E8), un acteur important dans la résolution de l’inflammation, comme étant relâché spécifiquement par les cellules apoptotiques. Nous avons émis l’hypothèse que le microenvironnement apoptotique tissulaire, via la relâche de MFG-E8, module le phénotype du macrophage, modifiant le microenvironnement, la réponse inflammatoire ainsi que le devenir de l’insulte tissulaire. Nos objectifs sont 1) de caractériser ce microenvironnement apoptotique tissulaire et la cinétique de relâche du MFG-E8 par les cellules apoptotiques, 2) d’en évaluer son rôle dans la modulation du phénotype du macrophage ainsi que 3) d’en étudier, in vivo, son influence sur l’environnement inflammatoire et le devenir tissulaire. Dans le premier article présenté, nous avons démontré que les cellules endothéliales apoptotiques relâchent le MFG-E8 de façon Caspase-3 dépendante. La stimulation des macrophages par l’environnement conditionné par les cellules endothéliales apoptotiques mène à l’adoption d’un profil macrophagien davantage anti-inflammatoire et moindrement pro-inflammatoire. Ce phénotype est réduit par l’inhibition de la Caspase-3 et il dépend de la présence de MFG-E8. De plus, le potentiel du MFG-E8 à la reprogrammation du macrophage pro-inflammatoire a été démontré via un modèle expérimental de péritonite. Ce changement phénotypique médié par MFG-E8 implique une signalisation STAT3. Ayant démontré que les cellules épithéliales apoptotiques, à l’instar des cellules endothéliales apoptotiques, relâchent elles aussi de façon apoptose-dépendante le MFG-E8, nous avons étudié plus exhaustivement un modèle in vivo riche en apoptose épithéliale, l’obstruction urétérale unilatérale. Dans ce deuxième article présenté, nous rapportons l’implication bénéfique de MFG-E8 dans ce modèle de pathologie rénale obstructive. Nous avons constaté que la présence ou l’administration de MFG-E8 réduit le dommage tissulaire et la fibrose. La protection conférée par MFG-E8 est médiée via la modulation de l’activation de l’inflammasome. De plus, nos résultats illustrent l’importance du phénotype anti-inflammatoire du macrophage médié par le MFG-E8 dans la régulation négative de l’activation de l’inflammasome rénal et du dommage tissulaire. Cette thèse présente la première description de la relâche Caspase-3-dépendante de MFG-E8 par les cellules apoptotiques. Elle démontre également l’importance du MFG-E8 dans le microenvironnement apoptotique inflammatoire dans l’atténuation du phénotype pro-inflammatoire du macrophage. De plus, nous avons démontré son rôle protecteur dans des modèles in vivo de transplantation aortique et de réparation tissulaire, de même que dans un modèle de maladie rénale chronique où nous avons montré que cette protection conférée par MFG-E8 est médiée par la régulation négative de l’inflammasome tissulaire. Nos résultats suggèrent ainsi que le MFG-E8 pourrait être considéré comme un interrupteur inflammatoire et ainsi comme une cible potentielle dans la modulation de maladies inflammatoires.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Previous work in yeast has suggested that modification of tRNAs, in particular uridine bases in the anticodon wobble position (U34), is linked to TOR (target of rapamycin) signaling. Hence, U34 modification mutants were found to be hypersensitive to TOR inhibition by rapamycin. To study whether this involves inappropriate TOR signaling, we examined interaction between mutations in TOR pathway genes (tip41Δ, sap190Δ, ppm1Δ, rrd1Δ) and U34 modification defects (elp3Δ, kti12Δ, urm1Δ, ncs2Δ) and found the rapamycin hypersensitivity in the latter is epistatic to drug resistance of the former. Epistasis, however, is abolished in tandem with a gln3Δ deletion, which inactivates transcription factor Gln3 required for TOR-sensitive activation of NCR (nitrogen catabolite repression) genes. In line with nuclear import of Gln3 being under control of TOR and dephosphorylation by the Sit4 phosphatase, we identify novel TOR-sensitive sit4 mutations that confer rapamycin resistance and importantly, mislocalise Gln3 when TOR is inhibited. This is similar to gln3Δ cells, which abolish the rapamycin hypersensitivity of U34 modification mutants, and suggests TOR deregulation due to tRNA undermodification operates through Gln3. In line with this, loss of U34 modifications (elp3Δ, urm1Δ) enhances nuclear import of and NCR gene activation (MEP2, GAP1) by Gln3 when TOR activity is low. Strikingly, this stimulatory effect onto Gln3 is suppressed by overexpression of tRNAs that usually carry the U34 modifications. Collectively, our data suggest that proper TOR signaling requires intact tRNA modifications and that loss of U34 modifications impinges on the TORsensitive NCR branch via Gln3 misregulation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

All of the imputation techniques usually applied for replacing values below the detection limit in compositional data sets have adverse effects on the variability. In this work we propose a modification of the EM algorithm that is applied using the additive log-ratio transformation. This new strategy is applied to a compositional data set and the results are compared with the usual imputation techniques

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Self-organizing maps (Kohonen 1997) is a type of artificial neural network developed to explore patterns in high-dimensional multivariate data. The conventional version of the algorithm involves the use of Euclidean metric in the process of adaptation of the model vectors, thus rendering in theory a whole methodology incompatible with non-Euclidean geometries. In this contribution we explore the two main aspects of the problem: 1. Whether the conventional approach using Euclidean metric can shed valid results with compositional data. 2. If a modification of the conventional approach replacing vectorial sum and scalar multiplication by the canonical operators in the simplex (i.e. perturbation and powering) can converge to an adequate solution. Preliminary tests showed that both methodologies can be used on compositional data. However, the modified version of the algorithm performs poorer than the conventional version, in particular, when the data is pathological. Moreover, the conventional ap- proach converges faster to a solution, when data is \well-behaved". Key words: Self Organizing Map; Artificial Neural networks; Compositional data

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Debido a la gran cantidad de muestras arqueológicas impregnadas con PEG que se encuentran contaminadas por compuestos insolubles de hierro, se plantea la posible extracción y formación de complejos Fe-L (L=PBTC) y sus efectos en (i) la estructura de la matriz orgánica, (ii) la estructura y propiedades físicas del PEG y (iii) el comportamiento de la muestra en la etapa posterior de almacenamiento. El proyecto analiza la formación de compuestos químicos y posibles modificaciones estructurales en el proceso de extracción del hierro. Consiste en un estudio sistemático de un sistema químico y su influencia en los procesos de precipitación de Fe3+ en medio acuoso. El proyecto se fundamenta en: (1) desarrollar un proceso experimental de optimización para la extracción de las sales contaminantes y (2) encontrar las técnicas analíticas óptimas que permitan apreciar modificaciones estructurales de los diferentes sistemas. Se determina la cantidad de hierro extraído mediante A.A. Las interacciones entre PBTC y PEG se analizan por IR. Las modificaciones de determinadas propiedades físicas se determinan por DSC y las estructurales mediante SEM. En las condiciones termodinámicas óptimas se obtiene una extracción superficial del hierro (30-35%). La disolución del PEG origina modificaciones de la masa y el volumen de la muestra

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La inversión extranjera directa en Colombia es un asunto que particularmente desde 1990 ha venido tomando fuerza y que a su vez genera múltiples cuestiones. Para abordar el impacto que la IED ha tenido en Colombia se hace necesario hacer un acercamiento teórico para comprender el concepto, pasando por el estudio del caso latinoamericano para después seleccionar los principales sectores de la economía colombiana y en los cuales la IED ha jugado un rol destacado, como es el caso del sector financiero, la industria manufacturera, el sector de electricidad, gas y agua, el sector de transporte, almacenamiento y comunicaciones y el sector petróleo. Con ello en mente será posible establecer y medir el impacto económico de la IED, tomando como principal indicador la correlación entre la IED y PIB por sector y otros aspectos como el impacto en el empleo y la transferencia de conocimiento y tecnología. Igualmente es necesario abordar la perspectiva del inversionista y los riesgos y beneficios que corre al invertir en Colombia, esto permitirá ampliar el campo de análisis y establecer otras relaciones e impactos conexos de la IED en los aspectos sociales y culturales del país. Gracias a estos análisis será posible emitir un juicio de valor sustentado en un análisis científico detallado sobre el verdadero impacto de la IED y extendiéndose más allá del campo económico.