995 resultados para Approches
Underway physical oceanography and carbon dioxide measurements during Marion Dufresne cruise OISO_18
Underway physical oceanography and carbon dioxide measurements during Marion Dufresne cruise OISO_11
Underway physical oceanography and carbon dioxide measurements during Marion Dufresne cruise OISO_13
Underway physical oceanography and carbon dioxide measurements during Marion Dufresne cruise OISO_14
Resumo:
Durante los últimos años, el imparable crecimiento de fuentes de datos biomédicas, propiciado por el desarrollo de técnicas de generación de datos masivos (principalmente en el campo de la genómica) y la expansión de tecnologías para la comunicación y compartición de información ha propiciado que la investigación biomédica haya pasado a basarse de forma casi exclusiva en el análisis distribuido de información y en la búsqueda de relaciones entre diferentes fuentes de datos. Esto resulta una tarea compleja debido a la heterogeneidad entre las fuentes de datos empleadas (ya sea por el uso de diferentes formatos, tecnologías, o modelizaciones de dominios). Existen trabajos que tienen como objetivo la homogeneización de estas con el fin de conseguir que la información se muestre de forma integrada, como si fuera una única base de datos. Sin embargo no existe ningún trabajo que automatice de forma completa este proceso de integración semántica. Existen dos enfoques principales para dar solución al problema de integración de fuentes heterogéneas de datos: Centralizado y Distribuido. Ambos enfoques requieren de una traducción de datos de un modelo a otro. Para realizar esta tarea se emplean formalizaciones de las relaciones semánticas entre los modelos subyacentes y el modelo central. Estas formalizaciones se denominan comúnmente anotaciones. Las anotaciones de bases de datos, en el contexto de la integración semántica de la información, consisten en definir relaciones entre términos de igual significado, para posibilitar la traducción automática de la información. Dependiendo del problema en el que se esté trabajando, estas relaciones serán entre conceptos individuales o entre conjuntos enteros de conceptos (vistas). El trabajo aquí expuesto se centra en estas últimas. El proyecto europeo p-medicine (FP7-ICT-2009-270089) se basa en el enfoque centralizado y hace uso de anotaciones basadas en vistas y cuyas bases de datos están modeladas en RDF. Los datos extraídos de las diferentes fuentes son traducidos e integrados en un Data Warehouse. Dentro de la plataforma de p-medicine, el Grupo de Informática Biomédica (GIB) de la Universidad Politécnica de Madrid, en el cuál realicé mi trabajo, proporciona una herramienta para la generación de las necesarias anotaciones de las bases de datos RDF. Esta herramienta, denominada Ontology Annotator ofrece la posibilidad de generar de manera manual anotaciones basadas en vistas. Sin embargo, aunque esta herramienta muestra las fuentes de datos a anotar de manera gráfica, la gran mayoría de usuarios encuentran difícil el manejo de la herramienta , y pierden demasiado tiempo en el proceso de anotación. Es por ello que surge la necesidad de desarrollar una herramienta más avanzada, que sea capaz de asistir al usuario en el proceso de anotar bases de datos en p-medicine. El objetivo es automatizar los procesos más complejos de la anotación y presentar de forma natural y entendible la información relativa a las anotaciones de bases de datos RDF. Esta herramienta ha sido denominada Ontology Annotator Assistant, y el trabajo aquí expuesto describe el proceso de diseño y desarrollo, así como algunos algoritmos innovadores que han sido creados por el autor del trabajo para su correcto funcionamiento. Esta herramienta ofrece funcionalidades no existentes previamente en ninguna otra herramienta del área de la anotación automática e integración semántica de bases de datos. ---ABSTRACT---Over the last years, the unstoppable growth of biomedical data sources, mainly thanks to the development of massive data generation techniques (specially in the genomics field) and the rise of the communication and information sharing technologies, lead to the fact that biomedical research has come to rely almost exclusively on the analysis of distributed information and in finding relationships between different data sources. This is a complex task due to the heterogeneity of the sources used (either by the use of different formats, technologies or domain modeling). There are some research proyects that aim homogenization of these sources in order to retrieve information in an integrated way, as if it were a single database. However there is still now work to automate completely this process of semantic integration. There are two main approaches with the purpouse of integrating heterogeneous data sources: Centralized and Distributed. Both approches involve making translation from one model to another. To perform this task there is a need of using formalization of the semantic relationships between the underlying models and the main model. These formalizations are also calles annotations. In the context of semantic integration of the information, data base annotations consist on defining relations between concepts or words with the same meaning, so the automatic translation can be performed. Depending on the task, the ralationships can be between individuals or between whole sets of concepts (views). This paper focuses on the latter. The European project p-medicine (FP7-ICT-2009-270089) is based on the centralized approach. It uses view based annotations and RDF modeled databases. The data retireved from different data sources is translated and joined into a Data Warehouse. Within the p-medicine platform, the Biomedical Informatics Group (GIB) of the Polytechnic University of Madrid, in which I worked, provides a software to create annotations for the RDF sources. This tool, called Ontology Annotator, is used to create annotations manually. However, although Ontology Annotator displays the data sources graphically, most of the users find it difficult to use this software, thus they spend too much time to complete the task. For this reason there is a need to develop a more advanced tool, which would be able to help the user in the task of annotating p-medicine databases. The aim is automating the most complex processes of the annotation and display the information clearly and easy understanding. This software is called Ontology Annotater Assistant and this book describes the process of design and development of it. as well as some innovative algorithms that were designed by the author of the work. This tool provides features that no other software in the field of automatic annotation can provide.
Resumo:
Electromagnetic coupling phenomena between overhead power transmission lines and other nearby structures are inevitable, especially in densely populated areas. The undesired effects resulting from this proximity are manifold and range from the establishment of hazardous potentials to the outbreak of alternate current corrosion phenomena. The study of this class of problems is necessary for ensuring security in the vicinities of the interaction zone and also to preserve the integrity of the equipment and of the devices there present. However, the complete modeling of this type of application requires the three- -dimensional representation of the region of interest and needs specific numerical methods for field computation. In this work, the modeling of problems arising from the flow of electrical currents in the ground (the so-called conductive coupling) will be addressed with the finite element method. Those resulting from the time variation of the electromagnetic fields (the so-called inductive coupling) will be considered as well, and they will be treated with the generalized PEEC (Partial Element Equivalent Circuit) method. More specifically, a special boundary condition on the electric potential is proposed for truncating the computational domain in the finite element analysis of conductive coupling problems, and a complete PEEC formulation for modeling inductive coupling problems is presented. Test configurations of increasing complexities are considered for validating the foregoing approaches. These works aim to provide a contribution to the modeling of this class of problems, which tend to become common with the expansion of power grids.
Resumo:
La steppe algérienne est confrontée depuis plusieurs décennies à un problème de dégradation induit par l’effet combiné de facteurs anthropiques et naturels. Les résultats obtenus dans la lutte contre ce phénomène, malgré les moyens mobilisés, restent très mitigés et révèlent l’inefficacité des approches et méthodes adoptées. Toute action de préservation et de réhabilitation de la steppe doit reposer dans un premier temps sur un diagnostic permettant d’identifier et d’évaluer le poids de chaque facteur dégradant. Parmi les facteurs souvent soulignés on note le climat, le parcours, le défrichement et la pratique d’une agriculture pluviale sans une justification ni estimation de cet impact. Le diagnostic ciblant et classant les principaux facteurs de régression des formations steppique de Stipa tenacissima est l’objectif assigné à cette publication. La démarche retenue traitera de l’état des formations steppiques face aux pressions pour une identification des facteurs causaux de cette situation et une évaluation de leur impact futur.
Resumo:
L'arthrose est une maladie multifactorielle complexe. Parmi les facteurs impliqués dans sa pathogénie, les certains prostaglandines exercent un rôle inflammatoire et d’autres un rôle protecteur. La prostaglandine D2 (PGD2) est bien connue comme une PG anti-inflammatoire, qui est régulée par l’enzyme «Lipocalin prostaglandine D-synthase». Avec l’inflammation de l'arthrose, les chondrocytes essaient de protéger le cartilage en activant certaines voies de récupération dont l'induction du gène L-PGDS. Dans cette étude, nous étudions la voie de signalisation impliquée dans la régulation de l'expression du (L-PGDS) sur les chondrocytes traités avec différents médiateurs inflammatoires. Le but de projet: Nous souhaitons étudier la régulation de la L-PGDS dans le but de concevoir des approches thérapeutiques qui peuvent activer la voie intrinsèque anti-inflammatoire. Méthode et conclusions: In vivo, l'arthrose a été suivie en fonction de l’âge chez la souris ou chirurgicalement suivant une intervention au niveau des genoux de souris. Nous avons confirmé les niveaux d’expression de L-PGDS histologiquement et par immunohistochimie. In vitro, dans les chondrocytes humains qui ont été traités avec différents médiateurs de l'inflammation, nous avons observé une augmentation de l’expression de la L-PGDS dose et temps dépendante. Nous avons montré, in vivo et in vitro que l’inflammation induit une sécrétion chondrocytaire de la L-PGDS dans le milieu extracellulaire. Enfin, nous avons observé la production de différentes isoformes de la L-PGDS en réponse à l'inflammation.
Resumo:
Le cancer de l’ovaire (COv) est le cancer gynécologique le plus létal chez la femme et les traitements existants, chirurgie et chimiothérapie, ont peu évolué au cours des dernières décennies. Nous proposons que la compréhension des différents destins cellulaires tels que la sénescence que peuvent choisir les cellules du cancer de l’ovaire en réponse à la chimiothérapie pourrait conduire à de nouvelles opportunités thérapeutiques. La sénescence cellulaire a été largement associée à l’activité de la protéine TP53, qui est mutée dans plus de 90% des cas de cancer de l’ovaire séreux de haut grade (COv-SHG), la forme la plus commune de la maladie. Dans nos travaux, à partir d’échantillons dérivés de patientes, nous montrons que les cultures primaires du cancer de l’ovaire séreux de haut grade exposées au stress ou à des drogues utilisées en chimiothérapie entrent en senescence grâce à l’activité d’un isoforme du gène CDKN2A (p16INK4A). Dans ces cellules, nous avons évalué les caractéristiques fondamentales de la sénescence cellulaire tels que les altérations morphologiques, l’activité béta galactosidase associée à la sénescence, les dommages à l’ADN, l’arrêt du cycle cellulaire et le phénotype sécrétoire associé à la sénescence. En utilisant des micromatrices tissulaires construites à partir d’échantillons humains de COv-SHG pré- et post-chimiothérapie, accompagnées de leurs données cliniques, nous avons quantifié des marqueurs de sénescence incluant une diminution de la prolifération cellulaire quelques semaines après chimiothérapie. De façon intéressante, l’expression de p16INK4A dans les échantillons de COv-SHG prétraitement corrèle avec une survie prolongée des patientes suite au traitement. Ceci suggère ainsi pour la première fois un impact biologique bénéfique pour la présence de cellules cancéreuses qui sont capable d’activer la sénescence, particulièrement pour le traitement du cancer de l’ovaire. Dans le but de complémenter les thérapies actuelles avec des approches de manipulation pharmacologique de la sénescence, nos résultats suggèrent qu’il serait important de déterminer l’impact positif ou négatif de la sénescence induite par la thérapie sur la progression de la maladie et la survie, pour chaque type de cancer de façon indépendante.
Resumo:
Problématique: L’hypertension artérielle essentielle, facteur de risque majeur dans le développement des maladies cardiovasculaires, est un trait multigénique complexe dont les connaissances sur le déterminisme génétique nécessitent d’être approfondies. De nombreux loci à trait quantitatif (QTLs); soit des gènes responsables de faire varier la pression artérielle (PA), ont été identifiés chez l’humain et le modèle animal. Cependant, le mystère plane encore sur la façon dont ces gènes fonctionnent ensemble pour réguler la PA. Hypothèse et objectif: Plutôt qu’une addition de QTLs ayant chacun une action infinitésimale sur la PA, une interaction épistatique entre les gènes serait responsable du phénotype hypertendu. Ainsi, l’étude de cette épistasie entre les gènes impliqués, directement ou indirectement, dans l’homéostasie de la PA nous permettrait d’explorer de nouvelles voies de régulation moléculaire en cause dans cette maladie. Méthodes: Via la réalisation de souches congéniques de rats, où un segment chromosomique provenant d’une souche receveuse hypertendue (Dahl Salt Sensitive, SS/Jr) est remplacé par son homologue provenant d’une souche donneuse normotendue (Lewis, LEW), des QTLs peuvent être mis en évidence. Dans ce contexte, la combinaison de QTLs via la création de doubles ou multiples congéniques constitue la première démonstration fonctionnelle des interactions intergéniques. Résultats: Vingt-sept combinaisons au total nous ont menés à l’appréciation d’une modularisation des QTLs. Ces derniers ont été catégorisés selon deux principaux modules épistatiques (EMs) où les QTLs appartenant à un même EM sont épistatiques entre eux et participent à une même voie régulatrice. Les EMs/cascades agissent alors en parallèle pour réguler la PA. Grâce à l’existence de QTLs ayant des effets opposés sur la PA, nous avons pu établir l’ordre hiérarchique entre trois paires de QTLs. Cependant, lorsque cette suite régulatrice ne peut être déterminée, d’autres approches sont nécessaires. Nos travaux nous ont mené à l’identification d’un QTL situé sur le chromosome 16 du rat (C16QTL), appartenant au EM1 et qui révélerait une nouvelle voie de l’homéostasie de la PA. Le gène retinoblastoma-associated protein 140 (Rap140)/family with sequence similarity 208 member A (Fam208a), présentant une mutation non synonyme entre SS/Jr et LEW est le gène candidat le plus plausible pour représenter C16QTL. Celui-ci code pour un facteur de transcription et semblerait influencer l’expression de Solute carrier family 7 (cationic amino acid transporter, y+ system) member 12 (Slc7a12), spécifiquement et significativement sous exprimé dans les reins de la souche congénique portant C16QTL par rapport à la souche SS/Jr. Rap140/Fam208a agirait comme un inhibiteur de la transcription de Slc7a12 menant à une diminution de la pression chez Lewis. Conclusions: L’architecture complexe de la régulation de la PA se dévoile mettant en scène de nouveaux acteurs, pour la plupart inconnus pour leur implication dans la PA. L’étude de la nouvelle voie de signalisation Rap140/Fam208a - Slc7a12 nous permettra d’approfondir nos connaissances quant à l’homéostasie de la pression artérielle et de l’hypertension chez SS/Jr. À long terme, de nouveaux traitements anti-hypertenseurs, ciblant plus d’une voie de régulation à la fois, pourraient voir le jour.
Resumo:
La recherche d'informations s'intéresse, entre autres, à répondre à des questions comme: est-ce qu'un document est pertinent à une requête ? Est-ce que deux requêtes ou deux documents sont similaires ? Comment la similarité entre deux requêtes ou documents peut être utilisée pour améliorer l'estimation de la pertinence ? Pour donner réponse à ces questions, il est nécessaire d'associer chaque document et requête à des représentations interprétables par ordinateur. Une fois ces représentations estimées, la similarité peut correspondre, par exemple, à une distance ou une divergence qui opère dans l'espace de représentation. On admet généralement que la qualité d'une représentation a un impact direct sur l'erreur d'estimation par rapport à la vraie pertinence, jugée par un humain. Estimer de bonnes représentations des documents et des requêtes a longtemps été un problème central de la recherche d'informations. Le but de cette thèse est de proposer des nouvelles méthodes pour estimer les représentations des documents et des requêtes, la relation de pertinence entre eux et ainsi modestement avancer l'état de l'art du domaine. Nous présentons quatre articles publiés dans des conférences internationales et un article publié dans un forum d'évaluation. Les deux premiers articles concernent des méthodes qui créent l'espace de représentation selon une connaissance à priori sur les caractéristiques qui sont importantes pour la tâche à accomplir. Ceux-ci nous amènent à présenter un nouveau modèle de recherche d'informations qui diffère des modèles existants sur le plan théorique et de l'efficacité expérimentale. Les deux derniers articles marquent un changement fondamental dans l'approche de construction des représentations. Ils bénéficient notamment de l'intérêt de recherche dont les techniques d'apprentissage profond par réseaux de neurones, ou deep learning, ont fait récemment l'objet. Ces modèles d'apprentissage élicitent automatiquement les caractéristiques importantes pour la tâche demandée à partir d'une quantité importante de données. Nous nous intéressons à la modélisation des relations sémantiques entre documents et requêtes ainsi qu'entre deux ou plusieurs requêtes. Ces derniers articles marquent les premières applications de l'apprentissage de représentations par réseaux de neurones à la recherche d'informations. Les modèles proposés ont aussi produit une performance améliorée sur des collections de test standard. Nos travaux nous mènent à la conclusion générale suivante: la performance en recherche d'informations pourrait drastiquement être améliorée en se basant sur les approches d'apprentissage de représentations.
Resumo:
Les institutions de mémoire et de savoir (par exemple, les bibliothèques, les archives, les musées) font face à des défis importants dans leurs responsabilités d’assurer la pérennité du patrimoine documentaire à l’ère numérique. Citons la surabondance de l’information numérique, la possibilité de production, théoriquement illimitée, offerte aux individus comme aux groupes sociaux, les limites dans les capacités de stockage et de diffusion de l’information numérique qui sont à la disposition des institutions mandataires du patrimoine documentaire. De plus, il est apparu que les approches et les méthodes utilisées pour identifier, gérer, préserver et diffuser le patrimoine documentaire de la société canadienne dans un environnement analogique n’étaient transférables à un environnement numérique. Nous suggérons que la théorie sociale de la connaissance peut servir de base à une réflexion portant sur le développement d’une politique publique qui viserait à encadrer l’identification, la sélection, la gestion et la préservation du patrimoine documentaire d’une société à l'ère numérique. Nous définissons la problématique puis proposons des réponses à travers trois articles scientifiques. Les résultats indiquent que les connaissances et les pratiques professionnelles utilisées demeurent persistantes et limitent la formulation et l'application de nouveaux cadres théoriques, de politiques administratives et de techniques associés à l'identification et la sélection du patrimoine documentaire. Cette recherche propose un cadre conceptuel qui permet de développer des politiques publiques sur le patrimoine documentaire du Canada.
Resumo:
Le récit de la Pentecôte (Actes des Apôtres 2) présente au lecteur un élément particulier qui se retrouve rarement dans le canon biblique : les « langues comme de feu ». Seuls les passages d’Isaïe 5,24 et Actes 2,3 utilisent cette expression; pourtant, leurs contextes diffèrent largement. Nous trouvons certains commentaires rabbiniques et fragments de rouleaux de la Mer Morte qui emploient cette même expression, et la littérature gréco-romaine utilise une image similaire où un feu divin se pose sur la tête de certains personnages. Puisque la fonction de cet élément diffère d’un ouvrage littéraire à un autre, comment devons-nous interpréter les langues de feu dans le récit de la Pentecôte? Les commentaires bibliques qui examinent cet élément proposent différentes hypothèses sur la symbolique des langues de feu. Afin de répondre à cette problématique, nous commencerons notre étude avec une présentation sur l’état de la question et des approches synchroniques utilisées. Nous présenterons ensuite l’analyse structurelle du récit de la Pentecôte afin de percevoir la place que notre expression occupe dans cette péricope. Au chapitre trois, nous ferons une analyse grammaticale de notre segment afin de voir la fonction grammaticale de l’expression, et présenter une recension des ouvrages hébraïques et gréco-romains qui utilisent cette expression ou une image similaire. Enfin, l’analyse philologique des termes γλῶσσα et πῦρ sera élaborée et comparée à l’utilisation retrouvée dans le livre des Actes des Apôtres. Subséquemment, nous serons en mesure de porter un regard critique sur quelques interprétations proposées afin de percevoir que la mise en réseau structurel du membre γλῶσσαι ὡσεὶ πυρός, avec les termes répétitifs et synonymiques du récit, nous orientent à percevoir l’accomplissement de la promesse du Saint-Esprit, qui à son tour habilite le croyant à réaliser la mission donnée : la proclamation du message christologique à toutes les ethnies.
Resumo:
La recherche d'informations s'intéresse, entre autres, à répondre à des questions comme: est-ce qu'un document est pertinent à une requête ? Est-ce que deux requêtes ou deux documents sont similaires ? Comment la similarité entre deux requêtes ou documents peut être utilisée pour améliorer l'estimation de la pertinence ? Pour donner réponse à ces questions, il est nécessaire d'associer chaque document et requête à des représentations interprétables par ordinateur. Une fois ces représentations estimées, la similarité peut correspondre, par exemple, à une distance ou une divergence qui opère dans l'espace de représentation. On admet généralement que la qualité d'une représentation a un impact direct sur l'erreur d'estimation par rapport à la vraie pertinence, jugée par un humain. Estimer de bonnes représentations des documents et des requêtes a longtemps été un problème central de la recherche d'informations. Le but de cette thèse est de proposer des nouvelles méthodes pour estimer les représentations des documents et des requêtes, la relation de pertinence entre eux et ainsi modestement avancer l'état de l'art du domaine. Nous présentons quatre articles publiés dans des conférences internationales et un article publié dans un forum d'évaluation. Les deux premiers articles concernent des méthodes qui créent l'espace de représentation selon une connaissance à priori sur les caractéristiques qui sont importantes pour la tâche à accomplir. Ceux-ci nous amènent à présenter un nouveau modèle de recherche d'informations qui diffère des modèles existants sur le plan théorique et de l'efficacité expérimentale. Les deux derniers articles marquent un changement fondamental dans l'approche de construction des représentations. Ils bénéficient notamment de l'intérêt de recherche dont les techniques d'apprentissage profond par réseaux de neurones, ou deep learning, ont fait récemment l'objet. Ces modèles d'apprentissage élicitent automatiquement les caractéristiques importantes pour la tâche demandée à partir d'une quantité importante de données. Nous nous intéressons à la modélisation des relations sémantiques entre documents et requêtes ainsi qu'entre deux ou plusieurs requêtes. Ces derniers articles marquent les premières applications de l'apprentissage de représentations par réseaux de neurones à la recherche d'informations. Les modèles proposés ont aussi produit une performance améliorée sur des collections de test standard. Nos travaux nous mènent à la conclusion générale suivante: la performance en recherche d'informations pourrait drastiquement être améliorée en se basant sur les approches d'apprentissage de représentations.