870 resultados para ontology construetion
Resumo:
L’infonuage est un nouveau paradigme de services informatiques disponibles à la demande qui a connu une croissance fulgurante au cours de ces dix dernières années. Le fournisseur du modèle de déploiement public des services infonuagiques décrit le service à fournir, le prix, les pénalités en cas de violation des spécifications à travers un document. Ce document s’appelle le contrat de niveau de service (SLA). La signature de ce contrat par le client et le fournisseur scelle la garantie de la qualité de service à recevoir. Ceci impose au fournisseur de gérer efficacement ses ressources afin de respecter ses engagements. Malheureusement, la violation des spécifications du SLA se révèle courante, généralement en raison de l’incertitude sur le comportement du client qui peut produire un nombre variable de requêtes vu que les ressources lui semblent illimitées. Ce comportement peut, dans un premier temps, avoir un impact direct sur la disponibilité du service. Dans un second temps, des violations à répétition risquent d'influer sur le niveau de confiance du fournisseur et sur sa réputation à respecter ses engagements. Pour faire face à ces problèmes, nous avons proposé un cadre d’applications piloté par réseau bayésien qui permet, premièrement, de classifier les fournisseurs dans un répertoire en fonction de leur niveau de confiance. Celui-ci peut être géré par une entité tierce. Un client va choisir un fournisseur dans ce répertoire avant de commencer à négocier le SLA. Deuxièmement, nous avons développé une ontologie probabiliste basée sur un réseau bayésien à entités multiples pouvant tenir compte de l’incertitude et anticiper les violations par inférence. Cette ontologie permet de faire des prédictions afin de prévenir des violations en se basant sur les données historiques comme base de connaissances. Les résultats obtenus montrent l’efficacité de l’ontologie probabiliste pour la prédiction de violation dans l’ensemble des paramètres SLA appliqués dans un environnement infonuagique.
Resumo:
Avant tout réputé pour avoir hissé l’herméneutique au premier plan du paysage philosophique contemporain, H.-G. Gadamer est aussi reconnu pour l’originalité de ses écrits en histoire des idées et notamment pour la grande singularité des travaux qu’il a consacrés à la philosophie de Platon. Mais s’agit-il là de deux registres théoriques distincts, l’herméneutique d’un côté et l’exégèse de Platon de l’autre ? Ou bien s’agit-il de deux facettes d’un même projet concerté, deux ouvertures sur un même objet philosophique ? C’est cette deuxième option que notre étude a pour objectif de défendre. Pour ce faire, nous approfondissons, à la lumière de ses écrits sur Platon, les raisons qui poussent Gadamer à développer, dans Vérité et Méthode, son idée de dialogue herméneutique en référence constante à la dialectique platonicienne, pour ensuite montrer comment l’ontologie herméneutique qu’esquisse la dernière partie de Vérité et Méthode est solidaire, voire tributaire, de l’interprétation de la pensée platonicienne que défend généralement Gadamer, et ce, malgré l’instrumentalisme du langage qu’il dénonce chez Platon.
Resumo:
Le non-humain et son ontologie sont définis dans ce mémoire en fonction des écrits de Philippe Descola et d’Eduardo Viveiros de Castro, deux figures-clés en anthropologie contemporaine sur l’Amazonie. L’animisme de Descola prête aux non-humains une intériorité humaine et les différencie par leur corps. Le perspectivisme de Viveiros de Castro, quant à lui, suppose que les points de vue différents créent des mondes et établissent ce qui est humain ou non. L’humain correspond au sujet cosmologique à la position pronominale de la première personne du singulier, ou « I », au sein d’une relation. De la sorte, un non-humain se perçoit comme un humain à cette position pronominale « I » et voit l’Autre à la position pronominale « it », position du non-humain. Dans ces deux ontologies, le non-humain est conçu comme une personne capable d’agir dans les mondes. La diversité des êtres inclus dans cette ontologie relationnelle est démontrée par des illustrations provenant de l’ethnographie achuar et araweté de ces deux auteurs. Puis, les relations de parenté, d’alliance et de prédation que les non-humains tissent entre eux et avec les humains exposent l’homologie des rapports non-humains avec les rapports humains. Finalement, l’analyse des méthodes de communication entre le non-humain et l’humain élucide comment la reconnaissance du non-humain dans une communication permet le traitement de ces êtres en tant qu’humains. Le non-humain ne serait donc pas un sujet permanent, mais temporaire le moment de l’interaction.
Resumo:
Karl Marx (1818-1883) a consacré son œuvre à l’explicitation d’une philosophie sociale du capitalisme et de son dépassement. Ce mémoire cherche à rendre compte de la spécificité de la domination capitaliste au travers du prisme des concepts d’objectivation et d’aliénation. Après avoir éclairé leurs sources chez Hegel et Feuerbach, nous défendons l’idée qu’il faut lire de façon plurielle le concept d’objectivation dans les Manuscrits de 1844, afin de saisir la constitution de l’objectivité par les médiations sociales et historiques. Des Manuscrits de 1844 au Capital, l’aliénation est alors comprise comme la domination d’une abstraction réelle, médiation sociale à laquelle les êtres humains ont remis la régulation de leurs rapports sociaux.
Resumo:
Dans cette thèse, je propose une lecture renouvelée de l’itinéraire philosophique d’Hilary Putnam concernant la problématique du réalisme. Mon propos consiste essentiellement à défendre l’idée selon laquelle il y aurait beaucoup plus de continuité, voir une certaine permanence, dans la manière dont Putnam a envisagé la question du réalisme tout au long de sa carrière. Pour arriver à une telle interprétation de son oeuvre, j’ai essentiellement suivi deux filons. D’abord, dans un ouvrage du début des années 2000, Ethics without Ontology (2004), Putnam établit un parallèle entre sa conception de l’objectivité en philosophie des mathématiques et en éthique. Le deuxième filon vient d’une remarque qu’il fait, dans l’introduction du premier volume de ses Philosophical Papers (1975), affirmant que la forme de réalisme qu’il présupposait dans ses travaux des années 1960-1970 était la même que celle qu’il défendait en philosophie des mathématiques et qu’il souhaitait défendre ultérieurement en éthique. En suivant le premier filon, il est possible de mieux cerner la conception générale que se fait Putnam de l’objectivité, mais pour comprendre en quel sens une telle conception de l’objectivité n’est pas propre aux mathématiques, mais constitue en réalité une conception générale de l’objectivité, il faut suivre le second filon, selon lequel Putnam aurait endossé, durant les années 1960-1970, le même type de réalisme en philosophie des sciences et en éthique qu’en philosophie des mathématiques. Suivant cette voie, on se rend compte qu’il existe une similarité structurelle très forte entre le premier réalisme de Putnam et son réalisme interne. Après avoir établi la parenté entre le premier et le second réalisme de Putnam, je montre, en m’inspirant de commentaires du philosophe ainsi qu’en comparant le discours du réalisme interne au discours de son réalisme actuel (le réalisme naturel du commun des mortels), que, contrairement à l’interprétation répandue, il existe une grande unité au sein de sa conception du réalisme depuis les années 1960 à nos jours. Je termine la thèse en montrant comment mon interprétation renouvelée de l’itinéraire philosophique de Putnam permet de jeter un certain éclairage sur la forme de réalisme que Putnam souhaite défendre en éthique.
Resumo:
Les virus ont besoin d’interagir avec des facteurs cellulaires pour se répliquer et se propager dans les cellules d’hôtes. Une étude de l'interactome des protéines du virus d'hépatite C (VHC) par Germain et al. (2014) a permis d'élucider de nouvelles interactions virus-hôte. L'étude a également démontré que la majorité des facteurs de l'hôte n'avaient pas d'effet sur la réplication du virus. Ces travaux suggèrent que la majorité des protéines ont un rôle dans d'autres processus cellulaires tel que la réponse innée antivirale et ciblées pas le virus dans des mécanismes d'évasion immune. Pour tester cette hypothèse, 132 interactant virus-hôtes ont été sélectionnés et évalués par silençage génique dans un criblage d'ARNi sur la production interferon-beta (IFNB1). Nous avons ainsi observé que les réductions de l'expression de 53 interactants virus-hôte modulent la réponse antivirale innée. Une étude dans les termes de gène d'ontologie (GO) démontre un enrichissement de ces protéines au transport nucléocytoplasmique et au complexe du pore nucléaire. De plus, les gènes associés avec ces termes (CSE1L, KPNB1, RAN, TNPO1 et XPO1) ont été caractérisé comme des interactant de la protéine NS3/4A par Germain et al. (2014), et comme des régulateurs positives de la réponse innée antivirale. Comme le VHC se réplique dans le cytoplasme, nous proposons que ces interactions à des protéines associées avec le noyau confèrent un avantage de réplication et bénéficient au virus en interférant avec des processus cellulaire tel que la réponse innée. Cette réponse innée antivirale requiert la translocation nucléaire des facteurs transcriptionnelles IRF3 et NF-κB p65 pour la production des IFNs de type I. Un essai de microscopie a été développé afin d'évaluer l’effet du silençage de 60 gènes exprimant des protéines associés au complexe du pore nucléaire et au transport nucléocytoplasmique sur la translocation d’IRF3 et NF-κB p65 par un criblage ARNi lors d’une cinétique d'infection virale. En conclusion, l’étude démontre qu’il y a plusieurs protéines qui sont impliqués dans le transport de ces facteurs transcriptionnelles pendant une infection virale et peut affecter la production IFNB1 à différents niveaux de la réponse d'immunité antivirale. L'étude aussi suggère que l'effet de ces facteurs de transport sur la réponse innée est peut être un mécanisme d'évasion par des virus comme VHC.
Resumo:
La musique, pour les Autochtones au Québec, joue un rôle fondamental pour l’expression et la consolidation identitaire, la mise en relation interpersonnelle, interculturelle et spirituelle ainsi que pour exercer un pouvoir d’action et de transformation sur soi et le milieu environnant. Cette thèse dresse un panorama de la scène musicale populaire autochtone contemporaine au Québec, en s’attardant plus particulièrement au milieu algonquien du Nord, tout en démontrant un lien de continuité évident avec le sens des traditions musicales et des rassemblements ancestraux. La musique populaire autochtone y est considérée comme un mode d’affirmation identitaire et de relation au monde, la scène de la musique populaire autochtone au Québec comme un réseau relationnel, et les événements musicaux comme des points de rencontre et de convergence (foyers) d’une communauté autochtone s’y reconnaissant et s’y reliant de façons différenciées. Le cadre théorique arrime les concepts de scène dans le contexte de culture populaire, des politiques/poétiques de l’identité, d’intersubjectivité, de résonance, de nomadisme, d’ontologie relationnelle, de poétiques de l’habiter (of dwelling), d’indigénisation et de transformation des identités et des modes d'être au monde autochtones dans le contexte contemporain. Selon les traditions algonquiennes, les actes musicaux servent à s’identifier en tant que personne particulière et membre d’une collectivité et du cosmos ainsi qu’à entretenir des relations avec les autres personnes du cosmos (humains et non humains) afin de vivre bien et de se donner du pouvoir sur soi et son environnement. Cette thèse démontre que les musiques populaires contemporaines et ses événements associés, bien que sous d’autres formes, poursuivent ce sens relationnel et identitaire des traditions musicales ancestrales et de leurs contextes de manifestation. Le réseau contemporain de la scène musicale populaire autochtone est ainsi formé d’espaces investis par les Autochtones de différentes nations, où ils se créent un chez-nous, un « espace à nous » et se redéfinissent des identités. Chanter, notamment dans leur langue, est ainsi un acte d’« habitation » du monde, de cohabitation, de communication, une inscription identitaire dans un environnement ainsi habité et senti.
Resumo:
Cette thèse a pour point de départ l’idée du jeune Heidegger selon laquelle le sens de l’être doit être recherché au moyen d’une phénoménologie ontologique, plus précisément par l’analytique existentiale du Dasein et la destruction de l’histoire de l’ontologie ; ou, comme nous l’interprétons, dans la transcendance du Dasein et la transcendance de l’être. L’étude du problème de la transcendance fait l’objet d’une approche phénoménologique, laquelle porte une attention particulière au vécu en tant que tel ainsi qu’aux conditions de possibilité de ce vécu, et repose sur une lecture attentive et critique des œuvres de Heidegger. C’est une telle approche phénoménologique qui nous permettra de mener à bien notre analyse du problème de la transcendance dans le corpus heideggérien. Nous serons par ailleurs en mesure d’aborder le débat opposant à ce sujet la tradition analytique (plus particulièrement l’approche pragmatiste) et la tradition continentale, notre étude s’inscrivant dans le cadre de cette dernière. Nous proposons ici une phénoménologie du problème de la transcendance qui fait également figure de phénoménologie du sens, de la possibilité et de la normativité. Prenant pour point de départ certaines contributions issues de la tradition continentale, nous soutenons que le sens de l’être peut être compris comme le problème de la transcendance. L’histoire de la philosophie doit être perturbée, déconstruite et repensée afin que le chemin de la philosophie, encore non pensé, puisse être mis au jour. L’accès à cet autre commencement doit être recherché dans la transcendance en tant que telle – de l’appel de la conscience fondé dans la nullité à l’encontre authentique avec la mort et l’ouverture de la temporalité ; de l’avènement historial de l’être jusqu’à, ultimement, le i! ! ! ! refus de l’être et le retrait du rien. L’événement (Ereignis) de l’être est donc compris comme processus de dépassement de soi à partir duquel la transcendance de l’être – ou, comme le formule Heidegger, la fin des questions – est possible.
Resumo:
Eric T. Olson argues for a position in personal identity called Animalism. Olson's definition of ‘what we are’ is what the biological community currently defines as the ‘human animal’. While Olson argues his definition is determinate and anti-relativist, I object by maintaining that his definition is fundamentally soft relativist. This is accomplished by asking : 1) why favour the biological definition over other cultural definitions ? – and by arguing : 2) that nothing stops the biological definition from changing ; 3) that the biological definition is classificatory and not ontologically explanatory ; 4) that biology may drop the concept ‘human animal’ leaving no definition of ‘what we are’. Finally, I look at which ontological decisions Olson makes and ask if there is any hope for Animalism and for the human philosopher with no proven ontology. In my conclusion, I follow Olson’s surprising admission by suggesting that I have no idea what we are.
Resumo:
This paper introduces and examines the logicist construction of Peano Arithmetic that can be performed into Leśniewski’s logical calculus of names called Ontology. Against neo-Fregeans, it is argued that a logicist program cannot be based on implicit definitions of the mathematical concepts. Using only explicit definitions, the construction to be presented here constitutes a real reduction of arithmetic to Leśniewski’s logic with the addition of an axiom of infinity. I argue however that such a program is not reductionist, for it only provides what I will call a picture of arithmetic, that is to say a specific interpretation of arithmetic in which purely logical entities play the role of natural numbers. The reduction does not show that arithmetic is simply a part of logic. The process is not of ontological significance, for numbers are not shown to be logical entities. This neo-logicist program nevertheless shows the existence of a purely analytical route to the knowledge of arithmetical laws.
Resumo:
The crisis in the foundations of mathematics is a conceptual crisis. I suggest that we embrace the crisis and adopt a pluralist position towards foundations. There are many foundations in mathematics. However, ‘many foundations’ (for one building) is an oxymoron. Therefore, we shift vocabulary to say that mathematics, as one discipline, is composed of many different theories. This entails that there are no absolute mathematical truths, only truths within a theory. There is no unified, consistent ontology, only ontology within a theory.
Resumo:
Computational Biology is the research are that contributes to the analysis of biological data through the development of algorithms which will address significant research problems.The data from molecular biology includes DNA,RNA ,Protein and Gene expression data.Gene Expression Data provides the expression level of genes under different conditions.Gene expression is the process of transcribing the DNA sequence of a gene into mRNA sequences which in turn are later translated into proteins.The number of copies of mRNA produced is called the expression level of a gene.Gene expression data is organized in the form of a matrix. Rows in the matrix represent genes and columns in the matrix represent experimental conditions.Experimental conditions can be different tissue types or time points.Entries in the gene expression matrix are real values.Through the analysis of gene expression data it is possible to determine the behavioral patterns of genes such as similarity of their behavior,nature of their interaction,their respective contribution to the same pathways and so on. Similar expression patterns are exhibited by the genes participating in the same biological process.These patterns have immense relevance and application in bioinformatics and clinical research.Theses patterns are used in the medical domain for aid in more accurate diagnosis,prognosis,treatment planning.drug discovery and protein network analysis.To identify various patterns from gene expression data,data mining techniques are essential.Clustering is an important data mining technique for the analysis of gene expression data.To overcome the problems associated with clustering,biclustering is introduced.Biclustering refers to simultaneous clustering of both rows and columns of a data matrix. Clustering is a global whereas biclustering is a local model.Discovering local expression patterns is essential for identfying many genetic pathways that are not apparent otherwise.It is therefore necessary to move beyond the clustering paradigm towards developing approaches which are capable of discovering local patterns in gene expression data.A biclusters is a submatrix of the gene expression data matrix.The rows and columns in the submatrix need not be contiguous as in the gene expression data matrix.Biclusters are not disjoint.Computation of biclusters is costly because one will have to consider all the combinations of columans and rows in order to find out all the biclusters.The search space for the biclustering problem is 2 m+n where m and n are the number of genes and conditions respectively.Usually m+n is more than 3000.The biclustering problem is NP-hard.Biclustering is a powerful analytical tool for the biologist.The research reported in this thesis addresses the problem of biclustering.Ten algorithms are developed for the identification of coherent biclusters from gene expression data.All these algorithms are making use of a measure called mean squared residue to search for biclusters.The objective here is to identify the biclusters of maximum size with the mean squared residue lower than a given threshold. All these algorithms begin the search from tightly coregulated submatrices called the seeds.These seeds are generated by K-Means clustering algorithm.The algorithms developed can be classified as constraint based,greedy and metaheuristic.Constarint based algorithms uses one or more of the various constaints namely the MSR threshold and the MSR difference threshold.The greedy approach makes a locally optimal choice at each stage with the objective of finding the global optimum.In metaheuristic approaches particle Swarm Optimization(PSO) and variants of Greedy Randomized Adaptive Search Procedure(GRASP) are used for the identification of biclusters.These algorithms are implemented on the Yeast and Lymphoma datasets.Biologically relevant and statistically significant biclusters are identified by all these algorithms which are validated by Gene Ontology database.All these algorithms are compared with some other biclustering algorithms.Algorithms developed in this work overcome some of the problems associated with the already existing algorithms.With the help of some of the algorithms which are developed in this work biclusters with very high row variance,which is higher than the row variance of any other algorithm using mean squared residue, are identified from both Yeast and Lymphoma data sets.Such biclusters which make significant change in the expression level are highly relevant biologically.
Resumo:
Today higher education system and R&D in science & Technology has undergone tremendous changes from the traditional class room learning system and scholarly communication. Huge volume of Academic output and scientific communications are coming in electronic format. Knowledge management is a key challenge in the current century .Due to the advancement of ICT, Open access movement, Scholarly communications, Institutional repositories, ontology, semantic web, web 2.0 etc has revolutionized knowledge transactions and knowledge management in the field of science & technology. Today higher education has moved into a stage where competitive advantage is gained not just through access of infonnation but more importantly from new Knowledge creations.This paper examines the role of institutional repository in knowledge transactions in current scenario of Higher education.
Resumo:
Diagnosis of Hridroga (cardiac disorders) in Ayurveda requires the combination of many different types of data, including personal details, patient symptoms, patient histories, general examination results, Ashtavidha pareeksha results etc. Computer-assisted decision support systems must be able to combine these data types into a seamless system. Intelligent agents, an approach that has been used chiefly in business applications, is used in medical diagnosis in this case. This paper is about a multi-agent system named “Distributed Ayurvedic Diagnosis and Therapy System for Hridroga using Agents” (DADTSHUA). It describes the architecture of the DADTSHUA model .This system is using mobile agents and ontology for passing data through the network. Due to this, transport delay can be minimized. It is a system which will be very helpful for the beginning physicians to eliminate his ambiguity in diagnosis and therapy. The system is implemented using Java Agent DEvelopment framework (JADE), which is a java-complaint mobile agent platform from TILab.
Resumo:
Die Technologie dienstorientierter Architekturen (Service-oriented Architectures, kurz SOA) weckt große Visionen auf Seiten der Industrie wie auch der Forschung. Sie hat sich als derzeit ideale Lösung für Umgebungen, in denen sich die Anforderungen an die IT-Bedürfnisse rapide ändern, erwiesen. Heutige IT-Systeme müssen Managementaufgaben wie Softwareinstallation, -anpassung oder -austausch erlauben, ohne dabei den laufenden Betrieb wesentlich zu stören. Die dafür nötige Flexibilität bieten dienstorientierte Architekturen, in denen Softwarekomponenten in Form von Diensten zur Verfügung stehen. Ein Dienst bietet über seine Schnittstelle lokalen wie entfernten Applikationen einen Zugang zu seiner Funktionalität. Wir betrachten im Folgenden nur solche dienstorientierte Architekturen, in denen Dienste zur Laufzeit dynamisch entdeckt, gebunden, komponiert, verhandelt und adaptiert werden können. Eine Applikation kann mit unterschiedlichen Diensten arbeiten, wenn beispielsweise Dienste ausfallen oder ein neuer Dienst die Anforderungen der Applikation besser erfüllt. Eine unserer Grundvoraussetzungen lautet somit, dass sowohl das Dienstangebot als auch die Nachfrageseite variabel sind. Dienstorientierte Architekturen haben besonderes Gewicht in der Implementierung von Geschäftsprozessen. Im Rahmen des Paradigmas Enterprise Integration Architecture werden einzelne Arbeitsschritte als Dienste implementiert und ein Geschäftsprozess als Workflow von Diensten ausgeführt. Eine solche Dienstkomposition wird auch Orchestration genannt. Insbesondere für die so genannte B2B-Integration (Business-to-Business) sind Dienste das probate Mittel, um die Kommunikation über die Unternehmensgrenzen hinaus zu unterstützen. Dienste werden hier in der Regel als Web Services realisiert, welche vermöge BPEL4WS orchestriert werden. Der XML-basierte Nachrichtenverkehr und das http-Protokoll sorgen für eine Verträglichkeit zwischen heterogenen Systemen und eine Transparenz des Nachrichtenverkehrs. Anbieter dieser Dienste versprechen sich einen hohen Nutzen durch ihre öffentlichen Dienste. Zum einen hofft man auf eine vermehrte Einbindung ihrer Dienste in Softwareprozesse. Zum anderen setzt man auf das Entwickeln neuer Software auf Basis ihrer Dienste. In der Zukunft werden hunderte solcher Dienste verfügbar sein und es wird schwer für den Entwickler passende Dienstangebote zu finden. Das Projekt ADDO hat in diesem Umfeld wichtige Ergebnisse erzielt. Im Laufe des Projektes wurde erreicht, dass der Einsatz semantischer Spezifikationen es ermöglicht, Dienste sowohl im Hinblick auf ihre funktionalen als auch ihre nicht-funktionalen Eigenschaften, insbesondere die Dienstgüte, automatisch zu sichten und an Dienstaggregate zu binden [15]. Dazu wurden Ontologie-Schemata [10, 16], Abgleichalgorithmen [16, 9] und Werkzeuge entwickelt und als Framework implementiert [16]. Der in diesem Rahmen entwickelte Abgleichalgorithmus für Dienstgüte beherrscht die automatische Aushandlung von Verträgen für die Dienstnutzung, um etwa kostenpflichtige Dienste zur Dienstnutzung einzubinden. ADDO liefert einen Ansatz, Schablonen für Dienstaggregate in BPEL4WS zu erstellen, die zur Laufzeit automatisch verwaltet werden. Das Vorgehen konnte seine Effektivität beim internationalen Wettbewerb Web Service Challenge 2006 in San Francisco unter Beweis stellen: Der für ADDO entwickelte Algorithmus zur semantischen Dienstkomposition erreichte den ersten Platz. Der Algorithmus erlaubt es, unter einer sehr großenMenge angebotener Dienste eine geeignete Auswahl zu treffen, diese Dienste zu Dienstaggregaten zusammenzufassen und damit die Funktionalität eines vorgegebenen gesuchten Dienstes zu leisten. Weitere Ergebnisse des Projektes ADDO wurden auf internationalen Workshops und Konferenzen veröffentlicht. [12, 11]