100 resultados para Axiomas


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La vertiente polémica fue una modalidad historiográfica recurrente en el Río de la Plata durante el siglo XIX. Su naturaleza controversial permite la contraposición de ideas y posiciones en torno a temas concretos, o, lo que es más importante, a metodologías y concepciones sobre el pretérito. La oposición de pareceres es instancia fermental en la evolución de la disciplina; su análisis, un compromiso ineludible para contextualizar un panorama historiográfico amplio y completo de la misma en el siglo XIX. El objetivo de este artículo es analizar uno de los debates más trascendentes de su época, el sostenido en Uruguay por Francisco Berra y Carlos María Ramírez -contemporáneo al de Vicente Fidel López y Bartolomé Mitre en Argentina- para rescatar su significación discursiva y sus implicancias teórico-metodológicas. Proponemos un estudio de la dimensión dialógica de la construcción nacionalista del pretérito uruguayo: de la exposición de ideas e intereses enfrentados surgen "verdades patrióticas", es decir axiomas históricos o dogmas nacionalistas. Circunscriptos a los mismos se desarrolló la producción y docencia histórica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la segunda mitad del siglo XIX se crearon en el Río de la Plata las condiciones necesarias para el surgimiento y desarrollo de las historiografías nacionales, humus primordial del cual emergieron proposiciones fácticas y axiomas historiográficos de cuño patriótico. La historiografía argentina, por diversidad de motivos -disponibilidad de insumos heurísticos y repertorios bibliográficos, número de intelectuales (historiadores, poetas, novelistas, ensayistas) consagrados al estudio y exaltación del pasado nacional, instituciones dedicadas al desarrollo de la investigación, recursos aportados por el Estado- tuvo un temprano e importante desarrollo e influyó de forma determinante en la historiografía uruguaya. El objeto de este artículo es conocer las modalidades, el carácter y significación de esta influencia en un autor concreto, Francisco Bauzá, a efectos de dilucidar los cimientos sobre los cuales se definieron las estructuras teóricas y la preceptivas técnico-metodológicas fundantes de la disciplina en Uruguay.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Resumen La investigación descrita en esta memoria se enmarca en el campo de la lógica borro¬sa. Más concretamente, en el estudio de la incompatibilidad, de la compatibilidad y de la suplementaridad en los conjuntos borrosos y en los de Atanassov. En este orden de ideas, en el primer capítulo, se construyen, tanto de forma directa como indirecta, funciones apropiadas para medir la incompatibilidad entre dos conjuntos borro-sos. Se formulan algunos axiomas para modelizar la continuidad de dichas funciones, y se determina si las medidas propuestas, y otras nuevas que se introducen, verifican algún tipo de continuidad. Finalmente, se establece la noción de conjuntos borrosos compatibles, se introducen axiomas para medir esta propiedad y se construyen algunas medidas de compa¬tibilidad. El segundo capítulo se dedica al estudio de la incompatibilidad y de la compatibilidad en el campo de los conjuntos de Atanassov. Así, en primer lugar, se presenta una definición axiomática de medida de incompatibilidad en este contexto. Después, se construyen medidas de incompatibilidad por medio de los mismos métodos usados en el caso borroso. Además, se formulan axiomas de continuidad y se determina el tipo de continuidad de las medidas propuestas. Finalmente, se sigue un camino similar al caso borroso para el estudio de la compatibilidad. En el tercer capítulo, después de abordar la antonimia de conjuntos borrosos y de conjuntos de Atanassov, se formalizan las nociones de conjuntos suplementarios en estos dos entornos y se presenta, en ambos casos, un método para obtener medidas de suplementaridad a partir de medidas de incompatibilidad vía antónimos. The research described in this report pertains to the field of fuzzy logic and specifically studies incompatibility, compatibility and supplementarity in fuzzy sets and Atanassov's fuzzy sets. As such is the case, Chapter 1 describes both the direct and indirect construction of appropriate functions for measuring incompatibility between two fuzzy sets. We formulate some axioms for modelling the continuity of functions and determine whether the proposed and other measures introduced satisfy any type of continuity. Chapter 2 focuses on the study of incompatibility and compatibility in the field of Ata¬nassov's fuzzy sets. First, we present an axiomatic definition of incompatibility measure in this field. Then, we use the same methods to construct incompatibility measures as in the fuzzy case. Additionally, we formulate continuity axioms and determine the type of conti¬nuity of the proposed measures. Finally, we take a similar approach as in the fuzzy case to the study of compatibility. After examining the antonymy of fuzzy sets and Atanassov's sets, Chapter 3 formalizes the notions of supplementary sets in these two domains, and, in both cases, presents a method for obtaining supplementarity measures from incompatibility measures via antonyms.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los conjuntos borrosos de tipo 2 (T2FSs) fueron introducidos por L.A. Zadeh en 1975 [65], como una extensión de los conjuntos borrosos de tipo 1 (FSs). Mientras que en estos últimos el grado de pertenencia de un elemento al conjunto viene determinado por un valor en el intervalo [0, 1], en el caso de los T2FSs el grado de pertenencia de un elemento es un conjunto borroso en [0,1], es decir, un T2FS queda determinado por una función de pertenencia μ : X → M, donde M = [0, 1][0,1] = Map([0, 1], [0, 1]), es el conjunto de las funciones de [0,1] en [0,1] (ver [39], [42], [43], [61]). Desde que los T2FSs fueron introducidos, se han generalizado a dicho conjunto (ver [39], [42], [43], [61], por ejemplo), a partir del “Principio de Extensión” de Zadeh [65] (ver Teorema 1.1), muchas de las definiciones, operaciones, propiedades y resultados obtenidos en los FSs. Sin embargo, como sucede en cualquier área de investigación, quedan muchas lagunas y problemas abiertos que suponen un reto para cualquiera que quiera hacer un estudio profundo en este campo. A este reto se ha dedicado el presente trabajo, logrando avances importantes en este sentido de “rellenar huecos” existentes en la teoría de los conjuntos borrosos de tipo 2, especialmente en las propiedades de autocontradicción y N-autocontradicción, y en las operaciones de negación, t-norma y t-conorma sobre los T2FSs. Cabe destacar que en [61] se justifica que las operaciones sobre los T2FSs (Map(X,M)) se pueden definir de forma natural a partir de las operaciones sobre M, verificando las mismas propiedades. Por tanto, por ser más fácil, en el presente trabajo se toma como objeto de estudio a M, y algunos de sus subconjuntos, en vez de Map(X,M). En cuanto a la operación de negación, en el marco de los conjuntos borrosos de tipo 2 (T2FSs), usualmente se emplea para representar la negación en M, una operación asociada a la negación estándar en [0,1]. Sin embargo, dicha operación no verifica los axiomas que, intuitivamente, debe verificar cualquier operación para ser considerada negación en el conjunto M. En este trabajo se presentan los axiomas de negación y negación fuerte en los T2FSs. También se define una operación asociada a cualquier negación suprayectiva en [0,1], incluyendo la negación estándar, y se estudia, junto con otras propiedades, si es negación y negación fuerte en L (conjunto de las funciones de M normales y convexas). Además, se comprueba en qué condiciones se cumplen las leyes de De Morgan para un extenso conjunto de pares de operaciones binarias en M. Por otra parte, las propiedades de N-autocontradicción y autocontradicción, han sido suficientemente estudiadas en los conjuntos borrosos de tipo 1 (FSs) y en los conjuntos borrosos intuicionistas de Atanassov (AIFSs). En el presente trabajo se inicia el estudio de las mencionadas propiedades, dentro del marco de los T2FSs cuyos grados de pertenencia están en L. En este sentido, aquí se extienden los conceptos de N-autocontradicción y autocontradicción al conjunto L, y se determinan algunos criterios para verificar tales propiedades. En cuanto a otras operaciones, Walker et al. ([61], [63]) definieron dos familias de operaciones binarias sobre M, y determinaron que, bajo ciertas condiciones, estas operaciones son t-normas (normas triangulares) o t-conormas sobre L. En este trabajo se introducen operaciones binarias sobre M, unas más generales y otras diferentes a las dadas por Walker et al., y se estudian varias propiedades de las mismas, con el objeto de deducir nuevas t-normas y t-conormas sobre L. ABSTRACT Type-2 fuzzy sets (T2FSs) were introduced by L.A. Zadeh in 1975 [65] as an extension of type-1 fuzzy sets (FSs). Whereas for FSs the degree of membership of an element of a set is determined by a value in the interval [0, 1] , the degree of membership of an element for T2FSs is a fuzzy set in [0,1], that is, a T2FS is determined by a membership function μ : X → M, where M = [0, 1][0,1] is the set of functions from [0,1] to [0,1] (see [39], [42], [43], [61]). Later, many definitions, operations, properties and results known on FSs, have been generalized to T2FSs (e.g. see [39], [42], [43], [61]) by employing Zadeh’s Extension Principle [65] (see Theorem 1.1). However, as in any area of research, there are still many open problems which represent a challenge for anyone who wants to make a deep study in this field. Then, we have been dedicated to such challenge, making significant progress in this direction to “fill gaps” (close open problems) in the theory of T2FSs, especially on the properties of self-contradiction and N-self-contradiction, and on the operations of negations, t-norms (triangular norms) and t-conorms on T2FSs. Walker and Walker justify in [61] that the operations on Map(X,M) can be defined naturally from the operations onMand have the same properties. Therefore, we will work onM(study subject), and some subsets of M, as all the results are easily and directly extensible to Map(X,M). About the operation of negation, usually has been employed in the framework of T2FSs, a operation associated to standard negation on [0,1], but such operation does not satisfy the negation axioms on M. In this work, we introduce the axioms that a function inMshould satisfy to qualify as a type-2 negation and strong type-2 negation. Also, we define a operation on M associated to any suprajective negation on [0,1], and analyse, among others properties, if such operation is negation or strong negation on L (all normal and convex functions of M). Besides, we study the De Morgan’s laws, with respect to some binary operations on M. On the other hand, The properties of self-contradiction and N-self-contradiction have been extensively studied on FSs and on the Atanassov’s intuitionistic fuzzy sets (AIFSs). Thereon, in this research we begin the study of the mentioned properties on the framework of T2FSs. In this sense, we give the definitions about self-contradiction and N-self-contradiction on L, and establish the criteria to verify these properties on L. Respect to the t-norms and t-conorms, Walker et al. ([61], [63]) defined two families of binary operations on M and found that, under some conditions, these operations are t-norms or t-conorms on L. In this work we introduce more general binary operations on M than those given by Walker et al. and study which are the minimum conditions necessary for these operations satisfy each of the axioms of the t-norm and t-conorm.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La escasez de recursos, el cambio climático, la pobreza y el subdesarrollo, los desastres naturales, son solo algunos de los grandes retos a que se enfrenta la humanidad y a los que la economía verde y el desarrollo sostenible tienen que dar respuesta. El concepto sostenible surge a raíz de la necesidad de lograr en todas las actividades humanas un nuevo equilibrio con el medioambiente, la sociedad y la economía, es decir un desarrollo más sostenible. La construcción supone en este nuevo concepto un sector básico, con grandes impactos en los recursos, los residuos, las emisiones, la biodiversidad, el paisaje, las necesidades sociales, la integración, el desarrollo económico del entorno, etc. Es por ello, que la construcción sostenible tiene una importancia esencial como demuestra su amplia aplicación teórica y práctica ya en proyectos de planificación urbana y de edificación. En la ingeniería civil estas aproximaciones son todavía mínimas, aunque ya se están considerando ciertos criterios de sostenibilidad en proyectos de construcción. La construcción consume muchos recursos naturales, económicos y tiene gran incidencia social. En la actualidad su actividad consume un 30% de los recursos extraídos de la tierra y la energía, y en consecuencia genera el 30% de los gases de efecto invernadero y residuos sólidos del mundo (EEA, 2014). Este impacto debería suponer una gran responsabilidad para los profesionales y gobiernos que toman cada día las decisiones de diseño e inversión en la construcción, y su máxima eficiencia debería estar muy presente entre los objetivos. En esta tesis doctoral se plantea un nuevo modelo para la evaluación de la sostenibilidad en los proyectos mediante un sistema de indicadores, basados en las áreas de estudio de las certificaciones de sostenibilidad existentes y en un análisis multi-criterio de cada uno de los axiomas de la sostenibilidad. Como reto principal se marca la propuesta de una metodología que permita identificar, priorizar y seleccionar los indicadores y las variables más importantes de lo que es considerado como una construcción sostenible en el caso de infraestructuras ferroviarias, más concretamente en puentes ferroviarios, y que además sirva para priorizar nuevos proyectos que se adapten a los nuevos objetivos del desarrollo sostenible: el respeto al medioambiente, la integración social y la económica. El objetivo es la aplicación de estos indicadores desde las etapas más tempranas del proyecto: planificación, diseño de alternativas y selección de alternativas. Para ello, en primer lugar, se ha realizado un análisis en profundidad de los distintas organizaciones de certificación de la sostenibilidad mundiales y se ha desarrollado una comparativa entre ellas, detallando el funcionamiento de las más extendidas (BREEAM, LEED, VERDE, DGNB). Tras esto, se ha analizado la herramienta matemática MIVES de análisis multi-criterio para su aplicación, en la tesis, a las infraestructuras ferroviarias. En la segunda parte se desarrolla para las estructuras ferroviarias un nuevo modelo de indicadores, un sistema de ayuda a la decisión multi-criterio basado en los tres axiomas de las sostenibilidad (sociedad, medioambiente y economía), articulados en un árbol de requerimientos inspirado en el método MIVES, que propone una metodología para el caso de las infraestructuras ferroviarias. La metodología MIVES estructura el proceso de decisión en tres ramas: Requisitos, componentes y ciclo de vida. Estas ramas definen los límites de los sistemas. El eje de los requisitos del árbol de los requisitos o se estructura en tres niveles que corresponden al requisito específico: criterios e indicadores. Además, es necesario definen la función del valor para cada indicador, definen el peso de importancia de cada elemento del árbol y finalmente con el calcular el valor de cada alternativa selecciona el mejor de él. La generación de este árbol de requerimientos en estructuras ferroviarias y la medición de los parámetro es original para este tipo de estructuras. Por último, tras el desarrollo de la metodología, se ha aplicado la propuesta metodológica mediante la implementación práctica, utilizando el método propuesto con 2 puentes ferroviarios existentes. Los resultados han mostrado que la herramienta es capaz de establecer una ordenación de las actuaciones coherente y suficientemente discriminante como para que el decisor no tenga dudas cuando deba tomar la decisión. Esta fase, es una de las grandes aportaciones de la tesis, ya que permite diferenciar los pesos obtenidos en cada una de las áreas de estudio y donde la toma de decisión puede variar dependiendo de las necesidades del decisor, la ubicación del puente de estudio etc. ABSTRACT Scarce resources, climate change, poverty and underdevelopment, natural disasters are just some of the great challenges facing humanity and to which the green economy will have to respond. The sustainable concept arises from the need for all human activities in a new equilibrium with the environment, society and the economy, which is known as sustainable development. The construction industry is part of this concept, because of its major impacts on resources, waste, emissions, biodiversity, landscape, social needs, integration, economical development, environment, etc. Therefore, sustainable construction has a critical importance as already demonstrated by its wide application and theoretical practice in urban planning and building projects. In civil engineering, these approaches are still minimal, although some criteria are already taken into account for sustainability in infrastructure projects. The construction industry requires a lot of natural resources, has a real economic relevance and a huge social impact. Currently, it consumes 40% of produced power as well as natural resources extracted from the earth and thus leads to an environmental impact of 40% regarding greenhouse gas emissions and solid wastes (EEA 2014). These repercussions should highly concern our governments and professional of this industry on the decisions they take regarding investments and designs. They must be inflexible in order to ensure that the main concern has to be a maximum efficiency. Major events like the COP21 held in Paris in December 2015 are a concrete signal of the worldwide awareness of the huge impact of each industry on climate. In this doctoral thesis a new model for the evaluation of the sustainability in the projects by means of a system of indicators, based on the areas of study of the existing certifications of sustainability and on an analysis considers multi-criterion of each one of the axioms of the sustainability. The primary aim of this thesis is to study the mode of application of sustainability in projects through a system of indicators. . The main challenge consists of create a methodology suitable to identify, prioritize and select the most important indicators which define if a building is sustainable in the specific case of railway infrastructures. The methodology will help to adapt future projects to the new goals of sustainable development which are respect of nature, social integration and economic relevance. A crucial point is the consideration of these indicators from the very beginning steps of the projects: planning, design and alternatives reflections. First of all, a complete inventory of all world energy certification organizations has been made in order to compare the most representative ones regarding their way of functioning (BREEAM, LEED, VERDE, DGNB). After this, mathematical tool MIVES of analysis has been analyzed multi-criterion for its application, in the thesis, to railway infrastructures. The second part of the thesis is aimed to develop a new model of indicators, inspired by the MIVES method, consisting in a decision-making system based on the 3 foundations of sustainability: nature impact, social concerns, and economic relevance. The methodology MIVES structures the decision process in three axes: Requirements, components and life cycle. These axes define the boundaries of the systems. The axis of requirements o tree requirements is structured in three levels corresponding to specific requirement: criteria and indicators. In addition, is necessary define the value function for each indicator, define the weight of importance of each element of the tree and finally with the calculate the value of each alternative select the best of them. The generation of this tree requirements in railway structures and measuring the parameter is original for this type of structures. Finally, after the development of the methodology, it has validated the methodology through practical implementation, applying the proposed method 2 existing railway bridges. The results showed that the tool is able to establish a coherent management of performances and discriminating enough so that the decision maker should not have doubts when making the decision. This phase, is one of the great contributions of the thesis, since it allows to differentiate the weights obtained in each one from the study areas and where the decision making can vary depending on the necessities of the decisor, the location of the bridge of study etc.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los hipergrafos dirigidos se han empleado en problemas relacionados con lógica proposicional, bases de datos relacionales, linguística computacional y aprendizaje automático. Los hipergrafos dirigidos han sido también utilizados como alternativa a los grafos (bipartitos) dirigidos para facilitar el estudio de las interacciones entre componentes de sistemas complejos que no pueden ser fácilmente modelados usando exclusivamente relaciones binarias. En este contexto, este tipo de representación es conocida como hiper-redes. Un hipergrafo dirigido es una generalización de un grafo dirigido especialmente adecuado para la representación de relaciones de muchos a muchos. Mientras que una arista en un grafo dirigido define una relación entre dos de sus nodos, una hiperarista en un hipergrafo dirigido define una relación entre dos conjuntos de sus nodos. La conexión fuerte es una relación de equivalencia que divide el conjunto de nodos de un hipergrafo dirigido en particiones y cada partición define una clase de equivalencia conocida como componente fuertemente conexo. El estudio de los componentes fuertemente conexos de un hipergrafo dirigido puede ayudar a conseguir una mejor comprensión de la estructura de este tipo de hipergrafos cuando su tamaño es considerable. En el caso de grafo dirigidos, existen algoritmos muy eficientes para el cálculo de los componentes fuertemente conexos en grafos de gran tamaño. Gracias a estos algoritmos, se ha podido averiguar que la estructura de la WWW tiene forma de “pajarita”, donde más del 70% del los nodos están distribuidos en tres grandes conjuntos y uno de ellos es un componente fuertemente conexo. Este tipo de estructura ha sido también observada en redes complejas en otras áreas como la biología. Estudios de naturaleza similar no han podido ser realizados en hipergrafos dirigidos porque no existe algoritmos capaces de calcular los componentes fuertemente conexos de este tipo de hipergrafos. En esta tesis doctoral, hemos investigado como calcular los componentes fuertemente conexos de un hipergrafo dirigido. En concreto, hemos desarrollado dos algoritmos para este problema y hemos determinado que son correctos y cuál es su complejidad computacional. Ambos algoritmos han sido evaluados empíricamente para comparar sus tiempos de ejecución. Para la evaluación, hemos producido una selección de hipergrafos dirigidos generados de forma aleatoria inspirados en modelos muy conocidos de grafos aleatorios como Erdos-Renyi, Newman-Watts-Strogatz and Barabasi-Albert. Varias optimizaciones para ambos algoritmos han sido implementadas y analizadas en la tesis. En concreto, colapsar los componentes fuertemente conexos del grafo dirigido que se puede construir eliminando ciertas hiperaristas complejas del hipergrafo dirigido original, mejora notablemente los tiempos de ejecucion de los algoritmos para varios de los hipergrafos utilizados en la evaluación. Aparte de los ejemplos de aplicación mencionados anteriormente, los hipergrafos dirigidos han sido también empleados en el área de representación de conocimiento. En concreto, este tipo de hipergrafos se han usado para el cálculo de módulos de ontologías. Una ontología puede ser definida como un conjunto de axiomas que especifican formalmente un conjunto de símbolos y sus relaciones, mientras que un modulo puede ser entendido como un subconjunto de axiomas de la ontología que recoge todo el conocimiento que almacena la ontología sobre un conjunto especifico de símbolos y sus relaciones. En la tesis nos hemos centrado solamente en módulos que han sido calculados usando la técnica de localidad sintáctica. Debido a que las ontologías pueden ser muy grandes, el cálculo de módulos puede facilitar las tareas de re-utilización y mantenimiento de dichas ontologías. Sin embargo, analizar todos los posibles módulos de una ontología es, en general, muy costoso porque el numero de módulos crece de forma exponencial con respecto al número de símbolos y de axiomas de la ontología. Afortunadamente, los axiomas de una ontología pueden ser divididos en particiones conocidas como átomos. Cada átomo representa un conjunto máximo de axiomas que siempre aparecen juntos en un modulo. La decomposición atómica de una ontología es definida como un grafo dirigido de tal forma que cada nodo del grafo corresponde con un átomo y cada arista define una dependencia entre una pareja de átomos. En esta tesis introducimos el concepto de“axiom dependency hypergraph” que generaliza el concepto de descomposición atómica de una ontología. Un modulo en una ontología correspondería con un componente conexo en este tipo de hipergrafos y un átomo de una ontología con un componente fuertemente conexo. Hemos adaptado la implementación de nuestros algoritmos para que funcionen también con axiom dependency hypergraphs y poder de esa forma calcular los átomos de una ontología. Para demostrar la viabilidad de esta idea, hemos incorporado nuestros algoritmos en una aplicación que hemos desarrollado para la extracción de módulos y la descomposición atómica de ontologías. A la aplicación la hemos llamado HyS y hemos estudiado sus tiempos de ejecución usando una selección de ontologías muy conocidas del área biomédica, la mayoría disponibles en el portal de Internet NCBO. Los resultados de la evaluación muestran que los tiempos de ejecución de HyS son mucho mejores que las aplicaciones más rápidas conocidas. ABSTRACT Directed hypergraphs are an intuitive modelling formalism that have been used in problems related to propositional logic, relational databases, computational linguistic and machine learning. Directed hypergraphs are also presented as an alternative to directed (bipartite) graphs to facilitate the study of the interactions between components of complex systems that cannot naturally be modelled as binary relations. In this context, they are known as hyper-networks. A directed hypergraph is a generalization of a directed graph suitable for representing many-to-many relationships. While an edge in a directed graph defines a relation between two nodes of the graph, a hyperedge in a directed hypergraph defines a relation between two sets of nodes. Strong-connectivity is an equivalence relation that induces a partition of the set of nodes of a directed hypergraph into strongly-connected components. These components can be collapsed into single nodes. As result, the size of the original hypergraph can significantly be reduced if the strongly-connected components have many nodes. This approach might contribute to better understand how the nodes of a hypergraph are connected, in particular when the hypergraphs are large. In the case of directed graphs, there are efficient algorithms that can be used to compute the strongly-connected components of large graphs. For instance, it has been shown that the macroscopic structure of the World Wide Web can be represented as a “bow-tie” diagram where more than 70% of the nodes are distributed into three large sets and one of these sets is a large strongly-connected component. This particular structure has been also observed in complex networks in other fields such as, e.g., biology. Similar studies cannot be conducted in a directed hypergraph because there does not exist any algorithm for computing the strongly-connected components of the hypergraph. In this thesis, we investigate ways to compute the strongly-connected components of directed hypergraphs. We present two new algorithms and we show their correctness and computational complexity. One of these algorithms is inspired by Tarjan’s algorithm for directed graphs. The second algorithm follows a simple approach to compute the stronglyconnected components. This approach is based on the fact that two nodes of a graph that are strongly-connected can also reach the same nodes. In other words, the connected component of each node is the same. Both algorithms are empirically evaluated to compare their performances. To this end, we have produced a selection of random directed hypergraphs inspired by existent and well-known random graphs models like Erd˝os-Renyi and Newman-Watts-Strogatz. Besides the application examples that we mentioned earlier, directed hypergraphs have also been employed in the field of knowledge representation. In particular, they have been used to compute the modules of an ontology. An ontology is defined as a collection of axioms that provides a formal specification of a set of terms and their relationships; and a module is a subset of an ontology that completely captures the meaning of certain terms as defined in the ontology. In particular, we focus on the modules computed using the notion of syntactic locality. As ontologies can be very large, the computation of modules facilitates the reuse and maintenance of these ontologies. Analysing all modules of an ontology, however, is in general not feasible as the number of modules grows exponentially in the number of terms and axioms of the ontology. Nevertheless, the modules can succinctly be represented using the Atomic Decomposition of an ontology. Using this representation, an ontology can be partitioned into atoms, which are maximal sets of axioms that co-occur in every module. The Atomic Decomposition is then defined as a directed graph such that each node correspond to an atom and each edge represents a dependency relation between two atoms. In this thesis, we introduce the notion of an axiom dependency hypergraph which is a generalization of the atomic decomposition of an ontology. A module in the ontology corresponds to a connected component in the hypergraph, and the atoms of the ontology to the strongly-connected components. We apply our algorithms for directed hypergraphs to axiom dependency hypergraphs and in this manner, we compute the atoms of an ontology. To demonstrate the viability of this approach, we have implemented the algorithms in the application HyS which computes the modules of ontologies and calculate their atomic decomposition. In the thesis, we provide an experimental evaluation of HyS with a selection of large and prominent biomedical ontologies, most of which are available in the NCBO Bioportal. HyS outperforms state-of-the-art implementations in the tasks of extracting modules and computing the atomic decomposition of these ontologies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta dissertação apresentamos um método de quantização matemática e conceitualmente rigoroso para o campo escalar livre de interações. Trazemos de início alguns aspéctos importantes da Teoria de Distribuições e colocamos alguns pontos de geometria Lorentziana. O restante do trabalho é dividido em duas partes: na primeira, estudamos equações de onda em variedades Lorentzianas globalmente hiperbólicas e apresentamos o conceito de soluções fundamentais no contexto de equações locais. Em seguida, progressivamente construímos soluções fundamentais para o operador de onda a partir da distribuição de Riesz. Uma vez estabelecida uma solução para a equação de onda em uma vizinhança de um ponto da variedade, tratamos de construir uma solução global a partir da extensão do problema de Cauchy a toda a variedade, donde as soluções fundamentais dão lugar aos operadores de Green a partir da introdução de uma condição de contorno. Na última parte do trabalho, apresentamos um mínimo da Teoria de Categorias e Funtores para utilizar esse formalismo na contrução de um funtor de segunda quantização entre a categoria de variedades Lorentzianas globalmente hiperbólicas e a categoria de redes de álgebras C* satisfazendo os axiomas de Haag-Kastler. Ao fim, retomamos o caso particular do campo escalar quântico livre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El desplazamiento de cierta parte de los episodios de acción colectiva al terreno comunicativo y, más en concreto, al espacio generado por las nuevas tecnologías y los medios digitales ha supuesto un fenómeno sociológicamente complejo y variado, que cuestiona algunos de los viejos axiomas que arrastraba la sociología de los movimientos sociales. Además, las tipologías de interacción o imbricación entre dichos movimientos y las redes comunicativas tecnológicas dependen de múltiples factores, lo que nos permitirá en este trabajo realizar una cierta periodización histórica y una clasificación analítica de las mismas. Asimismo, este hecho notorio de emergencia de nuevas formas de acción colectiva y de participación política no convencional implica la utilización de metodologías y técnicas de estudio que se apartan en algunos aspectos de las tradicionales. En esta presentación se pretenden mostrar algunas de las herramientas metodológicas de esta “virtualización de la acción política” tales como los estudios de audiencias digitales o la etnografía virtual, métodos de producción de información sociológica válida para el análisis de ciertos casos de acción colectiva contemporánea. Una de las peculiaridades de los movimientos sociales o de la acción política enmarcados en los “nuevos medios digitales” supone también el replanteamiento de las formas efectivas de acceso metodológico a los mismos, dado su carácter esporádico y fugaz.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho propõe dois métodos para teste de sistemas de software: o primeiro extrai ideias de teste de um modelo desenvolvido em rede de Petri hierárquica e o segundo valida os resultados após a realização dos testes utilizando um modelo em OWL-S. Estes processos aumentam a qualidade do sistema desenvolvido ao reduzir o risco de uma cobertura insuficiente ou teste incompleto de uma funcionalidade. A primeira técnica apresentada consiste de cinco etapas: i) avaliação do sistema e identificação dos módulos e entidades separáveis, ii) levantamento dos estados e transições, iii) modelagem do sistema (bottom-up), iv) validação do modelo criado avaliando o fluxo de cada funcionalidade e v) extração dos casos de teste usando uma das três coberturas de teste apresentada. O segundo método deve ser aplicado após a realização dos testes e possui cinco passos: i) primeiro constrói-se um modelo em OWL (Web Ontology Language) do sistema contendo todas as informações significativas sobre as regras de negócio da aplicação, identificando as classes, propriedades e axiomas que o regem; ii) em seguida o status inicial antes da execução é representado no modelo através da inserção das instâncias (indivíduos) presentes; iii) após a execução dos casos de testes, a situação do modelo deve ser atualizada inserindo (sem apagar as instâncias já existentes) as instâncias que representam a nova situação da aplicação; iv) próximo passo consiste em utilizar um reasoner para fazer as inferências do modelo OWL verificando se o modelo mantém a consistência, ou seja, se não existem erros na aplicação; v) finalmente, as instâncias do status inicial são comparadas com as instâncias do status final, verificando se os elementos foram alterados, criados ou apagados corretamente. O processo proposto é indicado principalmente para testes funcionais de caixa-preta, mas pode ser facilmente adaptado para testes em caixa branca. Obtiveram-se casos de testes semelhantes aos que seriam obtidos em uma análise manual mantendo a mesma cobertura do sistema. A validação provou-se condizente com os resultados esperados, bem como o modelo ontológico mostrouse bem fácil e intuitivo para aplicar manutenções.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo trata cuestiones teóricas y descriptivas relacionadas con el análisis de la semántica histórica según los postulados de la Lingüística Cognitiva. La primera parte del trabajo contiene un breve recorrido descriptivo de los marcos teóricos más significativos que dicha perspectiva lingüística sostiene para el análisis del cambio semasiológico. A continuación, de forma más específica, se aplican los postulados teóricos de la semántica cognitiva diacrónica al análisis semántico del verbo pisar. El presente trabajo de fin de grado da muestra de la posibilidad de aplicar los axiomas teóricos de esta perspectiva lingüística para dar luz a los cambios semánticos que a lo largo de la historia de su uso presenta el verbo polisémico pisar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A pesquisa procura identificar como se dá a dinâmica relacional que deve existir entre o saber/fazer teológico e as demais formas de saberes na contemporaneidade, tendo como base o filósofo francês Edgar Morin em seu referencial teórico intitulado Pensamento Complexo . Nessa perspectiva, a pesquisa se delineará por uma hermenêutica complexa ou uma hermenêutica transdisciplinar. Este conceito (Hermenêutica-Transdisciplinar / Hermenêutica na Complexidade) não é um sistema dedutivo, e sim um sistema aberto, operacionalizado por uma razão aberta (racionalidade) que procura interpretar a realidade contemporânea observando a tradição. Também de forma criativa, interpreta a tradição como resposta emergente para a contemporaneidade em meio a uma realidade complexa. A partir desse conceito observam-se também as relações dinâmicas dos saberes deste mesmo tempo, e isso, não apenas observando pelas lentes da interdisciplinaridade, mas indo além, se tornando um saber transdisciplinar. A teologia cristã continua sendo amor à tradição-bíblica, sem jamais transformar-se num sistema completo e acabado do saber teológico. Passado e presente se completam e apenas lançam luz para o futuro. Para isso, na tradição teológica cristã, há na Bíblia fundamentos reflexivos e axiomas, a partir dos quais podemos refletir a respeito de todos os temas que os saberes vão impondo (complexidade na realidade) como tematização.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis trata sobre aproximaciones de espacios métricos compactos. La aproximación y reconstrucción de espacios topológicos mediante otros más sencillos es un tema antigüo en topología geométrica. La idea es construir un espacio muy sencillo lo más parecido posible al espacio original. Como es muy difícil (o incluso no tiene sentido) intentar obtener una copia homeomorfa, el objetivo será encontrar un espacio que preserve algunas propriedades topológicas (algebraicas o no) como compacidad, conexión, axiomas de separación, tipo de homotopía, grupos de homotopía y homología, etc. Los primeros candidatos como espacios sencillos con propiedades del espacio original son los poliedros. Ver el artículo [45] para los resultados principales. En el germen de esta idea, destacamos los estudios de Alexandroff en los años 20, relacionando la dimensión del compacto métrico con la dimensión de ciertos poliedros a través de aplicaciones con imágenes o preimágenes controladas (en términos de distancias). En un contexto más moderno, la idea de aproximación puede ser realizada construyendo un complejo simplicial basado en el espacio original, como el complejo de Vietoris-Rips o el complejo de Cech y comparar su realización con él. En este sentido, tenemos el clásico lema del nervio [12, 21] el cual establece que para un recubrimiento por abiertos “suficientemente bueno" del espacio (es decir, un recubrimiento con miembros e intersecciones contractibles o vacías), el nervio del recubrimiento tiene el tipo de homotopía del espacio original. El problema es encontrar estos recubrimientos (si es que existen). Para variedades Riemannianas, existen algunos resultados en este sentido, utilizando los complejos de Vietoris-Rips. Hausmann demostró [35] que la realización del complejo de Vietoris-Rips de la variedad, para valores suficientemente bajos del parámetro, tiene el tipo de homotopía de dicha variedad. En [40], Latschev demostró una conjetura establecida por Hausmann: El tipo de homotopía de la variedad se puede recuperar utilizando un conjunto finito de puntos (suficientemente denso) para el complejo de Vietoris-Rips. Los resultados de Petersen [58], comparando la distancia Gromov-Hausdorff de los compactos métricos con su tipo de homotopía, son también interesantes. Aquí, los poliedros salen a relucir en las demostraciones, no en los resultados...

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Teniendo en cuenta que el motivo convocante de estos "diálogos culturales" es la naturaleza, el texto lucreciano insta a interrogarnos sobre los principios y "la naturaleza de las cosas". A partir de la consideración de Duncan Kennedy (2007: 376-377) en cuanto a la significación de la obra de Lucrecio, "haciendo un texto del universo" (Making a Text of the Universe), resulta pertinente analizar las hipótesis que el epicúreo latino expone acerca de la Física atomista. La evocación de los axiomas nullam rem e nilo gigni divinitus umquam (I.150: "ninguna cosa se engendra jamás de la nada por obra divina") y quicque in sua corpora rursum / dissolvat natura neque ad nilum interemat res (I.215-216: "la naturaleza inversamente disuelve cada cosa en sus elementos y no reduce las cosas a la nada") constituye la idea transversal del sistema, que busca contemplar la Naturaleza y obtener un saber surgido de ese acto de pensamiento. Es por ello que, según D. Sedley (2004: 37), el meollo temático del texto reside en el estudio del aspecto y la racionalidad de lo natural, procedimientos especulativos que están comprendidos en el término epicúreo physiología. Este fue el comienzo de un derrotero que, para P. de la Llosa (2000: 10-11), significó "una intuición genial" de los atomistas griegos, completándose más tarde con un segundo impulso a partir de los fundamentos "físicos" de los epicúreos. Lucrecio, sin encajar en el establishment romano, sentó las bases de este labor científico atomista que, eclipsado por varias centurias, se reavivó en el s. XIV para continuar con altibajos hasta el presente. Desde la perspectiva de esta perduración, los objetivos de esta comunicación residen en comprobar la aproximación de los postulados lucrecianos y su veracidad en relación con algunas de las concepciones científicas-físico-químicas-actuales

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This study approaches bureaucratic organizational structures with the aim to understand the adherence procedure to virtual technologies in the stricto sensu educational administrative process. Thus, the author navigates through the formation of these organizations in Brazil with the intent to demonstrate the bureaucratic organizational culture and the consequent form of domination of those who detain power. In this epistemological construction, the author explores the culture s bureaucratic environment and the organizational power. In the analyses, it was observed the technological phenomenon in the ODL s administrative environment, which can explain the adherence procedure to structures and technological instruments for stricto sensu courses that, hypothetically, dilutes the traditional inherited organizational axiom. Therefore, it was utilized as object of study the Professional Master s degree in National Scale Public Administration PROFIAP, hence analyzing the documental content and the legislation related to institutionalization as well as the positioning of professors/coordinators and of the director of CAPES/MEC. Considering this axioms, it was concluded that the bureaucratic structures can admit ODL in the stricto sensu s environment. However, this can only be done as long as the adherence does not imply in a dilution of the traditional forms of power and institutional bureaucratic inherited dominance, as well as the alleged hegemony of the governmental structure in the educational administration adopted in person by the stricto sensu courses in Brazil

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se reconoce que el mecanicismo y la rigidez con la cual se est? ense?ando la f?sica en las escuelas, el cual deja un aprendizaje tan solo de f?rmulas y no de relaciones cualitativas. Para esto se considera el dise?o de un c?mic como material que brinda enormes posibilidades para la ense?anza y el aprendizaje de las ciencias y de la f?sica en particular. Se plantea dise?ar una propuesta para la ense?anza del movimiento uniforme y movimiento natural acelerado a trav?s de un comic y para esto se realizara la revisi?n de la tercera jornada del libro ?Dialogo Entre Dos Nuevas Ciencias? en donde se tratan los teoremas y axiomas del movimiento uniforme y el movimiento natural acelerado de una manera cualitativa y dialogada a trav?s de unos interlocutores.