965 resultados para postulates and axioms
Resumo:
This thesis is an attempt to throw light on the works of some Indian Mathematicians who wrote in Arabic or persian In the Introductory Chapter on outline of general history of Mathematics during the eighteenth Bnd nineteenth century has been sketched. During that period there were two streams of Mathematical activity. On one side many eminent scholers, who wrote in Sanskrit, .he l d the field as before without being much influenced by other sources. On the other side there were scholars whose writings were based on Arabic and Persian text but who occasionally drew upon other sources also.
Resumo:
Few studies relating to librarianship as a science, because it is argued that the Library lacks a body of theory, an object of study and methodology of its own. According to Murcia and Tamayo "science is a critical task not dogmatic, that puts all its cases to trial and criticism." 0 is, science tests the presumed knowledge. He adds that science related facts and interconnected with each other, in order to achieve logical connections that allow the provision of postulates and axioms from the systematization achieved through research and the scientific method to determine the objectivity that exists between facts and phenomena. For him, scientific research is the instrument by which science makes it to scientific knowledge. (1982, p. 11)
Resumo:
In this paper we apply the formalism of the analytical signal theory to the Schrödinger wavefunction. Making use exclusively of the wave-particle duality and the rinciple of relativistic covariance, we actually derive the form of the quantum energy and momentum operators for a single nonrelativistic particle. Without using any more quantum postulates, and employing the formalism of the characteristic function, we also derive the quantum-mechanical prescription for the measurement probability in such cases.
Resumo:
This work aims at combining the Chaos theory postulates and Artificial Neural Networks classification and predictive capability, in the field of financial time series prediction. Chaos theory, provides valuable qualitative and quantitative tools to decide on the predictability of a chaotic system. Quantitative measurements based on Chaos theory, are used, to decide a-priori whether a time series, or a portion of a time series is predictable, while Chaos theory based qualitative tools are used to provide further observations and analysis on the predictability, in cases where measurements provide negative answers. Phase space reconstruction is achieved by time delay embedding resulting in multiple embedded vectors. The cognitive approach suggested, is inspired by the capability of some chartists to predict the direction of an index by looking at the price time series. Thus, in this work, the calculation of the embedding dimension and the separation, in Takens‘ embedding theorem for phase space reconstruction, is not limited to False Nearest Neighbor, Differential Entropy or other specific method, rather, this work is interested in all embedding dimensions and separations that are regarded as different ways of looking at a time series by different chartists, based on their expectations. Prior to the prediction, the embedded vectors of the phase space are classified with Fuzzy-ART, then, for each class a back propagation Neural Network is trained to predict the last element of each vector, whereas all previous elements of a vector are used as features.
Resumo:
The maintenance of vision, through prevention and attenuation of neuronal injury in glaucoma, forms the basis of current clinical practice. Currently, the reduction of intraocular pressure is the only proven method to achieve these goals. Although this strategy enjoys considerable success, some patients progress to blindness; hence, additional management options are highly desirable. Several terms describing treatment modalities of neuronal diseases with potential applicability to glaucoma are used in the literature, including neuroprotection, neurorecovery, neurorescue and neuroregeneration. These phenomena have not been defined within a coherent framework. Here, we suggest a set of definitions, postulates and principles to form a foundation for the successful translation of novel glaucoma therapies from the laboratory to the clinic.
Resumo:
Los hipergrafos dirigidos se han empleado en problemas relacionados con lógica proposicional, bases de datos relacionales, linguística computacional y aprendizaje automático. Los hipergrafos dirigidos han sido también utilizados como alternativa a los grafos (bipartitos) dirigidos para facilitar el estudio de las interacciones entre componentes de sistemas complejos que no pueden ser fácilmente modelados usando exclusivamente relaciones binarias. En este contexto, este tipo de representación es conocida como hiper-redes. Un hipergrafo dirigido es una generalización de un grafo dirigido especialmente adecuado para la representación de relaciones de muchos a muchos. Mientras que una arista en un grafo dirigido define una relación entre dos de sus nodos, una hiperarista en un hipergrafo dirigido define una relación entre dos conjuntos de sus nodos. La conexión fuerte es una relación de equivalencia que divide el conjunto de nodos de un hipergrafo dirigido en particiones y cada partición define una clase de equivalencia conocida como componente fuertemente conexo. El estudio de los componentes fuertemente conexos de un hipergrafo dirigido puede ayudar a conseguir una mejor comprensión de la estructura de este tipo de hipergrafos cuando su tamaño es considerable. En el caso de grafo dirigidos, existen algoritmos muy eficientes para el cálculo de los componentes fuertemente conexos en grafos de gran tamaño. Gracias a estos algoritmos, se ha podido averiguar que la estructura de la WWW tiene forma de “pajarita”, donde más del 70% del los nodos están distribuidos en tres grandes conjuntos y uno de ellos es un componente fuertemente conexo. Este tipo de estructura ha sido también observada en redes complejas en otras áreas como la biología. Estudios de naturaleza similar no han podido ser realizados en hipergrafos dirigidos porque no existe algoritmos capaces de calcular los componentes fuertemente conexos de este tipo de hipergrafos. En esta tesis doctoral, hemos investigado como calcular los componentes fuertemente conexos de un hipergrafo dirigido. En concreto, hemos desarrollado dos algoritmos para este problema y hemos determinado que son correctos y cuál es su complejidad computacional. Ambos algoritmos han sido evaluados empíricamente para comparar sus tiempos de ejecución. Para la evaluación, hemos producido una selección de hipergrafos dirigidos generados de forma aleatoria inspirados en modelos muy conocidos de grafos aleatorios como Erdos-Renyi, Newman-Watts-Strogatz and Barabasi-Albert. Varias optimizaciones para ambos algoritmos han sido implementadas y analizadas en la tesis. En concreto, colapsar los componentes fuertemente conexos del grafo dirigido que se puede construir eliminando ciertas hiperaristas complejas del hipergrafo dirigido original, mejora notablemente los tiempos de ejecucion de los algoritmos para varios de los hipergrafos utilizados en la evaluación. Aparte de los ejemplos de aplicación mencionados anteriormente, los hipergrafos dirigidos han sido también empleados en el área de representación de conocimiento. En concreto, este tipo de hipergrafos se han usado para el cálculo de módulos de ontologías. Una ontología puede ser definida como un conjunto de axiomas que especifican formalmente un conjunto de símbolos y sus relaciones, mientras que un modulo puede ser entendido como un subconjunto de axiomas de la ontología que recoge todo el conocimiento que almacena la ontología sobre un conjunto especifico de símbolos y sus relaciones. En la tesis nos hemos centrado solamente en módulos que han sido calculados usando la técnica de localidad sintáctica. Debido a que las ontologías pueden ser muy grandes, el cálculo de módulos puede facilitar las tareas de re-utilización y mantenimiento de dichas ontologías. Sin embargo, analizar todos los posibles módulos de una ontología es, en general, muy costoso porque el numero de módulos crece de forma exponencial con respecto al número de símbolos y de axiomas de la ontología. Afortunadamente, los axiomas de una ontología pueden ser divididos en particiones conocidas como átomos. Cada átomo representa un conjunto máximo de axiomas que siempre aparecen juntos en un modulo. La decomposición atómica de una ontología es definida como un grafo dirigido de tal forma que cada nodo del grafo corresponde con un átomo y cada arista define una dependencia entre una pareja de átomos. En esta tesis introducimos el concepto de“axiom dependency hypergraph” que generaliza el concepto de descomposición atómica de una ontología. Un modulo en una ontología correspondería con un componente conexo en este tipo de hipergrafos y un átomo de una ontología con un componente fuertemente conexo. Hemos adaptado la implementación de nuestros algoritmos para que funcionen también con axiom dependency hypergraphs y poder de esa forma calcular los átomos de una ontología. Para demostrar la viabilidad de esta idea, hemos incorporado nuestros algoritmos en una aplicación que hemos desarrollado para la extracción de módulos y la descomposición atómica de ontologías. A la aplicación la hemos llamado HyS y hemos estudiado sus tiempos de ejecución usando una selección de ontologías muy conocidas del área biomédica, la mayoría disponibles en el portal de Internet NCBO. Los resultados de la evaluación muestran que los tiempos de ejecución de HyS son mucho mejores que las aplicaciones más rápidas conocidas. ABSTRACT Directed hypergraphs are an intuitive modelling formalism that have been used in problems related to propositional logic, relational databases, computational linguistic and machine learning. Directed hypergraphs are also presented as an alternative to directed (bipartite) graphs to facilitate the study of the interactions between components of complex systems that cannot naturally be modelled as binary relations. In this context, they are known as hyper-networks. A directed hypergraph is a generalization of a directed graph suitable for representing many-to-many relationships. While an edge in a directed graph defines a relation between two nodes of the graph, a hyperedge in a directed hypergraph defines a relation between two sets of nodes. Strong-connectivity is an equivalence relation that induces a partition of the set of nodes of a directed hypergraph into strongly-connected components. These components can be collapsed into single nodes. As result, the size of the original hypergraph can significantly be reduced if the strongly-connected components have many nodes. This approach might contribute to better understand how the nodes of a hypergraph are connected, in particular when the hypergraphs are large. In the case of directed graphs, there are efficient algorithms that can be used to compute the strongly-connected components of large graphs. For instance, it has been shown that the macroscopic structure of the World Wide Web can be represented as a “bow-tie” diagram where more than 70% of the nodes are distributed into three large sets and one of these sets is a large strongly-connected component. This particular structure has been also observed in complex networks in other fields such as, e.g., biology. Similar studies cannot be conducted in a directed hypergraph because there does not exist any algorithm for computing the strongly-connected components of the hypergraph. In this thesis, we investigate ways to compute the strongly-connected components of directed hypergraphs. We present two new algorithms and we show their correctness and computational complexity. One of these algorithms is inspired by Tarjan’s algorithm for directed graphs. The second algorithm follows a simple approach to compute the stronglyconnected components. This approach is based on the fact that two nodes of a graph that are strongly-connected can also reach the same nodes. In other words, the connected component of each node is the same. Both algorithms are empirically evaluated to compare their performances. To this end, we have produced a selection of random directed hypergraphs inspired by existent and well-known random graphs models like Erd˝os-Renyi and Newman-Watts-Strogatz. Besides the application examples that we mentioned earlier, directed hypergraphs have also been employed in the field of knowledge representation. In particular, they have been used to compute the modules of an ontology. An ontology is defined as a collection of axioms that provides a formal specification of a set of terms and their relationships; and a module is a subset of an ontology that completely captures the meaning of certain terms as defined in the ontology. In particular, we focus on the modules computed using the notion of syntactic locality. As ontologies can be very large, the computation of modules facilitates the reuse and maintenance of these ontologies. Analysing all modules of an ontology, however, is in general not feasible as the number of modules grows exponentially in the number of terms and axioms of the ontology. Nevertheless, the modules can succinctly be represented using the Atomic Decomposition of an ontology. Using this representation, an ontology can be partitioned into atoms, which are maximal sets of axioms that co-occur in every module. The Atomic Decomposition is then defined as a directed graph such that each node correspond to an atom and each edge represents a dependency relation between two atoms. In this thesis, we introduce the notion of an axiom dependency hypergraph which is a generalization of the atomic decomposition of an ontology. A module in the ontology corresponds to a connected component in the hypergraph, and the atoms of the ontology to the strongly-connected components. We apply our algorithms for directed hypergraphs to axiom dependency hypergraphs and in this manner, we compute the atoms of an ontology. To demonstrate the viability of this approach, we have implemented the algorithms in the application HyS which computes the modules of ontologies and calculate their atomic decomposition. In the thesis, we provide an experimental evaluation of HyS with a selection of large and prominent biomedical ontologies, most of which are available in the NCBO Bioportal. HyS outperforms state-of-the-art implementations in the tasks of extracting modules and computing the atomic decomposition of these ontologies.
Resumo:
This heavily illustrated notebook contains entries on the following topics: geometrical definitions and axioms, geographical and astronomical definitions, compasses, plain sailing, parallel sailing, and Mercator's sailing. It also contains pages designated for notes on "Currents, Lee Way, & Variation," but these pages have been left blank. The back cover contains calculations which appear to relate to charting a course from Jamaica to "Lizzard."
Resumo:
Six consecutively hatched cohorts and one cohort of pre-hatch eggs of farmed barramundi (Lates calcarifer) from south Australia were examined for Chlamydia-like organisms associated with epitheliocystis. To identify and characterise the bacteria, 59 gill samples and three pre-hatch egg samples were processed for histology, in situ hybridisation and 16S rRNA amplification, sequencing and comprehensive phylogenetic analysis. Cases of epitheliocystis were observed microscopically and characterised by membrane-enclosed basophilic cysts filled with a granular material that caused hypertrophy of the epithelial cells. In situ hybridisation with a Chlamydiales-specific probe lead to specific labelling of the epitheliocystis inclusions within the gill epithelium. Two distinct but closely related 16S rRNA chlamydial sequences were amplified from gill DNA across the seven cohorts, including from pre-hatch eggs. These genotype sequences were found to be novel, sharing 97.1 - 97.5% similarity to the next closest 16S rRNA sequence, Ca. Similichlamydia latridicola, from Australian striped trumpeter. Comprehensive phylogenetic analysis of these genotype sequences against representative members of the Chlamydiales order and against other epitheliocystis agents revealed these Chlamydia-like organisms to be novel and taxonomically placed them within the recently proposed genus Ca. Similichlamydia. Following Fredricks and Relman's molecular postulates and based on these observations, we propose the epitheliocystis agents of barramundi to be known as "Candidatus Similichlamydia laticola" (sp. nov.).
Resumo:
549 pp. (Bibliogr. pp. 501-522) (Conclusiones pp. 467-483/ Conclusions pp. 484-497)
Resumo:
Celem niniejszego opracowania jest analiza założeń polityki ochrony cyberprzestrzeni RP zaprezentowanych w dokumencie zatytułowanym Polityka ochrony cyberprzestrzeni Rzeczypospolitej Polskiej, zaprezentowanym w 2013 r. przez Ministerstwo Administracji i Cyfryzacji i Agencję Bezpieczeństwa Wewnętrznego. Artykuł poddaje analizie postulaty i wytyczne tam zamieszczone, jak również konfrontuje te założenia z elementami systemu ochrony cyberprzestrzeni RP. Zgodzić należy się z twórcami tej strategii, iż zapewnienie stanu pełnego bezpieczeństwa teleinformatycznego, jest niemożliwe. Można mówić jedynie osiągnięciu pewnego, akceptowalnego jego poziomu. Wydaje się, że do osiągnięcia tego celu, powinna w znaczącym stopniu przyczynić się realizacja priorytetów polityki ochrony cyberprzestrzeni RP, a wśród nich w szczególności określenie kompetencji podmiotów odpowiedzialnych za bezpieczeństwo cyberprzestrzeni, stworzenie i realizacja spójnego dla wszystkich podmiotów administracji rządowej systemu zarządzania bezpieczeństwem cyberprzestrzeni oraz ustanowienie wytycznych w tym zakresie dla podmiotów niepublicznych, stworzenie trwałego systemu koordynacji i wymiany informacji pomiędzy podmiotami odpowiedzialnymi za bezpieczeństwo cyberprzestrzeni i użytkownikami cyberprzestrzeni, zwiększenie świadomości użytkowników cyberprzestrzeni w zakresie metod i środków bezpieczeństwa.
Resumo:
This short paper, structured in 3 distinct sections will touch on some of the key features of the Oyster wave energy device and its recent development. The first section discusses the nature of the resource in the nearshore environment,
some common misunderstandings in relation to it and its suitability for exploitation of commercial wave energy. In the second section a brief description of some of the fundamentals governing flap type devices is given. This serves to emphasise core differences between the Oyster device and other devices. Despite the simplicity of the design and the operation of the device itself, it is shown that Oyster occupies a theoretical space which is substantially outside most established theories and axioms in wave energy. The third section will give a short summary of the recent developments in the design of the Oyster 2 project and touch on how its enhanced features deal with some of the key commercial and technical challenges present in the sector.
Resumo:
Un certain nombre de chercheurs (Birch, 1996; Cole, 1995, 1996; De Bergerac, 1998) fondent sur un modèle neurophysiologique leurs arguments en faveur de la delphinothérapie pour traiter divers désordres (DSM-IV) cognitifs et émotifs chez les enfants et les jeunes. Ce modèle recourt à des analogies avec les mécanismes de sonophorèse, d'écholocation et de transmission neurohormonale dans son application thérapeutique. Dans le but de démystifier les éléments pseudo-scientifiques auprès d'un lectorat non spécialisé, cet article critique les postulats et les implications relatifs à ces mécanismes et il conclut à l'absence d'un soutien pertinent et valide concernant ce modèle.
Resumo:
El presente trabajo desarrolla el concepto de cooperación empresarial aplicado al sector económico de Centros Comerciales. Se parte del supuesto que tanto los seres vivos como las organizaciones sociales son esencialmente cooperantes. Se confirma tal apreciación por los postulados de la biología y las ciencias económicas a través de los conceptos del apoyo mutuo, la sociobiología, las teorías de los costos de transacción y la agencia, entre otras. Así mismo, se aborda las diferentes escuelas de estrategia, su relación con la gestión organizacional y sus implicaciones y alcances con la cooperación interfirmas. Seguidamente se analizan los diferentes tipos de cooperación, las principales variables a tener en cuenta en la selección de las formas cooperativas. Posteriormente se hace un análisis a la luz del caso Colombiano de las diferentes experiencias colaborativas de la mediana y gran empresa. En la parte final del proyecto se presenta un diagnóstico del sector de Centro Comerciales donde se analizan sus principales indicadores tales como truput, tráfico, inversión de mercadeo entre otros. Así mismo, se presentan los resultados de una investigación aplicada a los gerentes de los Centros Comerciales para medir el grado de acogida que puede tener una iniciativa colaborativa. Todo esto con el propósito de formular un modelo de colaboración estratégica que se aplicara al sector, en su análisis se presentan sus factores condicionantes, su estructura organizativa, sus ejes estratégicos y su agenda de prioridades.
Resumo:
A medida que pasa el tiempo; la ciencia, el desarrollo tecnológico y la constante búsqueda de encontrar nuevas verdades, más fehacientes y que logren responder más asertivamente los diferentes cuestionamientos de la humanidad, han logrado redefinir las teorías y los axiomas que, en su momento, se tomaron como el dogma a seguir en diferentes disciplinas y cuestionamientos de la sociedad y la industria. La concepción tradicional que se tiene de la mente y el comportamiento del consumidor tenía vacios importantes en términos de aplicabilidad y generalización de sus teorías, pues pensar que la humanidad desarrolla sus decisiones de compra bajo análisis netamente racionales y apegados a estructuras temporales para manejar su dinero es un supuesto que no se emplea de manera general y concienzuda por el común. Antes que agentes 100% racionales, con un completo flujo de información y en un mercado perfecto bajo todos los preceptos económicos, somos personas de sentimientos y sentidos. Reaccionamos ante situaciones, estados de ánimo y estímulos, donde es nuestro cerebro quien recibe todo el contexto cognitivo que nos brinda el entorno y entonces actúa (y compra) de diferentes maneras. Es allí donde el Neuromarketing nace como un claro ejemplo de esa búsqueda por una nueva verdad. Una donde entender al consumidor no deje de lado su faceta más real; sus reacciones, pues son estas las que realmente definen qué le gusta o no y qué despierta en él un impulso lo suficientemente importante como para incidir en su decisión de compra. Es por ello que el Neuromarketing se ha adentrado a estudiar lo más profundo y verídico del consumidor, su cerebro. Alejándose de las técnicas tradicionales de investigación de mercados, donde el consumidor puede desvirtuar la información que percibe de un producto o una campaña publicitaría por diferentes razones sociales y psicológicas. El Neuromarketing se ha adentrado al estudio del consumidor y su cerebro mediante técnicas biométricas, en las cuales expone al consumidor al marketing y analiza sus reacciones cerebrales en términos de interés, adrenalina, memoria activa y sentimientos, apoyado por técnicas como el ¨eye tracking¨, donde las interacciones visuales del consumidor permiten identificar los puntos calientes y de interés en determinada pieza publicitaria. Pero el estudio, entendido por algunos como ¨invasivo¨ frente a las libertades en términos de privacidad y libertad de elección del consumidor deben ser responsablemente dirigidos y puestos bajo un contexto científico, donde el único fin sea el de generar nuevas hipótesis y teorías que permitan tener un mejor conocimiento del comportamiento del consumidor sin traspasar los límites del control del mismo. El Neuromarketing debate su existencia misma entre la creación de nuevas metodologías de acercamiento al pensamiento del consumidor, la efectividad de sus conocimiento dados a la industria y el yugo social que acarrea esta ciencia debido a la potencial coerción a los consumidores debido a sus hallazgos.
Resumo:
Esta investigación analiza la incidencia de los intereses políticos en la consecución formal de la ciudadanía femenina en Colombia a mediados del siglo XX, en un contexto marcado por la influencia de postulados liberales capitalistas y del discurso de modernidad. Desde una perspectiva histórica que incluye al género como variable, se presenta evidencia empírica de los principales intereses políticos masculinos como factor central en la aprobación formal del ingreso de las mujeres al espacio público y la ampliación del concepto de ciudadanía. El texto busca complementar enfoques que han privilegiado intereses electorales o movilizaciones feministas como determinantes del voto femenino, llenando así un vacío académico en la literatura de género. Sin minimizar la importancia de las luchas feministas, se concluye que diversos intereses morales, electorales, diplomáticos y económicos posibilitaron en la aprobación del voto femenino en un contexto histórico nacional e internacional particular, marcado por el influyente discurso de modernidad.