829 resultados para Analytical philosophy
Resumo:
A conceptual information system consists of a database together with conceptual hierarchies. The management system TOSCANA visualizes arbitrary combinations of conceptual hierarchies by nested line diagrams and allows an on-line interaction with a database to analyze data conceptually. The paper describes the conception of conceptual information systems and discusses the use of their visualization techniques for on-line analytical processing (OLAP).
Resumo:
Die Verordnung des Europäischen Rates (EC) 834/2007 erkennt das Recht des Konsumenten auf eine Entscheidung basierend auf vollständiger Information bezüglich der enthaltenen Zutaten im Produkt und deren Herkunft (Qualität der Verarbeitung). Die primäre Kennzeichnungsverordnung betont „organische“ Produktionsstandards ebenso wie die Notwendigkeit zur Kontrolle und Aufsicht. Jedoch ist zurzeit keine validierte Methode zur analytischen Diskriminierung zwischen „organischer“ und „konventioneller“ Herkunft von angebotenen Lebensmitteln verfügbar. Das Ziel der Dissertationsarbeit war die Überprüfung der Möglichkeit mit ausgewählten analytischen und holistischen Methoden zwischen organisch und konventionell angebautem Weizen objektiv zu unterscheiden. Dies beinhaltete die Bestimmung des Gesamtstickstoff (Protein) nach Dumas, zweidimensionale Fluoreszenzdifferenz Gelelektrophorese (2D DIGE) und die Kupferchloridkristallisation. Zusätzlich wurde die Anzahl der Körner pro Ähre (Kornzahl) bestimmt. Alle Bestimmungen wurden an rückverfolgbaren in den Jahren 2005 – 2007 in Belgien gesammelten Proben des Winterweizen (Triticum aestivum L. cv. Cubus) durchgeführt. Statistisch signifikante (p < 0.05) Unterschiede wurden innerhalb der untersuchten Probengruppen sowohl in der Kornzahl, dem Gesamtsticksoff (Eiweißgehalt), als auch in der Gesamtausbeute gefunden, wobei in den meisten Fällen die konventionellen Proben höhere Kornzahlen und Gesamtsticksoff (Eiweißgehalte) aufwiesen. Eine mit der 2D DIGE kompatible Probenvorbereitungsmethode für Winterweizen wurde entwickelt und auf einen internen Winterweizenstandard sowie die entsprechenden Proben angewendet. Die organischen Proben waren im Vergleich mit den konventionellen Gegenstücken in allen Fällen durch eine kleinere Anzahl von signifikant (p < 0.05) stärker exprimierten Proteinspots gekennzeichnet. Gewisse Tendenzen in Richtung der Bevorzugung bestimmter Regionen von stärker ausgeprägten Proteinspots auf aufeinanderfolgenden 2D Abbildungen in Abhängigkeit von der landwirtschaftlichen Methode konnten zwar beobachtet werden, jedoch konnte kein universelles Markerprotein zur Unterscheidung von konventionell und biologisch angebautem Winterweizen identifiziert werden. Die rechnergestützte Verarbeitung der digitalisierten Kristallisierungsbilder mittels multivariater statistischer Analyse und der Regression partieller kleinster Quadrate ermöglichte eine 100%ig korrekte Vorhersage der landwirtschaftlichen Methode unbekannter Proben sowie der Beschreibung der Kristallisierungsbilder. Diese Vorhersage bezieht sich nur auf den hier verwendeten Datensatz (Proben einer Sorte von drei Standorten über zwei Jahre) und kann nicht ohne weiteres übertragen (generalisiert) werden. Die Ergebnisse deuten an, dass die Quantifizierung der beschriebenen Parameter ein hohes Potential zur Lösung der gestellten Aufgabe besitzt.
Resumo:
About ten years ago, triadic contexts were presented by Lehmann and Wille as an extension of Formal Concept Analysis. However, they have rarely been used up to now, which may be due to the rather complex structure of the resulting diagrams. In this paper, we go one step back and discuss how traditional line diagrams of standard (dyadic) concept lattices can be used for exploring and navigating triadic data. Our approach is inspired by the slice & dice paradigm of On-Line-Analytical Processing (OLAP). We recall the basic ideas of OLAP, and show how they may be transferred to triadic contexts. For modeling the navigation patterns a user might follow, we use the formalisms of finite state machines. In order to present the benefits of our model, we show how it can be used for navigating the IT Baseline Protection Manual of the German Federal Office for Information Security.
Resumo:
The present dissertation is devoted to the construction of exact and approximate analytical solutions of the problem of light propagation in highly nonlinear media. It is demonstrated that for many experimental conditions, the problem can be studied under the geometrical optics approximation with a sufficient accuracy. Based on the renormalization group symmetry analysis, exact analytical solutions of the eikonal equations with a higher order refractive index are constructed. A new analytical approach to the construction of approximate solutions is suggested. Based on it, approximate solutions for various boundary conditions, nonlinear refractive indices and dimensions are constructed. Exact analytical expressions for the nonlinear self-focusing positions are deduced. On the basis of the obtained solutions a general rule for the single filament intensity is derived; it is demonstrated that the scaling law (the functional dependence of the self-focusing position on the peak beam intensity) is defined by a form of the nonlinear refractive index but not the beam shape at the boundary. Comparisons of the obtained solutions with results of experiments and numerical simulations are discussed.
Resumo:
Die thermische Verarbeitung von Lebensmitteln beeinflusst deren Qualität und ernährungsphysiologischen Eigenschaften. Im Haushalt ist die Überwachung der Temperatur innerhalb des Lebensmittels sehr schwierig. Zudem ist das Wissen über optimale Temperatur- und Zeitparameter für die verschiedenen Speisen oft unzureichend. Die optimale Steuerung der thermischen Zubereitung ist maßgeblich abhängig von der Art des Lebensmittels und der äußeren und inneren Temperatureinwirkung während des Garvorgangs. Das Ziel der Arbeiten war die Entwicklung eines automatischen Backofens, der in der Lage ist, die Art des Lebensmittels zu erkennen und die Temperatur im Inneren des Lebensmittels während des Backens zu errechnen. Die für die Temperaturberechnung benötigten Daten wurden mit mehreren Sensoren erfasst. Hierzu kam ein Infrarotthermometer, ein Infrarotabstandssensor, eine Kamera, ein Temperatursensor und ein Lambdasonde innerhalb des Ofens zum Einsatz. Ferner wurden eine Wägezelle, ein Strom- sowie Spannungs-Sensor und ein Temperatursensor außerhalb des Ofens genutzt. Die während der Aufheizphase aufgenommen Datensätze ermöglichten das Training mehrerer künstlicher neuronaler Netze, die die verschiedenen Lebensmittel in die entsprechenden Kategorien einordnen konnten, um so das optimale Backprogram auszuwählen. Zur Abschätzung der thermische Diffusivität der Nahrung, die von der Zusammensetzung (Kohlenhydrate, Fett, Protein, Wasser) abhängt, wurden mehrere künstliche neuronale Netze trainiert. Mit Ausnahme des Fettanteils der Lebensmittel konnten alle Komponenten durch verschiedene KNNs mit einem Maximum von 8 versteckten Neuronen ausreichend genau abgeschätzt werden um auf deren Grundlage die Temperatur im inneren des Lebensmittels zu berechnen. Die durchgeführte Arbeit zeigt, dass mit Hilfe verschiedenster Sensoren zur direkten beziehungsweise indirekten Messung der äußeren Eigenschaften der Lebensmittel sowie KNNs für die Kategorisierung und Abschätzung der Lebensmittelzusammensetzung die automatische Erkennung und Berechnung der inneren Temperatur von verschiedensten Lebensmitteln möglich ist.
Resumo:
Biological systems exhibit rich and complex behavior through the orchestrated interplay of a large array of components. It is hypothesized that separable subsystems with some degree of functional autonomy exist; deciphering their independent behavior and functionality would greatly facilitate understanding the system as a whole. Discovering and analyzing such subsystems are hence pivotal problems in the quest to gain a quantitative understanding of complex biological systems. In this work, using approaches from machine learning, physics and graph theory, methods for the identification and analysis of such subsystems were developed. A novel methodology, based on a recent machine learning algorithm known as non-negative matrix factorization (NMF), was developed to discover such subsystems in a set of large-scale gene expression data. This set of subsystems was then used to predict functional relationships between genes, and this approach was shown to score significantly higher than conventional methods when benchmarking them against existing databases. Moreover, a mathematical treatment was developed to treat simple network subsystems based only on their topology (independent of particular parameter values). Application to a problem of experimental interest demonstrated the need for extentions to the conventional model to fully explain the experimental data. Finally, the notion of a subsystem was evaluated from a topological perspective. A number of different protein networks were examined to analyze their topological properties with respect to separability, seeking to find separable subsystems. These networks were shown to exhibit separability in a nonintuitive fashion, while the separable subsystems were of strong biological significance. It was demonstrated that the separability property found was not due to incomplete or biased data, but is likely to reflect biological structure.
Resumo:
Caches are known to consume up to half of all system power in embedded processors. Co-optimizing performance and power of the cache subsystems is therefore an important step in the design of embedded systems, especially those employing application specific instruction processors. In this project, we propose an analytical cache model that succinctly captures the miss performance of an application over the entire cache parameter space. Unlike exhaustive trace driven simulation, our model requires that the program be simulated once so that a few key characteristics can be obtained. Using these application-dependent characteristics, the model can span the entire cache parameter space consisting of cache sizes, associativity and cache block sizes. In our unified model, we are able to cater for direct-mapped, set and fully associative instruction, data and unified caches. Validation against full trace-driven simulations shows that our model has a high degree of fidelity. Finally, we show how the model can be coupled with a power model for caches such that one can very quickly decide on pareto-optimal performance-power design points for rapid design space exploration.
Resumo:
Aunque el concepto de sabiduría ha sido ampliamente estudiado por expertos de áreas como la filosofía, la religión y la psicología, aún enfrenta limitaciones en cuanto a su definición y evaluación. Por esto, el presente trabajo tiene como objetivo, formular una definición del concepto de sabiduría que permita realizar una propuesta de evaluación del concepto como competencia en los gerentes. Para esto, se realizó un análisis documental de tipo cualitativo. De esta manera, se analizaron diversos textos sobre la historia, las definiciones y las metodologías para evaluar tanto la sabiduría como las competencias; diferenciando la sabiduría de otros constructos y analizando la diferencia entre las competencias generales y las gerenciales para posteriormente, definir la sabiduría como una competencia gerencial. Como resultado de este análisis se generó un prototipo de prueba denominado SAPIENS-O, a través del cuál se busca evaluar la sabiduría como competencia gerencial. Como alcances del instrumento se pueden identificar la posibilidad de medir la sabiduría como competencia en los gerentes, la posibilidad de dar un nuevo panorama a las dificultades teóricas y empíricas sobre la sabiduría y la posibilidad de facilitar el estudio de la sabiduría en ambientes reales, más específicamente en ambientes organizacionales.
Resumo:
El proceso de integración en Unión Europea se caracteriza por la incorporación de los asuntos de seguridad exterior y defensa, tras el Tratado de Lisboa se enmarcaron en la PCSD. Dicha política por un proceso de integración progresiva, Spillover, ha tenido periodos de reactivación y de letargos.
Resumo:
El concepto de legalización fue desarrollado recientemente por el neoliberalismo institucional como una forma especial de institucionalización de las relaciones internacionales. Los autores neoliberales caracterizan la legalización a partir de las categorías utilizadas por H. L. A. Hart para distinguir el derecho de otros mecanismos de control social, como el poder y la moral. En Hart, estas categorías responden a una finalidad normativa: reconstruir teóricamente el derecho como un sistema independiente de la voluntad y de las convicciones de quienes lo interpretan y aplican. Sin embargo, esta separación entre lenguaje y práctica jurídica desconoce importantes contribuciones de la tradición analítica en filosofía del lenguaje, en cuanto a la relación entre lenguaje y realidad. En particular, termina reduciendo el derecho a simples formas y textos vacíos, y con ello desconoce que a través de las prácticas jurídicas se va dando significado a los textos normativos.Adoptar esta visión del derecho al estudio de las relaciones internacionales tiene, al menos, una consecuencia metodológica: el simple análisis formal del texto de los tratados no permite comprender el efecto del derecho internacional en el comportamiento de los Estados. Para entender las relaciones entre el derecho internacional y el comportamiento estatal es necesario describir la manera como se construye el significado de los textos a través de la práctica jurídica de los Estados. En tal sentido, resultaría útil redefinir la agenda de investigación neoliberal en relación con la legalización y enfocarse en la forma como los Estados y los tribunales internacionales construyen el significado de los tratados y demás normas internacionales.-----The concept of legalization was recently developed by neoliberal institutionalism as a special kind of institutionalization of international politics. Neoliberals built the concept of legalization using the analytical tools developed by H. L. A. Hart to distinguish law from other mechanisms of social control, like power and morals. Within Hart’s theory, such tools have a normative function: theoretically rebuilding law as a system of rules that is independent from the will and the beliefs of those who interpret and apply legal rules. However, Hart’s resulting separation of legal texts from legal practice obscures important contributions that the analytical tradition in philosophy of language has made to the understanding of the relation between language and reality. Specifically, such a separation reduces law to simple forms and texts disregarding the extent to which legal practice gives meaning to legal texts.Adapting Hart’s conception of law to International Relations has at least one important methodological consequence: the formal analysis of treaties cannot explain the influence of international law over state behavior. To understand the influence of international law on state behavior, one must previously describe the relation between legal practice and the meaning of legal texts. Thus, a redefinition of neoliberal research agenda on legalization should focus on the way States and international courts construct the meaning of treaties and other international norms.
Resumo:
Este trabajo recopila literatura académica relevante sobre estrategias de entrada y metodologías para la toma de decisión sobre la contratación de servicios de Outsourcing para el caso de empresas que planean expandirse hacia mercados extranjeros. La manera en que una empresa planifica su entrada a un mercado extranjero, y realiza la consideración y evaluación de información relevante y el diseño de la estrategia, determina el éxito o no de la misma. De otro lado, las metodologías consideradas se concentran en el nivel estratégico de la pirámide organizacional. Se parte de métodos simples para llegar a aquellos basados en la Teoría de Decisión Multicriterio, tanto individuales como híbridos. Finalmente, se presenta la Dinámica de Sistemas como herramienta valiosa en el proceso, por cuanto puede combinarse con métodos multicriterio.
Resumo:
Desde la noción universal sobre la empresa como un sistema de interacción con un entorno determinado para alcanzar un objetivo, de manera planificada y en función de satisfacer las demandas de un mercado mediante la actividad económica, su viabilidad, sostenibilidad y crecimiento dependerán, por supuesto, de una serie de estrategias adecuadas no solo para tales fines, sino también para enfrentar diversidad de agentes endógenos y exógenos que puedan afectar el normal desempeño de su gestión. Estamos hablando de la importancia de la resiliencia organizacional y del Capital Psicológico. En un escenario tan impredecible como el de la economía mundial, donde la constante son los cambios en su comportamiento —unos propios de su dinámica e interdependencia, naturales de fenómenos como la globalización, y otros derivados de eventos disruptivos— hoy más que nunca es necesario implementar el modelo de la empresa resiliente, que es aquella entidad capaz de adaptarse y recuperarse frente a una perturbación. Al mismo tiempo, más allá de su tamaño, naturaleza u objeto social, es indispensable reconocer básicamente que toda organización está constituida por personas, lo cual implica la trascendencia que para su funcionamiento tiene el factor humano-dependiente, y por lo tanto se crea la necesidad de promover el Capital Psicológico y la resiliencia a nivel de las organizaciones a través de una cultura empresarial.
Resumo:
Based on the experiences of Colombia, Brazil and Bolivia, the paper proposes a general analytical framework for participatory mechanisms. The analysis is oriented to detect the incentives in each system and theethics and behavior sustaining them. It investigates about the sustainability of participatory democracy, in the face of tensions with representative democracy. The article presents a theoretical framework built from theseexperiences of institutional design and political practice, and confronts it against the theoretical conceptualizationsof participatory democracy in Bobbio, Sartori, Elster and Nino, among others. In this context, different waysin which those schemes can be inserted in the political systems become apparent, along with the variables thatresult from combining elements of direct, representative and participatory democracy”
Resumo:
Se analiza la relación entre movimientos sociales y nuevos medios en Colombia, preguntando en particular por las posibilidades narrativas que tienen los movimientos sociales en el nuevo espacio comunicativo abierto por internet. Para ello, se lleva a cabo un estudio descriptivo del relato elaborado en la red social Twitter por activistas virtuales del movimiento de indignación surgido en Bogotá tras la destitución del alcalde mayor, Gustavo Petro, a finales de 2013. Se encontró que Twitter fue un espacio esencialmente de disputa. El relato del movimiento fue construido en permanente contrapunteo no solo con las informaciones de los medios de comunicación tradicionales y las intervenciones de los líderes políticos, sino también con expresiones ciudadanas rivales, que se movilizaron paralelamente en la misma red social en un ejercicio de contestación. Esta investigación emplea como marco analítico la “autocomunicación de masas” propuesta por Manuel Castells.