946 resultados para Research Data Management


Relevância:

90.00% 90.00%

Publicador:

Resumo:

Traffic Management system (TMS) comprises four major sub systems: The Network Database Management system for information to the passengers, Transit Facility Management System for service, planning, and scheduling vehicle and crews, Congestion Management System for traffic forecasting and planning, Safety Management System concerned with safety aspects of passengers and Environment. This work has opened a rather wide frame work of model structures for application on traffic. The facets of these theories are so wide that it seems impossible to present all necessary models in this work. However it could be deduced from the study that the best Traffic Management System is that whichis realistic in all aspects is easy to understand is easy to apply As it is practically difficult to device an ideal fool—proof model, the attempt here has been to make some progress-in that direction.

Relevância:

90.00% 90.00%

Publicador:

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Die zunehmende Vernetzung der Informations- und Kommunikationssysteme führt zu einer weiteren Erhöhung der Komplexität und damit auch zu einer weiteren Zunahme von Sicherheitslücken. Klassische Schutzmechanismen wie Firewall-Systeme und Anti-Malware-Lösungen bieten schon lange keinen Schutz mehr vor Eindringversuchen in IT-Infrastrukturen. Als ein sehr wirkungsvolles Instrument zum Schutz gegenüber Cyber-Attacken haben sich hierbei die Intrusion Detection Systeme (IDS) etabliert. Solche Systeme sammeln und analysieren Informationen von Netzwerkkomponenten und Rechnern, um ungewöhnliches Verhalten und Sicherheitsverletzungen automatisiert festzustellen. Während signatur-basierte Ansätze nur bereits bekannte Angriffsmuster detektieren können, sind anomalie-basierte IDS auch in der Lage, neue bisher unbekannte Angriffe (Zero-Day-Attacks) frühzeitig zu erkennen. Das Kernproblem von Intrusion Detection Systeme besteht jedoch in der optimalen Verarbeitung der gewaltigen Netzdaten und der Entwicklung eines in Echtzeit arbeitenden adaptiven Erkennungsmodells. Um diese Herausforderungen lösen zu können, stellt diese Dissertation ein Framework bereit, das aus zwei Hauptteilen besteht. Der erste Teil, OptiFilter genannt, verwendet ein dynamisches "Queuing Concept", um die zahlreich anfallenden Netzdaten weiter zu verarbeiten, baut fortlaufend Netzverbindungen auf, und exportiert strukturierte Input-Daten für das IDS. Den zweiten Teil stellt ein adaptiver Klassifikator dar, der ein Klassifikator-Modell basierend auf "Enhanced Growing Hierarchical Self Organizing Map" (EGHSOM), ein Modell für Netzwerk Normalzustand (NNB) und ein "Update Model" umfasst. In dem OptiFilter werden Tcpdump und SNMP traps benutzt, um die Netzwerkpakete und Hostereignisse fortlaufend zu aggregieren. Diese aggregierten Netzwerkpackete und Hostereignisse werden weiter analysiert und in Verbindungsvektoren umgewandelt. Zur Verbesserung der Erkennungsrate des adaptiven Klassifikators wird das künstliche neuronale Netz GHSOM intensiv untersucht und wesentlich weiterentwickelt. In dieser Dissertation werden unterschiedliche Ansätze vorgeschlagen und diskutiert. So wird eine classification-confidence margin threshold definiert, um die unbekannten bösartigen Verbindungen aufzudecken, die Stabilität der Wachstumstopologie durch neuartige Ansätze für die Initialisierung der Gewichtvektoren und durch die Stärkung der Winner Neuronen erhöht, und ein selbst-adaptives Verfahren eingeführt, um das Modell ständig aktualisieren zu können. Darüber hinaus besteht die Hauptaufgabe des NNB-Modells in der weiteren Untersuchung der erkannten unbekannten Verbindungen von der EGHSOM und der Überprüfung, ob sie normal sind. Jedoch, ändern sich die Netzverkehrsdaten wegen des Concept drif Phänomens ständig, was in Echtzeit zur Erzeugung nicht stationärer Netzdaten führt. Dieses Phänomen wird von dem Update-Modell besser kontrolliert. Das EGHSOM-Modell kann die neuen Anomalien effektiv erkennen und das NNB-Model passt die Änderungen in Netzdaten optimal an. Bei den experimentellen Untersuchungen hat das Framework erfolgversprechende Ergebnisse gezeigt. Im ersten Experiment wurde das Framework in Offline-Betriebsmodus evaluiert. Der OptiFilter wurde mit offline-, synthetischen- und realistischen Daten ausgewertet. Der adaptive Klassifikator wurde mit dem 10-Fold Cross Validation Verfahren evaluiert, um dessen Genauigkeit abzuschätzen. Im zweiten Experiment wurde das Framework auf einer 1 bis 10 GB Netzwerkstrecke installiert und im Online-Betriebsmodus in Echtzeit ausgewertet. Der OptiFilter hat erfolgreich die gewaltige Menge von Netzdaten in die strukturierten Verbindungsvektoren umgewandelt und der adaptive Klassifikator hat sie präzise klassifiziert. Die Vergleichsstudie zwischen dem entwickelten Framework und anderen bekannten IDS-Ansätzen zeigt, dass der vorgeschlagene IDSFramework alle anderen Ansätze übertrifft. Dies lässt sich auf folgende Kernpunkte zurückführen: Bearbeitung der gesammelten Netzdaten, Erreichung der besten Performanz (wie die Gesamtgenauigkeit), Detektieren unbekannter Verbindungen und Entwicklung des in Echtzeit arbeitenden Erkennungsmodells von Eindringversuchen.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Esta tesis está dividida en dos partes: en la primera parte se presentan y estudian los procesos telegráficos, los procesos de Poisson con compensador telegráfico y los procesos telegráficos con saltos. El estudio presentado en esta primera parte incluye el cálculo de las distribuciones de cada proceso, las medias y varianzas, así como las funciones generadoras de momentos entre otras propiedades. Utilizando estas propiedades en la segunda parte se estudian los modelos de valoración de opciones basados en procesos telegráficos con saltos. En esta parte se da una descripción de cómo calcular las medidas neutrales al riesgo, se encuentra la condición de no arbitraje en este tipo de modelos y por último se calcula el precio de las opciones Europeas de compra y venta.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En este proyecto analizaremos como las organizaciones se relacionan con el medio y marketing. La idea es determinar cuáles son los métodos de análisis de las comunidades de clientes mediante la relación estratégica comunitaria y el marketing. Por medio del mercadeo se puede conocer el entorno y determinar qué métodos de análisis utilizar para conocer a la comunidad de clientes. Las personas de mercadeo se ocupan de todo lo que ocurre en el entorno, de estar al tanto para saber cuándo hay oportunidades que puedan ser provechosas para la organización o por otro lado cuando hay amenazas de las que debe tener cuidado. Dependiendo del entorno, la organización diseña sus actividades de mercadeo enfocadas en satisfacer las necesidades del consumidor. Las actividades del consumidor se conceptualizan en producto, precio, promoción y plaza que se definen y diseñan basados en la comunidad en la que este inmersa la organización. Es importante buscar información confiable sobre el grupo objetivo al cual se le va ofrecer el producto o servicio, ya que toca analizarlos y comprender a estas personas para diseñar una buena oferta que satisfaga sus necesidades y deseos. Esta persona que recibe el producto o servicio por parte de la organización es el cliente. Los clientes son las personas que llegan a una organización en búsqueda de satisfacer necesidades a través de los bienes y servicios que las empresas ofrecen. Es esencial determinar que los clientes viven en comunidad, es decir comparten ideas por la comunicación tan estrecha que tienen y viven en conjunto bajo las mismas costumbres. Debido a estos es que hoy en día, los consumidores se conglomeran en comunidades de clientes, y para saberles llegar a estos clientes, toca analizarlos por medio de diversos métodos. El uso de las estrategias comunitarias es necesario ya que por medio del marketing se analiza el entorno y se buscan los métodos para analizar a la comunidad de clientes, que comparten características y se analizan en conjunto no por individuo. Es necesario identificar los métodos para relacionarse con la comunidad de clientes, para poder acercarnos a estos y conocerlos bien, saber sus necesidades y deseos y ofrecerles productos y servicios de acuerdo a éstos. En la actualidad estos métodos no son muy comunes ni conocidos, es por esto que nuestro propósito es indagar e identificar estos métodos para saber analizar a las comunidades. En este proyecto se utilizara una metodología de estudio tipo teórico-conceptual buscando las fuentes de información necesarias para llevar a cabo nuestra investigación. Se considera trabajar con El Grupo de Investigación en Perdurabilidad Empresarial y se escogió la línea de gerencia ya que permite entrar en la sociedad del conocimiento, siendo capaces de identificar oportunidades gerenciales en el entorno. Es interesante investigar sobre estos métodos, ya que los clientes esperan un servicio excelente, atento y que se preocupe por ellos y sus necesidades.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Introducción: El trabajo infantil es una problemática mundial que lleva a los niños a adquirir responsabilidades de adultos desde temprana edad, con el fin de obtener recursos económicos que contribuyan a mejorar la economía familiar. El presente trabajo estudia las características de los niños trabajadores en Colombia en el año 2010, teniendo en cuenta el tipo de empleador. Métodos: Estudio observacional analítico de corte transversal que se realizó empleando datos de la Encuesta Nacional de Demografía y Salud Colombia-2010. Se incluyeron en el análisis todos los niños entre los 6 y 17 años con datos en la encuesta. Resultados: En total se incluyeron 51.496 niños. A comparación de los niños no trabajadores, los niños que trabajan, independientemente de su empleador, tienen mayor edad, vienen de hogares más pobres, son con mayor frecuencia hombres, no se encuentran escolarizados y pertenecen al régimen subsidiado o no están afiliados al sistema de seguridad social. Los niños que trabajan con sus familias refieren peor estado de salud, pertenecen con mayor frecuencia a la etnia indígena, reciben subsidios de alimentación, tienen con menor frecuencia presencia de su madre y viven en áreas rurales. Los niños que trabajan con un tercero están afiliados con menor frecuencia al régimen de seguridad social especial, tienen menor probabilidad de haber visitado un médico en el último año, el jefe de hogar no es hombre con mayor frecuencia, y viven principalmente en áreas rurales. Finalmente los niños que trabajan independiente pertenecen con mayor frecuencia a la etnia afro-descendiente y viven en hogares donde el jefe de hogar es mujer. Conclusiones: Los niños trabajadores presentan características comunes independientemente de su tipo de empleador, pero de acuerdo al tipo de empleador también se encuentran características particulares.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Las actividades de mantenimiento automotriz en el sector de autopartes conlleva el uso de agentes químicos bajo diversas circunstancias de exposición, tanto en las condiciones de manipulación de productos químicos como a las características propias de cada actividad de mantenimiento asociado a las tareas específicas del trabajo. Tradicionalmente la evaluación de contaminantes químicos desde la visión de la Higiene Ocupacional incluye la evaluación cuantitativa de la exposición mediante técnicas instrumentales concretas y estandarizadas, determinando el nivel de concentración en aire a la cual un trabajador se ve expuesto y que, en comparación con valores límites permisibles (VLPs), inducen el establecimiento de medidas de control y vigilancia, según el nivel de riesgo caracterizado. Sin embargo es evidente la limitación de la implementación de esta sistemática en particular en micros y pequeñas empresas que carecen de los recursos suficientes para abordar la problemática de forma objetiva. En este contexto diversas metodologías de evaluación cualitativa o subjetiva se han desarrollado por distintas organizaciones en el mundo con el fin de disminuir la brecha entre el establecimiento de medidas de control y la valoración del riesgo, ofreciendo alternativas confiables para la toma de decisiones preventivas sin la necesidad de acudir a mediciones cuantitativas. Mediante la presente investigación se pretende validar la efectividad en el uso de una herramienta de evaluación simplificada del riesgo químico propuesta por el INRS (Institut National de Recherche et de Sécurité Francés) mediante la determinación del perfil de exposición potencial a contaminantes químicos de la población laboral de 36 almacenes de autopartes ubicados en el barrio la Paz de la ciudad de Bogotá, Colombia, divididos según énfasis de actividades en Partes Externas, Partes Eléctricas e Inyección, Partes Mecánicas, Partes Múltiples, a través de un estudio de corte transversal. El estudio permitió Jerarquizar el riesgo potencial, valorar el riesgo vía inhalatoria y dérmica para finalmente construir el perfil de exposición potencial a contaminantes químicos de trabajadores. La información de las variables de análisis fue consolidada en una herramienta informática diseñada para tal fin, la cual facilito la administración de los datos y su respectivo análisis. Con base en los hallazgos fue posible establecer los productos químicos que de acuerdo a las condiciones de trabajo y circunstancias de exposición sugieren medidas específicas para la disminución del riesgo potencial de acuerdo a la calificación global de los agentes, permitiendo deducir la viabilidad de la aplicación de herramientas de valoración cualitativa para la evaluación del riesgo químico como estrategia de prevención primaria.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El presente estudio de caso consiste en identificar la incidencia del totalitarismo en la configuración de una política exterior aislacionista, tomando los casos del Tercer Reich y la República Democrática Popular de Corea; se trata de inferir si la incidencia de un régimen totalitario en la configuración de una política exterior aislacionista es directa, en tanto que responde al interés nacional del Estado con el fin de implementar reformas y actos que conlleven al aislamiento de la nación de la comunidad internacional. Para dicho efecto, se utilizará el paradigma realista con el que se pretenderán contrastar las diferencias y similitudes entre los casos estudiados. En consecuencia, en la investigación se utilizarán datos de carácter mixto, en tanto su uso cualitativo y cuantitativo.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

The amateur birding community has a long and proud tradition of contributing to bird surveys and bird atlases. Coordinated activities such as Breeding Bird Atlases and the Christmas Bird Count are examples of "citizen science" projects. With the advent of technology, Web 2.0 sites such as eBird have been developed to facilitate online sharing of data and thus increase the potential for real-time monitoring. However, as recently articulated in an editorial in this journal and elsewhere, monitoring is best served when based on a priori hypotheses. Harnessing citizen scientists to collect data following a hypothetico-deductive approach carries challenges. Moreover, the use of citizen science in scientific and monitoring studies has raised issues of data accuracy and quality. These issues are compounded when data collection moves into the Web 2.0 world. An examination of the literature from social geography on the concept of "citizen sensors" and volunteered geographic information (VGI) yields thoughtful reflections on the challenges of data quality/data accuracy when applying information from citizen sensors to research and management questions. VGI has been harnessed in a number of contexts, including for environmental and ecological monitoring activities. Here, I argue that conceptualizing a monitoring project as an experiment following the scientific method can further contribute to the use of VGI. I show how principles of experimental design can be applied to monitoring projects to better control for data quality of VGI. This includes suggestions for how citizen sensors can be harnessed to address issues of experimental controls and how to design monitoring projects to increase randomization and replication of sampled data, hence increasing scientific reliability and statistical power.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

This article explores the Foucauldian notions of practices of the self and care of the self, read via Deleuze, in the context of Iyengar yoga (one of the most popular forms of yoga currently). Using ethnographic and interview research data the article outlines the Iyengar yoga techniques which enable a focus upon the self to be developed, and the resources offered by the practice for the creation of ways of knowing, experiencing and forming the self. In particular, the article asks whether Iyengar yoga offers possibilities for freedom and liberation, or whether it is just another practice of control and management. Assessing Iyengar yoga via a ‘critical function’, a function of ‘struggle’ and a ‘curative and therapeutic function’, the article analyses whether the practice might constitute a mode of care of the self, and what it might offer in the context of the contemporary need to live better, as well as longer.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

This paper describes a case study of an electronic data management system developed in-house by the Facilities Management Directorate (FMD) of an educational institution in the UK. The FMD Maintenance and Business Services department is responsible for the maintenance of the built-estate owned by the university. The department needs to have a clear definition of the type of work undertaken and the administration that enables any maintenance work to be carried out. These include the management of resources, budget, cash flow and workflow of reactive, preventative and planned maintenance of the campus. In order to be more efficient in supporting the business process, the FMD had decided to move from a paper-based information system to an electronic system, WREN, to support the business process of the FMD. Some of the main advantages of WREN are that it is tailor-made to fit the purpose of the users; it is cost effective when it comes to modifications on the system; and the database can also be used as a knowledge management tool. There is a trade-off; as WREN is tailored to the specific requirements of the FMD, it may not be easy to implement within a different institution without extensive modifications. However, WREN is successful in not only allowing the FMD to carry out the tasks of maintaining and looking after the built-estate of the university, but also has achieved its aim to minimise costs and maximise efficiency.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Since its popularization in the 1980s, competitiveness has received close attention from practitioners and researchers across a wide range of industries. In the construction sector, many works on competitiveness have also been published. So far, however, there seems to be no comprehensive review to summarize and critique existing research on competitiveness in construction. This research, therefore, reviews the extant literature from four aspects: concept of competitiveness, competitiveness research at the construction industry level, competitiveness research at the firm level, and competitiveness research at the project level. The review presents the state-of-the-art development of competitiveness research in construction, identifies the research gaps, and proposes new directions for further studies. Further research is recommended to validate previous studies in construction practices, identify the mechanisms that encourage mutual enhancement of competitiveness at different levels, and how to achieve its sustainability by embracing new management and/or economics techniques.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

The paper presents how workflow-oriented, single-user Grid portals could be extended to meet the requirements of users with collaborative needs. Through collaborative Grid portals different research and engineering teams would be able to share knowledge and resources. At the same time the workflow concept assures that the shared knowledge and computational capacity is aggregated to achieve the high-level goals of the group. The paper discusses the different issues collaborative support requires from Grid portal environments during the different phases of the workflow-oriented development work. While in the design period the most important task of the portal is to provide consistent and fault tolerant data management, during the workflow execution it must act upon the security framework its back-end Grids are built on.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

The P-found protein folding and unfolding simulation repository is designed to allow scientists to perform data mining and other analyses across large, distributed simulation data sets. There are two storage components in P-found: a primary repository of simulation data that is used to populate the second component, and a data warehouse that contains important molecular properties. These properties may be used for data mining studies. Here we demonstrate how grid technologies can support multiple, distributed P-found installations. In particular, we look at two aspects: firstly, how grid data management technologies can be used to access the distributed data warehouses; and secondly, how the grid can be used to transfer analysis programs to the primary repositories — this is an important and challenging aspect of P-found, due to the large data volumes involved and the desire of scientists to maintain control of their own data. The grid technologies we are developing with the P-found system will allow new large data sets of protein folding simulations to be accessed and analysed in novel ways, with significant potential for enabling scientific discovery.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Observations of atmospheric conditions and processes in citiesare fundamental to understanding the interactions between the urban surface and weather/climate, improving the performance of urban weather, air quality and climate models, and providing key information for city end-users (e.g. decision-makers, stakeholders, public). In this paper, Shanghai's urban integrated meteorological observation network (SUIMON) and some examples of intended applications are introduced. Its characteristics include being: multi- purpose (e.g. forecast, research, service), multi-function (high impact weather, city climate, special end-users), multi-scale (e.g. macro/meso-, urban-, neighborhood, street canyon), multi-variable (e.g. thermal, dynamic, chemical, bio-meteorological, ecological), and multi- platform (e.g. radar, wind profiler, ground-based, satellite based, in-situ observation/ sampling). Underlying SUIMON is a data management system to facilitate exchange of data and information. The overall aim of the network is to improve coordination strategies and instruments; to identify data gaps based on science and user driven requirements; and to intelligently combine observations from a variety of platforms by using a data assimilation system that is tuned to produce the best estimate of the current state of the urban atmosphere.