937 resultados para Sistemas expertos (Informática)


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los incendios forestales son la principal causa de mortalidad de árboles en la Europa mediterránea y constituyen la amenaza más seria para los ecosistemas forestales españoles. En la Comunidad Valenciana, diariamente se despliega cerca de un centenar de vehículos de vigilancia, cuya distribución se apoya, fundamentalmente, en un índice de riesgo de incendios calculado en función de las condiciones meteorológicas. La tesis se centra en el diseño y validación de un nuevo índice de riesgo integrado de incendios, especialmente adaptado a la región mediterránea y que facilite el proceso de toma de decisiones en la distribución diaria de los medios de vigilancia contra incendios forestales. El índice adopta el enfoque de riesgo integrado introducido en la última década y que incluye dos componentes de riesgo: el peligro de ignición y la vulnerabilidad. El primero representa la probabilidad de que se inicie un fuego y el peligro potencial para que se propague, mientras que la vulnerabilidad tiene en cuenta las características del territorio y los efectos potenciales del fuego sobre el mismo. Para el cálculo del peligro potencial se han identificado indicadores relativos a los agentes naturales y humanos causantes de incendios, la ocurrencia histórica y el estado de los combustibles, extremo muy relacionado con la meteorología y las especies. En cuanto a la vulnerabilidad se han empleado indicadores representativos de los efectos potenciales del incendio (comportamiento del fuego, infraestructuras de defensa), como de las características del terreno (valor, capacidad de regeneración…). Todos estos indicadores constituyen una estructura jerárquica en la que, siguiendo las recomendaciones de la Comisión europea para índices de riesgo de incendios, se han incluido indicadores representativos del riesgo a corto plazo y a largo plazo. El cálculo del valor final del índice se ha llevado a cabo mediante la progresiva agregación de los componentes que forman cada uno de los niveles de la estructura jerárquica del índice y su integración final. Puesto que las técnicas de decisión multicriterio están especialmente orientadas a tratar con problemas basados en estructuras jerárquicas, se ha aplicado el método TOPSIS para obtener la integración final del modelo. Se ha introducido en el modelo la opinión de los expertos, mediante la ponderación de cada uno de los componentes del índice. Se ha utilizado el método AHP, para obtener las ponderaciones de cada experto y su integración en un único peso por cada indicador. Para la validación del índice se han empleado los modelos de Ecuaciones de Estimación Generalizadas, que tienen en cuenta posibles respuestas correlacionadas. Para llevarla a cabo se emplearon los datos de oficiales de incendios ocurridos durante el período 1994 al 2003, referenciados a una cuadrícula de 10x10 km empleando la ocurrencia de incendios y su superficie, como variables dependientes. Los resultados de la validación muestran un buen funcionamiento del subíndice de peligro de ocurrencia con un alto grado de correlación entre el subíndice y la ocurrencia, un buen ajuste del modelo logístico y un buen poder discriminante. Por su parte, el subíndice de vulnerabilidad no ha presentado una correlación significativa entre sus valores y la superficie de los incendios, lo que no descarta su validez, ya que algunos de sus componentes tienen un carácter subjetivo, independiente de la superficie incendiada. En general el índice presenta un buen funcionamiento para la distribución de los medios de vigilancia en función del peligro de inicio. No obstante, se identifican y discuten nuevas líneas de investigación que podrían conducir a una mejora del ajuste global del índice. En concreto se plantea la necesidad de estudiar más profundamente la aparente correlación que existe en la provincia de Valencia entre la superficie forestal que ocupa cada cuadrícula de 10 km del territorio y su riesgo de incendios y que parece que a menor superficie forestal, mayor riesgo de incendio. Otros aspectos a investigar son la sensibilidad de los pesos de cada componente o la introducción de factores relativos a los medios potenciales de extinción en el subíndice de vulnerabilidad. Summary Forest fires are the main cause of tree mortality in Mediterranean Europe and the most serious threat to the Spanisf forest. In the Spanish autonomous region of Valencia, forest administration deploys a mobile fleet of 100 surveillance vehicles in forest land whose allocation is based on meteorological index of wildlandfire risk. This thesis is focused on the design and validation of a new Integrated Wildland Fire Risk Index proposed to efficient allocation of vehicles and specially adapted to the Mediterranean conditions. Following the approaches of integrated risk developed last decade, the index includes two risk components: Wildland Fire Danger and Vulnerability. The former represents the probability a fire ignites and the potential hazard of fire propagation or spread danger, while vulnerability accounts for characteristics of the land and potential effects of fire. To calculate the Wildland Fire Danger, indicators of ignition and spread danger have been identified, including human and natural occurrence agents, fuel conditions, historical occurrence and spread rate. Regarding vulnerability se han empleado indicadores representativos de los efectos potenciales del incendio (comportamiento del fuego, infraestructurasd de defensa), como de las características del terreno (valor, capacidad de regeneración…). These indicators make up the hierarchical structure for the index, which, following the criteria of the European Commission both short and long-term indicators have been included. Integration consists of the progressive aggregation of the components that make up every level in risk the index and, after that, the integration of these levels to obtain a unique value for the index. As Munticriteria methods are oriented to deal with hierarchically structured problems and with situations in which conflicting goals prevail, TOPSIS method is used in the integration of components. Multicriteria methods were also used to incorporate expert opinion in weighting of indicators and to carry out the aggregation process into the final index. The Analytic Hierarchy Process method was used to aggregate experts' opinions on each component into a single value. Generalized Estimation Equations, which account for possible correlated responses, were used to validate the index. Historical records of daily occurrence for the period from 1994 to 2003, referred to a 10x10-km-grid cell, as well as the extent of the fires were the dependant variables. The results of validation showed good Wildland Fire Danger component performance, with high correlation degree between Danger and occurrence, a good fit of the logistic model used and a good discrimination power. The vulnerability component has not showed a significant correlation between their values and surface fires, which does not mean the index is not valid, because of the subjective character of some of its components, independent of the surface of the fires. Overall, the index could be used to optimize the preventing resources allocation. Nevertheless, new researching lines are identified and discussed to improve the overall performance of the index. More specifically the need of study the inverse relationship between the value of the wildfire Fire Danger component and the forested surface of each 10 - km cell is set out. Other points to be researched are the sensitivity of the index component´s weight and the possibility of taking into account indicators related to fire fighting resources to make up the vulnerability component.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

RESUMEN Los procesos de diseño de zonas o diseño del territorio implican la partición de un espacio geográfico, organizado en un conjunto de unidades de área, en diferentes regiones o zonas según un conjunto especifico de criterios que varían en función del campo de aplicación. En la mayoría de los casos, el objetivo fundamental consiste en crear zonas de tamaño aproximadamente igual respecto a uno o varios atributos de medida -de carácter cuantitativo- (zonas con igual número de habitantes, igual promedio de ventas...). Sin embargo, están apareciendo nuevas aplicaciones, algunas en el contexto de las políticas de desarrollo sostenible, cuya finalidad es la definición de regiones con un tamaño predeterminado, no necesariamente similar. Además, en estos casos las zonas han de formarse en torno a un conjunto específico de posiciones, semillas o generadores. Este tipo de particiones no han sido lo suficientemente investigadas, de manera que no se conocen modelos de solución para la delimitación automática de las zonas. En esta tesis se ha diseñado un nuevo método basado en una versión discreta del diagrama de Voronoi con peso aditivo adaptativo (DVPAA), que permite la partición de un espacio bidimensional en zonas de un tamaño específico, considerando tanto la posición como el peso de cada uno de los generadores. El método consiste en resolver repetidamente un tradicional diagrama de Voronoi con peso aditivo, de forma que los pesos de cada generador se actualizan en cada iteración. En el proceso de cálculo de distancias se usa una métrica basada en el camino más corto, lo que garantiza que la partición obtenida esté formada por un conjunto de zonas conexas. La heurística diseñada se integra en una aplicación prototipo, desarrollada en un entorno SIG (Sistemas de Información Geográfica), que permite el trazado automático de zonas según los criterios anteriormente expuestos. Para analizar la viabilidad del método se ha utilizado como caso de estudio la gestión de los recursos pastorales para la ganadería extensiva en tres municipios de Castilla-La Mancha. Las pruebas realizadas ponen de manifiesto que la heurística diseñada, adaptada a los criterios que se plantean en el contexto de la gestión de sistemas extensivos agropecuarios, es válida para resolver este tipo de problemas de partición. El método propuesto se caracteriza por su eficacia en el tratamiento de un gran número de unidades superficiales en formato vectorial, generando soluciones que convergen con relativa rapidez y verifican los criterios establecidos. En el caso estudiado, aunque la posición prefijada de los generadores reduce considerablemente la complejidad del problema, existen algunas configuraciones espaciales de estos elementos para las que el algoritmo no encuentra una solución satisfactoria, poniéndose de manifiesto una de las limitaciones de este modelo. Tal y como se ha podido comprobar, la localización de los generadores puede tener un considerable impacto en la zonificación resultante, por lo que, de acuerdo con Kalcsics et al. (2005), una selección "inadecuada" difícilmente puede generar regiones válidas que verifiquen los criterios establecidos. ABSTRACT Tenitory or zone design processes entail partitioning a geographic space, organized as a set of basic areal units, into different regions or zones according to a specific set of entena that are dependent on the application context. In most cases the aim is to create zones that have approximately equal sizes with respect to one or several measure attributes (zones with equal numbers of inhabitants, same average sales, etc). However, some of the new applications that have emerged, particularly in the context of sustainable development policies, are aimed at defining zones of a predetermined, though not necessarily similar, size. In addition, the zones should be built around a given set of positions, seeds or generators. This type of partitioning has not been sufñciently researched; therefore there are no known approaches for automated zone delimitation. This thesis proposes a new method based on a discrete versión of the Adaptive Additively Weighted Voronoi Diagram (AAWVD) that makes it possible to partition a 2D space into zones of specific sizes, taking both the position and the weight of each (seed) generator into account. The method consists of repeatedly solving a traditional additively weighted Voronoi diagram, so that the weights of each generator are updated at every iteration. The partition s zones are geographically connected nsing a metric based 011 the shortest path. The proposed heuristic lias been included in an application, developed in a GIS environment that allows the automated zone delimitation according to the mentioned criteria. The management of the extensive farming system of three municipalities of Castilla-La Mancha (Spain) has been used as study case to analyze the viability of the method. The tests carried out have established that the proposed method, adapted to the criteria of this application field, is valid for solving this type of partition problem. The applied algorithm is capable of handling a high number of vector areal units, generating solutions that converge in a reasonable CPU time and comply with the imposed constraints. Although the complexity of this problem is greatly reduced when the generator's positions are fixed, in many cases, these positions impose a spatial confignration that the algorithm proposed is unable to solve, thus revealing one of the limitations of this method. It has been shown that the location of the generators has a considerable impact on the final solution, so that, as Kalcsics et al. (2005) observed, an "inadequate" selection can hardly generate valid zones that comply with the established criteria.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo de la presente tesis doctoral es el desarrollo e implementación de un sistema para mejorar la metodología de extracción de la información geométrica necesaria asociada a los procesos de documentación de entidades de interés patrimonial, a partir de la información proporcionada por el empleo de sensores láser, tanto aéreos como terrestres. Para ello, inicialmente se realiza una presentación y justificación de los antecedentes y la problemática en el registro de información geométrica para el patrimonio, detallando todos aquellos sistemas de registro y análisis de la información geométrica utilizados en la actualidad. Este análisis permitirá realizar la comparación con los sistemas de registro basados en técnicas láser, aportando sugerencias de utilización para cada caso concreto. Posteriormente, se detallan los sistemas de registro basados en técnicas láser, comenzando por los sensores aerotransportados y concluyendo con el análisis pormenorizado de los sensores terrestres, tanto en su aplicación en modo estático como móvil. Se exponen las características técnicas y funcionamiento de cada uno de ellos, así como los ámbitos de aplicación y productos generados. Se analizan las fuentes de error que determinan la precisión que puede alcanzar el sistema. Tras la exposición de las características de los sistemas LiDAR, se detallan los procesos a realizar con los datos extraídos para poder generar la información necesaria para los diferentes tipos de objetos analizados. En esta exposición, se hace hincapié en los posibles riesgos que pueden ocurrir en algunas fases delicadas y se analizarán los diferentes algoritmos de filtrado y clasificación de los puntos, fundamentales en el procesamiento de la información LiDAR. Seguidamente, se propone una alternativa para optimizar los modelos de procesamiento existentes, basándose en el desarrollo de algoritmos nuevos y herramientas informáticas que mejoran el rendimiento en la gestión de la información LiDAR. En la implementación, se han tenido en cuenta características y necesidades particulares de la documentación de entidades de interés patrimonial, así como los diferentes ámbitos de utilización del LiDAR, tanto aéreo como terrestre. El resultado es un organigrama de las tareas a realizar desde la nube de puntos LiDAR hasta el cálculo de los modelos digitales del terreno y de superficies. Para llevar a cabo esta propuesta, se han desarrollado hasta 19 algoritmos diferentes que comprenden implementaciones para el modelado en 2.5D y 3D, visualización, edición, filtrado y clasificación de datos LiDAR, incorporación de información de sensores pasivos y cálculo de mapas derivados, tanto raster como vectoriales, como pueden ser mapas de curvas de nivel y ortofotos. Finalmente, para dar validez y consistencia a los desarrollos propuestos, se han realizado ensayos en diferentes escenarios posibles en un proceso de documentación del patrimonio y que abarcan desde proyectos con sensores aerotransportados, proyectos con sensores terrestres estáticos a media y corta distancia, así como un proyecto con un sensor terrestre móvil. Estos ensayos han permitido definir los diferentes parámetros necesarios para el adecuado funcionamiento de los algoritmos propuestos. Asimismo, se han realizado pruebas objetivas expuestas por la ISPRS para la evaluación y comparación del funcionamiento de algoritmos de clasificación LiDAR. Estas pruebas han permitido extraer datos de rendimiento y efectividad del algoritmo de clasificación presentado, permitiendo su comparación con otros algoritmos de prestigio existentes. Los resultados obtenidos han constatado el funcionamiento satisfactorio de la herramienta. Esta tesis está enmarcada dentro del proyecto Consolider-Ingenio 2010: “Programa de investigación en tecnologías para la valoración y conservación del patrimonio cultural” (ref. CSD2007-00058) realizado por el Consejo Superior de Investigaciones Científicas y la Universidad Politécnica de Madrid. ABSTRACT: The goal of this thesis is the design, development and implementation of a system to improve the extraction of useful geometric information in Heritage documentation processes. This system is based on information provided by laser sensors, both aerial and terrestrial. Firstly, a presentation of recording geometric information for Heritage processes is done. Then, a justification of the background and problems is done too. Here, current systems for recording and analyzing the geometric information are studied. This analysis will perform the comparison with the laser system techniques, providing suggestions of use for each specific case. Next, recording systems based on laser techniques are detailed. This study starts with airborne sensors and ends with terrestrial ones, both in static and mobile application. The technical characteristics and operation of each of them are described, as well as the areas of application and generated products. Error sources are also analyzed in order to know the precision this technology can achieve. Following the presentation of the LiDAR system characteristics, the processes to generate the required information for different types of scanned objects are described; the emphasis is on the potential risks that some steps can produce. Moreover different filtering and classification algorithms are analyzed, because of their main role in LiDAR processing. Then, an alternative to optimize existing processing models is proposed. It is based on the development of new algorithms and tools that improve the performance in LiDAR data management. In this implementation, characteristics and needs of the documentation of Heritage entities have been taken into account. Besides, different areas of use of LiDAR are considered, both air and terrestrial. The result is a flowchart of tasks from the LiDAR point cloud to the calculation of digital terrain models and digital surface models. Up to 19 different algorithms have been developed to implement this proposal. These algorithms include implementations for 2.5D and 3D modeling, viewing, editing, filtering and classification of LiDAR data, incorporating information from passive sensors and calculation of derived maps, both raster and vector, such as contour maps and orthophotos. Finally, in order to validate and give consistency to the proposed developments, tests in different cases have been executed. These tests have been selected to cover different possible scenarios in the Heritage documentation process. They include from projects with airborne sensors, static terrestrial sensors (medium and short distances) to mobile terrestrial sensor projects. These tests have helped to define the different parameters necessary for the appropriate functioning of the proposed algorithms. Furthermore, proposed tests from ISPRS have been tested. These tests have allowed evaluating the LiDAR classification algorithm performance and comparing it to others. Therefore, they have made feasible to obtain performance data and effectiveness of the developed classification algorithm. The results have confirmed the reliability of the tool. This investigation is framed within Consolider-Ingenio 2010 project titled “Programa de investigación en tecnologías para la valoración y conservación del patrimonio cultural” (ref. CSD2007-00058) by Consejo Superior de Investigaciones Científicas and Universidad Politécnica de Madrid.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo de esta primera parte de este proyecto es realizar un modelo socioeconómico de evaluación para la instalación de un sistema de bicicleta pública con la ayuda del método de evaluación: el análisis multicriterio en el que se analizarán criterios de diferente tipología que se escogerán tras el estudio de unas encuestas realizadas a usuarios del sistema Vélo’v en Lyon y tras unas entrevistas realizadas a expertos y trabajadores en el campo de la bicicleta pública. Este modelo sirve como ayuda a la decisión en la fase de preparación de la creación de un SBP para asegurar el balance entre la rentabilidad financiera, la social y la medioambiental. Después de la toma de decisión, se procederá a la realización del proyecto y a su instalación y por último su funcionamiento. Los objetivos resultan: • Descripción de los sistemas de bicicleta pública y el marco de acción • Examinar los estudios realizados sobre el tema • Descripción de los trabajos realizados para este proyecto y posterior análisis para su aplicación • Determinar los requisitos de diseño y de dimensionamiento para la implantación de un SBP • Encontrar los criterios adecuados que se emplearan en el análisis multicriterio para la evaluación • Describir los indicadores para medir cada criterio • La ponderación de estos criterios según las encuestas realizadas a los usuarios • La realización de una alternativa 0 que describa la situación de la ciudad sin la realización del proyecto • Recomendación final del modelo a través de un cuadro de resultados. El objeto de la tercera parte del proyecto es la descripción técnica y gráfica de una caseta de servicio del sistema de préstamos de bicicleta pública en San Lorenzo de El Escorial. La Caseta proyectada tendrá funciones principales: un taller para el mantenimiento del servicio y un espacio de almacenamiento de bicicletas. La Caseta-Taller es una medida necesaria en la implantación de un servicio de bici pública puesto que el uso de las bicicletas necesita un mantenimiento. En un terreno accidentado y no siempre propicio para la circulación de bicicletas, estas sufren muchos degastes y necesitan reparaciones y mantenimiento continuo. Además, el servicio en San Lorenzo de El Escorial está sometido a flujos pendulares de desplazamientos puesto que la disponibilidad de bicicletas y de espacios libres en las estaciones es muy variable. Es necesario precisar de un espacio para el almacenamiento de bicicletas, ya sea para controlar la disponibilidad o bien para esperar a recibir el mantenimiento necesario. Aprovechando la construcción de un edificio nuevo se destinará un espacio en la Casa-Taller para el control y la gestión del sistema. En esta parte se detallará gráficamente la implantación de los puntos de préstamos en la vía urbana como complemento al dimensionamiento del anterior trabajo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Publicación de los resultados de la primera fase del proyecto “Integración de los espacios agrarios periurbanos en la planificación urbana y territorial desde el enfoque de los servicios de los ecosistemas - PAEc-SP” (financiado por el Plan Nacional de Investigación I+D+d 2008-2012), que se presentaron en el Seminario internacional celebrado en Madrid en noviembre de 2012. Esta segunda edición, de septiembre de 2013, incorpora las modificaciones realizadas a partir de los comentarios y recomendaciones de los expertos invitados, y de los agentes territoriales a los que se presentaron los primeros resultados de la investigación.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Es irrefutable que las contribuciones del usuario final (UF) son críticas para el éxito de los proyectos de desarrollo e implementación de sistemas de in-formación (SI). También lo es la necesidad de nuevas investigaciones, motivada por el número creciente de fracasos de este tipo de proyectos, que profundicen en dichas contribuciones. El objetivo de este trabajo fue analizar tres factores huma-nos del UF considerados claves y determinar su impacto en el éxito de los SI. Este estudio incluyó cuatro grandes empresas industriales relacionadas y se recogieron las percepciones de experimentados profesionales de SI y líderes usuarios. Un análisis cuantitativo es complementado con un análisis cualitativo, estimándose que los resultados aportan nuevo material a la teoría y a la práctica gerencial en las organizaciones.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper present a preliminary analysis of electronic voting schemes and the requirements of Electronic Democracy as a part of the work carried out by the authors in the VOTESCRIPT project (TIC2000-1630-C02). A summary of the most relevant experiences on this field are discussed and a basic classification of them is pointed out, according to different degrees on process computerization. As it is shown, most of them only take into account a technological perspective, just trying to imitate the conventional voting schemes. A citizen-base bottom-up perspective is proposed to analyze the implementation of electronic voting systems in order to avoid citizen rejection. The paper also hallmarks the new technical possibilities created to be applied to the development of citizen?s right realm. Further than conventional voting schemes, the paper proposes the use of advanced security services to extend conceptualization of Electronic Democracy in which citizens have a key role on decision making processes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este proyecto, recoge el estudio de diferentes simuladores sobre comunicaciones móviles, que se encargan de analizar el comportamiento de las tecnologías UMTS (Universal Mobile Telecommunications System), 3G y LTE (Long Term Evolution),3.9G, centrándose principalmente en el caso de los simuladores LTE, ya que es la tecnología que se está implantando en la actualidad. Por ello, antes de analizar las características de la interfaz radio más importante de esta generación, la 3.9G, se hará una overview general de cómo han ido evolucionando las comunicaciones móviles a lo largo de la historia, se analizarán las características de la tecnología móvil actual, la 3.9G, para posteriormente centrarse en un par de simuladores que demostrarán, mediante resultados gráficos, estas características. Hoy en día, el uso de estos simuladores es totalmente necesario, ya que las comunicaciones móviles, avanzan a un ritmo vertiginoso y es necesario por lo tanto conocer las prestaciones que pueden producir las diferentes tecnologías móviles utilizadas. Los simuladores utilizados por este proyecto, permiten analizar el comportamiento de varios escenarios, ya que existen diferentes tipos de simuladores, tanto a nivel de enlace como a nivel de sistema. Se mencionarán una serie de simuladores correspondientes a la tercera generación UMTS, pero los simuladores en cuestión que se estudiarán y analizarán con más profundidad en este proyecto fin de carrera son los simuladores “Link-Level” y “System-Level”, desarrollados por el “Institute of Communications and Radio-Frecuency Engineering” de la Universidad de Viena. Estos simuladores permiten realizar diferentes simulaciones, como analizar el comportamiento entre una estación base y un único usuario, para el caso de los simuladores a nivel de enlace, o bien analizar el comportamiento de toda una red en el caso de los simuladores a nivel de sistema. Con los resultados que se pueden obtener de ambos simuladores, se realizarán una serie de preguntas, basadas en la práctica realizada por el profesor de la universidad Politécnica de Madrid, Pedro García del Pino, tanto de tipo teóricas como de tipo prácticas, para comprobar que se han entendido los simuladores analizados. Finalmente se citarán las conclusiones que se obtiene de este proyecto, así como las líneas futuras de acción. PROJECT ABSTRACT This project includes the study of different simulators on mobile communications, which are responsible for analyzing the behavior of UMTS (Universal Mobile Telecommunications System), 3G and LTE (Long Term Evolution), 3.9G, mainly focusing on the case of LTE simulators because it is the technology that is being implemented today. Therefore, before analyzing the characteristics of the most important radio interface of this generation, 3.9G, there will give a general overview how the mobile communications have evolved throughout history, analyzing the characteristics of current mobile technology, the 3.9G, later focus on a pair of simulators that demonstrate through graphical results, these characteristics. Today, the use of these simulators is absolutely necessary, because mobile communications advance at a high rate, and it is necessary to know the features that can produce different mobile technologies that are used. The simulators used for this project, allow to analyze the behavior of several scenarios, as there are different types of simulators, both link and system level. It mentioned a number of simulators for the third generation UMTS, but the simulators in question to be studied and analyzed in this final project are the simulators "Link-Level" and "System-Level", developed by the "Institute of Communications and Radio-Frequency Engineering" at the University of Vienna. These simulators allow realize different simulations, analyze the behavior between a base station and a single user, in the case of the link-level simulators or analyze the performance of a network in the case of system-level simulators. With the results that can be obtained from both simulators, will perform a series of questions, based on the practice developed by Pedro García del Pino, Professor of “Universidad Politécnica de Madrid (UPM)”. These questions will be both of a theoretical and practical type, to check that have been understood the analyzed simulators. Finally, it quotes the conclusions obtained from this project and mention the future lines of action.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este proyecto colabora con la plataforma Integrated Language Learning Lab (ILLLab) aportando una serie de ejercicios de gramática inglesa para una nueva sección de la web basada íntegramente en la especialidad de Sistemas Electrónicos. Complementariamente se adentra en una nueva oportunidad basada en dispositivos móviles inteligentes creando una aplicación para el repaso de los conceptos estudiados en la titulación de Ingeniería Técnica de Telecomunicación en lengua inglesa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La seguridad en redes informáticas es un área que ha sido ampliamente estudiada y objeto de una extensa investigación en los últimos años. Debido al continuo incremento en la complejidad y sofisticación de los ataques informáticos, el aumento de su velocidad de difusión, y la lentitud de reacción frente a las intrusiones existente en la actualidad, se hace patente la necesidad de mecanismos de detección y respuesta a intrusiones, que detecten y además sean capaces de bloquear el ataque, y mitiguen su impacto en la medida de lo posible. Los Sistemas de Detección de Intrusiones o IDSs son tecnologías bastante maduras cuyo objetivo es detectar cualquier comportamiento malicioso que ocurra en las redes. Estos sistemas han evolucionado rápidamente en los últimos años convirtiéndose en herramientas muy maduras basadas en diferentes paradigmas, que mejoran su capacidad de detección y le otorgan un alto nivel de fiabilidad. Por otra parte, un Sistema de Respuesta a Intrusiones (IRS) es un componente de seguridad que puede estar presente en la arquitectura de una red informática, capaz de reaccionar frente a los incidentes detectados por un Sistema de Detección de Intrusiones (IDS). Por desgracia, esta tecnología no ha evolucionado al mismo ritmo que los IDSs, y la reacción contra los ataques detectados es lenta y básica, y los sistemas presentan problemas para ejecutar respuestas de forma automática. Esta tesis doctoral trata de hacer frente al problema existente en la reacción automática frente a intrusiones, mediante el uso de ontologías, lenguajes formales de especificación de comportamiento y razonadores semánticos como base de la arquitectura del sistema de un sistema de respuesta automática frente a intrusiones o AIRS. El objetivo de la aproximación es aprovechar las ventajas de las ontologías en entornos heterogéneos, además de su capacidad para especificar comportamiento sobre los objetos que representan los elementos del dominio modelado. Esta capacidad para especificar comportamiento será de gran utilidad para que el AIRS infiera la respuesta óptima frente a una intrusión en el menor tiempo posible. Abstract Security in networks is an area that has been widely studied and has been the focus of extensive research over the past few years. The number of security events is increasing, and they are each time more sophisticated, and quickly spread, and slow reaction against intrusions, there is a need for intrusion detection and response systems to dynamically adapt so as to better detect and respond to attacks in order to mitigate them or reduce their impact. Intrusion Detection Systems (IDSs) are mature technologies whose aim is detecting malicious behavior in the networks. These systems have quickly evolved and there are now very mature tools based on different paradigms (statistic anomaly-based, signature-based and hybrids) with a high level of reliability. On the other hand, Intrusion Response System (IRS) is a security technology able to react against the intrusions detected by IDS. Unfortunately, the state of the art in IRSs is not as mature as with IDSs. The reaction against intrusions is slow and simple, and these systems have difficulty detecting intrusions in real time and triggering automated responses. This dissertation is to address the existing problem in automated reactions against intrusions using ontologies, formal behaviour languages and semantic reasoners as the basis of the architecture of an automated intrusion response systems or AIRS. The aim is to take advantage of ontologies in heterogeneous environments, in addition to its ability to specify behavior of objects representing the elements of the modeling domain. This ability to specify behavior will be useful for the AIRS in the inference process of the optimum response against an intrusion, as quickly as possible.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El desarrollo de algoritmos ensambladores de genes y la utilización de estos está viviendo un aumento muy espectacular en los últimos años. Debido a las mejoras ofrecidas en los dispositivos hardware de los numerosos supercomputadores que existen hoy en día se pueden realizar experimentos científicos de una manera más asequible que hace unos años. Este proyecto servirá como introducción en el complejo mundo de algoritmos científicos, más concretamente en algoritmos ensambladores de genomas. Veremos de primera mano cómo utilizar estas nuevas tecnologías, con ejemplos sencillos, pero con un desarrollo lo bastante importante para darnos una idea del funcionamiento de todas las fases de experimentación que engloban los algoritmos ensambladores y la utilización de la programación paralela en supercomputadores. Concretamente en este proyecto se van a analizar exhaustivamente una serie de algoritmos ensambladores que serán probados en uno de los supercomputadores más potentes de España, el Magerit 2. En estas pruebas vamos a proceder al ensamblado de genomas de tres tipos de organismos como bacterias (Staphylococcus Aureus, y Rhodobacter Sphaeroides) y una prueba gran escala con el genoma del Cromosoma 14 del Homo Sapiens Sapiens (Ser humano). Después procederemos a la comparación de todos los resultados obtenidos para poder comprobar que algoritmos realizan mejor su trabajo y ajustar dicha decisión a las necesidades que tenemos actualmente para buscar un algoritmo eficaz.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este texto propone la incorporación de las ideas de sistemas como elemento indispensable en los currículos universitarios relacionados con computación. Con este objetivo,se presenta la experiencia acumulada en la Escuela Técnica Superior de Ingenieros de Telecomunicación de Madrid desde 1978. Más concretamente, se muestran los objetivos,metodología y resultados obtenidos dentro de una asignatura denominada Ingeniería de Sistemas, integrada en el último curso de una especialización en Ingeniería Telemática (Informática y Comunicaciones).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La característica fundamental de la Computación Natural se basa en el empleo de conceptos, principios y mecanismos del funcionamiento de la Naturaleza. La Computación Natural -y dentro de ésta, la Computación de Membranas- surge como una posible alternativa a la computación clásica y como resultado de la búsqueda de nuevos modelos de computación que puedan superar las limitaciones presentes en los modelos convencionales. En concreto, la Computación de Membranas se originó como un intento de formular un nuevo modelo computacional inspirado en la estructura y el funcionamiento de las células biológicas: los sistemas basados en este modelo constan de una estructura de membranas que actúan a la vez como separadores y como canales de comunicación, y dentro de esa estructura se alojan multiconjuntos de objetos que evolucionan de acuerdo a unas determinadas reglas de evolución. Al conjunto de dispositivos contemplados por la Computación de Membranas se les denomina genéricamente como Sistemas P. Hasta el momento los Sistemas P sólo han sido estudiados a nivel teórico y no han sido plenamente implementados ni en medios electrónicos, ni en medios bioquímicos, sólo han sido simulados o parcialmente implementados. Por tanto, la implantación de estos sistemas es un reto de investigación abierto. Esta tesis aborda uno de los problemas que debe ser resuelto para conseguir la implantación de los Sistemas P sobre plataformas hardware. El problema concreto se centra en el modelo de los Sistemas P de Transición y surge de la necesidad de disponer de algoritmos de aplicación de reglas que, independientemente de la plataforma hardware sobre la que se implementen, cumplan los requisitos de ser no deterministas, masivamente paralelos y además su tiempo de ejecución esté estáticamente acotado. Como resultado se ha obtenido un conjunto de algoritmos (tanto para plataformas secuenciales, como para plataformas paralelas) que se adecúan a las diferentes configuraciones de los Sistemas P. ABSTRACT The main feature of Natural Computing is the use of concepts, principles and mechanisms inspired by Nature. Natural Computing and within it, Membrane Computing emerges as an potential alternative to conventional computing and as from the search for new models of computation that may overcome the existing limitations in conventional models. Specifically, Membrane Computing was created to formulate a new computational paradigm inspired by the structure and functioning of biological cells: it consists of a membrane structure, which acts as separators as well as communication channels, and within this structure are stored multisets of objects that evolve according to certain evolution rules. The set of computing devices addressed by Membrane Computing are generically known P systems. Up to now, no P systems have been fully implemented yet in electronic or biochemical means. They only have been studied in theory, simulated or partially implemented. Therefore, the implementation of these systems is an open research challenge. This thesis addresses one of the problems to be solved in order to deploy P systems on hardware platforms. This specific problem is focused on the Transition P System model and emerges from the need of providing application rules algorithms that independently on the hardware platform on which they are implemented, meets the requirements of being nondeterministic, massively parallel and runtime-bounded. As a result, this thesis has developed a set of algorithms for both platforms, sequential and parallel, adapted to all possible configurations of P systems.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este libro trata exactamente de lo que dice su título. Como primera impresión, a algunas personas puede parecerles innecesario publicar un texto sobre fundamentos en una época en que la informática ha llegado en su difusión casi a formar parte material del mobiliario hogareño. Además de este efecto distributivo sobre la sociedad, los espectaculares progresos tecnológicos han producido un crecimiento desbordante de la especialización. Los sistemas operativos, las bases de datos, los lenguajes concurrentes, la programación lógica, la inteligencia artificial, la arquitectura de ordenadores, las redes, las herramientas de ayuda para ingeniería de software y tantas otras más específicas e instrumentales son áreas de trabajo o técnicas que por sí solas requieren esfuerzos considerables por parte de quienes pretenden estudiar y seguir su evolución.