160 resultados para Ingeniería de abastecimiento de agua-Procesamiento de datos


Relevância:

30.00% 30.00%

Publicador:

Resumo:

La rápida adopción de dispositivos electrónicos en el automóvil, ha contribuido a mejorar en gran medida la seguridad y el confort. Desde principios del siglo 20, la investigación en sistemas de seguridad activa ha originado el desarrollo de tecnologías como ABS (Antilock Brake System), TCS (Traction Control System) y ESP (Electronic Stability Program). El coste de despliegue de estos sistemas es crítico: históricamente, sólo han sido ampliamente adoptados cuando el precio de los sensores y la electrónica necesarios para su construcción ha caído hasta un valor marginal. Hoy en día, los vehículos a motor incluyen un amplio rango de sensores para implementar las funciones de seguridad. La incorporación de sistemas que detecten la presencia de agua, hielo o nieve en la vía es un factor adicional que podría ayudar a evitar situaciones de riesgo. Existen algunas implementaciones prácticas capaces de detectar carreteras mojadas, heladas y nevadas, aunque con limitaciones importantes. En esta tesis doctoral, se propone una aproximación novedosa al problema, basada en el análisis del ruido de rodadura generado durante la conducción. El ruido de rodadura es capturado y preprocesado. Después es analizado utilizando un clasificador basado en máquinas de vectores soporte (SVM), con el fin de generar una estimación del estado del firme. Todas estas operaciones se realizan en el propio vehículo. El sistema propuesto se ha desarrollado y evaluado utilizando Matlabr, mostrando tasas de aciertos de más del 90%. Se ha realizado una implementación en tiempo real, utilizando un prototipo basado en DSP. Después se han introducido varias optimizaciones para permitir que el sistema sea realizable usando un microcontrolador de propósito general. Finalmente se ha realizado una implementación hardware basada en un microcontrolador, integrándola estrechamente con las ECU del vehículo, pudiendo obtener datos capturados por los sensores del mismo y enviar las estimaciones del estado del firme. El sistema resultante ha sido patentado, y destaca por su elevada tasa de aciertos con un tamaño, consumo y coste reducidos. ABSTRACT Proliferation of automotive electronics, has greatly improved driving safety and comfort. Since the beginning of the 20th century, investigation in active safety systems has resulted in the development of technologies such as ABS (Antilock Brake System), TCS (Traction Control System) and ESP (Electronic Stability Program). Deployment cost of these systems is critical: historically, they have been widely adopted only when the price of the sensors and electronics needed to build them has been cut to a marginal value. Nowadays, motor vehicles include a wide range of sensors to implement the safety functions. Incorporation of systems capable of detecting water, ice or snow on the road is an additional factor that could help avoiding risky situations. There are some implementations capable of detecting wet, icy and snowy roads, although with important limitations. In this PhD Thesis, a novel approach is proposed, based on the analysis of the tyre/road noise radiated during driving. Tyre/road noise is captured and pre-processed. Then it is analysed using a Support Vector Machine (SVM) based classifier, to output an estimation of the road status. All these operations are performed on-board. Proposed system is developed and evaluated using Matlabr, showing success rates greater than 90%. A real time implementation is carried out using a DSP based prototype. Several optimizations are introduced enabling the system to work using a low-cost general purpose microcontroller. Finally a microcontroller based hardware implementation is developed. This implementation is tightly integrated with the vehicle ECUs, allowing it to obtain data captured by its sensors, and to send the road status estimations. Resulting system has been patented, and is notable because of its high hit rate, small size, low power consumption and low cost.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Entre los años 2004 y 2007 se hundieron por problemas de estabilidad cinco pesqueros españoles de pequeña eslora, de características parecidas, de relativamente poca edad, que habían sido construidos en un intervalo de pocos años. La mayoría de los tripulantes de esos pesqueros fallecieron o desaparecieron en esos accidentes. Este conjunto de accidentes tuvo bastante repercusión social y mediática. Entre ingenieros navales y marinos del sector de la pesca se relacionó estos accidentes con los condicionantes a los diseños de los pesqueros impuestos por la normativa de control de esfuerzo pesquero. Los accidentes fueron investigados y publicados sus correspondientes informes; en ellos no se exploró esta supuesta relación. Esta tesis pretende investigar la relación entre esos accidentes y los cambios de la normativa de esfuerzo pesquero. En la introducción se expone la normativa de control de esfuerzo pesquero analizada, se presentan datos sobre la estructura de la flota pesquera en España y su accidentalidad, y se detallan los criterios de estabilidad manejados durante el trabajo, explicando su relación con la seguridad de los pesqueros. Seguidamente se realiza un análisis estadístico de la siniestralidad en el sector de la pesca para establecer si el conjunto de accidentes estudiados supone una anomalía, o si por el contrario el conjunto de estos accidentes no es relevante desde el punto de vista estadístico. Se analiza la siniestralidad a partir de diversas bases de datos de buques pesqueros en España y se concluye que el conjunto de accidentes estudiados supone una anomalía estadística, ya que la probabilidad de ocurrencia de los cinco sucesos es muy baja considerando la frecuencia estimada de pérdidas de buques por estabilidad en el subsector de la flota pesquera en el que se encuadran los cinco buques perdidos. A continuación el trabajo se centra en la comparación de los buques accidentados con los buques pesqueros dados de baja para construir aquellos, según exige la normativa de control de esfuerzo pesquero; a estos últimos buques nos referiremos como “predecesores” de los buques accidentados. Se comparan las dimensiones principales de cada buque y de su predecesor, resultando que los buques accidentados comparten características de diseño comunes que son sensiblemente diferentes en los buques predecesores, y enlazando dichas características de diseño con los requisitos de la nueva normativa de control del esfuerzo pesquero bajo la que se construyeron estos barcos. Ello permite establecer una relación entre los accidentes y el mencionado cambio normativo. A continuación se compara el margen con que se cumplían los criterios reglamentarios de estabilidad entre los buques accidentados y los predecesores, encontrándose que en cuatro de los cinco casos los predecesores cumplían los criterios de estabilidad con mayor holgura que los buques accidentados. Los resultados obtenidos en este punto permiten establecer una relación entre el cambio de normativa de esfuerzo pesquero y la estabilidad de los buques. Los cinco buques accidentados cumplían con los criterios reglamentarios de estabilidad en vigor, lo que cuestiona la relación entre esos criterios y la seguridad. Por ello se extiende la comparativa entre pesqueros a dos nuevos campos relacionados con la estabilidad y la seguridad delos buques: • Movimientos a bordo (operatividad del buque), y • Criterios de estabilidad en condiciones meteorológicas adversas El estudio de la operatividad muestra que los buques accidentados tenían, en general, una mayor operatividad que sus predecesores, contrariamente a lo que sucedía con el cumplimiento de los criterios reglamentarios de estabilidad. Por último, se comprueba el desempeño de los diez buques en dos criterios específicos de estabilidad en caso de mal tiempo: el criterio IMO de viento y balance intenso, y un criterio de estabilidad de nueva generación, incluyendo la contribución original del autor de considerar agua en cubierta. Las tendencias observadas en estas dos comparativas son opuestas, lo que permite cuestionar la validez del último criterio sin un control exhaustivo de los parámetros de su formulación, poniendo de manifiesto la necesidad de más investigaciones sobre ese criterio antes de su adopción para uso regulatorio. El conjunto de estos resultados permite obtener una serie de conclusiones en la comparativa entre ambos conjuntos de buques pesqueros. Si bien los resultados de este trabajo no muestran que la aprobación de la nueva normativa de esfuerzo pesquero haya significado una merma general de seguridad en sectores enteros de la flota pesquera, sí se concluye que permitió que algunos diseños de buques pesqueros, posiblemente en busca de la mayor eficiencia compatible con dicha normativa, quedaran con una estabilidad precaria, poniendo de manifiesto que la relación entre seguridad y criterios de estabilidad no es unívoca, y la necesidad de que éstos evolucionen y se adapten a los nuevos diseños de buques pesqueros para continuar garantizando su seguridad. También se concluye que la estabilidad es un aspecto transversal del diseño de los buques, por lo que cualquier reforma normativa que afecte al diseño de los pesqueros o su forma de operar debería estar sujeta a evaluación por parte de las autoridades responsables de la seguridad marítima con carácter previo a su aprobación. ABSTRACT Between 2004 and 2007 five small Spanish fishing vessels sank in stability related accidents. These vessels had similar characteristics, had relatively short age, and had been built in a period of a few years. Most crewmembers of these five vessels died or disappeared in those accidents. This set of accidents had significant social and media impact. Among naval architects and seamen of the fishing sector these accidents were related to the design constraints imposed by the fishing control effort regulations. The accidents were investigated and the official reports issued; this alleged relationship was not explored. This thesis aims to investigate the relationship between those accidents and changes in fishing effort control regulations. In the introduction, the fishing effort control regulation is exposed, data of the Spanish fishing fleet structure and its accident rates are presented, and stability criteria dealt with in this work are explained, detailing its relationship with fishing vessel safety. A statistical analysis of the accident rates in the fishing sector in Spain is performed afterwards. The objective is determining whether the set of accidents studied constitute an anomaly or, on the contrary, they are not statistically relevant. Fishing vessels accident rates is analyzed from several fishing vessel databases in Spain. It is concluded that the set of studied accidents is statistically relevant, as the probability of occurrence of the five happenings is extremely low, considering the loss rates in the subsector of the Spanish fishing fleet where the studied vessels are fitted within. From this point the thesis focuses in comparing the vessels lost and the vessels that were decommissioned to build them as required by the fishing effort control regulation; these vessels will be referred to as “predecessors” of the sunk vessels. The main dimensions between each lost vessel and her predecessor are compared, leading to the conclusion that the lost vessels share design characteristics which are sensibly different from the predecessors, and linking these design characteristics with the requirements imposed by the new fishing control effort regulations. This allows establishing a relationship between the accidents and this regulation change. Then the margin in fulfilling the regulatory stability criteria among the vessels is compared, resulting, in four of the five cases, that predecessors meet the stability criteria with greater clearance than the sunk vessels. The results obtained at this point would establish a relationship between the change of fishing effort control regulation and the stability of vessels. The five lost vessels complied with the stability criteria in force, so the relation between these criteria and safety is put in question. Consequently, the comparison among vessels is extended to other fields related to safety and stability: • Motions onboard (operability), and • Specific stability criteria in rough weather The operability study shows that the lost vessels had in general greater operability than their predecessors, just the opposite as when comparing stability criteria. Finally, performance under specific rough weather stability criteria is checked. The criteria studied are the IMO Weather Criterion, and one of the 2nd generation stability criteria under development by IMO considering in this last case the presence of water on deck, which is an original contribution by the author. The observed trends in these two cases are opposite, allowing to put into question the last criterion validity without an exhaustive control of its formulation parameters; indicating that further research might be necessary before using it for regulatory purposes. The analysis of this set of results leads to some conclusions when comparing both groups of fishing vessels. While the results obtained are not conclusive in the sense that the entry into force of a new fishing effort control in 1998 caused a generalized safety reduction in whole sectors of the Spanish fishing fleet, it can be concluded that it opened the door for some vessel designs resulting with precarious stability. This evidences that the relation between safety and stability criteria is not univocal, so stability criteria needs to evolve for adapting to new fishing vessels designs so their safety is still guaranteed. It is also concluded that stability is a transversal aspect to ship design and operability, implying that any legislative reform affecting ship design or operating modes should be subjected to assessing by the authorities responsible for marine safety before being adopted.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo del Proyecto Fin de Carrera (PFC) es el de conocer, simular y crear una red VoIP sobre una red de datos en un entorno docente, más concretamente, en la asignatura Redes y Servicios de telecomunicación en Grado en Ingeniería de Telecomunicaciones en la Universidad Politécnica de Madrid (UPM). Una vez se adquieran los conocimientos necesarios, se propondrán una serie de prácticas para que los alumnos se vayan familiarizando con el software y hardware utilizados, de manera que, se irá subiendo el grado de dificultad hasta que puedan realizar una auténtica red VoIP por sí mismos. A parte de la realización de las prácticas, los alumnos deberán pasar una prueba de los conocimientos adquiridos al final de cada práctica mediante preguntas tipo test. Los sistemas elegidos para la implantación de una red VoIP en los módulos de laboratorio son: 3CX System Phone y Asteisk-Trixbox. Los cuales, son capaces de trabajar mediante gestores gráficos para simplificar el nivel de dificultad de la configuración. 3CX es una PBX que trabaja sobre Windows y se basa exclusivamente en el protocolo SIP. Esto facilita el manejo para usuarios que solo han usado Windows sin quitar funcionalidades que tienen otras centralitas en otros sistemas operativos. La versión demo activa todas las opciones para poder familiarizarse con este sistema. Por otro lado, Asterisk trabaja en todas las plataformas, aunque se ha seleccionado trabajar sobre Linux. Esta selección se ha realizado porque el resto de plataformas limitan la configuración de la IP PBX, esta es de código abierto y permite realizar todo tipo de configuraciones. Además, es un software gratuito, esto es una ventaja a la hora de configurar novedades o resolver problemas, ya que hay muchos especialistas que dan soporte y ayudan de forma gratuita. La voz sobre Internet es habitualmente conocida como VoIP (Voice Over IP), debido a que IP (Internet Protocol) es el protocolo de red de Internet. Como tecnología, la VoIP no es solo un paso más en el crecimiento de las comunicaciones por voz, sino que supone integrar las comunicaciones de datos y las de voz en una misma red, y en concreto, en la red con mayor cobertura mundial: Internet. La mayor importancia y motivación de este Proyecto Fin de Carrera es que el alumno sea capaz de llegar a un entorno laboral y pueda tener unos conocimientos capaces de afrontar esta tecnología que esta tan a la orden del día. La importancia que estas redes tienen y tendrán en un futuro muy próximo en el mundo de la informática y las comunicaciones. Cabe decir, que se observa que estas disciplinas tecnológicas evolucionan a pasos agigantados y se requieren conocimientos más sólidos. ABSTRACT. The objective of my final project during my studies in university was, to simulate and create a VoIP network over a data network in a teaching environment, more specifically on the subject of telecommunications networks and services in Telecommunication Engineering Degree in Polytechnic University of Madrid (UPM). Once acquiring the necessary knowledge a number of practices were proposed to the students to become familiar with the software and hardware used, so that it would rise to the level of difficulty that they could make a real VoIP network for themselves. Parts of the experimental practices were that students must pass a test of knowledge acquired at the end of each practice by choice questions. The systems chosen for the implementation of a VoIP network in the laboratory modules are: 3CX Phone System and Asteisk - Trixbox. Which were able to work with graphics operators to simplify the difficulty level of the configuration. 3CX is a PBX that works on Windows and is based solely on the SIP protocol. This facilitates handling for users who have only used Windows without removing functionality with other exchanges in other operating systems. Active demo version all options to get to grips with this system. Moreover, Asterisk works on all platforms, but has been selected to work on Linux. This selection was made because other platforms limit the IP PBX configuration, as this is open source and allows all kinds of configurations. Also, Linux is a free software and an advantage when configuring new or solve problems, as there are many specialists that support and help for free. Voice over Internet is commonly known as VoIP (Voice Over IP), because IP (Internet Protocol) is the Internet protocol network. As technology, VoIP is not just another step in the growth of voice communications, but communications of integrating data and voice on a single network, and in particular, in the network with the largest global coverage: Internet. The increased importance and motivation of this Thesis is that the student is able to reach a working environment and may have some knowledge to deal with these technologies that is so much the order of the day. The importances of these networks have and will be of essences in the very near future in the world of computing and communications. It must be said it is observed that these technological disciplines evolve by leaps and bounds stronger knowledge required.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El primer procesamiento estricto realizado con el software científico Bernese y contemplando las más estrictas normas de cálculo recomendadas internacionalmente, permitió obtener un campo puntual de alta exactitud, basado en la integración y estandarización de los datos de una red GPS ubicada en Costa Rica. Este procesamiento contempló un total de 119 semanas de datos diarios, es decir unos 2,3 años, desde enero del año 2009 hasta abril del año 2011, para un total de 30 estaciones GPS, de las cuales 22 están ubicadas en el territorio nacional de Costa Rica y 8 internaciones pertenecientes a la red del Sistema Geocéntrico para las Américas (SIRGAS). Las denominadas soluciones semilibres generaron, semana a semana, una red GPS con una alta exactitud interna definida por medio de los vectores entre las estaciones y las coordenadas finales de la constelación satelital. La evaluación semanal dada por la repetibilidad de las soluciones brindó en promedio errores de 1,7 mm, 1,4 mm y 5,1 mm en las componentes [n e u], confirmando una alta consistencia en estas soluciones. Aunque las soluciones semilibres poseen una alta exactitud interna, las mismas no son utilizables para fines de análisis cinemático, pues carecen de un marco de referencia. En Latinoamérica, la densificación del Marco Internacional Terrestre de Referencia (ITRF), está representado por la red de estaciones de operación continua GNSS de SIRGAS, denominada como SIRGAS-CON. Por medio de las denominadas coordenadas semanales finales de las 8 estaciones consideradas como vínculo, se refirió cada una de las 119 soluciones al marco SIRGAS. La introducción del marco de referencia SIRGAS a las soluciones semilibres produce deformaciones en estas soluciones. Las deformaciones de las soluciones semilibres son producto de las cinemática de cada una de las placas en las que se ubican las estaciones de vínculo. Luego de efectuado el amarre semanal a las coordenadas SIRGAS, se hizo una estimación de los vectores de velocidad de cada una de las estaciones, incluyendo las de amarre, cuyos valores de velocidad se conocen con una alta exactitud. Para la determinación de las velocidades de las estaciones costarricenses, se programó una rutina en ambiente MatLab, basada en una ajuste por mínimos cuadrados. Los valores obtenidos en el marco de este proyecto en comparación con los valores oficiales, brindaron diferencias promedio del orden de los 0,06 cm/a, -0,08 cm/a y -0,10 cm/a respectivamente para las coordenadas [X Y Z]. De esta manera se logró determinar las coordenadas geocéntricas [X Y Z]T y sus variaciones temporales [vX vY vZ]T para el conjunto de 22 estaciones GPS de Costa Rica, dentro del datum IGS05, época de referencia 2010,5. Aunque se logró una alta exactitud en los vectores de coordenadas geocéntricas de las 22 estaciones, para algunas de las estaciones el cálculo de las velocidades no fue representativo debido al relativo corto tiempo (menos de un año) de archivos de datos. Bajo esta premisa, se excluyeron las ocho estaciones ubicadas al sur de país. Esto implicó hacer una estimación del campo local de velocidades con solamente veinte estaciones nacionales más tres estaciones en Panamá y una en Nicaragua. El algoritmo usado fue el denominado Colocación por Mínimos Cuadrados, el cual permite la estimación o interpolación de datos a partir de datos efectivamente conocidos, el cual fue programado mediante una rutina en ambiente MatLab. El campo resultante se estimó con una resolución de 30' X 30' y es altamente constante, con una velocidad resultante promedio de 2,58 cm/a en una dirección de 40,8° en dirección noreste. Este campo fue validado con base en los datos del modelo VEMOS2009, recomendado por SIRGAS. Las diferencias de velocidad promedio para las estaciones usadas como insumo para el cálculo del campo fueron del orden los +0,63 cm/a y +0,22 cm/a para los valores de velocidad en latitud y longitud, lo que supone una buena determinación de los valores de velocidad y de la estimación de la función de covarianza empírica, necesaria para la aplicación del método de colocación. Además, la grilla usada como base para la interpolación brindó diferencias del orden de -0,62 cm/a y -0,12 cm/a para latitud y longitud. Adicionalmente los resultados de este trabajo fueron usados como insumo para hacer una aproximación en la definición del límite del llamado Bloque de Panamá dentro del territorio nacional de Costa Rica. El cálculo de las componentes del Polo de Euler por medio de una rutina programa en ambiente MatLab y aplicado a diferentes combinaciones de puntos no brindó mayores aportes a la definición física de este límite. La estrategia lo que confirmó fue simplemente la diferencia en la dirección de todos los vectores velocidad y no permitió reveló revelar con mayor detalle una ubicación de esta zona dentro del territorio nacional de Costa Rica. ABSTRACT The first strict processing performed with the Bernese scientific software and contemplating the highest standards internationally recommended calculation, yielded a precise field of high accuracy, based on the integration and standardization of data from a GPS network located in Costa Rica. This processing watched a total of 119 weeks of daily data, is about 2.3 years from January 2009 to April 2011, for a total of 30 GPS stations, of which 22 are located in the country of Costa Rica and 8 hospitalizations within the network of Geocentric System for the Americas (SIRGAS). The semi-free solutions generated, every week a GPS network with high internal accuracy defined by vectors between stations and the final coordinates of the satellite constellation. The weekly evaluation given by repeatability of the solutions provided in average errors of 1.7 mm 1.4 mm and 5.1 mm in the components [n e u], confirming a high consistency in these solutions. Although semi-free solutions have a high internal accuracy, they are not used for purposes of kinematic analysis, because they lack a reference frame. In Latin America, the densification of the International Terrestrial Reference Frame (ITRF), is represented by a network of continuously operating GNSS stations SIRGAS, known as SIRGAS-CON. Through weekly final coordinates of the 8 stations considered as a link, described each of the solutions to the frame 119 SIRGAS. The introduction of the frame SIRGAS to semi-free solutions generates deformations. The deformations of the semi-free solutions are products of the kinematics of each of the plates in which link stations are located. After SIRGAS weekly link to SIRGAS frame, an estimate of the velocity vectors of each of the stations was done. The velocity vectors for each SIRGAS stations are known with high accuracy. For this calculation routine in MatLab environment, based on a least squares fit was scheduled. The values obtained compared to the official values, gave average differences of the order of 0.06 cm/yr, -0.08 cm/yr and -0.10 cm/yr respectively for the coordinates [XYZ]. Thus was possible to determine the geocentric coordinates [XYZ]T and its temporal variations [vX vY vZ]T for the set of 22 GPS stations of Costa Rica, within IGS05 datum, reference epoch 2010.5. The high accuracy vector for geocentric coordinates was obtained, however for some stations the velocity vectors was not representative because of the relatively short time (less than one year) of data files. Under this premise, the eight stations located in the south of the country were excluded. This involved an estimate of the local velocity field with only twenty national stations plus three stations in Panama and Nicaragua. The algorithm used was Least Squares Collocation, which allows the estimation and interpolation of data from known data effectively. The algorithm was programmed with MatLab. The resulting field was estimated with a resolution of 30' X 30' and is highly consistent with a resulting average speed of 2.58 cm/y in a direction of 40.8° to the northeast. This field was validated based on the model data VEMOS2009 recommended by SIRGAS. The differences in average velocity for the stations used as input for the calculation of the field were of the order of +0.63 cm/yr, +0.22 cm/yr for the velocity values in latitude and longitude, which is a good determination velocity values and estimating the empirical covariance function necessary for implementing the method of application. Furthermore, the grid used as the basis for interpolation provided differences of about -0.62 cm/yr, -0.12 cm/yr to latitude and longitude. Additionally, the results of this investigation were used as input to an approach in defining the boundary of Panama called block within the country of Costa Rica. The calculation of the components of the Euler pole through a routine program in MatLab and applied to different combinations of points gave no further contributions to the physical definition of this limit. The strategy was simply confirming the difference in the direction of all the velocity vectors and not allowed to reveal more detail revealed a location of this area within the country of Costa Rica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La obtención de leyes de frecuencia de caudales de avenida mediante simulación hidrometeorológica requiere de la extensión de las series observadas de lluvia mediante series sintéticas que conserven sus propiedades extremales. Para cuencas pequeñas, cuya lluvia media pueda asimilarse a la registrada en un único pluviómetro, existen varios modelos puntuales que pueden realizar eficazmente la tarea. En el caso de cuencas medianas y grandes, deben utilizarse modelos multivariados, cuya calibración es más difícil que en el caso univariado. El objetivo de este trabajo es la simulación estocástica de lluvias a escala a través del empleo de un modelo multivariado en el tiempo y en el espacio. Para ello se ha empleado el programa Rainsim, que se basa en el modelo espacio-temporal de Neyman-Scott de pulsos rectangulares (e.g. Coperwait et al., 2002; Fowler et al., 2005; Burton et al., 2008). A partir de series históricas de lluvias se obtienen sus estadísticos, con los que se ajustan los parámetros del modelo para poder generar largas series de precipitaciones. En el trabajo se ha empleado el modelo Rainsim en un caso univariado y otro multivariado con tres pluviómetros, y se han comparado los resultados. El caso univariado es el embalse de Alloz, situado en la cuenca del Ebro, que cuenta con un pluviómetro con una serie histórica de 43 años con paso diario. En el caso multivariado se ha trabajado con el embalse de Fuensanta, situado en la cuenca del Segura, donde se escogieron tres pluviómetros (Gontar, Arguellite y Siles), que cuentan con series de datos de precipitación diaria de 31, 42 y 22 años. En los trabajos realizados se han obtenido resultados muy satisfactorios para el modelo puntual de un pluviómetro estudiado en la cuenca de Alloz, el comparar el comportamiento extremal de los datos observados y los datos simulados. En cuanto al modelo multivariado, los datos simulados presentan un comportamiento no tan acertado como en el caso univariado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La variación en calidad y cantidad de agua a lo largo del año en Tanzania provoca que la población de las zonas rurales se vea sometida a falta de acceso a agua potable. Según la Organización Mundial de la Salud, la distancia a la fuente de agua más próxima debe ser menor a 1000 metros y la espera para obtención del agua no mayor a 30 minutos. A lo largo del artículo se analiza la red de abastecimiento y se presentará el estudio de un sistema de tratamiento de potabilización de agua de bajo coste aplicado a pequeñas comunidades de países en desarrollo. La planta potabilizadora consistirá en un canal sedimentador, un filtro lento de arenas y un sistema de cloración en el depósito. Se analizará cada tratamiento realizado en la planta potabilizadora y su acción sobre la calidad del agua.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El creciente sector de las tecnologías aplicadas al desarrollo humano (a menudo llamadas tecnologías sociales), necesita de la colaboración entre los distintos actores y agentes implicados en el mismo, entre ellos la comunidad universitaria. Este universo cooperativo cambiante, se ha ido adaptando progresivamente, desde hace varias décadas, hasta haber alcanzado un apreciable grado de madurez, caracterizado por un buen número de evidencias de intervención y sus correspondientes indicadores. En este trabajo se presentan algunas de estas actividades, su integración en las distintas facetas de la actividad académica y parte de las evoluciones experimentadas. El estudio se centra en los trabajos en el sector agua y saneamiento para el desarrollo, en la actual Escuela Técnica Superior de Ingeniería y Diseño Industrial (ETSIDI, antes EUITI), aunque el alcance de intervenciones en red va mucho más allá de los límites del centro, incluso de la propia Universidad Politécnica de Madrid.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En este artículo se sintetizan avances en la literatura relacionados con demandas, precios y costes del agua en distintos sectores, y el papel que los métodos y modelos económicos pueden jugar en el diseño de instrumentos y políticas eficientes para la gestión del agua en el nuevo contexto institucional definido por la DMA. Se analiza de forma específica la contribución de la Economía en la gestión del agua en la agricultura y en el uso urbano, y los distintos métodos para determinar el valor económico del agua en el medio ambiente. Tras esto se presenta el estado del arte de modelos que integran oferta y demanda a escala de cuenca acoplando hidrología, gestión y economía (modelos hidroeconómicos), y diversas aplicaciones a la resolución de problemas de gestión de recursos hídricos. Concluimos con un análisis de tendencias y retos futuros en el papel de los modelos y el análisis económico en la gestión de los recursos hídricos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En esta Tesis Doctoral se aborda un tema poco estudiado en el ámbito de los túneles y cuya problemática está basada en los riesgos e incertidumbres que representa el diseño y ejecución de túneles en macizos calizos karstificados. Mediante un estudio profundo del comportamiento de distintos casos reales de túneles en macizos kársticos calizos, aportando la realización de modelos y la experiencia constructiva del autor, se pretende proponer un procedimiento que permita sistematizar las actuaciones, investigación, evaluación y tratamiento en los túneles en karst, como herramienta básica para la toma de decisiones primarias correctas. Además, se proponen herramientas que pueden ayudar a mejorar el diseño y a decidir las medidas más eficientes para afrontar los problemas que genera el karst en los túneles, minimizando los riesgos para todos los actores, su probabilidad e impacto. Se profundiza en tres fases principales (que son referidas en la tesis en cuatro Partes): La INVESTIGACIÓN del macizo rocoso: La investigación engloba todas las actuaciones observacionales encaminadas a obtener el IK (Índice de Karstificación), así como las investigaciones necesarias mediante recopilación de datos superficiales, hidrogeológicos, climáticos, topográficos, así como los datos de investigaciones geofísicas, fotointerpretación, sondeos y ensayos geotécnicos que sean posibles. Mediante la misma, se debe alcanzar un conocimiento suficiente para llevar a cabo la determinación de la Caracterización geomecánica básica del macizo rocoso a distintas profundidades, la determinación del Modelo o modo de karstificación del macizo rocoso respecto al túnel y la Zonificación del índice de karstificación en el ámbito de actuación en el que se implantará el túnel. En esta primera fase es necesaria la correcta Definición geométrica y trazado de la obra subterránea: En función de las necesidades que plantee el proyecto y de los condicionantes externos de la infraestructura, se deben establecer los requisitos mínimos de gálibo necesarios, así como las condiciones de máximas pendientes para el trazado en alzado y los radios mínimos de las curvas en planta, en función del procedimiento constructivo y motivación de construcción del túnel (ferrocarril, carretera o hidráulico, etc...). Estas son decisiones estratégicas o primerias para las que se ha de contar con un criterio y datos adecuados. En esta fase, son importantes las decisiones en cuanto a las monteras o profundidades relativas a la karstificación dominante e investigación de las tensiones naturales del macizo, tectónica, así como las dimensiones del túnel en función de las cavidades previstas, tratamientos, proceso de excavación y explotación. En esta decisión se debe definir, conocida ya de forma parcial la geotecnia básica, el procedimiento de excavación en función de las longitudes del túnel y la clasificación geomecánica del terreno, así como sus monteras mínimas, accesos y condicionantes medioambientales, pero también en función de la hidrogeología. Se establecerá la afección esperable en el túnel, identificando en la sectorización del túnel, la afección esperable de forma general para las secciones pésimas del túnel. Con todos estos datos, en esta primera aproximación, es posible realizar el inventario de casos posibles a lo largo del trazado, para poder, posteriormente, minimizar el número de casos con mayores riesgos (técnicos, temporales o económicos) que requieran de tratamiento. Para la fase de EVALUACIÓN de la matriz de casos posibles en función del trazado inicial escogido (que puede estar ya impuesto por el proyecto, si no se ha podido intervenir en dicha fase), es necesario valorar el comportamiento teórico del túnel en toda su longitud, estudiando las secciones concretas según el tipo y el modo de afección (CASOS) y todo ello en función de los resultados de los estudios realizados en otros túneles. Se debe evaluar el riesgo para cada uno de los casos en función de las longitudes de túnel que se esperan que sean afectadas y el proceso constructivo y de excavación que se vaya a adoptar, a veces varios. Es importante tener en cuenta la existencia o no de agua o relleno arcilloso o incluso heterogéneo en las cavidades, ya que los riesgos se multiplican, así mismo se tendrá en cuenta la estabilidad del frente y del perímetro del túnel. En esta segunda fase se concluirá una nueva matriz con los resultados de los riesgos para cada uno de los casos que se presentarán en el túnel estudiado. El TRATAMIENTO, que se debe proponer al mismo tiempo que una serie de actuaciones para cada uno de los casos (combinación de tipos y modos de afección), debiendo evaluar la eficacia y eficiencia, es decir la relevancia técnica y económica, y como se pueden optimizar los tratamientos. Si la tabla de riesgos que se debe generar de nuevo introduciendo los factores técnicos y económicos no resulta aceptable, será necesaria la reconsideración de los parámetros determinados en fases anteriores. Todo el desarrollo de estas tres etapas se ha recogido en 4 partes, en la primera parte se establece un método de estudio e interpretativo de las investigaciones superficiales y geotécnicas, denominado índice de karstificación. En la segunda parte, se estudia la afección a las obras subterráneas, modelos y tipos de afección, desde un punto de vista teórico. La tercera parte trata de una recopilación de casos reales y las consecuencias extraídas de ellos. Y finalmente, la cuarta parte establece los tratamientos y actuaciones para el diseño y ejecución de túneles en macizos kársticos calizos. Las novedades más importantes que presenta este trabajo son: El estudio de los casos de túneles realizados en karst calizo. Propuesta de los tratamientos más efectivos en casos generales. La evaluación de riesgos en función de las tipologías de túnel y afecciones en casos generales. La propuesta de investigación superficial mediante el índice de karstificación observacional. La evaluación mediante modelos del comportamiento teórico de los túneles en karst para casos muy generales de la influencia de la forma, profundidad y desarrollo de la karstificación. In this doctoral thesis is studied the recommended investigation, evaluation and treatment when a tunnel is planed and constructed in karstic calcareous rock masses. Calcareous rock masses were selected only because the slow disolution produces stable conduct and caves instead the problems of sudden disolutions. Karstification index (IK) that encompasses various aspects of research karstic rock mass is presented. The karst rock masses are all unique and there are no similarities between them in size or density cavities ducts, but both their formation mechanisms, like, geological and hydrogeological geomorphological evidence allow us, through a geomechanical survey and geological-photo interpretation in the surface, establish a karst evaluation index specific for tunnelling, which allows us to set a ranking of the intensity of karstification and the associated stadistic to find caves and its risk in tunnelling. This index is estimated and useful for decision-making and evaluation of measures to be considered in the design of a tunnel and is set in degrees from 0 to 100, with similar to the RMR degrees. The sectorization of the tunnel section and the types of condition proposed in this thesis, are estimated also useful to understand the different effects that interception of ducts and cavities may have in the tunnel during construction and service life. Simplified calculations using two-dimensional models contained in the thesis, have been done to establish the relationship between the position of the cavities relative to the section of the tunnel and its size in relation to the safety factors for each ground conditions, cover and natural stresses. Study of over 100 cases of tunnels that have intercepted cavities or karst conduits have been used in this thesis and the list of risks found in these tunnels have been related as well. The most common and effective treatments are listed and finally associated to the models and type of affection generated to give the proper tool to help in the critical decision when the tunnels intercept cavities. Some existing studies from Marinos have been considered for this document. The structure of the thesis is mainly divided 4 parts included in 3 steps: The investigation, the evaluation and the treatments, which match with the main steps needed for the critical decisions to be made during the design and construction of tunnels in karstic rockmasses, very important to get a successfully project done.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En la presente Tesis se realizó un análisis numérico, usando el código comercial Ansys-Fluent, de la refrigeración de una bola de combustible de un reactor de lecho de bolas (PBR, por sus siglas en inglés), ante un escenario de emergencia en el cual el núcleo sea desensamblado y las bolas se dejen caer en una piscina de agua, donde el mecanismo de transferencia de calor inicialmente sería la ebullición en película, implicando la convección y la radiación al fluido. Previamente se realizaron pruebas de validación, comparando los resultados numéricos con datos experimentales disponibles en la literatura para tres geometrías diferentes, lo cual permitió seleccionar los esquemas y modelos numéricos con mejor precisión y menor costo computacional. Una vez identificada la metodología numérica, todas las pruebas de validación fueron ampliamente satisfactorias, encontrándose muy buena concordancia en el flujo de calor promedio con los datos experimentales. Durante estas pruebas de validación se lograron caracterizar numéricamente algunos parámetros importantes en la ebullición en película con los cuales existen ciertos niveles de incertidumbre, como son el factor de acoplamiento entre convección y radiación, y el factor de corrección del calor latente de vaporización. El análisis térmico de la refrigeración de la bola del reactor por ebullición en película mostró que la misma se enfría, a pesar del calor de decaimiento, con una temperatura superficial de la bola que desciende de forma oscilatoria, debido al comportamiento inestable de la película de vapor. Sin embargo, la temperatura de esta superficie tiene una buena uniformidad, notándose que las áreas mejor y peor refrigeradas están localizadas en la parte superior de la bola. Se observó la formación de múltiples domos de vapor en diferentes posiciones circunferenciales, lo cual causa que el área más caliente de la superficie se localice donde se forman los domos más grandes. La separación entre los domos de vapor fue consistente con la teoría hidrodinámica, con la adición de que la separación entre domos se reduce a medida que evolucionan y crecen, debido a la curvatura de la superficie. ABSTRACT A numerical cooling analysis of a PBR fuel pebble, after an emergency scenario in which the nucleus disassembly is made and the pebbles are dropped into a water pool, transmitting heat by film boiling, involving convection and radiation to the fluid, is carried out in this Thesis. First, were performed validation tests comparing the numerical results with experimental works available for three different geometries, which allowed the selection of numerical models and schemes with better precision and lower computational cost. Once identified the numerical methodology, all validation tests were widely satisfactory, finding very good agreement with experimental works in average heat flux. During these validation tests were achieved numerically characterize some important parameters in film boiling with which there are certain levels of uncertainty, such as the coupling factor between convection and radiation, and the correction factor of the latent heat of vaporization. The thermal analysis of pebble cooling by film boiling shows that despite its decay heat, cooling occurs, with pebble surface temperature descending from an oscillatory manner, due to the instability of the vapor film. However, the temperature of this surface has a good uniformity, noting that the best and worst refrigerated area is located at the top of the pebble. The formation of multiple vapor domes at different circumferential positions is observed, which cause that the hottest area of the surface was located where biggest vapor domes were formed. The separation between vapor domes was consistent with the hydrodynamic theory, with the addition that the separation is reduced as the vapor dome evolves and grows, due to the surface curvature.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo del presente proyecto es conseguir un sistema de abastecimiento energético donde el coste de la energía sea mínimo, contemplando la inclusión de generación mediante energías renovables. El emplazamiento elegido para este estudio es la isla de Brava, situada en el archipiélago de Cabo Verde, África. El estudio se hace mediante un programa informático que permite obtener un sistema económicamente óptimo según unos datos de entrada. Se realizan varios estudios de la isla, empezando por el sistema de abastecimiento actual y terminando por el sistema óptimo que ofrece como solución este proyecto. Además se incluye un análisis de emisiones para poder así comparar el sistema actual con la solución propuesta. Abstract The objective of this project is to be able to have an energetic supply system where energy cost would be as minimum as possible thanks to renewable energy. Brava Island, based in Cabo Verde archipelago (Africa), is the place chosen for that study. The study relies on a commercial software. This program permits to obtain an optimum economical system based on data entries. Several studies of the island have been made. First, a look at the current supply system has been carried out. Then, a focus on the optimum system this project will offer as a solution was performed. Moreover, it includes an emission generation analysis in order to be able to compare the current system toward the solution proposed.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La ciberseguridad es un tema que está cobrando cada vez más importancia en nuestra sociedad debido al continuo desarrollo que está experimentando Internet. Las personas siempre se han preocupado por proteger sus datos y posesiones físicas; pero, por algún motivo que se desconoce, no logran tomar conciencia de que es igualmente importante guardar de manera segura su información digital. Últimamente, empresas y particulares han empezado a instalar cortafuegos, sistemas anti-virus, sistemas de detección frente a intrusos, etc. Sin embargo, hay una parte de la ciberseguridad desconocida y muy peligrosa que puede provocar que un ataque tenga éxito pese a existir todos estos sistemas de protección: la Ingeniería Social. El objetivo de este documento es repasar de manera detallada las técnicas que utilizan hoy en día los hackers para complementar sus ataques o para realizarlos directamente a través de ellas. Muchos métodos han existido siempre, otros han evolucionado a través del tiempo y algunos han surgido con el paso de los años debido a los nuevos medios de comunicación que se han ido desarrollando. Además, se va a intentar analizar cuáles son las mejores técnicas dependiendo de cuál sea el objetivo del atacante. Este estudio se ha realizado considerando las diferencias que supone que un ataque vaya dirigido a una persona corriente o a una empresa en particular. Este apartado reúne todos los datos que se han podido encontrar para que quien lo lea sea capaz de tener en cuenta la mayoría de casos posibles que un hacker puede considerar cuando realiza un ataque de estas características. Por último, se ha creído importante proponer una campaña de concienciación para aportar una posible solución a la educación de la sociedad sobre la Ingeniería Social. Repasando campañas de sensibilización hechas en el pasado por empresas, instituciones privadas o gobiernos y analizando los errores y aciertos de éstas, se ha desarrollado brevemente una campaña de cambio social propia

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Comprender y estimular la motivación resulta crucial para favorecer el rendimiento de los estudiantes universitarios y profesionales de diversos ámbitos de conocimiento, como el de la Ingeniería del Software. Actualmente, este sector está demandando soluciones científico-tecnológicas para trabajar de una manera práctica y sistemática sobre elementos motivacionales como la satisfacción por el estudio y el trabajo, el aprendizaje activo o las relaciones interpersonales. El objetivo de esta Tesis Doctoral es definir y validar soluciones para evaluar y mejorar la motivación de los estudiantes y profesionales en Ingeniería del Software. Para ello, se han creado instrumentos, metodologías y tecnologías que se han aplicado con un total de 152 estudiantes y 166 profesionales. Esta experiencia empírica ha servido para mejorar de manera continua dichas aportaciones, así como para comprobar en un entorno real su validez y utilidad. Los datos recogidos revelan que las soluciones provistas han resultado eficaces para comprender y estimular la motivación tanto en el ámbito académico como en el profesional. Además, a raíz de los datos recogidos se han podido explorar aspectos de interés sobre las características y particularidades motivacionales asociadas a la Ingeniería del Software. Por tanto, esta Tesis Doctoral resulta de interés para las universidades y empresas de este sector sensibilizadas con el desarrollo motivacional de sus estudiantes y trabajadores. Abstract It is crucial to understand and encourage the motivation of students and professionals in order to enhance their performance. This applies to students and professionals from diverse fields such as Software Engineering. Currently this sector is demanding scientific–technological solutions to work on motivational elements in a pragmatic and systematic way. Such elements are among others study and work satisfaction, active learning or interpersonal relationships. This Doctoral Thesis objective is to establish and validate solutions to evaluate and improve the motivation in the Software Engineering field. To achieve this goal, resources, methods and technologies have been created. They have been applied to 152 students and 166 professionals. This empirical experience served to, on one hand, enhance in a continuous way the provided contributions, and on the other hand, to test in a real environment their validity and utility. The collected data reveal that the provided solutions were effective to understand and encourage motivation both in the academic and in the professional area. In addition, the collected data enable to examine interesting aspects and motivational special features associated with Software Engineering. Therefore this Doctoral Thesis is relevant to universities and firms from this field which are aware of the significance of the motivational development of their students and employees.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Las Field-Programmable Gate Arrays (FPGAs) SRAM se construyen sobre una memoria de configuración de tecnología RAM Estática (SRAM). Presentan múltiples características que las hacen muy interesantes para diseñar sistemas empotrados complejos. En primer lugar presentan un coste no-recurrente de ingeniería (NRE) bajo, ya que los elementos lógicos y de enrutado están pre-implementados (el diseño de usuario define su conexionado). También, a diferencia de otras tecnologías de FPGA, pueden ser reconfiguradas (incluso en campo) un número ilimitado de veces. Es más, las FPGAs SRAM de Xilinx soportan Reconfiguración Parcial Dinámica (DPR), la cual permite reconfigurar la FPGA sin interrumpir la aplicación. Finalmente, presentan una alta densidad de lógica, una alta capacidad de procesamiento y un rico juego de macro-bloques. Sin embargo, un inconveniente de esta tecnología es su susceptibilidad a la radiación ionizante, la cual aumenta con el grado de integración (geometrías más pequeñas, menores tensiones y mayores frecuencias). Esta es una precupación de primer nivel para aplicaciones en entornos altamente radiativos y con requisitos de alta confiabilidad. Este fenómeno conlleva una degradación a largo plazo y también puede inducir fallos instantáneos, los cuales pueden ser reversibles o producir daños irreversibles. En las FPGAs SRAM, los fallos inducidos por radiación pueden aparecer en en dos capas de arquitectura diferentes, que están físicamente superpuestas en el dado de silicio. La Capa de Aplicación (o A-Layer) contiene el hardware definido por el usuario, y la Capa de Configuración contiene la memoria de configuración y la circuitería de soporte. Los fallos en cualquiera de estas capas pueden hacer fracasar el sistema, lo cual puede ser ás o menos tolerable dependiendo de los requisitos de confiabilidad del sistema. En el caso general, estos fallos deben gestionados de alguna manera. Esta tesis trata sobre la gestión de fallos en FPGAs SRAM a nivel de sistema, en el contexto de sistemas empotrados autónomos y confiables operando en un entorno radiativo. La tesis se centra principalmente en aplicaciones espaciales, pero los mismos principios pueden aplicarse a aplicaciones terrenas. Las principales diferencias entre ambas son el nivel de radiación y la posibilidad de mantenimiento. Las diferentes técnicas para la gestión de fallos en A-Layer y C-Layer son clasificados, y sus implicaciones en la confiabilidad del sistema son analizados. Se proponen varias arquitecturas tanto para Gestores de Fallos de una capa como de doble-capa. Para estos últimos se propone una arquitectura novedosa, flexible y versátil. Gestiona las dos capas concurrentemente de manera coordinada, y permite equilibrar el nivel de redundancia y la confiabilidad. Con el objeto de validar técnicas de gestión de fallos dinámicas, se desarrollan dos diferentes soluciones. La primera es un entorno de simulación para Gestores de Fallos de C-Layer, basado en SystemC como lenguaje de modelado y como simulador basado en eventos. Este entorno y su metodología asociada permite explorar el espacio de diseño del Gestor de Fallos, desacoplando su diseño del desarrollo de la FPGA objetivo. El entorno incluye modelos tanto para la C-Layer de la FPGA como para el Gestor de Fallos, los cuales pueden interactuar a diferentes niveles de abstracción (a nivel de configuration frames y a nivel físico JTAG o SelectMAP). El entorno es configurable, escalable y versátil, e incluye capacidades de inyección de fallos. Los resultados de simulación para algunos escenarios son presentados y comentados. La segunda es una plataforma de validación para Gestores de Fallos de FPGAs Xilinx Virtex. La plataforma hardware aloja tres Módulos de FPGA Xilinx Virtex-4 FX12 y dos Módulos de Unidad de Microcontrolador (MCUs) de 32-bits de propósito general. Los Módulos MCU permiten prototipar Gestores de Fallos de C-Layer y A-Layer basados en software. Cada Módulo FPGA implementa un enlace de A-Layer Ethernet (a través de un switch Ethernet) con uno de los Módulos MCU, y un enlace de C-Layer JTAG con el otro. Además, ambos Módulos MCU intercambian comandos y datos a través de un enlace interno tipo UART. Al igual que para el entorno de simulación, se incluyen capacidades de inyección de fallos. Los resultados de pruebas para algunos escenarios son también presentados y comentados. En resumen, esta tesis cubre el proceso completo desde la descripción de los fallos FPGAs SRAM inducidos por radiación, pasando por la identificación y clasificación de técnicas de gestión de fallos, y por la propuesta de arquitecturas de Gestores de Fallos, para finalmente validarlas por simulación y pruebas. El trabajo futuro está relacionado sobre todo con la implementación de Gestores de Fallos de Sistema endurecidos para radiación. ABSTRACT SRAM-based Field-Programmable Gate Arrays (FPGAs) are built on Static RAM (SRAM) technology configuration memory. They present a number of features that make them very convenient for building complex embedded systems. First of all, they benefit from low Non-Recurrent Engineering (NRE) costs, as the logic and routing elements are pre-implemented (user design defines their connection). Also, as opposed to other FPGA technologies, they can be reconfigured (even in the field) an unlimited number of times. Moreover, Xilinx SRAM-based FPGAs feature Dynamic Partial Reconfiguration (DPR), which allows to partially reconfigure the FPGA without disrupting de application. Finally, they feature a high logic density, high processing capability and a rich set of hard macros. However, one limitation of this technology is its susceptibility to ionizing radiation, which increases with technology scaling (smaller geometries, lower voltages and higher frequencies). This is a first order concern for applications in harsh radiation environments and requiring high dependability. Ionizing radiation leads to long term degradation as well as instantaneous faults, which can in turn be reversible or produce irreversible damage. In SRAM-based FPGAs, radiation-induced faults can appear at two architectural layers, which are physically overlaid on the silicon die. The Application Layer (or A-Layer) contains the user-defined hardware, and the Configuration Layer (or C-Layer) contains the (volatile) configuration memory and its support circuitry. Faults at either layers can imply a system failure, which may be more ore less tolerated depending on the dependability requirements. In the general case, such faults must be managed in some way. This thesis is about managing SRAM-based FPGA faults at system level, in the context of autonomous and dependable embedded systems operating in a radiative environment. The focus is mainly on space applications, but the same principles can be applied to ground applications. The main differences between them are the radiation level and the possibility for maintenance. The different techniques for A-Layer and C-Layer fault management are classified and their implications in system dependability are assessed. Several architectures are proposed, both for single-layer and dual-layer Fault Managers. For the latter, a novel, flexible and versatile architecture is proposed. It manages both layers concurrently in a coordinated way, and allows balancing redundancy level and dependability. For the purpose of validating dynamic fault management techniques, two different solutions are developed. The first one is a simulation framework for C-Layer Fault Managers, based on SystemC as modeling language and event-driven simulator. This framework and its associated methodology allows exploring the Fault Manager design space, decoupling its design from the target FPGA development. The framework includes models for both the FPGA C-Layer and for the Fault Manager, which can interact at different abstraction levels (at configuration frame level and at JTAG or SelectMAP physical level). The framework is configurable, scalable and versatile, and includes fault injection capabilities. Simulation results for some scenarios are presented and discussed. The second one is a validation platform for Xilinx Virtex FPGA Fault Managers. The platform hosts three Xilinx Virtex-4 FX12 FPGA Modules and two general-purpose 32-bit Microcontroller Unit (MCU) Modules. The MCU Modules allow prototyping software-based CLayer and A-Layer Fault Managers. Each FPGA Module implements one A-Layer Ethernet link (through an Ethernet switch) with one of the MCU Modules, and one C-Layer JTAG link with the other. In addition, both MCU Modules exchange commands and data over an internal UART link. Similarly to the simulation framework, fault injection capabilities are implemented. Test results for some scenarios are also presented and discussed. In summary, this thesis covers the whole process from describing the problem of radiationinduced faults in SRAM-based FPGAs, then identifying and classifying fault management techniques, then proposing Fault Manager architectures and finally validating them by simulation and test. The proposed future work is mainly related to the implementation of radiation-hardened System Fault Managers.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El correcto pronóstico en el ámbito de la logística de transportes es de vital importancia para una adecuada planificación de medios y recursos, así como de su optimización. Hasta la fecha los estudios sobre planificación portuaria se basan principalmente en modelos empíricos; que se han utilizado para planificar nuevas terminales y desarrollar planes directores cuando no se dispone de datos iniciales, analíticos; más relacionados con la teoría de colas y tiempos de espera con formulaciones matemáticas complejas y necesitando simplificaciones de las mismas para hacer manejable y práctico el modelo o de simulación; que requieren de una inversión significativa como para poder obtener resultados aceptables invirtiendo en programas y desarrollos complejos. La Minería de Datos (MD) es un área moderna interdisciplinaria que engloba a aquellas técnicas que operan de forma automática (requieren de la mínima intervención humana) y, además, son eficientes para trabajar con las grandes cantidades de información disponible en las bases de datos de numerosos problemas prácticos. La aplicación práctica de estas disciplinas se extiende a numerosos ámbitos comerciales y de investigación en problemas de predicción, clasificación o diagnosis. Entre las diferentes técnicas disponibles en minería de datos las redes neuronales artificiales (RNA) y las redes probabilísticas o redes bayesianas (RB) permiten modelizar de forma conjunta toda la información relevante para un problema dado. En el presente trabajo se han analizado dos aplicaciones de estos casos al ámbito portuario y en concreto a contenedores. En la Tesis Doctoral se desarrollan las RNA como herramienta para obtener previsiones de tráfico y de recursos a futuro de diferentes puertos, a partir de variables de explotación, obteniéndose valores continuos. Para el caso de las redes bayesianas (RB), se realiza un trabajo similar que para el caso de las RNA, obteniéndose valores discretos (un intervalo). El principal resultado que se obtiene es la posibilidad de utilizar tanto las RNA como las RB para la estimación a futuro de parámetros físicos, así como la relación entre los mismos en una terminal para una correcta asignación de los medios a utilizar y por tanto aumentar la eficiencia productiva de la terminal. Como paso final se realiza un estudio de complementariedad de ambos modelos a corto plazo, donde se puede comprobar la buena aceptación de los resultados obtenidos. Por tanto, se puede concluir que estos métodos de predicción pueden ser de gran ayuda a la planificación portuaria. The correct assets’ forecast in the field of transportation logistics is a matter of vital importance for a suitable planning and optimization of the necessary means and resources. Up to this date, ports planning studies were basically using empirical models to deal with new terminals planning or master plans development when no initial data are available; analytical models, more connected to the queuing theory and the waiting times, and very complicated mathematical formulations requiring significant simplifications to acquire a practical and easy to handle model; or simulation models, that require a significant investment in computer codes and complex developments to produce acceptable results. The Data Mining (DM) is a modern interdisciplinary field that include those techniques that operate automatically (almost no human intervention is required) and are highly efficient when dealing with practical problems characterized by huge data bases containing significant amount of information. These disciplines’ practical application extends to many commercial or research fields, dealing with forecast, classification or diagnosis problems. Among the different techniques of the Data Mining, the Artificial Neuronal Networks (ANN) and the probabilistic – or Bayesian – networks (BN) allow the joint modeling of all the relevant information for a given problem. This PhD work analyses their application to two practical cases in the ports field, concretely to container terminals. This PhD work details how the ANN have been developed as a tool to produce traffic and resources forecasts for several ports, based on exploitation variables to obtain continuous values. For the Bayesian networks case (BN), a similar development has been carried out, obtaining discreet values (an interval). The main finding is the possibility to use ANN and BN to estimate future needs of the port’s or terminal’s physical parameters, as well as the relationship between them within a specific terminal, that allow a correct assignment of the necessary means and, thus, to increase the terminal’s productive efficiency. The final step is a short term complementarily study of both models, carried out in order to verify the obtained results. It can thus be stated that these prediction methods can be a very useful tool in ports’ planning.