141 resultados para monitorización


Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este trabajo, se estudia como generar de manera acelerada fenómenos expansivos en el interior de materiales cementicios compuestos considerando la posibilidad de utilizar como elementos de adicción tanto cenizas volantes como escorias. Se presentan resultados de la monitorización de estos procesos desde su etapa inicial y se caracterizan química, microestructural y cristalográficamente mediante difracción de rayos X, microscopía electrónica de electrones retrodispersados, energías dispersivas de rayos X y porosimetría de mercurio. Estos datos se complementan con valores de comportamiento mecánico de los materiales para determinar su funcionalidad. Como resultado de estos estudios, se propone un modelo de generación y progresión de microgrietas para cada uno de los procesos de alteración estudiado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La plataforma de telecuidado PERSONA se ha desarrollado en el marco del CIBER-BBN y tiene por objetivo soportar el autocuidado diario de pacientes con diabetes tipo 1. La plataforma proporciona acceso a herramientas de soporte a la decisión, de procesado automático de la información, de monitorización de las variables que afectan a la enfermedad y facilita la comunicación entre los agentes involucrados en el cuidado del paciente. La integración de dispositivos médicos interoperables es un requisito principal de la plataforma PERSONA. En este trabajo presentamos las soluciones adoptadas en cuanto a la integración de dispositivos médicos y analizamos las características de los protocolos de comunicación inalámbrica de los dispositivos considerados y los recursos necesarios para la comunicación con dispositivos móviles de telefonía.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este trabajo se ha investigado la posibilidad de utilizar el estándar DDS (Data Distribution Service) desarrollado por el OMG (Object Management Group) para la monitorización en tiempo real del nivel de glucosa en pacientes diabéticos. Dicho estándar sigue el patrón publicador/suscriptor de modo que, en la prueba de concepto desarrollada, los sensores del punto de cuidado son publicadores de los valores de glucosa de los pacientes y diferentes supervisores se suscriben a esa información. Estos supervisores reaccionan de la forma más adecuada a los valores y la evolución del nivel de glucosa en el paciente, por ejemplo, registrando el valor de la muestra o generando una alarma. El software de intermediación que soporta la comunicación de datos sigue el estándar DDS. Esto facilita por un lado la escalabilidad e interoperatividad de la solución desarrollada y por otro la monitorización de niveles de glucosa y la activación de protocolos predefinidos en tiempo real. La investigación se enmarca dentro del proyecto intramural PERSONA del CIBER-BBN, cuyo objetivo es el diseño de herramientas de soporte a la decisión para la monitorización continua de pacientes personalizadas e integradas en una plataforma tecnológica para diabetes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo principal de este trabajo es implementar una herramienta de análisis automático de datos de operación para detectar fallos en instalaciones fotovoltaicas domésticas que disponen de sistemas de monitorización. Para ello se han analizado los datos de productividad de 10.650 sistemas fotovoltaicos (9657 situados en Francia y 993 en Bélgica). El Performance Ratio (PR) promedio ha sido de 76% en Francia y 78% en Bélgica, y el Performance Index (PI) promedio es de 85% en ambos países. La potencia real media de los módulos fotovoltaicos es un 4,9% inferior a su valor nominal anunciado en la ficha técnica del fabricante. Los módulos de heterounión (HIT) muestran productividades superiores a la media, mientras que los módulos de Cobre-Indio-Selenio (CIS) muestran una potencia real un 16% inferior a su valor nominal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El proceso de extracción minera por perforación y voladura es el primer paso para la obtención de la mayor parte de los áridos y para la fabricación de los materiales de construcción. Por tanto, es de vital importancia la obtención de una materia prima de calidad al coste más competitivo posible. En este trabajo se establece una metodología para la optimización de voladuras a cielo abierto, empleando herramientas para obtener los datos más precisos y poder conocer cualitativa y cuantitativamente los parámetros reales de voladura. Así, se establecen tres fases de trabajo: Herramientas para el diseño de voladura; herramientas para la monitorización y herramientas para el análisis de resultados. Con la conjunción de estas tres fases y la correcta interpretación de los resultados, se puede obtener un resultado óptimo en el proceso minero, puesto que será posible mejorar la fase de perforación optimizando el número de barrenos y la fase de voladura, asegurando un adecuado comportamiento del explosivo en términos de energía y secuenciación. Los medios empleados se basan en la adquisición de datos mediante técnicas láser, monitorización digital de la voladura y medios de simulación y predicción de resultados mediante análisis informáticos de los datos obtenidos. Además, se consigue controlar las afecciones medioambientales de las voladuras, tales como vibraciones, proyecciones y onda aérea. La metodología descrita es un sistema cíclico de modo que los resultados obtenidos en la fase de análisis, servirán como datos de partida de voladuras posteriores. Así se logra el concepto de voladura computerizada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La situación actual del mercado energético en España y el imparable aumento de las tasas por parte de las eléctricas, está fomentando la búsqueda de fuentes de energía alternativas que permitan a la población poder abastecerse de electricidad, sin tener que pagar unos costes tan elevados. Para cubrir esta necesidad, la energía fotovoltaica y sobretodo el autoconsumo con inyección a red o balance neto, está adquiriendo cada vez más importancia dentro del mundo energético. Pero la penetración de esta tecnología en la Red Eléctrica Española tiene un freno, la desconfianza por parte del operador de la red, ya que la fotovoltaica es una fuente de energía intermitente, que puede introducir inestabilidades en el sistema en caso de alta penetración. Por ello se necesita ganar la confianza de las eléctricas, haciendo que sea una energía predecible, que aporte potencia a la red eléctrica cuando se le pida y que opere participando en la regulación de la frecuencia del sistema eléctrico. Para tal fin, el grupo de investigación de Sistemas Fotovoltaicos, perteneciente al IES de la UPM, está llevando a cabo un proyecto de investigación denominado PV CROPS, financiado por la Comisión Europea, y que tiene por objetivo desarrollar estas estrategias de gestión. En este contexto, el objetivo de este Proyecto Fin de Carrera consiste en implementar un Banco de Ensayos con Integración de Baterías en Sistemas FV Conectados a Red, que permita desarrollar, ensayar y validar estas estrategias. Aprovechando la disponibilidad para usar el Hogar Digital, instalado en la EUITT de la UPM, hemos montado el banco de ensayos en un laboratorio contiguo, y así, poder utilizar este Hogar como un caso real de consumos energéticos de una vivienda. Este banco de ensayos permitirá obtener información de la energía generada por la instalación fotovoltaica y del consumo real de la "casa" anexa, para desarrollar posteriormente estrategias de gestión de la electricidad. El Banco de Ensayos está compuesto por tres bloques principales, interconectados entre sí:  Subsistema de Captación de Datos y Comunicación. Encargado de monitorizar los elementos energéticos y de enviar la información recopilada al Subsistema de Control. Formado por analizadores de red eléctrica, monofásicos y de continua, y una pasarela orientada a la conversión del medio físico Ethernet a RS485.  Subsistema de Control. Punto de observación y recopilación de toda la información que proviene de los elementos energéticos. Es el subsistema donde se crearán y se implementarán estrategias de control energético. Compuesto por un equipo Pxie, controlador empotrado en un chasis de gama industrial, y un equipo PC Host, compuesto por una workstation y tres monitores.  Subsistema de Energía. Formado por los elementos que generan, controlan o consumen energía eléctrica, en el Banco de Ensayos. Constituido por una pérgola FV, un inversor, un inversor bidireccional y un bloque de baterías. El último paso ha sido llevar a cabo un Ejemplo de Aplicación Práctica, con el que hemos probado que el Banco de Ensayos está listo para usarse, es operativo y completamente funcional en operaciones de monitorización de generación energética fotovoltaica y consumo energético. ABSTRACT. The current situation of the energetic market in Spain and the unstoppable increase of the tax on the part of the electrical companies, is promoting the search of alternative sources of energy that allow to the population being able to be supplied of electricity, without having to pay so high costs. To meet this need, the photovoltaic power and above all the self-consumption with injection to network, it is increasingly important inside the energetic world. It allows to the individual not only to pay less for the electricity, in addition it allows to obtain benefits for the energy generated in his own home. But the penetration of this technology in the Electrical Spanish Network has an obstacle, the distrust on the part of the operator of the electrical network, due to the photovoltaic is an intermittent source of energy, which can introduce instabilities in the system in case of high penetration. Therefore it´s necessary to reach the confidence of the electricity companies, making it a predictable energy, which provides with power to the electrical network whenever necessary and that operates taking part in the regulation of the frequency of the electric system. For such an end, the group of system investigation Photovoltaic, belonging to the IES of the UPM, there is carrying out a project of investigation named PV CROPS, financed by the European Commission, and that has for aim to develop these strategies of management. In this context, the objective of this Senior Thesis consists in implementing a Bank of Tests with Integration of Batteries in Photovoltaic Systems Connected to Network, which allows developing, testing and validating these strategies. Taking advantage of the availability to use the Digital Home installed in the EUITT of the UPM, we have mounted the bank of tests in a contiguous laboratory to use this Home as a real case of energetic consumptions of a house. This bank of tests will allow obtaining information of the energy generated by the photovoltaic installation and information of the royal consumption of the attached "house", to develop later strategies of management of the electricity. The Bank of Tests is composed by three principal blocks, interconnected each other:  Subsystem of Gathering of data and Communication. In charge of monitoring the energetic elements and sending the information compiled to the Subsystem of Control. Formed by power analyzers, AC and DC, and a gateway for the conversion of the Ethernet physical medium to RS485.  Subsystem of Control. Point of observation and compilation of all the information that comes from the energetic elements. It is the subsystem where there will be created and there will be implemented strategies of energetic control. Composed of a Pxie, controller fixed in an industrial range chassis, and a PC Host, formed by a workstation and three monitors.  Subsystem of Energy. Formed by the elements of generating, controlling or consuming electric power, in the Bank of Tests. Made of photovoltaic modules, an inverter, a twoway inverter and a batteries block. The last step has been performing an Example of Practical Application we have proved that the Bank of Tests is ready to be used, it´s operative and fully functional in monitoring operations of energetic photovoltaic generation and energetic consumption.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El auge y evolución de los sistemas de comunicaciones móviles y de las redes inalámbricas avanzadas, sucedido desde principios del siglo XXI, han propiciado el uso de Redes de Sensores Inalámbricos (RSI) en múltiples ámbitos de interés. Dichas redes están típicamente compuestas por dispositivos inalámbricos autónomos que incorporan sensores para la recogida de datos de distinta naturaleza. Las RSI se caracterizan por su escalabilidad, ausencia de cableado, pequeño tamaño, bajo consumo, gran variedad de magnitudes físico/químicas medibles, entre otras, cuyas cualidades las hace muy interesantes para su aplicación en multitud de escenarios de la Sociedad de la Información, tales como domótica, agricultura y ganadería, medioambiente, salud, procesos industriales, logística, seguridad o ciudades inteligentes, ente otras. En este Trabajo Fin de Máster, se propone el uso de las RSI en el escenario de Emergencias donde cobra gran importancia la usabilidad, la fiabilidad, la disponibilidad, y la robustez de los sistemas a emplear en condiciones hostiles, especialmente en las de bomberos. Es por ello que se analizarán previamente los trabajos de RSI desarrollados para estos entornos y que sugieren qué aplicaciones garantizan el cumplimiento de los requerimientos mencionados. Se aborda la utilización de una primera RSI para la monitorización ambiental de tres Centros de Procesado de Datos (CPD) del departamento de TI de Emergencias, siendo este un entorno sin movilidad, más controlado y que aporta la adquisición de experiencia en la utilización de las RSI de cara a un entorno móvil más complejo. A continuación, para el entorno móvil se ha desarrollado y validado un prototipo experimental de RSI para el seguimiento de salida de parques de bomberos de vehículos con su dotación. Así mismo se implementa un prototipo para la ayuda a la localización de bomberos y/o personas en un siniestro. Estas RSI se desarrollan e implantan en el entorno de Emergencias del Ayuntamiento de Madrid, entidad sin cuyo apoyo habría sido imposible la aplicación práctica de este trabajo. SUMMARY. The rise and evolution of mobile communication systems and advanced wireless networks in early XXI century have allowed to taking advantage of Wireless Sensor Networks (WSN). These networks are composed of independent wireless devices that incorporate sensors for collecting data of different nature. The WSN is characterized by its scalability, no wiring, small size, low power consumption, wide range of physical magnitudes measurable, among others. These qualities make them very interesting for application in many scenarios to the Information Society, such as, domotic, agriculture, smart environment, ehealth, industrial control, logistics, security and smart cities, among others. This work proposes to use WSN in the emergency scenario where is very important the usability, reliability, availability, and robustness of the systems to be used in hostile conditions, especially in fire-fighters environment. That is why WSN works in emergency will be studied to tackle what applications compliance with the above requirements. The first WSN developed will be environmental monitoring of three CPDs IT department Emergency. This scenario is a non-mobile environment, more controlled and bring gaining experience in the use of WSN to face mobile environment which is more complex. Then, for the mobile environment is developed an experimental prototype of WSN for tracking fire vehicles living fire stations with their equipment. Another prototype is foreseen to be implemented to assist fire-fighters location and / or people in a disaster. These WSN are developed and implemented for Madrid City Emergency, whose involvement was critical to put this research into stage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hasta ahora, la gran mayoría de los recursos explotados de gas natural procedían de acumulaciones convencionales de gas aislado y de gas asociado y disuelto en el petróleo. Sin embargo, el gas natural se encuentra también en yacimientos que, debido a su baja porosidad y permeabilidad, tienen unas características que hacen que hasta muy recientemente no hayan sido económicamente rentables y que sólo puedan ser explotados mediante técnicas no convencionales, dando lugar al denominado gas no convencional. Las técnicas utilizadas para su extracción son la fracturación hidráulica o “fracking” y la perforación horizontal. Entre los diversos tipos de gas no convencional, es de prever que el gas de pizarra sea el que sufra mayor desarrollo a medio plazo en nuestro país, por lo que se están generando grandes debates, debido al riesgo de contaminación de las aguas superficiales y subterráneas del entorno, provocados por la elevada cantidad de agua utilizada, los aditivos empleados, los fluidos de retorno, por la alteración del medio físico, así como por la dificultad de monitorización de estos procesos. En este proyecto se identifican los riesgos ambientales y sanitarios asociados a la extracción de gas no convencional. El trabajo se basa principalmente en experiencias ocurridas en países donde el fracking se ha convertido en una práctica habitual. Se trata además de establecer las bases necesarias para la estimación de la vulnerabilidad de los acuíferos frente a la contaminación inducida por la fracturación hidráulica. Abstract Until now, most of the natural gas resources exploited were from isolated conventional gas accumulations and associated and dissolved gas in oil. However, the natural gas is also in reservoirs that, due to their low porosity and permeability, have characteristics that make until recently not been economically profitable and can be exploited only by unconventional techniques, leading to the so called unconventional gas. The techniques used for extraction are hydraulic fracturing or "fracking" and horizontal drilling. Among the various types of unconventional gas, it is expected that shale gas is the suffering greater medium-term development in our country, so it is generating much debate, due to the risks of contamination in surface waters and subterranean environment, caused by the high amount of water used, the additives used, the return fluid, by altering the physical environment, and the difficulty of monitoring these processes. In this project identifies the environmental and health risks associated with unconventional gas extraction. The work is mainly based on experiences that occurred in countries where fracking has become a common practice. This is for establish the necessary basis for estimating the vulnerability of aquifers from contamination induced by hydraulic fracturing.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El cáncer de próstata es el tipo de cáncer con mayor prevalencia entre los hombres del mundo occidental y, pese a tener una alta tasa de supervivencia relativa, es la segunda mayor causa de muerte por cáncer en este sector de la población. El tratamiento de elección frente al cáncer de próstata es, en la mayoría de los casos, la radioterapia externa. Las técnicas más modernas de radioterapia externa, como la radioterapia modulada en intensidad, permiten incrementar la dosis en el tumor mientras se reduce la dosis en el tejido sano. Sin embargo, la localización del volumen objetivo varía con el día de tratamiento, y se requieren movimientos muy pequeños de los órganos para sacar partes del volumen objetivo fuera de la región terapéutica, o para introducir tejidos sanos críticos dentro. Para evitar esto se han desarrollado técnicas más avanzadas, como la radioterapia guiada por imagen, que se define por un manejo más preciso de los movimientos internos mediante una adaptación de la planificación del tratamiento basada en la información anatómica obtenida de imágenes de tomografía computarizada (TC) previas a la sesión terapéutica. Además, la radioterapia adaptativa añade la información dosimétrica de las fracciones previas a la información anatómica. Uno de los fundamentos de la radioterapia adaptativa es el registro deformable de imágenes, de gran utilidad a la hora de modelar los desplazamientos y deformaciones de los órganos internos. Sin embargo, su utilización conlleva nuevos retos científico-tecnológicos en el procesamiento de imágenes, principalmente asociados a la variabilidad de los órganos, tanto en localización como en apariencia. El objetivo de esta tesis doctoral es mejorar los procesos clínicos de delineación automática de contornos y de cálculo de dosis acumulada para la planificación y monitorización de tratamientos con radioterapia adaptativa, a partir de nuevos métodos de procesamiento de imágenes de TC (1) en presencia de contrastes variables, y (2) cambios de apariencia del recto. Además, se pretende (3) proveer de herramientas para la evaluación de la calidad de los contornos obtenidos en el caso del gross tumor volumen (GTV). Las principales contribuciones de esta tesis doctoral son las siguientes: _ 1. La adaptación, implementación y evaluación de un algoritmo de registro basado en el flujo óptico de la fase de la imagen como herramienta para el cálculo de transformaciones no-rígidas en presencia de cambios de intensidad, y su aplicabilidad a tratamientos de radioterapia adaptativa en cáncer de próstata con uso de agentes de contraste radiológico. Los resultados demuestran que el algoritmo seleccionado presenta mejores resultados cualitativos en presencia de contraste radiológico en la vejiga, y no distorsiona la imagen forzando deformaciones poco realistas. 2. La definición, desarrollo y validación de un nuevo método de enmascaramiento de los contenidos del recto (MER), y la evaluación de su influencia en el procedimiento de radioterapia adaptativa en cáncer de próstata. Las segmentaciones obtenidas mediante el MER para la creación de máscaras homogéneas en las imágenes de sesión permiten mejorar sensiblemente los resultados de los algoritmos de registro en la región rectal. Así, el uso de la metodología propuesta incrementa el índice de volumen solapado entre los contornos manuales y automáticos del recto hasta un valor del 89%, cercano a los resultados obtenidos usando máscaras manuales para el registro de las dos imágenes. De esta manera se pueden corregir tanto el cálculo de los nuevos contornos como el cálculo de la dosis acumulada. 3. La definición de una metodología de evaluación de la calidad de los contornos del GTV, que permite la representación de la distribución espacial del error, adaptándola a volúmenes no-convexos como el formado por la próstata y las vesículas seminales. Dicha metodología de evaluación, basada en un nuevo algoritmo de reconstrucción tridimensional y una nueva métrica de cuantificación, presenta resultados precisos con una gran resolución espacial en un tiempo despreciable frente al tiempo de registro. Esta nueva metodología puede ser una herramienta útil para la comparación de distintos algoritmos de registro deformable orientados a la radioterapia adaptativa en cáncer de próstata. En conclusión, el trabajo realizado en esta tesis doctoral corrobora las hipótesis de investigación postuladas, y pretende servir como cimiento de futuros avances en el procesamiento de imagen médica en los tratamientos de radioterapia adaptativa en cáncer de próstata. Asimismo, se siguen abriendo nuevas líneas de aplicación futura de métodos de procesamiento de imágenes médicas con el fin de mejorar los procesos de radioterapia adaptativa en presencia de cambios de apariencia de los órganos, e incrementar la seguridad del paciente. I.2 Inglés Prostate cancer is the most prevalent cancer amongst men in the Western world and, despite having a relatively high survival rate, is the second leading cause of cancer death in this sector of the population. The treatment of choice against prostate cancer is, in most cases, external beam radiation therapy. The most modern techniques of external radiotherapy, as intensity modulated radiotherapy, allow increasing the dose to the tumor whilst reducing the dose to healthy tissue. However, the location of the target volume varies with the day of treatment, and very small movements of the organs are required to pull out parts of the target volume outside the therapeutic region, or to introduce critical healthy tissues inside. Advanced techniques, such as the image-guided radiotherapy (IGRT), have been developed to avoid this. IGRT is defined by more precise handling of internal movements by adapting treatment planning based on the anatomical information obtained from computed tomography (CT) images prior to the therapy session. Moreover, the adaptive radiotherapy adds dosimetric information of previous fractions to the anatomical information. One of the fundamentals of adaptive radiotherapy is deformable image registration, very useful when modeling the displacements and deformations of the internal organs. However, its use brings new scientific and technological challenges in image processing, mainly associated to the variability of the organs, both in location and appearance. The aim of this thesis is to improve clinical processes of automatic contour delineation and cumulative dose calculation for planning and monitoring of adaptive radiotherapy treatments, based on new methods of CT image processing (1) in the presence of varying contrasts, and (2) rectum appearance changes. It also aims (3) to provide tools for assessing the quality of contours obtained in the case of gross tumor volume (GTV). The main contributions of this PhD thesis are as follows: 1. The adaptation, implementation and evaluation of a registration algorithm based on the optical flow of the image phase as a tool for the calculation of non-rigid transformations in the presence of intensity changes, and its applicability to adaptive radiotherapy treatment in prostate cancer with use of radiological contrast agents. The results demonstrate that the selected algorithm shows better qualitative results in the presence of radiological contrast agents in the urinary bladder, and does not distort the image forcing unrealistic deformations. 2. The definition, development and validation of a new method for masking the contents of the rectum (MER, Spanish acronym), and assessing their impact on the process of adaptive radiotherapy in prostate cancer. The segmentations obtained by the MER for the creation of homogenous masks in the session CT images can improve significantly the results of registration algorithms in the rectal region. Thus, the use of the proposed methodology increases the volume overlap index between manual and automatic contours of the rectum to a value of 89%, close to the results obtained using manual masks for both images. In this way, both the calculation of new contours and the calculation of the accumulated dose can be corrected. 3. The definition of a methodology for assessing the quality of the contours of the GTV, which allows the representation of the spatial distribution of the error, adapting it to non-convex volumes such as that formed by the prostate and seminal vesicles. Said evaluation methodology, based on a new three-dimensional reconstruction algorithm and a new quantification metric, presents accurate results with high spatial resolution in a time negligible compared to the registration time. This new approach may be a useful tool to compare different deformable registration algorithms oriented to adaptive radiotherapy in prostate cancer In conclusion, this PhD thesis corroborates the postulated research hypotheses, and is intended to serve as a foundation for future advances in medical image processing in adaptive radiotherapy treatment in prostate cancer. In addition, it opens new future applications for medical image processing methods aimed at improving the adaptive radiotherapy processes in the presence of organ’s appearance changes, and increase the patient safety.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En los últimos años hemos sido testigos de la creciente demanda de software para resolver problemas cada vez más complejos y de mayor valor agregado. Bajo estas circunstancias, nos podemos hacer la siguiente pregunta: ¿Está preparada la industria de software para entregar el software que se necesita en los próximos años, de acuerdo con las demandas del cliente? Hoy en día, muchos expertos creen que el éxito de esta industria dependerá de su capacidad para gestionar los proyectos, las personas y los recursos. En este sentido, la gestión de proyectos es un factor clave para el éxito de los proyectos software en todo el mundo. Además, considerando que las Pequeñas y Medianas Empresas de software (PYMEs) representan el 99,87% de las empresas españolas, es vital para este tipo de empresas la implementación de los procesos involucrados con la gestión de proyectos. Es cierto que existen muchos modelos que mejoran la eficacia de la gestión de proyectos, pero la mayoría de ellos se centra únicamente en dos procesos: la planificación del proyecto y la monitorización y control del proyecto, ninguno de los cuales a menudo es asequible para las PYMEs. Estos modelos se basan en el consenso de un grupo de trabajo designado para establecer cómo debe ser gestionado el proceso software. Los modelos son bastante útiles ya que proporcionan lineamientos generales sobre dónde empezar a mejorar la gestión de los proyectos, y en qué orden, a personas que no saben cómo hacerlo. Sin embargo, como se ha dicho anteriormente, la mayoría de estos modelos solamente funcionan en escenarios dentro de las grandes empresas. Por lo tanto, es necesario adaptar los modelos y herramientas para el contexto de PYMEs. Esta tesis doctoral presenta una solución complementaria basada en la aplicación de un metamodelo. Este metamodelo es creado para mejorar la calidad de los procesos de la gestión de proyectos a través de la incorporación de prácticas eficaces identificadas a través del análisis y estudio de los modelos y normas existentes relacionadas con la gestión de proyectos. viii ProMEP – Metamodelo para la gestión de proyectos Por lo tanto, el metamodelo PROMEP (Gestión de Proyectos basada en Prácticas Efectivas) permitirá establecer un proceso estándar de gestión de proyectos que puede adaptarse a los proyectos de cada empresa a través de dos pasos: En primer lugar, para obtener una fotografía instantánea (o base) de los procesos de gestión de proyectos de las PYMEs se creó un cuestionario de dos fases para identificar tanto las prácticas realizadas y como las no realizadas. El cuestionario propuesto se basa en el Modelo de Madurez y Capacidad Integrado para el Desarrollo v1.2 (CMMI-DEV v1.2). Como resultado adicional, se espera que la aplicación de este cuestionario ayude a las PYMEs a identificar aquellas prácticas que se llevan a cabo, pero no son documentadas, aquellas que necesitan más atención, y aquellas que no se realizan debido a la mala gestión o al desconocimiento. En segundo lugar, para apoyar fácilmente y eficazmente las tareas de gestión de proyectos software del metamodelo PROMEP, se diseñó una biblioteca de activos de proceso (PAL) para apoyar la definición de los procesos de gestión de proyectos y realizar una gestión cuantitativa de cada proyecto de las PYMEs. Ambos pasos se han implementado como una herramienta computacional que apoya nuestro enfoque de metamodelo. En concreto, la presente investigación propone la construcción del metamodelo PROMEP para aquellas PYMEs que desarrollan productos software de tal forma que les permita planificar, monitorizar y controlar sus proyectos software, identificar los riesgos y tomar las medidas correctivas necesarias, establecer y mantener un conjunto de activos de proceso, definir un mecanismo cuantitativo para predecir el rendimiento de los procesos, y obtener información de mejora. Por lo tanto, nuestro estudio sugiere un metamodelo alternativo para lograr mayores niveles de rendimiento en los entornos de PYMEs. Así, el objetivo principal de esta tesis es ayudar a reducir los excesos de trabajo y el tiempo de entrega, y aumentar así la calidad del software producido en este tipo de organizaciones. Abstract In recent years we have been witnessing the increasing demand for software to solve more and more complex tasks and greater added value. Under these circumstances, we can ourselves the following question: Is the software industry prepared to deliver the software that is needed in the coming years, according to client demands? Nowadays, many experts believe that the industry’ success will depend on its capacity to manage the projects, people and resources. In this sense, project management is a key factor for software project success around the world. Moreover, taking into account that small and medium-sized software enterprises (SMSe) are the 99.87% of the Spanish enterprises, it is vital for this type of enterprises to implement the processes involved in project management. It is true that there are many models that improve the project management effectiveness, but most of them are focused only on two processes: project planning and project monitoring and control, neither of which is affordable for SMSe. Such models are based on the consensus of a designated working group on how software process should be managed. They are very useful in that they provide general guidelines on where to start improving the project management, and in which order, to people who do not know how to do it. However, as we said, the majority of these models have only worked in scenarios within large companies. So, it is necessary to adapt these models and tools to the context of SMSe. A complementary solution based on the implementation of a metamodel is presented in this thesis. This metamodel is created to improve the quality of project management processes through the incorporation of effective practices identified through the analysis and study of relevant models and standards related to project management. Thus, the PROMEP (PROject Management based on Effective Practices) metamodel will allow establishing a project management standard process to be tailored to each enterprise’s project through two steps: Firstly, to obtain a baseline snapshot of project management processes in SMSe a two-phase questionnaire was created to identify both performed and nonperformed practices. The x ProMEP – Metamodelo para la gestión de proyectos proposed questionnaire is based on Capability Maturity Model Integration for Development v1.2. As additional result, it is expected that the application of the questionnaire to the processes will help SMSe to identify those practices which are performed but not documented, which practices need more attention, and which are not implemented due to bad management or unawareness. Secondly, to easily an effectively support the software project management tasks in the PROMEP metamodel, a Process Asset Library (PAL) is designed to support the definition of project management processes and to achieve quantitative project management in SMSe. Both steps have been implemented as a computational tool that supports our metamodel approach. Concretely, the present research proposes the accomplishment of the PROMEP metamodel for those SMSe which develop software products and enable them to plan, supervise and control their software projects, identify risks and take corrective actions, establish and maintain a set of process assets, define quantitative models that predict the process performance, and provide improvement information. So, our study suggests an alternative metamodel to achieve higher performance levels in the SMSe environments. The main objective of this thesis is help to reduce software overruns and delivery time, and increase software quality in these types of organizations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En esta tesis se presenta una nueva aproximación para la realización de mapas de calidad del aire, con objeto de que esta variable del medio físico pueda ser tenida en cuenta en los procesos de planificación física o territorial. La calidad del aire no se considera normalmente en estos procesos debido a su composición y a la complejidad de su comportamiento, así como a la dificultad de contar con información fiable y contrastada. Además, la variabilidad espacial y temporal de las medidas de calidad del aire hace que sea difícil su consideración territorial y exige la georeferenciación de la información. Ello implica la predicción de medidas para lugares del territorio donde no existen datos. Esta tesis desarrolla un modelo geoestadístico para la predicción de valores de calidad del aire en un territorio. El modelo propuesto se basa en la interpolación de las medidas de concentración de contaminantes registradas en las estaciones de monitorización, mediante kriging ordinario, previa homogeneización de estos datos para eliminar su carácter local. Con el proceso de eliminación del carácter local, desaparecen las tendencias de las series muestrales de datos debidas a las variaciones temporales y espaciales de la calidad del aire. La transformación de los valores de calidad del aire en cantidades independientes del lugar de muestreo, se realiza a través de parámetros de uso del suelo y de otras variables características de la escala local. Como resultado, se obtienen unos datos de entrada espacialmente homogéneos, que es un requisito fundamental para la utilización de cualquier algoritmo de interpolación, en concreto, del kriging ordinario. Después de la interpolación, se aplica una retransformación de los datos para devolver el carácter local al mapa final. Para el desarrollo del modelo, se ha elegido como área de estudio la Comunidad de Madrid, por la disponibilidad de datos reales. Estos datos, valores de calidad del aire y variables territoriales, se utilizan en dos momentos. Un momento inicial, donde se optimiza la selección de los parámetros más adecuados para la eliminación del carácter local de las medidas y se desarrolla cada una de las etapas del modelo. Y un segundo momento, en el que se aplica en su totalidad el modelo desarrollado y se contrasta su eficacia predictiva. El modelo se aplica para la estimación de los valores medios y máximos de NO2 del territorio de estudio. Con la implementación del modelo propuesto se acomete la territorialización de los datos de calidad del aire con la reducción de tres factores clave para su efectiva integración en la planificación territorial o en el proceso de toma de decisiones asociado: incertidumbre, tiempo empleado para generar la predicción y recursos (datos y costes) asociados. El modelo permite obtener una predicción de valores del contaminante objeto de análisis en unas horas, frente a los periodos de modelización o análisis requeridos por otras metodologías. Los recursos necesarios son mínimos, únicamente contar con los datos de las estaciones de monitorización del territorio que, normalmente, están disponibles en las páginas web viii institucionales de los organismos gestores de las redes de medida de la calidad del aire. Por lo que respecta a las incertidumbres de la predicción, puede decirse que los resultados del modelo propuesto en esta tesis son estadísticamente muy correctos y que los errores medios son, en general, similares o menores que los encontrados con la aplicación de las metodologías existentes. ABSTRACT This thesis presents a new approach for mapping air quality, so that this variable of physical environment can be taken into account in physical or territorial planning. Ambient air quality is not normally considered in territorial planning mainly due to the complexity of its composition and behavior and the difficulty of counting with reliable and contrasted information. In addition, the wide spatial and temporal variability of the measurements of air quality makes his territorial consideration difficult and requires georeferenced information. This involves predicting measurements in the places of the territory where there are no data. This thesis develops a geostatistical model for predicting air quality values in a territory. The proposed model is based on the interpolation of measurements of pollutants from the monitoring stations, using ordinary kriging, after a detrending or removal of the local character of sampling values process. With the detrending process, the local character of the time series of sampling data, due to temporal and spatial variations of air quality, is removed. The transformation of the air quality values into site-independent quantities is performed using land use parameters and other characteristic parameters of local scale. This detrending of the monitoring data process results in a spatial homogeneous input set which is a prerequisite for a correct use of any interpolation algorithm, particularly, ordinary kriging. After the interpolation step, a retrending or retransformation is applied in order to incorporate the local character in the final map at places where no monitoring data is available. For the development of this model, the Community of Madrid is chosen as study area, because of the availability of actual data. These data, air quality values and local parameters, are used in two moments. A starting point, to optimize the selection of the most suitable indicators for the detrending process and to develop each one of the model stages. And a second moment, to fully implement the developed model and to evaluate its predictive power. The model is applied to estimate the average and maximum values of NO2 in the study territory. With the implementation of the proposed model, the territorialization of air quality data is undertaken with the reduction in three key factors for the effective integration of this parameter in territorial planning or in the associated decision making process: uncertainty, time taken to generate the prediction and associated resources (data and costs). This model allows the prediction of pollutant values in hours, compared to the implementation time periods required for other modeling or analysis methodologies. The required resources are also minimal, only having data from monitoring stations in the territory, that are normally available on institutional websites of the authorities responsible for air quality networks control and management. With regard to the prediction uncertainties, it can be concluded that the results of the proposed model are statistically very accurate and the mean errors are generally similar to or lower than those found with the application of existing methodologies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Como en todos los medios de transporte, la seguridad en los viajes en avión es de primordial importancia. Con los aumentos de tráfico aéreo previstos en Europa para la próxima década, es evidente que el riesgo de accidentes necesita ser evaluado y monitorizado cuidadosamente de forma continúa. La Tesis presente tiene como objetivo el desarrollo de un modelo de riesgo de colisión exhaustivo como método para evaluar el nivel de seguridad en ruta del espacio aéreo europeo, considerando todos los factores de influencia. La mayor limitación en el desarrollo de metodologías y herramientas de monitorización adecuadas para evaluar el nivel de seguridad en espacios de ruta europeos, donde los controladores aéreos monitorizan el tráfico aéreo mediante la vigilancia radar y proporcionan instrucciones tácticas a las aeronaves, reside en la estimación del riesgo operacional. Hoy en día, la estimación del riesgo operacional está basada normalmente en reportes de incidentes proporcionados por el proveedor de servicios de navegación aérea (ANSP). Esta Tesis propone un nuevo e innovador enfoque para evaluar el nivel de seguridad basado exclusivamente en el procesamiento y análisis trazas radar. La metodología propuesta ha sido diseñada para complementar la información recogida en las bases de datos de accidentes e incidentes, mediante la provisión de información robusta de los factores de tráfico aéreo y métricas de seguridad inferidas del análisis automático en profundidad de todos los eventos de proximidad. La metodología 3-D CRM se ha implementado en un prototipo desarrollado en MATLAB © para analizar automáticamente las trazas radar y planes de vuelo registrados por los Sistemas de Procesamiento de Datos Radar (RDP) e identificar y analizar todos los eventos de proximidad (conflictos, conflictos potenciales y colisiones potenciales) en un periodo de tiempo y volumen del espacio aéreo. Actualmente, el prototipo 3-D CRM está siendo adaptado e integrado en la herramienta de monitorización de prestaciones de Aena (PERSEO) para complementar las bases de accidentes e incidentes ATM y mejorar la monitorización y proporcionar evidencias de los niveles de seguridad. ABSTRACT As with all forms of transport, the safety of air travel is of paramount importance. With the projected increases in European air traffic in the next decade and beyond, it is clear that the risk of accidents needs to be assessed and carefully monitored on a continuing basis. The present thesis is aimed at the development of a comprehensive collision risk model as a method of assessing the European en-route risk, due to all causes and across all dimensions within the airspace. The major constraint in developing appropriate monitoring methodologies and tools to assess the level of safety in en-route airspaces where controllers monitor air traffic by means of radar surveillance and provide aircraft with tactical instructions lies in the estimation of the operational risk. The operational risk estimate normally relies on incident reports provided by the air navigation service providers (ANSPs). This thesis proposes a new and innovative approach to assessing aircraft safety level based exclusively upon the process and analysis of radar tracks. The proposed methodology has been designed to complement the information collected in the accident and incident databases, thereby providing robust information on air traffic factors and safety metrics inferred from the in depth assessment of proximate events. The 3-D CRM methodology is implemented in a prototype tool in MATLAB © in order to automatically analyze recorded aircraft tracks and flight plan data from the Radar Data Processing systems (RDP) and identify and analyze all proximate events (conflicts, potential conflicts and potential collisions) within a time span and a given volume of airspace. Currently, the 3D-CRM prototype is been adapted and integrated in AENA’S Performance Monitoring Tool (PERSEO) to complement the information provided by the ATM accident and incident databases and to enhance monitoring and providing evidence of levels of safety.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este proyecto, se ha desarrollado una aplicación electrónica para un coche de competición, en concreto para la fórmula SAE (Society of Automotive Engineers), una competición universitaria en la que cada equipo, formado por estudiantes, debe diseñar, construir y probar un prototipo basándose en una serie de reglas. El objetivo final de la competición es proporcionar a los estudiantes el conocimiento práctico necesario para su futura labor profesional, del cual se pensaba que los estudiantes adolecían al acabar sus estudios universitarios cuando se creó esta competición. La aplicación desarrollada en este proyecto consiste en un sistema de telemetría, utilizado para transmitir los datos proporcionados por los sensores del vehículo a través de un sistema de radiofrecuencia, de manera que se pueda estudiar el comportamiento del coche durante los ensayos a la vez que el coche está rodando y así no depender de un sistema de adquisición de datos del que había que descargarse la información una vez finalizada la sesión de ensayo, como había que hacer hasta el momento. Para la implementación del proyecto, se ha utilizado un kit de desarrollo (Xbee Pro 868) que incluye dos módulos de radio, dos placas de desarrollo, dos cables USB y una antena, el cual ha permitido desarrollar la parte de radio del proyecto. Para transmitir los datos proporcionados por la centralita del vehículo, la cual recoge la información de todos los sensores presentes en el vehículo, se han desarrollado dos placas de circuito impreso. La primera de ellas tiene como elemento principal un microprocesador PIC de la marca Microchip (PIC24HJ64GP502), que recoge los datos proporcionados por la centralita del vehículo a través de su bus CAN de comunicaciones. La segunda placa de circuito impreso tiene como elemento fundamental el transmisor de radio. Dicho transmisor está conectado al microprocesador de la otra placa a través de línea serie. Como receptor de radio se ha utilizado una de las placas de prueba que integraba el kit de desarrollo Xbee Pro 868, la cual recoge los datos que han sido enviados vía radio y los manda a su vez a través de USB a un ordenador donde son monitorizados. Hasta aquí la parte hardware del sistema. En cuanto a la parte software, ha habido que desarrollar una aplicación en lenguaje C, que ejecuta el microprocesador PIC, que se encarga de recoger los datos enviados por la centralita a través del bus CAN (Controller Area Network) y transmitirlos a través de línea serie al chip de radio. Por último, para la monitorización de los datos se han desarrollado dos aplicaciones en LabVIEW, una que recoge los datos a través de USB, los muestra en pantalla y los guarda en un fichero y otra que lee los datos del fichero y los representa gráficamente para permitir un estudio más detallado del comportamiento del vehículo. ABSTRACT In this project, an electronic application has been developed for a race car – Formula SAE car-. Formula SAE is a university championship in which each team, made up of students, should design, construct and test a prototype within certain rules. The final goal of the competition is to enhance the practical knowledge of the students, which was thougth to be poor at the time the competition was created. The application developed in this project consists of a telemetry system, employed to transmit the data provided by the car’s sensors through a radio frequency system, so that it could be possible to study the behaviour of the vehicle during tests and do not depend on a datalogger system as it occurred until now. To carry out the radio module of the project, a Xbee Pro 868 development kit has been used, which includes two radio modules, two development boards, two USB cables and an antenna. To transmit the data provided by the ECU (Engine Control Unit) of the vehicle, which receives information from all the sensors the vehicle has, two printed circuit boards have been built. One of them has a PIC microprocessor of Microchip (PIC24HJ64GP502) which receives the data coming from CAN bus of the ECU. Tha main element of the other printed circuit board is the radio transmitter. This chip receives the data from the microprocessor through its serial line. The development board of the Xbee Pro 868 has been used as receiver. When data arrives to the receiver, it transmits them to a computer through USB where the data are displayed. All this composes the hardware of the system. Regarding the software, a C coded application has been developed. This application is executed by the microprocessor and its function is to receive the data from the bus CAN (Controller Area Network) and send them to the radio transmitter through the microprocessor’s serial line. To show the data on the computer, two LabVIEW applications has been developed. The first one receives the data through the USB port, displays them on the screen and save them to a file and the second one reads the data from the file while represents them graphically to allow studying the behaviour of the car on track.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis estudia la monitorización y gestión de la Calidad de Experiencia (QoE) en los servicios de distribución de vídeo sobre IP. Aborda el problema de cómo prevenir, detectar, medir y reaccionar a las degradaciones de la QoE desde la perspectiva de un proveedor de servicios: la solución debe ser escalable para una red IP extensa que entregue flujos individuales a miles de usuarios simultáneamente. La solución de monitorización propuesta se ha denominado QuEM(Qualitative Experience Monitoring, o Monitorización Cualitativa de la Experiencia). Se basa en la detección de las degradaciones de la calidad de servicio de red (pérdidas de paquetes, disminuciones abruptas del ancho de banda...) e inferir de cada una una descripción cualitativa de su efecto en la Calidad de Experiencia percibida (silencios, defectos en el vídeo...). Este análisis se apoya en la información de transporte y de la capa de abstracción de red de los flujos codificados, y permite caracterizar los defectos más relevantes que se observan en este tipo de servicios: congelaciones, efecto de “cuadros”, silencios, pérdida de calidad del vídeo, retardos e interrupciones en el servicio. Los resultados se han validado mediante pruebas de calidad subjetiva. La metodología usada en esas pruebas se ha desarrollado a su vez para imitar lo más posible las condiciones de visualización de un usuario de este tipo de servicios: los defectos que se evalúan se introducen de forma aleatoria en medio de una secuencia de vídeo continua. Se han propuesto también algunas aplicaciones basadas en la solución de monitorización: un sistema de protección desigual frente a errores que ofrece más protección a las partes del vídeo más sensibles a pérdidas, una solución para minimizar el impacto de la interrupción de la descarga de segmentos de Streaming Adaptativo sobre HTTP, y un sistema de cifrado selectivo que encripta únicamente las partes del vídeo más sensibles. También se ha presentado una solución de cambio rápido de canal, así como el análisis de la aplicabilidad de los resultados anteriores a un escenario de vídeo en 3D. ABSTRACT This thesis proposes a comprehensive approach to the monitoring and management of Quality of Experience (QoE) in multimedia delivery services over IP. It addresses the problem of preventing, detecting, measuring, and reacting to QoE degradations, under the constraints of a service provider: the solution must scale for a wide IP network delivering individual media streams to thousands of users. The solution proposed for the monitoring is called QuEM (Qualitative Experience Monitoring). It is based on the detection of degradations in the network Quality of Service (packet losses, bandwidth drops...) and the mapping of each degradation event to a qualitative description of its effect in the perceived Quality of Experience (audio mutes, video artifacts...). This mapping is based on the analysis of the transport and Network Abstraction Layer information of the coded stream, and allows a good characterization of the most relevant defects that exist in this kind of services: screen freezing, macroblocking, audio mutes, video quality drops, delay issues, and service outages. The results have been validated by subjective quality assessment tests. The methodology used for those test has also been designed to mimic as much as possible the conditions of a real user of those services: the impairments to evaluate are introduced randomly in the middle of a continuous video stream. Based on the monitoring solution, several applications have been proposed as well: an unequal error protection system which provides higher protection to the parts of the stream which are more critical for the QoE, a solution which applies the same principles to minimize the impact of incomplete segment downloads in HTTP Adaptive Streaming, and a selective scrambling algorithm which ciphers only the most sensitive parts of the media stream. A fast channel change application is also presented, as well as a discussion about how to apply the previous results and concepts in a 3D video scenario.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente Monografía, integrada en las publicaciones de la Red Temática FRUTURA, de CYTED, recoge las aportaciones de sus miembros en su tercera reunión científico-técnica, dando continuidad a las celebradas en Madrid y Sao Paulo en 2009. Se denominó “Situación actual, retos y soluciones en logística y transporte refrigerado internacional de frutas y hortalizas” y se celebró en la Universidad Politécnica de Cartagena, España, en junio de 2010. El evento se desarrolló durante tres jornadas, incluyendo el III Seminario Internacional de Transporte Frigorífico Marítimo, el I Seminario Internacional de Transporte Frigorífico Terrestre y Aéreo y el Foro Empresarial: Desafíos y Oportunidades del Intercambio Comercial Hortofrutícola España-Iberoamérica. La temática se enmarcó dentro del principal objetivo de la Red, el desarrollo de un sistema integral de mejora de la calidad y seguridad de las frutas durante la manipulación, el transporte y la comercialización, mediante nuevas tecnologías de inspección y monitorización. Las frutas y hortalizas frescas se producen frecuentemente en lugares alejados de los centros de consumo. Grandes volúmenes de productos, con frecuencia muy perecederos, se transportan diariamente a pequeñas o grandes distancias, tanto dentro de los propios países productores, como entre las naciones y Continentes. Paralelamente, los consumidores exigen de ellos una calidad cada día más elevada, no solo organoléptica, sino también nutricional, con especial garantía de la seguridad y el respeto del medio ambiente. Esto implica una alta exigencia al planificar el transporte y las operaciones omplementarias, para optimizar la calidad global y minimizar las pérdidas. Los aspectos asociados al transporte hortofrutícola en fresco, tanto en España como en Iberoamérica se abordaron a través de conferencias relacionadas con la situación en cada país participante. Así, se trataron los principales problemas y desafíos del transporte terrestre en Argentina y Uruguay, y de la exportación marítima desde Brasil, desde España (incluyendo tratamientos cuarentenarios) y desde Chile (con la modelización del envasado en atmósfera modificada a escala de pallet, los atributos de calidad en el transporte terrestre y aéreo y el seguimiento de la calidad de la fruta cortada mediante imágenes hiperespectrales). La calidad de las contribuciones recogidas en esta monografía, son un buen indicador del alto nivel científico de los miembros de la Red, cuyas aportaciones se vieron enriquecidas con el debate entre ponentes y participantes. Ello facilitó el intercambio de experiencias, la discusión de las temáticas en los diferentes ámbitos, la ampliación de conocimientos y la posibilidad de colaborar para llevar adelante nuevos avances tecnológicos. Asimismo, permitió identificar las limitaciones, problemas y desafíos que presenta el sector. Son aún muchos los condicionantes que surgen durante el transporte de productos perecederos, en especial de frutas y hortalizas, que requieren una solución técnica y económica. Durante las jornadas se realizaron diversas vistitas técnicas al Puerto de Cartagena, en sus áreas de logística, terminales y sistemas operativos de carga y descarga, contenedores isotermos y frigoríficos y cámaras frigoríficas de almacenamiento, organizadas por la Agencia Marítima Erhardt, S.A., Consignataria de buques de Cartagena (Murcia); la sede de la Autoridad Portuaria de Cartagena, donde se analizaron el desarrollo y previsiones de crecimiento de sus instalaciones portuarias en el futuro inmediato; la plataforma logística de exportación del Grupo Caliche S.A., ubicada en San Javier (Murcia) y la central hortofrutícola exportadora de cítricos y hortalizas de SAT San Cayetano, también en San Javier (Murcia). El interés por la temática de esta reunión quedó demostrado por la elevada participación durante las jornadas de empresarios, técnicos, investigadores y profesionales iberoamericanos. Pensamos que el fin último, que fue conocer en más profundidad la realidad presente del transporte terrestre, marítimo y aéreo en Iberoamérica mediante el acercamiento entre Universidades y Centros de Investigación y las Empresas del sector (exportadoras, importadoras y transportistas), se alcanzó plenamente. Deseamos agradecer al Instituto Nacional de Investigación y Tecnología Agraria y Alimentaria (AC2010-00017-00-00), a la Comunidad Autónoma de la Región de Murcia, a la Fundación Séneca de la Región de Murcia (14506/OC/10) y al Ayuntamiento de Cartagena su valiosa colaboración para la realización de este evento. Igualmente destacamos la ayuda desinteresada de los miembros del Grupo de Postrecolección y Refrigeración y del Instituto de Biotecnología Vegetal de la UPCT, quienes contribuyeron enormemente al éxito de la reunión.