32 resultados para evaluación por objetivos
em Universidad Politécnica de Madrid
Resumo:
El proceso de construcción incide sobre el medio ambiente desde la obtención de los recursos que utiliza, hasta la optimización del uso de la energía y el desecho de materiales y sustancias de diversa índole. Es ingente que el sector de la construcción considere su responsabilidad al respecto y cuente con herramientas de fácil aplicación, como la que pretende ofrecer esta investigación, que le permita determinar el impacto que tendrá sobre el ambiente una determinada solución estructural. A lo largo del presente trabajo se realiza una revisión de los principales instrumentos de evaluación y de las diferentes metodologías creadas para la evaluación del impacto ambiental, en base a estas se realiza la propuesta de un índice para la evaluación de las estructuras, la cual sirve para realizar una comparación entre dos soluciones estructurales. Los objetivos de este trabajo son: hacer una aproximación cuantitativa a la evaluación del impacto ambiental ocasionado por una estructura ; motivar a los proyectistas a tomar en cuenta los factores ambientales al momento de proyectar, por medio del uso de instrumentos de fácil aplicación ; realizar una revisión bibliográfica de los diferentes sistemas que existen a nivel mundial para cuantificar el impacto ambiental, específicamente buscando los sistemas que cuantifiquen el impacto de la estructura, entendiendo como estructura el conjunto de elementos (vigas, losa o forjado, columnas o pilares y cimentación) que soportan la estructura ; desarrollar un instrumento mediante el cual se pueda evaluar de manera cuantitativa y sencilla el impacto ambiental de una estructura. Que a su vez sirva a los proyectistas de una base o instrumento para poder evaluar la eficiencia de una estructura propuesta en base al impacto ambiental de la misma.
Resumo:
Los modelos de acreditación en el contexto internacional evalúan principalmente resultados de aprendizaje y la capacidad de los programas de maestría en ingeniería de proyectos para lograr los objetivos educativos que declaran en su misión. Sin embargo, no se garantiza que esos objetivos y por tanto los resultados, satisfagan necesidades reales del entorno nacional o regional, un aspecto esencial en los países en vías de desarrollo. El objetivo de la presente comunicación es sustentar la importancia de la evaluación de la pertinencia de estos programas y hacer un análisis de los principales modelos de garantía de la calidad y organismos de acreditación para conocer la forma en que se evalúa o no la pertinencia de los programas. Se encontró que, en un contexto económico de libre mercado, de internacionalización de la educación y movilidad, la acreditación de las maestrías sigue un modelo de acreditación internacional y no se cuenta en la mayoría de los casos con criterios e indicadores para evaluar la pertinencia. Sin embargo existen, dos modelos de acreditación o certificación que garantizan que un programa de maestría en ingeniería de proyectos sea pertinente localmente: el proyecto REG de AEIPRO y el proyecto europeo EUR-ACE.
Resumo:
El presente trabajo investiga la relevancia de las métricas de movimiento en la evaluación objetiva de habilidades laparoscópicas, así como su correlación directa a dichas habilidades. Se ha realizado una validación de construcción de tres nuevas tareas para la evaluación de cirujanos. Para registrar los movimientos, se ha empleado el sistema de tracking TrEndo. 42 voluntarios (16 noveles, 22 residentes y 4 expertos) participaron en el experimento. Los resultados muestran que tiempo, camino recorrido y profundidad son métricas de evaluación válidas para un amplio espectro de habilidades. Otras métricas como la brusquedad de movimientos o el tiempo muerto demuestran validez en tareas bi-manuales. Métricas como la brusquedad o la velocidad media muestran un alto grado de independencia con respecto a los objetivos de la tarea a realizar. Se verifica la utilidad de este tipo de métricas, si bien son necesarios nuevos estudios que corroboren los resultados alcanzados.
Resumo:
Tras el terremoto ocurrido en Haití el 12 de enero de 2010, con un epicentro próximo a la capital, Puerto Príncipe (25 km), de magnitud Mw 7,0 y profundidad de 13 km, el país ha quedado en una situación catastrófica y de extrema pobreza, con necesidades básicas de salud, nutrición, educación y habitabilidad. Los efectos del terremoto han sido devastadores en la población, con más de 300.000 personas que han perdido la vida, otras tantas que han resultado heridas y 1,3 millones de personas que han quedado sin hogar y viviendo en campamentos. En cuanto a los efectos materiales, el sismo ha dejado cerca de 100.000 residencias totalmente destruidas y casi 200.000 dañadas fuertemente (fuente: USGS). Este terremoto ha sido el más fuerte registrado en la zona desde el acontecido en 1770. Además, el sismo fue perceptible en países cercanos como Cuba, Jamaica y República Dominicana, donde provocó temor y evacuaciones preventivas. La reconstrucción del país es un tema prioritario en el marco de la cooperación internacional y el presente proyecto, SISMO-HAITÍ, se ha desarrollado con el fin de aportar conocimiento e información para facilitar la toma de medidas preventivas ante el riesgo sísmico existente, tratando de evitar que un terremoto futuro en el país produzca una catástrofe como el recientemente vivido. En el caso de Haití, no existía ninguna institución responsable del monitoreo sísmico, pero se ha establecido contacto directo con el Observatorio Nacional de Medio Ambiente y Vulnerabilidad de Haití (ONEV) a través de su director Dwinel Belizaire Ing. M. Sc. Director, que es precisamente quien ha solicitado la ayuda que ha motivado la presente propuesta. El fin último de este proyecto es el estudio de acciones de mitigación del elevado riesgo existente, contribuyendo al desarrollo sostenible de la región. Para ello, se ha evaluado la amenaza sísmica en Haití, en base a la cual se pretenden establecer criterios de diseño sismorresistente para la reconstrucción del país, que se podrán recoger en la primera normativa antisísmica, así como el riesgo sísmico en Puerto Príncipe, cuyos resultados servirán de base para elaborar los planes de emergencia ante este riesgo natural. Los objetivos específicos alcanzados son: • Evaluación de amenaza sísmica en Haití, resultando mapas de distintos parámetros de movimiento para diferentes probabilidades de excedencia (lo que supone conocer la probabilidad asociada a movimientos por futuros terremotos). • Evaluación del efecto local en Puerto Príncipe y elaboración de un mapa de microzonación de la ciudad. • Estudio de vulnerabilidad sísmica a escala local en Puerto Príncipe • Estimación del riesgo sísmico en Puerto Príncipe • Medidas de mitigación del riesgo y de diseño sismorresistente En este informe se resumen las actividades desarrolladas y los resultados obtenidos a lo largo del año 2011 durante la ejecución del presente proyecto. El grupo de trabajo es un equipo multidisciplinar, compuesto por investigadores de diferentes universidades (Universidad Politécnica de Madrid- UPM-, U. Complutense de Madrid -UCM-, U. Alicante -UA-, U. Almería -UAL-, U. Autónoma de Santo Domingo -UASD- y U. de Mayagüez de Puerto Rico -UPRM-) que cubren todas las ramas involucradas en la ejecución del proyecto: geología, sismología, ingeniería sísmica, arquitectura y gestión de geoinformación. Todos los miembros de este equipo han trabajado conjuntamente durante todo el año, manteniendo reuniones, jornadas de trabajo y videoconferencias, además de realizar una visita a Puerto Príncipe en julio de 2011 para llevar a cabo la primera toma de datos.
Resumo:
Esta tesis tiene dos objetivos generales: el primero, analizar el uso de proteínas del endospermo y SSRs para la racionalización de las colecciones de trigo, y el segundo, estudiar la influencia de las proteínas del endospermo, del año de cultivo y del abonado nitrogenado en la calidad en un grupo de variedades locales españolas. Dentro del primer objetivo, se estudió la diversidad genética de la colección de Triticum monococcum L. (escaña menor), y de una muestra de la colección de Triticum turgidum L. (trigo duro) del CRF-INIA, con 2 y 6 loci de gliadinas, y 6 y 24 SSRs, para la escaña menor y el trigo duro, respectivamente. Ambas colecciones presentaron una gran diversidad genética, con una gran diferenciación entre las variedades y pequeña dentro de ellas. Los loci de gliadinas mostraron una gran variabilidad, siendo los loci Gli-2 los más útiles para distinguir variedades. En la escaña menor, las gliadinas presentaron mayor poder de discriminación que los SSRs; aunque en trigo duro los SSRs identificaron más genotipos. El número de alelos encontrado fue alto; 24 y 38 en gliadinas, y 29 y 203 en SSRs, en escaña menor y trigo duro, respectivamente. En trigo duro, se identificaron 17 alelos nuevos de gliadinas lo que demuestra que el germoplasma español es muy singular. En ambas especies, se detectaron asociaciones entre la variación alélica en prolaminas y el origen geográfico y filogenético de las variedades. La utilidad de las proteínas (6 loci de gliadinas, 2 loci de gluteninas y proteína total) y de los SSRs (24 loci) para verificar duplicados, y analizar la variabilidad intraaccesión, se estudió en 23 casos de duplicados potenciales de trigo duro. Los resultados indicaron que tanto los biotipos como las accesiones duplicadas mostraban el mismo genotipo en gliadinas, pocas diferencias o ninguna en las subunidades de gluteninas HMW y proteína total, y diferencias en menos de tres loci de SSRs. El mismo resultado se obtuvo para los biotipos de la colección de T. monococcum. Sin embargo, las discrepancias observadas en algunos casos entre proteínas y SSRs demostraron la utilidad del uso conjunto de ambos tipos de marcadores. Tanto las proteínas como los SSRs mostraron gran concordancia con los caracteres agro-morfológicos, especialmente cuando las diferencias entre los genotipos eran grandes. Sin embargo, los caracteres agro-morfológicos fueron menos discriminantes que los marcadores moleculares. Para el segundo objetivo de la tesis, se analizó la variación alélica en siete loci de prolaminas relacionados con la calidad en trigo duro: Glu-A1 y Glu-B1 de gluteninas HMW, Glu-A3, Glu-B3 y Glu-B2 de gluteninas B-LMW, y Gli-A1 y Gli-B1 de gliadinas. La submuestra analizada incluía variedades locales de todas las provincias españolas donde se ha cultivado tradicionalmente el trigo duro. Todos los loci, excepto el Glu-B2, mostraron gran variabilidad genética, siendo los Glu-3 los más polimórficos. En total, se identificaron 65 alelos, de los que 29 eran nuevos, que representan una fuente importante de variabilidad genética para la mejora de la calidad. Se detectaron diferencias en la composición en prolaminas entre la convar. turgidum y la zona norte, y la convar. durum y la zona sur; el genotipo Glu-B3new-1 - Gli-B1new-1 fue muy común en la convar. turgidum, mientras que el Glu-B3a - Gli-B1c, asociado con mejor calidad, fue más frecuente en la convar. durum. En la convar. turgidum, se observó mayor variabilidad que en la convar. durum, principalmente en los loci Glu-B1 y Glu-B3, lo que indica que esta convariedad puede ser una fuente valiosa de nuevos alelos de gluteninas. Esta submuestra fue evaluada para calidad (contenido en proteína, P, y test de sedimentación, SDSS) con dos dosis de abonado nitrogenado (N), y en dos años diferentes. No se detectaron interacciones Variedad × Año, ni Variedad × N en la calidad. Para la P, los efectos ambientales (año y N) fueron mayores que el efecto de la variedad, siendo, en general, mayor la P con dosis altas de N. La variedad influyó más en el test SDSS, que no se vio afectado por el año ni el N. El aumento del contenido en proteína no influyó significativamente sobre la fuerza del gluten estimada con el SDSS. Respecto a la influencia de las prolaminas en la fuerza del gluten, se confirmó la superioridad del Glu-B3a; aunque también se detectó una influencia alta y positiva de los alelos nuevos Glu-A3new-1, y Glu-B3new-6 y new-9. La no correlación entre el rendimiento (evaluado en un trabajo anterior) y la P, en las variedades adaptadas a bajo N, permitió seleccionar cuatro variedades locales con alto rendimiento y buena fuerza del gluten para producción con bajo N. SUMMARY There are two main objectives in this thesis: The first, to analyse the use of endosperm proteins and SSRs to rationalize the wheat collections, and the second, to study the influence on quality of endosperm proteins, year and nitrogen fertilization in a group of Spanish landraces. For the first objective, we studied the genetic diversity of the collection of Triticum monococcum L. (cultivated einkorn), and of a sample of the collection of Triticum turgidum L. (durum wheat) maintained at the CRF-INIA. Two and 6 gliadin loci, and 6 and 24 SSRs, were used for einkorn and durum wheat, respectively. Both collections possessed a high genetic diversity, being the differentiation large between varieties and small within them. Gliadin loci showed great variability, being the loci Gli-2 the most useful for distinguish among varieties. In einkorn, the gliadins showed higher discrimination power than SSRs; although SSRs identified more genotypes in durum wheat. Large number of alleles were found; 24 and 38 in gliadins, and 29 and 203 in SSRs, for einkorn and durum wheat, respectively. In durum wheat, 17 new alleles of gliadins were identified, which indicate that Spanish durum wheat germplasm is rather unique. Some associations between prolamin alleles and geographical and phylogenetic origin of varieties were found in both species. The value of endosperm proteins (6 gliadin loci, 2 glutenin loci and total protein) and SSRs (24 loci) for validation of duplicates, and monitoring the intra-accession variability, was studied in 23 potential duplicates of durum wheat. The results indicated that biotypes and duplicated accessions showed identical gliadin genotype, few or none differences in HMW glutenin subunits and total protein, and less than three different SSR loci. A similar result was obtained for biotypes of T. monococcum. However, the discrepancies in some cases support the convenience to use together both marker systems. A good concordance among endosperm proteins, agro-morphological traits and SSRs were also found, mainly when differences between genotypes were high. However, agro-morphological traits discriminated less between accessions than molecular markers. For the second objective of the thesis, we analysed the allelic variation at seven prolamin loci, involved in durum wheat quality: Glu-A1 and Glu-B1 of HMW glutenin, Glu-A3, Glu-B3 and Glu-B2 of B-LMW glutenin, and Gli-A1 and Gli-B1 of gliadin. The subsample analysed included landraces from all the Spanish provinces where the crop was traditionally cultivated. All the loci, except for Glu-B2, showed high genetic variability, being Glu-3 the most polymorphic. A total of 65 alleles were studied, 29 of them being new, which represent an important source of variability for quality improvement. Differences in prolamin composition were detected between convar. turgidum and the North zone, and the convar. durum and the South zone; the genotype Glu-B3new-1 - Gli-B1new-1 was very common in the convar. turgidum, while the Glu- B3a - Gli-B1c, associated with better quality, was more frequent in the convar. durum. Higher variability was detected in the convar. turgidum than in the convar. durum, mainly at the Glu-B1 and Glu-B3, showing that this convariety could be a valuable source of new glutenin alleles. The subsample was evaluated for quality (protein content, P, and sedimentation test, SDSS) with two doses of nitrogen fertiliser (N), and in two different years. No significant Variety x Year or Variety x Nitrogen interactions were detected. For P, environmental (year and N) effects were higher than variety effect, being P values , in general, larger with high dose of N. The variety exhibited a strong influence on SDSS test, which was not affected by year and N. Increasing values of P did not significantly influence on gluten strength, estimated with the SDSS. Respect to the prolamin effects on gluten strength, the superiority of Glu-B3a was confirmed; although a high positive effect of the new alleles Glu-A3new-1, and Glu-B3new-6 and new-9 was also detected. The no correlation between yield (evaluated in a previous research) and P, in the landraces adapted to low N, allowed to select four landraces with high yield and high gluten strength for low N production.
Resumo:
En este artículo se describe un método para la evaluación del rendimiento de los procesos software de una organización de desarrollo de software utilizando técnicas alternativas a los cuestionarios (utilizados actualmente como técnica principal para evaluar el rendimiento de los procesos software en las organizaciones de desarrollo software). La importancia de la evaluación de procesos de una organización radica en qué, si es realizada de manera correcta, esta actividad permite identificar las oportunidades de mejora y dirigir el esfuerzo de la mejora hacia los procesos software que necesitan ser mejorados para alcanzar los objetivos del negocio establecidos por la alta dirección con la finalidad de generar ventajas competitivas respecto de sus competidores y garantizar su permanencia en el mercado.
Resumo:
“Conseguir un equilibrio óptimo entre el coste y los resultados y producir el mínimo impacto posible en el patrimonio arquitectónico, utilizando los fondos disponibles de una manera racional” (ICOMOS, Principios, 1.6) constituyen objetivos clave en los procesos de intervención en el patrimonio arquitectónico para “lograr la eficiencia y efectividad de las propuestas adoptadas, teniendo en cuenta la viabilidad económica y los aspectos medioambientales y sociales de la sostenibilidad” (Nueva Carta de Atenas 2003). Este trabajo se propone revisar el coste del ciclo de vida, una herramienta prevista para el análisis de la viabilidad sostenible de todo tipo de actividades, como un enfoque para la evaluación de proyectos, estrategias y políticas, tanto públicas como privadas, de intervención en el patrimonio arquitectónico. Se propone así introducir el método en los procesos de toma de decisiones incorporando conceptos tales como la durabilidad, obsolescencia y ciclos de vida diferenciales de estructuras y elementos preexistentes y de materiales y sistemas tecnológicos innovadores, así como el impacto de las externalidades positivas en la reutilización de los espacios históricos a lo largo de su ciclo de vida.
Resumo:
El objetivo de esta primera parte de este proyecto es realizar un modelo socioeconómico de evaluación para la instalación de un sistema de bicicleta pública con la ayuda del método de evaluación: el análisis multicriterio en el que se analizarán criterios de diferente tipología que se escogerán tras el estudio de unas encuestas realizadas a usuarios del sistema Vélo’v en Lyon y tras unas entrevistas realizadas a expertos y trabajadores en el campo de la bicicleta pública. Este modelo sirve como ayuda a la decisión en la fase de preparación de la creación de un SBP para asegurar el balance entre la rentabilidad financiera, la social y la medioambiental. Después de la toma de decisión, se procederá a la realización del proyecto y a su instalación y por último su funcionamiento. Los objetivos resultan: • Descripción de los sistemas de bicicleta pública y el marco de acción • Examinar los estudios realizados sobre el tema • Descripción de los trabajos realizados para este proyecto y posterior análisis para su aplicación • Determinar los requisitos de diseño y de dimensionamiento para la implantación de un SBP • Encontrar los criterios adecuados que se emplearan en el análisis multicriterio para la evaluación • Describir los indicadores para medir cada criterio • La ponderación de estos criterios según las encuestas realizadas a los usuarios • La realización de una alternativa 0 que describa la situación de la ciudad sin la realización del proyecto • Recomendación final del modelo a través de un cuadro de resultados. El objeto de la tercera parte del proyecto es la descripción técnica y gráfica de una caseta de servicio del sistema de préstamos de bicicleta pública en San Lorenzo de El Escorial. La Caseta proyectada tendrá funciones principales: un taller para el mantenimiento del servicio y un espacio de almacenamiento de bicicletas. La Caseta-Taller es una medida necesaria en la implantación de un servicio de bici pública puesto que el uso de las bicicletas necesita un mantenimiento. En un terreno accidentado y no siempre propicio para la circulación de bicicletas, estas sufren muchos degastes y necesitan reparaciones y mantenimiento continuo. Además, el servicio en San Lorenzo de El Escorial está sometido a flujos pendulares de desplazamientos puesto que la disponibilidad de bicicletas y de espacios libres en las estaciones es muy variable. Es necesario precisar de un espacio para el almacenamiento de bicicletas, ya sea para controlar la disponibilidad o bien para esperar a recibir el mantenimiento necesario. Aprovechando la construcción de un edificio nuevo se destinará un espacio en la Casa-Taller para el control y la gestión del sistema. En esta parte se detallará gráficamente la implantación de los puntos de préstamos en la vía urbana como complemento al dimensionamiento del anterior trabajo.
Resumo:
Hoy en día, la gran dependencia de los países industrializados de los combustibles fósiles para cubrir su demanda energética genera anualmente una enorme cantidad de emisiones de gases de efecto invernadero (GEI), provocando unos efectos negativos muy serios para el ser humano y su entorno. Al mismo tiempo, 1400 millones de personas, principalmente habitantes de países en desarrollo, viven sin acceso a la energía moderna, obstaculizando su desarrollo social y económico, y constituyendo una barrera importante para el logro de los Objetivos de Desarrollo del Milenio. Por eso, la energía es uno de los retos más importantes y urgentes a los que se enfrenta el mundo en la actualidad. Por cuestiones de equidad, es necesario extender el acceso a la energía moderna a las poblaciones que carecen de él, pero, si las tecnologías adoptadas para acelerar el acceso a la energía tienen un importante impacto ambiental, se agravarán los problemas ambientales y, en particular, aquellos relacionados con el cambio climático. Las iniciativas basadas en las energías renovables y la eficiencia energética se presentan como una solución con un importante potencial para resolver este desafío. Por un lado, estas tecnologías pueden sustituir a las mayoritariamente utilizadas en los países industrializados, basadas en recursos no renovables y contaminantes, ayudando así a reducir las emisiones de GEI. A su vez, pueden ser la base en la que se fundamenten los modelos energéticos de los países en desarrollo para extender el acceso a la energía a sus poblaciones. Poco a poco, los países llamados desarrollados y aquéllos emergentes han ido incorporando estas tecnologías alternativas dentro de sus matrices energéticas, y se espera que se produzca un aumento de su presencia en los próximos años. Sin embargo, en los países en desarrollo, la introducción de las energías renovables y eficiencia energética ha sido tradicionalmente más complicada. Al mismo tiempo, son cada vez más los estudios y experiencias que han concluido que una energía sostenible y accesible es necesaria para reducir la pobreza, el hambre y la malnutrición, mejorar la salud, incrementar los niveles de alfabetización y educación, y mejorar significativamente la vida de las mujeres y los niños. Por eso, las iniciativas basadas en energías renovables y eficiencia energética cada vez van teniendo con más frecuencia como destinatarios los países más empobrecidos. Gracias a ellas, además de contar con acceso a una energía sostenible y respetuosa con el medio ambiente, las poblaciones gozan de acceso a otros servicios como procesar alimentos y conservarlos por mayores períodos de tiempo, bombear agua, planificar una industria, dar servicio a centros sanitarios, transportar bienes y personas ,tener acceso a medios de comunicación y entretenimiento, etc. Sin embargo, aunque son muchas las mejoras que los proyectos energéticos pueden producir en las condiciones de vida de las comunidades receptoras, la experiencia muestra que existe un número importante de proyectos que no están contribuyendo a generar desarrollo como su potencial hacía esperar. Entre las diferentes razones que pueden explicar este “fracaso”, se encuentra el hecho de que no se han incluido todos los potenciales impactos en el desarrollo humano local desde las etapas de diseño del proyecto, y tampoco se han monitoreado su evolución. Para dar respuesta a esta situación, el presente trabajo desarrolla una metodología flexible, basada en un sistema de principios, criterios e indicadores, que permite diseñar y posteriormente evaluar los impactos que un determinado proyecto de energías renovables y eficiencia energética tiene sobre las condiciones de vida de las comunidades en las que se implementa, de forma que estos impactos puedan ser alcanzados. El trabajo recoge también una serie de casos de estudio en los que se ha aplicado la metodología: ocho proyectos vinculados a energías renovables y/o eficiencia energética situados en Senegal, basados tecnologías y escalas diferentes, implementados por distintos tipos de organismos y enmarcados en contextos diferentes. Esto es una prueba de la capacidad de adaptación y la flexibilidad con la que ha sido diseñada la metodología. La metodología se basa en una batería de indicadores, que contemplan todos los potenciales impactos que los proyectos de Energías Renovables y Eficiencia Energética pueden tener sobre las condiciones de vida de las comunidades donde se implementan. Los indicadores están agrupados por criterios, y éstos, a su vez, en cuatro principios (o dimensiones), los cuales marcan el objetivo y el alcance del modelo: Económico, Social, Ambiental y de Empoderamiento. La evaluación realizada en los ocho proyectos en Senegal ha permitido identificar factores que son determinantes para que los proyectos produzcan o no todas las potenciales contribuciones al desarrollo humano de las poblaciones receptoras. Algunos de los factores de éxito detectados han sido la elección de soluciones energéticas que utilicen tecnologías sencillas, que facilitan la apropiación por parte de la población receptora y las tareas de mantenimiento y la implicación de actores provenientes de diferentes sectores (público, privado y tercer sector), que trabajen en colaboración desde el inicio. Entre los factores de fracaso, se encuentra el hecho de que los procesos de participación y consulta no se han realizado de una forma adecuada, haciendo que los proyectos no respondan a las necesidades de la población local y no se tengan en cuenta las situaciones especificas de algunos grupos vulnerables, como las mujeres. Además, a menudo no se ha producido una verdadera transferencia de tecnología, por la escasa apropiación por parte de la población receptora y tampoco se han hecho estudios de las capacidades y voluntades de pago por los nuevos servicios energéticos, afectando muy negativamente a la sostenibilidad económica de las instalaciones. La metodología de evaluación y los casos de estudio presentados en el trabajo pretenden contribuir a mejorar la contribución de los proyectos de EERR y EE al desarrollo humano, y pueden ser un recurso útil para empresas, ONG y administraciones públicas involucradas en el ámbito de la Energía y en los países en desarrollo.
Resumo:
Los procedimientos de evaluación de la calidad de la voz basados en la valoración subjetiva a través de la percepción acústica por parte de un experto están bastante extendidos. Entre ellos,el protocolo GRBAS es el más comúnmente utilizado en la rutina clínica. Sin embargo existen varios problemas derivados de este tipo de estimaciones, el primero de los cuales es que se precisa de profesionales debidamente entrenados para su realización. Otro inconveniente reside en el hecho de que,al tratarse de una valoración subjetiva, múltiples circunstancias significativas influyen en la decisión final del evaluador, existiendo en muchos casos una variabilidad inter-evaluador e intra-evaluador en los juicios. Por estas razones se hace necesario el uso de parámetros objetivos que permitan realizar una valoración de la calidad de la voz y la detección de diversas patologías. Este trabajo tiene como objetivo comparar la efectividad de diversas técnicas de cálculo de parámetros representativos de la voz para su uso en la clasificación automática de escalas perceptuales. Algunos parámetros analizados serán los coeficientes Mel-Frequency Cepstral Coefficients(MFCC),las medidas de complejidad y las de ruido.Así mismo se introducirá un nuevo conjunto de características extraídas del Espectro de Modulación (EM) denominadas Centroides del Espectro de Modulación (CEM).En concreto se analizará el proceso de detección automática de dos de los cinco rasgos que componen la escala GRBAS: G y R. A lo largo de este documento se muestra cómo las características CEM proporcionan resultados similares a los de otras técnicas anteriormente utilizadas y propician en algún caso un incremento en la efectividad de la clasificación cuando son combinados con otros parámetros.
Resumo:
El trabajo presenta el seguimiento de los resultados académicos de alumnos de una asignatura durante una serie de cursos académicos. Este seguimiento se puede hacer desde la propia asignatura, un grupo de la misma o el Observatorio de Calidad del Centro. Sin embargo los datos disponibles no son los mismos. Un profesor o el coordinador de una asignatura cuentan con los datos internos de la asignatura y pueden distinguir entre curso y resultados finales. La evaluación puede ser más rápida, incluso actividad por actividad y con ello pueden enfocar la mejora de las actividades docentes.Desde un Observatorio de Calidad, no se dispone de datos internos de las asignaturas, sin embargo hay una serie de datos objetivos que se pueden obtener y que permiten hacer, también, un seguimiento de determinados resultados.Objetivos: Evaluar resultados y planificar actividades docentes encaminadas a mejorar la docencia y los resultados de una asignatura determinada. Desde un Observatorio de Calidad del Centro se puede realizar un estudio por asignaturas, departamentos o global del centro.Método: Las asignaturas troncales en la ETS de Arquitectura de la UPM, para el Plan 96, se imparten en los dos semestres y existe una convocatoria extraordinaria en julio. Se puede disponer de los datos de Matriculados, Presentados, No Presentados, Aprobados y Suspensos de cada una de las asignaturas en cada convocatoria, incluso del número de alumnos con calificación diferente al Aprobado. En función de los resultados que se desee obtener, es suficiente tener un número global de Aprobados o por su calificación. Estos datos se pueden tratar como valores totales de número de Alumnos o, como porcentaje de alumnos sobre el Total de Alumnos Matriculados o sobre el Total de Alumnos Presentados, para cada una de las convocatorias o en el total del curso. En este estudio, se ha considerado la cifra global de Aprobados para una asignatura.Resultado: Con la representación de los datos por semestre, se puede observar si hay simetría o no entre los dos, pudiendo planificar los grupos ofertados en cada uno de ellos en función de la tendencia de matrícula de los alumnos, así como analizar la relación entre el número de matriculados, de cada convocatoria, en función de los resultados de convocatorias anteriores. También permite evaluar el efecto de las iniciativas de innovación educativa, en función de la comparación con los resultados anteriores o, considerar la necesidad de realizar alguna actividad de mejora docente. Se observa también la incidencia de los resultados de los semestres en la convocatoria de julio y de los resultados de un curso en el siguiente. Se aprecia también la constancia del porcentaje de Alumnos No presentados. Conclusiones: La representación gráfica de la evolución interanual de los resultados de las asignaturas permite un seguimiento en la planificación del número de grupos a ofertar en cada convocatoria y, evaluar las actividades de innovación educativa puesta en marcha en las asignaturas así como los resultados de las asignaturas, departamentos o, incluso, el centro.
Resumo:
El objeto de esta Tesis doctoral es el desarrollo de una metodologia para la deteccion automatica de anomalias a partir de datos hiperespectrales o espectrometria de imagen, y su cartografiado bajo diferentes condiciones tipologicas de superficie y terreno. La tecnologia hiperespectral o espectrometria de imagen ofrece la posibilidad potencial de caracterizar con precision el estado de los materiales que conforman las diversas superficies en base a su respuesta espectral. Este estado suele ser variable, mientras que las observaciones se producen en un numero limitado y para determinadas condiciones de iluminacion. Al aumentar el numero de bandas espectrales aumenta tambien el numero de muestras necesarias para definir espectralmente las clases en lo que se conoce como Maldicion de la Dimensionalidad o Efecto Hughes (Bellman, 1957), muestras habitualmente no disponibles y costosas de obtener, no hay mas que pensar en lo que ello implica en la Exploracion Planetaria. Bajo la definicion de anomalia en su sentido espectral como la respuesta significativamente diferente de un pixel de imagen respecto de su entorno, el objeto central abordado en la Tesis estriba primero en como reducir la dimensionalidad de la informacion en los datos hiperespectrales, discriminando la mas significativa para la deteccion de respuestas anomalas, y segundo, en establecer la relacion entre anomalias espectrales detectadas y lo que hemos denominado anomalias informacionales, es decir, anomalias que aportan algun tipo de informacion real de las superficies o materiales que las producen. En la deteccion de respuestas anomalas se asume un no conocimiento previo de los objetivos, de tal manera que los pixeles se separan automaticamente en funcion de su informacion espectral significativamente diferenciada respecto de un fondo que se estima, bien de manera global para toda la escena, bien localmente por segmentacion de la imagen. La metodologia desarrollada se ha centrado en la implicacion de la definicion estadistica del fondo espectral, proponiendo un nuevo enfoque que permite discriminar anomalias respecto fondos segmentados en diferentes grupos de longitudes de onda del espectro, explotando la potencialidad de separacion entre el espectro electromagnetico reflectivo y emisivo. Se ha estudiado la eficiencia de los principales algoritmos de deteccion de anomalias, contrastando los resultados del algoritmo RX (Reed and Xiaoli, 1990) adoptado como estandar por la comunidad cientifica, con el metodo UTD (Uniform Targets Detector), su variante RXD-UTD, metodos basados en subespacios SSRX (Subspace RX) y metodo basados en proyecciones de subespacios de imagen, como OSPRX (Orthogonal Subspace Projection RX) y PP (Projection Pursuit). Se ha desarrollado un nuevo metodo, evaluado y contrastado por los anteriores, que supone una variacion de PP y describe el fondo espectral mediante el analisis discriminante de bandas del espectro electromagnetico, separando las anomalias con el algortimo denominado Detector de Anomalias de Fondo Termico o DAFT aplicable a sensores que registran datos en el espectro emisivo. Se han evaluado los diferentes metodos de deteccion de anomalias en rangos del espectro electromagnetico del visible e infrarrojo cercano (Visible and Near Infrared-VNIR), infrarrojo de onda corta (Short Wavelenght Infrared-SWIR), infrarrojo medio (Meadle Infrared-MIR) e infrarrojo termico (Thermal Infrared-TIR). La respuesta de las superficies en las distintas longitudes de onda del espectro electromagnetico junto con su entorno, influyen en el tipo y frecuencia de las anomalias espectrales que puedan provocar. Es por ello que se han utilizado en la investigacion cubos de datos hiperepectrales procedentes de los sensores aeroportados cuya estrategia y diseno en la construccion espectrometrica de la imagen difiere. Se han evaluado conjuntos de datos de test de los sensores AHS (Airborne Hyperspectral System), HyMAP Imaging Spectrometer, CASI (Compact Airborne Spectrographic Imager), AVIRIS (Airborne Visible Infrared Imaging Spectrometer), HYDICE (Hyperspectral Digital Imagery Collection Experiment) y MASTER (MODIS/ASTER Simulator). Se han disenado experimentos sobre ambitos naturales, urbanos y semiurbanos de diferente complejidad. Se ha evaluado el comportamiento de los diferentes detectores de anomalias a traves de 23 tests correspondientes a 15 areas de estudio agrupados en 6 espacios o escenarios: Urbano - E1, Semiurbano/Industrial/Periferia Urbana - E2, Forestal - E3, Agricola - E4, Geologico/Volcanico - E5 y Otros Espacios Agua, Nubes y Sombras - E6. El tipo de sensores evaluados se caracteriza por registrar imagenes en un amplio rango de bandas, estrechas y contiguas, del espectro electromagnetico. La Tesis se ha centrado en el desarrollo de tecnicas que permiten separar y extraer automaticamente pixeles o grupos de pixeles cuya firma espectral difiere de manera discriminante de las que tiene alrededor, adoptando para ello como espacio muestral parte o el conjunto de las bandas espectrales en las que ha registrado radiancia el sensor hiperespectral. Un factor a tener en cuenta en la investigacion ha sido el propio instrumento de medida, es decir, la caracterizacion de los distintos subsistemas, sensores imagen y auxiliares, que intervienen en el proceso. Para poder emplear cuantitativamente los datos medidos ha sido necesario definir las relaciones espaciales y espectrales del sensor con la superficie observada y las potenciales anomalias y patrones objetivos de deteccion. Se ha analizado la repercusion que en la deteccion de anomalias tiene el tipo de sensor, tanto en su configuracion espectral como en las estrategias de diseno a la hora de registrar la radiacion prodecente de las superficies, siendo los dos tipos principales de sensores estudiados los barredores o escaneres de espejo giratorio (whiskbroom) y los barredores o escaneres de empuje (pushbroom). Se han definido distintos escenarios en la investigacion, lo que ha permitido abarcar una amplia variabilidad de entornos geomorfologicos y de tipos de coberturas, en ambientes mediterraneos, de latitudes medias y tropicales. En resumen, esta Tesis presenta una tecnica de deteccion de anomalias para datos hiperespectrales denominada DAFT en su variante de PP, basada en una reduccion de la dimensionalidad proyectando el fondo en un rango de longitudes de onda del espectro termico distinto de la proyeccion de las anomalias u objetivos sin firma espectral conocida. La metodologia propuesta ha sido probada con imagenes hiperespectrales reales de diferentes sensores y en diferentes escenarios o espacios, por lo tanto de diferente fondo espectral tambien, donde los resultados muestran los beneficios de la aproximacion en la deteccion de una gran variedad de objetos cuyas firmas espectrales tienen suficiente desviacion respecto del fondo. La tecnica resulta ser automatica en el sentido de que no hay necesidad de ajuste de parametros, dando resultados significativos en todos los casos. Incluso los objetos de tamano subpixel, que no pueden distinguirse a simple vista por el ojo humano en la imagen original, pueden ser detectados como anomalias. Ademas, se realiza una comparacion entre el enfoque propuesto, la popular tecnica RX y otros detectores tanto en su modalidad global como local. El metodo propuesto supera a los demas en determinados escenarios, demostrando su capacidad para reducir la proporcion de falsas alarmas. Los resultados del algoritmo automatico DAFT desarrollado, han demostrado la mejora en la definicion cualitativa de las anomalias espectrales que identifican a entidades diferentes en o bajo superficie, reemplazando para ello el modelo clasico de distribucion normal con un metodo robusto que contempla distintas alternativas desde el momento mismo de la adquisicion del dato hiperespectral. Para su consecucion ha sido necesario analizar la relacion entre parametros biofisicos, como la reflectancia y la emisividad de los materiales, y la distribucion espacial de entidades detectadas respecto de su entorno. Por ultimo, el algoritmo DAFT ha sido elegido como el mas adecuado para sensores que adquieren datos en el TIR, ya que presenta el mejor acuerdo con los datos de referencia, demostrando una gran eficacia computacional que facilita su implementacion en un sistema de cartografia que proyecte de forma automatica en un marco geografico de referencia las anomalias detectadas, lo que confirma un significativo avance hacia un sistema en lo que se denomina cartografia en tiempo real. The aim of this Thesis is to develop a specific methodology in order to be applied in automatic detection anomalies processes using hyperspectral data also called hyperspectral scenes, and to improve the classification processes. Several scenarios, areas and their relationship with surfaces and objects have been tested. The spectral characteristics of reflectance parameter and emissivity in the pattern recognition of urban materials in several hyperspectral scenes have also been tested. Spectral ranges of the visible-near infrared (VNIR), shortwave infrared (SWIR) and thermal infrared (TIR) from hyperspectral data cubes of AHS (Airborne Hyperspectral System), HyMAP Imaging Spectrometer, CASI (Compact Airborne Spectrographic Imager), AVIRIS (Airborne Visible Infrared Imaging Spectrometer), HYDICE (Hyperspectral Digital Imagery Collection Experiment) and MASTER (MODIS/ASTER Simulator) have been used in this research. It is assumed that there is not prior knowledge of the targets in anomaly detection. Thus, the pixels are automatically separated according to their spectral information, significantly differentiated with respect to a background, either globally for the full scene, or locally by the image segmentation. Several experiments on different scenarios have been designed, analyzing the behavior of the standard RX anomaly detector and different methods based on subspace, image projection and segmentation-based anomaly detection methods. Results and their consequences in unsupervised classification processes are discussed. Detection of spectral anomalies aims at extracting automatically pixels that show significant responses in relation of their surroundings. This Thesis deals with the unsupervised technique of target detection, also called anomaly detection. Since this technique assumes no prior knowledge about the target or the statistical characteristics of the data, the only available option is to look for objects that are differentiated from the background. Several methods have been developed in the last decades, allowing a better understanding of the relationships between the image dimensionality and the optimization of search procedures as well as the subpixel differentiation of the spectral mixture and its implications in anomalous responses. In other sense, image spectrometry has proven to be efficient in the characterization of materials, based on statistical methods using a specific reflection and absorption bands. Spectral configurations in the VNIR, SWIR and TIR have been successfully used for mapping materials in different urban scenarios. There has been an increasing interest in the use of high resolution data (both spatial and spectral) to detect small objects and to discriminate surfaces in areas with urban complexity. This has come to be known as target detection which can be either supervised or unsupervised. In supervised target detection, algorithms lean on prior knowledge, such as the spectral signature. The detection process for matching signatures is not straightforward due to the complications of converting data airborne sensor with material spectra in the ground. This could be further complicated by the large number of possible objects of interest, as well as uncertainty as to the reflectance or emissivity of these objects and surfaces. An important objective in this research is to establish relationships that allow linking spectral anomalies with what can be called informational anomalies and, therefore, identify information related to anomalous responses in some places rather than simply spotting differences from the background. The development in recent years of new hyperspectral sensors and techniques, widen the possibilities for applications in remote sensing of the Earth. Remote sensing systems measure and record electromagnetic disturbances that the surveyed objects induce in their surroundings, by means of different sensors mounted on airborne or space platforms. Map updating is important for management and decisions making people, because of the fast changes that usually happen in natural, urban and semi urban areas. It is necessary to optimize the methodology for obtaining the best from remote sensing techniques from hyperspectral data. The first problem with hyperspectral data is to reduce the dimensionality, keeping the maximum amount of information. Hyperspectral sensors augment considerably the amount of information, this allows us to obtain a better precision on the separation of material but at the same time it is necessary to calculate a bigger number of parameters, and the precision lowers with the increase in the number of bands. This is known as the Hughes effects (Bellman, 1957) . Hyperspectral imagery allows us to discriminate between a huge number of different materials however some land and urban covers are made up with similar material and respond similarly which produces confusion in the classification. The training and the algorithm used for mapping are also important for the final result and some properties of thermal spectrum for detecting land cover will be studied. In summary, this Thesis presents a new technique for anomaly detection in hyperspectral data called DAFT, as a PP's variant, based on dimensionality reduction by projecting anomalies or targets with unknown spectral signature to the background, in a range thermal spectrum wavelengths. The proposed methodology has been tested with hyperspectral images from different imaging spectrometers corresponding to several places or scenarios, therefore with different spectral background. The results show the benefits of the approach to the detection of a variety of targets whose spectral signatures have sufficient deviation in relation to the background. DAFT is an automated technique in the sense that there is not necessary to adjust parameters, providing significant results in all cases. Subpixel anomalies which cannot be distinguished by the human eye, on the original image, however can be detected as outliers due to the projection of the VNIR end members with a very strong thermal contrast. Furthermore, a comparison between the proposed approach and the well-known RX detector is performed at both modes, global and local. The proposed method outperforms the existents in particular scenarios, demonstrating its performance to reduce the probability of false alarms. The results of the automatic algorithm DAFT have demonstrated improvement in the qualitative definition of the spectral anomalies by replacing the classical model by the normal distribution with a robust method. For their achievement has been necessary to analyze the relationship between biophysical parameters such as reflectance and emissivity, and the spatial distribution of detected entities with respect to their environment, as for example some buried or semi-buried materials, or building covers of asbestos, cellular polycarbonate-PVC or metal composites. Finally, the DAFT method has been chosen as the most suitable for anomaly detection using imaging spectrometers that acquire them in the thermal infrared spectrum, since it presents the best results in comparison with the reference data, demonstrating great computational efficiency that facilitates its implementation in a mapping system towards, what is called, Real-Time Mapping.
Resumo:
Dentro del objetivo común que persigue alcanzar una estabilidad social y una economía de éxito sostenible en el actual e incierto contexto mundial, el pronóstico es que la demanda de energía siga aumentando y que la generación mundial de electricidad se duplique entre los años 2005 y 2030. En este escenario, los combustibles fósiles podrían mantener una contribución muy significativa al mix energético posiblemente hasta el año 2050, participando del mercado de generación de energía eléctrica mundial en aproximadamente un 70% y siendo base de la generación de energía eléctrica europea en un 60%. El carbón sin duda seguirá teniendo una contribución clave. Este incremento en la demanda energética y energía eléctrica, en el consumo de carbón y de combustibles fósiles en general, sin duda tendrá impacto sobre los niveles de concentración de CO2 a nivel global en los diferentes escenarios evaluados, con un fatal pronóstico de triplicar, si no se contiene de alguna manera su emisión, los niveles actuales de concentración de CO2 hasta valores próximos a 1.200 ppm para finales de este siglo XXI. El Protocolo de Kyoto, adoptado en 1997, fue el primer tratado de responsabilidad a nivel mundial para el monitoreo y limitación de las emisiones de CO2, realizando una primera aproximación hasta el año 2012 y tomando como valores de referencia los referidos a los niveles de concentración de gases de efecto invernadero registrados en 1990. Algunos de los principales países emisores de CO2 como USA y China no ratificaron los objetivos de límite de emisión y niveles de reducción de CO2, y sin embargo están tomando sus propias acciones y medidas en paralelo para reducir sus emisiones. Los procesos de combustión más eficientes y con menor consumo de combustible, proporcionan una significativa contribución del sector de generación eléctrica a la reducción de los niveles de concentración de CO2, pero podría no ser suficiente. Tecnologías de captura y almacenamiento de carbono (CCS, del inglés Carbon Capture and Storage) han comenzado a ganar más importancia desde principios de esta década, se ha intensificado la investigación y proliferado la creación de fondos que impulsen su desarrollo y estimulen su despliegue. Tras los primeros proyectos de investigación básica y ensayos a pequeña escala, casi embrionaria, tres procesos de captura se posicionan como los más viables actualmente, con potencial para alcanzar niveles de reducción de CO2 del 90%, mediante su aplicación en centrales de carbón para generación eléctrica. En referencia al último paso del esquema CCS en el proceso de reducción de las ingentes cantidades de CO2 que habría que eliminar de la atmósfera, dos opciones deberían ser consideradas: la reutilización (EOR y EGR) y el almacenamiento. El presente artículo evalúa el estado de las diferentes tecnologías de captura de CO2, su disponibilidad, su desarrollo y su coste de instalación estimado. Se incorpora un pequeño análisis de los costes de operación y varias extrapolaciones, dado que solo están disponibles algunos de estos datos hasta la fecha. Además este artículo muestra los principales hallazgos y los potenciales de reducción de emisiones de CO2 en la utilización del carbón para generar electricidad y proporciona una visión del desarrollo y despliegue actual de la tecnología. Se realiza una revisión de las iniciativas existentes a nivel mundial mediante proyectos de demostración orientados a la viabilidad comercial del esquema CCS para el período 2020 ? 2030. Se evalúan los diferentes programas en curso y sus avances, como el programa de UK, el EEPR (European Energy Program for Recovery), etc. Las principales fuentes empleadas en la elaboración de este artículo son el DOE, NETL, MIT, EPRI, Centros e Institutos de Investigación, Universidades Europeas, Administraciones Públicas y Agencias Internacionales, suministradores de tecnología crítica, compañías eléctricas (utilities) y empresas tecnológicas.
Resumo:
Esta Tesis Doctoral trata sobre la caracterización acústica de los ecosistemas naturales y la evaluación del impacto ambiental del ruido antropogénico sobre sus potenciales receptores en estos lugares, incluidos los receptores no humanos y sus efectos ecológicos, además, analiza las implicaciones para su gestión a distintas escalas y se lleva a cabo una valoración económica. Este trabajo ofrece soluciones para caracterizar los paisajes sonoros de forma compatible con distintas escalas de trabajo, nivel de esfuerzo técnico y en contextos de recursos limitados que haga viable su tratamiento como cualquier otra variable ambiental en el ámbito de la conservación y gestión del medio natural. Se han adaptado herramientas y metodologías propias de disciplinas como la acústica ambiental, bioacústica y ecología del paisaje, para servir a los objetivos específicos de la evaluación y gestión de los paisajes sonoros y el ruido ambiental en amplias extensiones geográficas. Se ha establecido un método general de muestreo sistemático para trabajo de campo y también se han adaptado métodos de modelización informática, que permiten analizar escenarios sonoros dinámicos en el tiempo y en el espacio, desde localizaciones puntuales hasta la escala del paisaje. Es posible elaborar cartografía ambiental con esta información y se ha representado gráficamente la zona de influencia de distintas fuentes de ruido sobre la calidad de distintos hábitats faunísticos. Se recomienda el uso del indicador del nivel de presión sonora equivalente (Leq) por su operatividad en medición y modelización, y su adaptabilidad a cualquier dimensión espacial y temporal que se requiera, por ejemplo en función del paisaje, actividades o especies que se establezcan como objeto de análisis. Se ha comprobado que las voces y conversaciones de parte de los excursionistas en zonas de reposo, observación y descanso (Laguna Grande de Peñalara) es la fuente de ruido que con mayor frecuencia identifican los propios visitantes (51%) y causa un incremento del nivel de presión sonora equivalente de unos 4,5 dBA sobre el nivel correspondiente al ambiente natural (Lnat). También se ha comprobado que carreteras con bajo nivel de tráfico (IMD<1000) pueden causar estrés fisiológico sobre la fauna y afectar a la calidad de sus hábitats. La isófona de 30 dBA del índice Leq (24h) permite dividir a los corzos de la zona de estudio en dos grupos con diferente nivel de estrés fisiológico, más elevado en los que se sitúan más cerca de la carretera con mayor volumen de tráfico y se expone a mayores niveles de ruido. Por otro lado, ha sido posible delimitar una zona de exclusión para la nidificación de buitre negro alrededor de las carreteras, coincidente con la isófona Leq (24h) de 40 dBA que afecta al 11% de su hábitat potencial. Además se ha llevado a cabo una novedosa valoración económica de la contaminación acústica en espacios naturales protegidos, mediante el análisis de la experiencia sonora de los visitantes del antiguo Parque Natural de Peñalara, y se ha constatado su disposición al pago de una entrada de acceso a estos lugares (aproximadamente 1 euro) si redundara en una mejora de su estado de conservación. En conclusión, los espacios naturales protegidos pueden sufrir un impacto ambiental significativo causado por fuentes de ruido localizadas en su interior pero también lejanas a ellos, que se sitúan fuera del ámbito de competencias de sus gestores. Sucesos sonoros como el sobrevuelo de aviones pueden incrementar en aproximadamente 8 dBA el nivel de referencia Lnat en las zonas tranquilas del parque. Se recomienda llevar a cabo una gestión activa del medio ambiente sonoro y se considera necesario extender la investigación sobre los efectos ecológicos del ruido ambiental a otros lugares y especies animales. ABSTRACT This PhD Thesis deals with acoustic characterization of natural ecosystems and anthropogenic noise impact assessment on potential receivers, including non-human receivers and their ecological effects. Besides, its management implications at different scales are analyzed and an economic valuation is performed. This study provides solutions for characterizing soundscapes in a compatible way with different working scales, level of technical effort and in a context of limited resources, so its treatment becomes feasible as for any other environmental variable in conservation and environmental management. Several tools and methodologies have been adapted from a variety of disciplines such as environmental acoustics, bioacoustics and landscape ecology, to better serve the specific goals of assessing and managing soundscapes and environmental noise in large areas. A procedure has been established for systematic field measurement surveys and noise common computer modelling methods have also been adapted in order to analyze dynamic soundscapes across time and space, from local to landscape scales. It is possible to create specific thematic cartography as for instance delimiting potential influence zone from different noise sources on animal habitats quality. Use of equivalent continuous sound pressure level index (Leq) is recommended because it provides great flexibility in operation for noise measurement and modelling, and because of its adaptability to any required temporal and spatial dimension, for instance landscape, activities or the target species established as study subjects. It has been found that human voices and conversations in a resting and contemplation area (Laguna Grande de Peñalara) is the most frequently referred noise source by national park visitors (51 %) when asked. Human voices alter this recreational area by increasing the sound pressure level approximately 4.5 dBA over the natural ambient level (Lnat). It has also been found that low traffic roads (AADT<1000 ) may cause physiological stress on wildlife and affect the quality of their habitats. It has also been possible to define a road-effect zone by noise mapping, which suggests an effective habitat loss within the Leq (24h) 30 dBA isophone in case of Roe deer and also divide the study area in two groups with different physiological stress level, higher for those exposed to higher noise levels and traffic volume. On the other hand, it has been possible to determine an exclusion area for Cinereous vulture nesting surrounding roads which is coincident with the Leq (24h) 40 dBA isophone and affects 11 % of the vulture potential habitat. It has also been performed an economic estimation of noise pollution impact on visitors’ perception and results showed that visitors would be willing to pay an entrance fee of approximately 1 euro if such payment is really bringing an improvement of the conservation status. In conclusion, protected areas may be significantly affected by anthropogenic noise sources located within the park borders but perturbations may also be caused by large-distance noise sources outside the park managers’ jurisdiction. Aircraft overflight events disrupted quietness and caused Leq increases of almost 8 dBA during a monitoring period with respect to Lnat reference levels in the park quiet areas. It is recommended to actively manage the acoustic environment. Finally, further research on ecological impacts of environmental noise needs to be extended to other species and places.
Resumo:
Al considerar los mecanismos de unión entre dos elementos, metálicos o no, es cada vez más habitual referirse a la adhesión. El término adhesión se refiere a un complejo conjunto de fenómenos relacionados entre sí que están lejos de ser completamente entendidos y, por lo tanto, tiene sentido considerar la conveniencia de cualquier intento de predecir el comportamiento mediante el uso de métodos semi-empíricos. El empleo de adhesivos en las uniones entre materiales iguales o diferentes es un hecho que se ha implantado como sistema de unión en diferentes campos, tales como la industria metalúrgica, la industria de los medios de transporte (aviación, automóvil, transportes de viajeros por carretera urbanos e interurbanos, industria naval y, en los últimos años, transporte ferroviario), la electrónica y comunicaciones, la biomecánica, la nanotecnología, etc. Las funciones del adhesivo en la unión pueden ser variadas: desde soportar esfuerzos mecánicos, como lo hacen los materiales que une -adhesivos estructurales-, a, simplemente, dar continuidad a un objeto o a actuar como sellado y protección de un conjunto electrónico, con funciones aislantes o incluso conductoras. En todos los casos, el adhesivo realiza su función uniendo superficies. El estudio de cómo es y cómo se comporta esa superficie es fundamental para poder definir y diseñar los parámetros más adecuados de los elementos que participan en la unión. Pero el concepto de superficie no queda bien definido si no lo están sus características: así, la rugosidad, la energía superficial o la estructura y orientación cristalina van a definir el resultado final, junto con las propiedades del adhesivo empleado. Se ha comprobado que un tratamiento superficial realizado sobre un sustrato, puede realizar cambios superficiales no sólo a nivel topográfico, sino también a nivel químico y/o microestructural, lo que podría modificar la energía superficial del sustrato. En ensayos realizados en el propio laboratorio, se ha detectado que en casos en los que los valores de la rugosidad obtenida es la misma, la energía superficial del sustrato es diferente dependiendo del tipo de ataque, para la misma aleación del material. Se podría deducir, a priori, que la modificación cristalográfica conseguida influye, además de en la rugosidad, en las características termodinámicas de la misma. Si bien es cierto que la relación entre la rugosidad y la fuerza de adhesión ha sido ampliamente estudiada, la influencia de diferentes tipos de tratamientos superficiales, tanto en la rugosidad como en las características termodinámicas y en las fuerzas de adhesión, es un tema que produce discrepancias en diferentes autores. No todos los autores o investigadores en los mecanismos de la adhesión ven de igual manera la influencia de una u otra característica de la superficie, ni la posibilidad de aplicación de uno u otro criterio de valorización. Por otra parte, un factor de vital importancia en una buena adhesión es la viscosidad del adhesivo y su velocidad de curado. La aplicación de un adhesivo sobre el adherente implica que, si no hay una buena relación entre las energías superficiales de uno y otro, es decir si no se produce un buen mojado, la capacidad de penetración del adhesivo en los poros o microporos del adherente se reduce de forma sinérgica con la velocidad de curado del adhesivo, es decir, con el aumento de viscosidad. Los adhesivos presentan propiedades reológicas muy diferentes antes y después de su curado. En el momento de su aplicación se comportan como fluidos cuyo comportamiento reológico afecta, entre otras, a características tales como la procesabilidad, su ámbito de uso, la dosificación o la capacidad de relleno de holgura. Antes del curado, deben ser fluidos capaces de ser transportados hasta la superficie del sustrato y copiar su superficie realizando un buen mojado. Según va produciéndose el curado del adhesivo, éste va aumentando su viscosidad hasta comportarse como un sólido; una vez completado el curado, los adhesivos han de presentar propiedades mecánicas adecuadas a los requisitos de ensamblaje. En adhesión, la medida en la que un adhesivo es capaz de impregnar la superficie del sustrato sobre el cual se desea realizar la unión, realizar un contacto interfacial intimo y una buena penetración en las oquedades y rugosidades superficiales del sólido, se denomina mojado. Para que la adhesión sea buena, es condición indispensable que el mojado del sustrato por el adhesivo sea bueno. Para el estudio y cuantificación del mojado se utilizan medidas del ángulo de contacto que forma una gota de adhesivo depositada en el sólido tras esperar a que el sistema alcance el equilibrio. Dado el interés que tiene lo que ocurre en la interfase para alcanzar un mayor conocimiento de los procesos de adhesión, el objetivo principal de esta tesis es caracterizar morfológicamente la superficie de un adherente de aluminio para determinar la influencia que tiene en los parámetros que definen la unión adhesiva. Para ello se han marcado unos objetivos parciales que, fundamentalmente, son: • Caracterizar la superficie de un sustrato (aluminio) sometido a diferentes tratamientos superficiales, tanto mecánicos como químicos • Determinar la energía superficial del mismo sustrato después de los tratamientos superficiales mediante la medida de los ángulos de mojado • Analizar la influencia de la viscosidad en el mojado del sustrato, en función de la rugosidad • Determinar la aplicabilidad de la ecuación de Wenzel en función de la magnitud de la rugosidad • Validar los resultados de las características superficiales mediante la realización de ensayos de tracción Para alcanzar estos objetivos, se han empleado nueve tipos diferentes de tratamientos, en los que se ha buscado la obtención de muy diferentes acabados superficiales, razón por la que no todos los tratamientos que se han utilizado son de aplicación actual en la industria. Los tratamientos mecánicos han sido abrasivos de dos clases: • por rozamiento (Pulido y lijado con dos granulometrías diferentes) y • por impacto (Granallado y LSP) Los ataques químicos han sido, también, de dos tipos • Ácidos (HCl en dos concentraciones diferentes) y • Básicos (NaOH en dos concentraciones distintas) La caracterización superficial se ha realizado con el estudio de los parámetros de rugosidad superficiales, definidos en la normativa de rugosidad 3D, y con el estudio derivado de los análisis de la superficie por transformadas de Fourier La energía superficial se ha realizado mediante dos métodos: la determinación de la energía crítica, γc, por el método de Zisman y el cálculo de las componentes polar y dispersiva de la energía superficial mediante la aproximación de van Oss, Chaudhury y Good. Como estudio paralelo, se ha ensayado el efecto de la viscosidad del adhesivo y su velocidad de curado sobre unas muestras de aluminio con rugosidades diferentes. El estudio finaliza con las conclusiones que relacionan el tratamiento superficial y su influencia en el proceso de la adhesión, teniendo como elemento de referencia el efecto producido en las características topográficas y termodinámicas de la superficie.