17 resultados para Selección de Fuentes

em Universidad Politécnica de Madrid


Relevância:

30.00% 30.00%

Publicador:

Resumo:

El 29 de enero de 2000 Francisco Javier Sáenz de Oíza ofrece su última conferencia en el salón de actos del edificio sede del BBVA en el Paseo de la Castellana de Madrid. Esta conferencia inaugura el ciclo “El arquitecto enseña su obra”, organizado por el Colegio Oficial de Arquitectos de Madrid (C.O.A.M.) y la Escuela Técnica Superior de Arquitectura de Madrid (E.T.S.A.M.). Las obras en concreto que Oíza 'enseña' en este evento son Torres Blancas (Madrid, 1961- 1968) y Banco de Bilbao (Madrid, 1971-1980). Antes de la conferencia, blandiendo una carpeta, Oíza dice: Traigo aquí los textos de siempre, los que siempre he usado, (...) yo no he escrito ni una línea, solo he subrayado ciertos pasajes, en la medida de lo posible me gustaría leer alguno. Pero como aquí hay como para cinco horas, pues no se qué hacer. Citarlo sí, porque de ustedes el que quiera penetrar un poco en mi conocimiento, pues que vea las citas que yo hago aquí, qué pasajes, o qué libros o qué artículos propongo. 1 La carpeta que lleva Oíza en su mano contiene veinticuatro fichas mecanografiadas por él mismo. Las fichas son pasajes de textos; en su mayoría de textos literarios o poéticos, e incluyen una referencia bibliográfica que menciona: título de libro, edición y número de página. Además, en cada ficha están resaltados los pasajes que Oíza pretende leer. 2 Antes del comienzo de la conferencia Oíza dice: Tengo aquí citas de lecturas que le recomendaría a quien quiera enterarse de cómo es este edificio. 3 Durante la conferencia Oíza no parece hablar sobre las obras que debe enseñar; en cambio se dedica, casi exclusivamente, a leer en público. Esta tesis nace de lo sugerido por el propio Oíza. El objetivo general, siguiendo sus propias palabras, es 'penetrar un poco' en su conocimiento a partir de citas y recomendaciones de lecturas realizadas por él mismo al tratar sobre arquitectura. La hipótesis central plantea que por medio de sus lecturas Oíza sí habla de arquitectura, y sostiene también que a partir de sus textos es posible 'enterarse', al menos en parte, de cómo es un edificio, en particular Torres Blancas y Banco de Bilbao. Más aún, se plantea la hipótesis de que Oíza, maestro ágrafo y de carácter socrático, ha construido, no obstante, un 'discurso teórico' arquitectónico suficientemente sistemático. De modo que aún cuando Oíza no ha dejado una 'teoría' escrita es posible reconstruirla, en cierta medida, a partir de su elocución y a partir de la comprensión de sus 'lecturas'. Las fuentes primarias de esta tesis son: a) Las lecturas que Oíza recomienda en su conferencia de enero de 2000. b) Torres Blancas y Banco de Bilbao. c) Las lecturas en público realizadas por Oíza en conferencias, cursos, debates, mesas redondas, programas de TV, etc. El tema que se investiga es la relación entre los textos recomendados por Oíza y su arquitectura, y la pregunta guía de la investigación es cómo y en qué medida los textos pueden contribuir a la comprensión del pensamiento, del discurso y de la obra de Oíza. Torres Blancas y Banco de Bilbao son, en todo momento, las dos principales obras utilizadas para la observación y el contraste de los resultados de la investigación teórica en el desarrollo de la tesis. El soporte teórico y metodológico de la tesis está dado por la hermenéutica en tanto disciplina encargada de la interpretación y correcta comprensión de textos y obras, en particular por la filosofía hermenéutica de Hans-Georg Gadamer expuesta en Verdad y método. La relevancia, el aspecto original y la posible aportación al conocimiento de esta tesis consiste en una aproximación a Oíza y a su arquitectura, desde un punto de vista hasta ahora no investigado de forma sistemática, esto es, a partir de las lecturas de Oíza. ABSTRACT On 29th January 2000 Francisco Javier Sáenz de Oíza gave his last lecture in the Auditorium at BBVA headquarters located in Paseo de la Castellana avenue in Madrid. That lecture opened the series The Architect Shows his Work (El arquitecto enseña su obra) organised by the COAM Official College of Architects and the ETSAM Architecture School of Madrid. The specific works that Oíza 'shows' in his lecture were Torres Blancas (Madrid, 1961- 1968) and Banco de Bilbao (Madrid, 1971-1980). Before the lecture, waving a folder in his hand, Oíza says: I've got here the texts I've always used, (…) I haven't written a line, I've only underlined certain passages, I would like to read some of them to the extent possible. But I have here about five hours of reading, so I don't know what to do. I can cite them, yes, and anyone of you who want to delve a little into my knowledge can look at the citations I make here, the passages, books or articles I recommend. 1 The folder in Oíza's hand contains 24 files typed by the architect himself. The files consist of text passages -most of which are literary or poetry texts- and include the bibliographic citation with book the title, edition and page number. In addition, the passages Oíza intends to read are highlighted. Before starting his lecture Oíza says: I've got here citations of readings I'd recommend to those who want to realise how this building is. 2 During the lecture Oíza doesn't seem to be talking about the works he has to show, on the contrary, he focuses almost exclusively on reading texts to the audience. This thesis is the result of a suggestion made by Oíza himself. The broad aim is to 'delve a little into' his knowledge using citations and reading recommendations made by Oíza when dealing with the architecture subject. The main hypothesis proposes that Oíza talks about architecture through his readings and that starting from 'his' texts it is possible to 'realise', at least in part, how a building is, Torres Blancas and Banco de Bilbao in particular. Moreover, it is proposed the hypothesis that Oíza, as a Socratic teacher reluctant to write down his ideas, has nevertheless built a systematic 'theoretical discourse' on architecture. As a result, even when he has not written a 'theory', it is possible to reconstruct it to a certain degree, starting from his speech and from the understanding of his readings. The primary sources for this thesis are: a) The readings that Oíza recommends in his lecture of January 2000. b) The Torres Blancas and Banco de Bilbao. c) The readings done by Oíza in presentations, lectures, debates, panel discussions, television programmes, etc. The subject under research is the relationship between the texts that Oíza recommends and his architecture. The guiding question for the research is how and to what extent the texts can contribute to the understanding of Oíza's thoughts, discourse and work. Torres Blancas and Banco de Bilbao are the two main works considered along the thesis and they have been used for observation and to test the results of the theoretical research as it progresses. The thesis theoretical and methodological framework is based on the hermeneutics -as the discipline that deals with the interpretation and the correct understanding of texts and works-, in particular the hermeneutics philosophy of Hans-Georg Gadamer in Truth and Method. The relevance, the original element and the possible contribution of this thesis is given by the approach to Oíza and his architecture through Oíza's readings, a perspective that hasn't been yet systematically researched.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudio se centra en la actividad de selección y acopio de bellotas por parte de pequeños roedores, en concreto el ratón de campo (Apodemus sylvaticus), que se ha demostrado como la principal especie dispersora de bellotas en la zona de estudio. La prioridad de este trabajo ha sido estudiar la influencia de ciertos factores ambientales (luminosidad lunar y disponibilidad de refugio para el roedor) en el fenómeno de selección. Se tomaron datos bajo diferentes condiciones de luminosidad lunar (luna llena y luna nueva) y de disponibilidad de refugio (bajo cobertura de matorral y sin cobertura). La zona de estudio se ubicó en el Hayedo de Montejo, Madrid. La razón de la elección de este lugar fue la existencia de estudios genéticos llevados a cabo en él que revelaron largos y curiosos movimientos de semillas, que sólo podían ser fruto de una contribución de la fauna dispersora.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En la actualidad el Sistema Internacional de Cooperación se enfrenta a numerosos retos como por ejemplo las nuevas tendencias surgidas de la Declaración de París sobre la Eficacia en la Ayuda al Desarrollo, la consecución de los Objetivos del Milenio, los recortes en Ayuda Oficial al Desarrollo en estos momentos de crisis o la necesidad de mejorar en la sostenibilidad a largo plazo de los proyectos, en especial los de contenido tecnológico. Ante este panorama existe una necesidad de fortalecer y mejorar los procesos evaluativos orientando los mismos hacia la generación de conocimiento. Partiendo de esta base, se ha realizado un estudio de las potencialidades que podrían tener los métodos de decisión multicriterio para lograr el objetivo antes mencionado, centrándonos en la aplicación de dos metodología de este tipo a una serie de estudios de caso: -. La Metodología de la Utilidad Multiatributo -. El Procesos Analítico Jerárquico Estos dos procesos han sido aplicados a los siguientes estudios de caso: -. Evaluación de proyectos de usos energéticos de la biomasa en Nicaragua. -. Evaluación de proyectos de Mecanismos de Desarrollo Limpio en Nicaragua. -. Evaluación de la Convocatoria Abierta y Permanente de 2011 de la AECID: Cooperación Empresarial. En los dos primeros casos, se realiza un estudio acerca de la contribución al Desarrollo Sostenible de los proyectos evaluados el cual arroja resultados bastante significativos, que permiten realizar una comparativa numérica entre los distintos proyectos y demuestra que esta contribución no está reñida con el tipo de proyecto sino con el modelo de intervención utilizado en la implementación del mismo. En el tercer caso, se realiza una reevaluación de una convocatoria de subvenciones de la AECID para estudiar las posibles potencialidades de la aplicación de una metodología multicriterio para estos procesos durante el proceso de evaluación de los proyectos presentados a la misma. En general, en el trabajo queda demostrada la utilidad de estas metodologías para su aplicación en procesos evaluativos en el campo de la cooperación, obteniendo resultados mediante una metodología científica, siendo estos fácilmente analizables. Es muy importante destacar la gran capacidad de adaptación de las mismas a las especiales características de este campo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Los aceites vegetales se utilizan en la alimentación de gallinas ponedoras para aumentar la concentración energética de los piensos y como fuente de ácido linoleico. Además, Mateos y Sell (1981) han demostrado que la inclusión de grasas ralentiza la velocidad de tránsito de la digesta lo que favorece el contacto entre los nutrientes de la dieta y las enzimas digestivas, mejorando su utilización digestiva. Como consecuencia, la inclusión de grasas es una práctica común en la formulación de piensos comerciales para aves de puesta. El aceite de soja (AS) debido a su alto contenido energético y en ácido linoleico es el aceite de elección en piensos para avicultura pero su alto coste limita su utilización en piensos comerciales. Dos co-productos de la industria del aceite de soja, las oleínas (OAS) y el aceite de freiduría (ASR) podrían sustituir al AS en piensos para avicultura. El objetivo de este trabajo es determinar el contenido en energía metabolizable aparente (EMA) de estos aceites y comparar los resultados obtenidos utilizando dos metodologías de cálculo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RESUMEN La dispersión del amoniaco (NH3) emitido por fuentes agrícolas en medias distancias, y su posterior deposición en el suelo y la vegetación, pueden llevar a la degradación de ecosistemas vulnerables y a la acidificación de los suelos. La deposición de NH3 suele ser mayor junto a la fuente emisora, por lo que los impactos negativos de dichas emisiones son generalmente mayores en esas zonas. Bajo la legislación comunitaria, varios estados miembros emplean modelos de dispersión inversa para estimar los impactos de las emisiones en las proximidades de las zonas naturales de especial conservación. Una revisión reciente de métodos para evaluar impactos de NH3 en distancias medias recomendaba la comparación de diferentes modelos para identificar diferencias importantes entre los métodos empleados por los distintos países de la UE. En base a esta recomendación, esta tesis doctoral compara y evalúa las predicciones de las concentraciones atmosféricas de NH3 de varios modelos bajo condiciones, tanto reales como hipotéticas, que plantean un potencial impacto sobre ecosistemas (incluidos aquellos bajo condiciones de clima Mediterráneo). En este sentido, se procedió además a la comparación y evaluación de varias técnicas de modelización inversa para inferir emisiones de NH3. Finalmente, se ha desarrollado un modelo matemático simple para calcular las concentraciones de NH3 y la velocidad de deposición de NH3 en ecosistemas vulnerables cercanos a una fuente emisora. La comparativa de modelos supuso la evaluación de cuatro modelos de dispersión (ADMS 4.1; AERMOD v07026; OPS-st v3.0.3 y LADD v2010) en un amplio rango de casos hipotéticos (dispersión de NH3 procedente de distintos tipos de fuentes agrícolas de emisión). La menor diferencia entre las concentraciones medias estimadas por los distintos modelos se obtuvo para escenarios simples. La convergencia entre las predicciones de los modelos fue mínima para el escenario relativo a la dispersión de NH3 procedente de un establo ventilado mecánicamente. En este caso, el modelo ADMS predijo concentraciones significativamente menores que los otros modelos. Una explicación de estas diferencias podríamos encontrarla en la interacción de diferentes “penachos” y “capas límite” durante el proceso de parametrización. Los cuatro modelos de dispersión fueron empleados para dos casos reales de dispersión de NH3: una granja de cerdos en Falster (Dinamarca) y otra en Carolina del Norte (EEUU). Las concentraciones medias anuales estimadas por los modelos fueron similares para el caso americano (emisión de granjas ventiladas de forma natural y balsa de purines). La comparación de las predicciones de los modelos con concentraciones medias anuales medidas in situ, así como la aplicación de los criterios establecidos para la aceptación estadística de los modelos, permitió concluir que los cuatro modelos se comportaron aceptablemente para este escenario. No ocurrió lo mismo en el caso danés (nave ventilada mecánicamente), en donde el modelo LADD no dio buenos resultados debido a la ausencia de procesos de “sobreelevacion de penacho” (plume-rise). Los modelos de dispersión dan a menudo pobres resultados en condiciones de baja velocidad de viento debido a que la teoría de dispersión en la que se basan no es aplicable en estas condiciones. En situaciones de frecuente descenso en la velocidad del viento, la actual guía de modelización propone usar un modelo que sea eficaz bajo dichas condiciones, máxime cuando se realice una valoración que tenga como objeto establecer una política de regularización. Esto puede no ser siempre posible debido a datos meteorológicos insuficientes, en cuyo caso la única opción sería utilizar un modelo más común, como la versión avanzada de los modelos Gausianos ADMS o AERMOD. Con el objetivo de evaluar la idoneidad de estos modelos para condiciones de bajas velocidades de viento, ambos modelos fueron utilizados en un caso con condiciones Mediterráneas. Lo que supone sucesivos periodos de baja velocidad del viento. El estudio se centró en la dispersión de NH3 procedente de una granja de cerdos en Segovia (España central). Para ello la concentración de NH3 media mensual fue medida en 21 localizaciones en torno a la granja. Se realizaron también medidas de concentración de alta resolución en una única localización durante una campaña de una semana. En este caso, se evaluaron dos estrategias para mejorar la respuesta del modelo ante bajas velocidades del viento. La primera se basó en “no zero wind” (NZW), que sustituyó periodos de calma con el mínimo límite de velocidad del viento y “accumulated calm emissions” (ACE), que forzaban al modelo a calcular las emisiones totales en un periodo de calma y la siguiente hora de no-calma. Debido a las importantes incertidumbres en los datos de entrada del modelo (inputs) (tasa de emisión de NH3, velocidad de salida de la fuente, parámetros de la capa límite, etc.), se utilizó el mismo caso para evaluar la incertidumbre en la predicción del modelo y valorar como dicha incertidumbre puede ser considerada en evaluaciones del modelo. Un modelo dinámico de emisión, modificado para el caso de clima Mediterráneo, fue empleado para estimar la variabilidad temporal en las emisiones de NH3. Así mismo, se realizó una comparativa utilizando las emisiones dinámicas y la tasa constante de emisión. La incertidumbre predicha asociada a la incertidumbre de los inputs fue de 67-98% del valor medio para el modelo ADMS y entre 53-83% del valor medio para AERMOD. La mayoría de esta incertidumbre se debió a la incertidumbre del ratio de emisión en la fuente (50%), seguida por la de las condiciones meteorológicas (10-20%) y aquella asociada a las velocidades de salida (5-10%). El modelo AERMOD predijo mayores concentraciones que ADMS y existieron más simulaciones que alcanzaron los criterios de aceptabilidad cuando se compararon las predicciones con las concentraciones medias anuales medidas. Sin embargo, las predicciones del modelo ADMS se correlacionaron espacialmente mejor con las mediciones. El uso de valores dinámicos de emisión estimados mejoró el comportamiento de ADMS, haciendo empeorar el de AERMOD. La aplicación de estrategias destinadas a mejorar el comportamiento de este último tuvo efectos contradictorios similares. Con el objeto de comparar distintas técnicas de modelización inversa, varios modelos (ADMS, LADD y WindTrax) fueron empleados para un caso no agrícola, una colonia de pingüinos en la Antártida. Este caso fue empleado para el estudio debido a que suponía la oportunidad de obtener el primer factor de emisión experimental para una colonia de pingüinos antárticos. Además las condiciones eran propicias desde el punto de vista de la casi total ausencia de concentraciones ambiente (background). Tras el trabajo de modelización existió una concordancia suficiente entre las estimaciones obtenidas por los tres modelos. De este modo se pudo definir un factor de emisión de para la colonia de 1.23 g NH3 por pareja criadora por día (con un rango de incertidumbre de 0.8-2.54 g NH3 por pareja criadora por día). Posteriores aplicaciones de técnicas de modelización inversa para casos agrícolas mostraron también un buen compromiso estadístico entre las emisiones estimadas por los distintos modelos. Con todo ello, es posible concluir que la modelización inversa es una técnica robusta para estimar tasas de emisión de NH3. Modelos de selección (screening) permiten obtener una rápida y aproximada estimación de los impactos medioambientales, siendo una herramienta útil para evaluaciones de impactos en tanto que permite eliminar casos que presentan un riesgo potencial de daño bajo. De esta forma, lo recursos del modelo pueden Resumen (Castellano) destinarse a casos en donde la posibilidad de daño es mayor. El modelo de Cálculo Simple de los Límites de Impacto de Amoniaco (SCAIL) se desarrolló para obtener una estimación de la concentración media de NH3 y de la tasa de deposición seca asociadas a una fuente agrícola. Está técnica de selección, basada en el modelo LADD, fue evaluada y calibrada con diferentes bases de datos y, finalmente, validada utilizando medidas independientes de concentraciones realizadas cerca de las fuentes. En general SCAIL dio buenos resultados de acuerdo a los criterios estadísticos establecidos. Este trabajo ha permitido definir situaciones en las que las concentraciones predichas por modelos de dispersión son similares, frente a otras en las que las predicciones difieren notablemente entre modelos. Algunos modelos nos están diseñados para simular determinados escenarios en tanto que no incluyen procesos relevantes o están más allá de los límites de su aplicabilidad. Un ejemplo es el modelo LADD que no es aplicable en fuentes con velocidad de salida significativa debido a que no incluye una parametrización de sobreelevacion del penacho. La evaluación de un esquema simple combinando la sobreelevacion del penacho y una turbulencia aumentada en la fuente mejoró el comportamiento del modelo. Sin embargo más pruebas son necesarias para avanzar en este sentido. Incluso modelos que son aplicables y que incluyen los procesos relevantes no siempre dan similares predicciones. Siendo las razones de esto aún desconocidas. Por ejemplo, AERMOD predice mayores concentraciones que ADMS para dispersión de NH3 procedente de naves de ganado ventiladas mecánicamente. Existe evidencia que sugiere que el modelo ADMS infraestima concentraciones en estas situaciones debido a un elevado límite de velocidad de viento. Por el contrario, existen evidencias de que AERMOD sobreestima concentraciones debido a sobreestimaciones a bajas Resumen (Castellano) velocidades de viento. Sin embrago, una modificación simple del pre-procesador meteorológico parece mejorar notablemente el comportamiento del modelo. Es de gran importancia que estas diferencias entre las predicciones de los modelos sean consideradas en los procesos de evaluación regulada por los organismos competentes. Esto puede ser realizado mediante la aplicación del modelo más útil para cada caso o, mejor aún, mediante modelos múltiples o híbridos. ABSTRACT Short-range atmospheric dispersion of ammonia (NH3) emitted by agricultural sources and its subsequent deposition to soil and vegetation can lead to the degradation of sensitive ecosystems and acidification of the soil. Atmospheric concentrations and dry deposition rates of NH3 are generally highest near the emission source and so environmental impacts to sensitive ecosystems are often largest at these locations. Under European legislation, several member states use short-range atmospheric dispersion models to estimate the impact of ammonia emissions on nearby designated nature conservation sites. A recent review of assessment methods for short-range impacts of NH3 recommended an intercomparison of the different models to identify whether there are notable differences to the assessment approaches used in different European countries. Based on this recommendation, this thesis compares and evaluates the atmospheric concentration predictions of several models used in these impact assessments for various real and hypothetical scenarios, including Mediterranean meteorological conditions. In addition, various inverse dispersion modelling techniques for the estimation of NH3 emissions rates are also compared and evaluated and a simple screening model to calculate the NH3 concentration and dry deposition rate at a sensitive ecosystem located close to an NH3 source was developed. The model intercomparison evaluated four atmospheric dispersion models (ADMS 4.1; AERMOD v07026; OPS-st v3.0.3 and LADD v2010) for a range of hypothetical case studies representing the atmospheric dispersion from several agricultural NH3 source types. The best agreement between the mean annual concentration predictions of the models was found for simple scenarios with area and volume sources. The agreement between the predictions of the models was worst for the scenario representing the dispersion from a mechanically ventilated livestock house, for which ADMS predicted significantly smaller concentrations than the other models. The reason for these differences appears to be due to the interaction of different plume-rise and boundary layer parameterisations. All four dispersion models were applied to two real case studies of dispersion of NH3 from pig farms in Falster (Denmark) and North Carolina (USA). The mean annual concentration predictions of the models were similar for the USA case study (emissions from naturally ventilated pig houses and a slurry lagoon). The comparison of model predictions with mean annual measured concentrations and the application of established statistical model acceptability criteria concluded that all four models performed acceptably for this case study. This was not the case for the Danish case study (mechanically ventilated pig house) for which the LADD model did not perform acceptably due to the lack of plume-rise processes in the model. Regulatory dispersion models often perform poorly in low wind speed conditions due to the model dispersion theory being inapplicable at low wind speeds. For situations with frequent low wind speed periods, current modelling guidance for regulatory assessments is to use a model that can handle these conditions in an acceptable way. This may not always be possible due to insufficient meteorological data and so the only option may be to carry out the assessment using a more common regulatory model, such as the advanced Gaussian models ADMS or AERMOD. In order to assess the suitability of these models for low wind conditions, they were applied to a Mediterranean case study that included many periods of low wind speed. The case study was the dispersion of NH3 emitted by a pig farm in Segovia, Central Spain, for which mean monthly atmospheric NH3 concentration measurements were made at 21 locations surrounding the farm as well as high-temporal-resolution concentration measurements at one location during a one-week campaign. Two strategies to improve the model performance for low wind speed conditions were tested. These were ‘no zero wind’ (NZW), which replaced calm periods with the minimum threshold wind speed of the model and ‘accumulated calm emissions’ (ACE), which forced the model to emit the total emissions during a calm period during the first subsequent non-calm hour. Due to large uncertainties in the model input data (NH3 emission rates, source exit velocities, boundary layer parameters), the case study was also used to assess model prediction uncertainty and assess how this uncertainty can be taken into account in model evaluations. A dynamic emission model modified for the Mediterranean climate was used to estimate the temporal variability in NH3 emission rates and a comparison was made between the simulations using the dynamic emissions and a constant emission rate. Prediction uncertainty due to model input uncertainty was 67-98% of the mean value for ADMS and between 53-83% of the mean value for AERMOD. Most of this uncertainty was due to source emission rate uncertainty (~50%), followed by uncertainty in the meteorological conditions (~10-20%) and uncertainty in exit velocities (~5-10%). AERMOD predicted higher concentrations than ADMS and more of the simulations met the model acceptability criteria when compared with the annual mean measured concentrations. However, the ADMS predictions were better correlated spatially with the measurements. The use of dynamic emission estimates improved the performance of ADMS but worsened the performance of AERMOD and the application of strategies to improved model performance had similar contradictory effects. In order to compare different inverse modelling techniques, several models (ADMS, LADD and WindTrax) were applied to a non-agricultural case study of a penguin colony in Antarctica. This case study was used since it gave the opportunity to provide the first experimentally-derived emission factor for an Antarctic penguin colony and also had the advantage of negligible background concentrations. There was sufficient agreement between the emission estimates obtained from the three models to define an emission factor for the penguin colony (1.23 g NH3 per breeding pair per day with an uncertainty range of 0.8-2.54 g NH3 per breeding pair per day). This emission estimate compared favourably to the value obtained using a simple micrometeorological technique (aerodynamic gradient) of 0.98 g ammonia per breeding pair per day (95% confidence interval: 0.2-2.4 g ammonia per breeding pair per day). Further application of the inverse modelling techniques for a range of agricultural case studies also demonstrated good agreement between the emission estimates. It is concluded, therefore, that inverse dispersion modelling is a robust technique for estimating NH3 emission rates. Screening models that can provide a quick and approximate estimate of environmental impacts are a useful tool for impact assessments because they can be used to filter out cases that potentially have a minimal environmental impact allowing resources to be focussed on more potentially damaging cases. The Simple Calculation of Ammonia Impact Limits (SCAIL) model was developed as a screening model to provide an estimate of the mean NH3 concentration and dry deposition rate downwind of an agricultural source. This screening tool, based on the LADD model, was evaluated and calibrated with several experimental datasets and then validated using independent concentration measurements made near sources. Overall SCAIL performed acceptably according to established statistical criteria. This work has identified situations where the concentration predictions of dispersion models are similar and other situations where the predictions are significantly different. Some models are simply not designed to simulate certain scenarios since they do not include the relevant processes or are beyond the limits of their applicability. An example is the LADD model that is not applicable to sources with significant exit velocity since the model does not include a plume-rise parameterisation. The testing of a simple scheme combining a momentum-driven plume rise and increased turbulence at the source improved model performance, but more testing is required. Even models that are applicable and include the relevant process do not always give similar predictions and the reasons for this need to be investigated. AERMOD for example predicts higher concentrations than ADMS for dispersion from mechanically ventilated livestock housing. There is evidence to suggest that ADMS underestimates concentrations in these situations due to a high wind speed threshold. Conversely, there is also evidence that AERMOD overestimates concentrations in these situations due to overestimation at low wind speeds. However, a simple modification to the meteorological pre-processor appears to improve the performance of the model. It is important that these differences between the predictions of these models are taken into account in regulatory assessments. This can be done by applying the most suitable model for the assessment in question or, better still, using multiple or hybrid models.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En la presente tesis se estudian los contenidos geoquímicos de los sedimentos de llanura de inundación en diversas cuencas fluviales seleccionadas con el objetivo de contribuir a un mejor conocimiento de sus condiciones medioambientales. En cada cuenca, se ha muestreado un perfil vertical de llanura de inundación, dividiéndolo en tramos que generalmente corresponden a diferentes episodios de inundación. Estos sedimentos se depositan durante los episodios de crecidas una vez que la corriente sobrepasa los límites del canal. Se caracterizan normalmente por tener un tamaño de grano fino y una estructura en capas horizontales que corresponden a los sucesivos episodios de inundación. Muestran dos ventajas principales con respecto a otros medios de muestreo en geoquímica como suelos o sedimentos de corriente: • Pueden almacenar sedimento antiguo así como actual, con lo que se puede estudiar la historia geoquímica de una zona específica en un mismo punto de muestreo (perfil vertical). • Los sedimentos de llanuras de inundación son capaces de caracterizar grandes áreas de drenaje. El origen de los sedimentos es más diverso que en el sedimento de corriente, debido a las mayores áreas de donde proceden las aguas de las avenidas. Las cuencas han sido seleccionadas según las actividades antropogénicas que en ellas se llevan a cabo, en concreto, actividades urbanas e industriales, minería y agricultura. Así mismo, se han estudiado, como referencia, dos cuencas donde no se espera encontrar ningún tipo de actividad contaminante. Una vez hecha la selección, los sedimentos aluviales de las cuencas se han estudiado cuidadosamente para asegurar que no existen depósitos de acreción lateral en el punto seleccionado. Posteriormente se ha procedido al muestreo del perfil vertical. Las muestras han sido analizadas mediante ICP-MS (ataque total) e INAA para conocer los contenidos totales de los elementos traza y mayoritarios. Los análisis de la fracción extraíble se han llevado a cabo mediante ICP-MS (ataque con agua regia). Así mismo, algunas muestras seleccionadas han sido sometidas a una extracción secuencial para un estudio más detallado. La presencia de materia orgánica ha sido estimada mediante el análisis de Carbono Orgánico Total (TOC). Finalmente, se ha llevado a cabo un análisis de isótopos de Pb en muestras escogidas en los perfiles, con el objetivo de hacer una evaluación ambiental. Los contenidos metálicos aumentan hacia la superficie en algunos de los perfiles, mientras en otros muestran una distribución muy constante exceptuando algún nivel específico con un aumento de los contenidos de la mayoría de los metales. Ha sido posible determinar la influencia de las actividades antropogénicas en algunos de los perfiles. Aquellos que pertenecen a cuencas mineras, urbanas o industrializadas muestran generalmente altos contenidos en elementos metálicos. Es el caso de los perfiles muestreados en los ríos Odiel y Tinto, Besaya, Besós y Manzanares. Algunos de estos perfiles pueden incluso correlacionarse con periodos de tiempo en los que ha tenido lugar una actividad antropogénica más intensa. Los perfiles que mejor se correlacionan con la actividad antropogénica de la cuenca son el perfil de Rivas en el río Manzanares (Madrid), que refleja un crecimiento de la contaminación producida por las actividades urbana e industrial en las últimas décadas, y el río Tinto, que muestra un crecimiento llamativo de los contenidos en su mayoría metálicos que puede estar relacionado con el incremento de la actividad minera que tuvo lugar hace aproximadamente 125 años. El análisis de los isótopos de Pb ha resultado ser una herramienta útil en la evaluación ambiental de estos sedimentos. Con este estudio y mediante la comparación con fuentes naturales y antropogénicas, ha sido posible diferenciar las muestras afectadas por diferentes fuentes de plomo, así como detectar las más afectadas antropogénicamente. ABSTRACT The geochemical composition of overbank sediments of some selected river basins is studied in this thesis in order to contribute to a better knowledge of the environmental conditions surrounding them. In each basin a vertical overbank profile has been sampled, dividing it into stretches that usually correspond to different flood events. The overbank sediments are those deposited during a flood event once the flow spills over the channel banks. They are usually characterized by a very fine grain size and a structure of horizontal layers, which correspond to successive flood events. These sediments show two main advantages regarding other sampling media in geochemistry, like soils or stream sediments: • They can store sediment deposited in the past as well as in current times, so that the history of a specific location can be studied at the very same point (vertical profile). • The overbank sediments are able to characterize a large drainage area. The origin of the sediment is wider than in the stream sediments due to the larger areas where the flood water comes from. The basins have been selected depending on the anthropogenic activities developed in them, namely, urban and industrial activities, mining activities and agricultural activities. As well, two pristine basins have been studied as a reference. Afterwards, the alluvial sediments in the basins have been carefully studied in order to sample a vertical profile and make sure that lateral accretion materials are not present in the profile. The samples have been analysed by ICP-MS (total digestion) and INAA to know the total contents of trace and major elements. Analysis of the mobile fraction has been carried out by ICP-MS (aqua regia); as well some of the samples have been subjected to sequential extraction for a more detailed study. The presence of organic matter has been estimated by the analysis of the Total Organic Carbon (TOC). Finally, a lead isotope analysis of some of the samples in the profiles was carried out in order to make an environmental assessment. Metal contents grow towards the surface in some of the profiles, while others show a very steady distribution, except for some of them with a growth of most of the metals in a specific level. XI It has been possible to determine the influence of the anthropogenic activities in some of the profiles. The ones that belong to mining and urban or industrialized basins show generally high contents of metal elements. This is the case of the profiles sampled in the Odiel and Tinto Rivers, the Besaya River, the Besós River and the Manzanares River. Some of these profiles can even correlate with the periods of time when a more intense activity in their respective basins has taken place. The profiles which best correlate with the anthropogenic activity are the Rivas profile in the Manzanares River, which reflects a growth of the pollution produced by urban and industrial activities in the city of Madrid in the last decades and the Tinto profile, which shows a very dramatic growth of the elemental contents (mostly metals) which can be related to the increase of the mining activities that took place in the last 125 years. The analysis of lead isotopes has turned out to be a powerful tool in the environmental assessment in this type of sediments. With this study and through the comparison with natural and anthropogenic sources, it has been possible to determine samples affected by different sources of lead and to detect the most anthropogenicaly affected ones.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La contaminación acústica se ha convertido en uno de los principales problemas en materia medioambiental de nuestra sociedad. La creciente preocupación ha propiciado la aparición de legislación, en los distintos ámbitos de la administración, cuyo objetivo consiste en gestionar y reducir la contaminación acústica y sus efectos sobre las personas y el medio ambiente. En este sentido, en relación a las infraestructuras del transporte, y de modo muy especial en los aeropuertos, el monitorado del ruido se convierte en una herramienta de suma importancia para la gestión del ruido, la planificación del territorio y la adopción de medidas correctoras (planes de acción). Los terminales de monitorado de ruido ambiental, que se utilizan fundamentalmente en los aeropuertos, realizan una medición del nivel de ruido ambiental, y evalúan la contaminación que generan las aeronaves al ambiente sonoro general. Para ello, deben ser capaces de medir la evolución temporal del ruido y discriminar aquellos eventos sonoros que se correspondan con el paso de un avión frente al ruido de fondo. Los requisitos aplicables a las unidades de medida, así como los procedimientos de medida implicados han sido descritos recientemente en normas internacionales, como la ISO 20906 o la ARP 4721. Es precisamente en el aspecto relacionado con la discriminación del origen del ruido, donde los sistemas existentes presentan las principales carencias, ya que, un sistema básico de monitorado de ruido realiza la detección de eventos a partir de las medidas de nivel sonoro, evaluando los incrementos de nivel mediante la utilización de umbrales. Dichos umbrales relacionan nivel sonoro y tiempo, de forma que se efectúa el marcado de eventos cuando el nivel de presión sonora, Lp(t), supera un valor determinado durante, al menos, un determinado intervalo temporal. Uno de los principales objetivos de esta tesis se centra en el análisis de los sistemas que existen para la discriminación de ruido de aeronaves, y en el análisis de las contribuciones de estos sistemas sobre la incertidumbre de la medida y el reporte de resultados. Para la consecución de dicho objetivo, se ha definido un modelo de incertidumbre que permite evaluar los diferentes factores de influencia y realizar una cuantificación de la incertidumbre para diferentes escenarios. Durante este proceso se han definido y analizado los conceptos de incertidumbre de detección e incertidumbre de identificación, ambos derivados del diagrama de bloques que propone la norma ISO 20906 para la discriminación del ruido producido por los aviones y el procesado de datos. Asimismo, se pretende abordar el problema de la discriminación de aeronaves con un enfoque novedoso, que permita mejorar el rendimiento de los sistemas y reducir la incertidumbre. Mediante un sistema basado en reconocimiento de patrones uniclase, se aborda esta tarea en base al análisis de la semejanza entre la señal sonora registrada y el sonido que producen los aviones, dejando al margen la magnitud del sonido. Las técnicas de reconocimiento de patrones, y reconocimiento automático de habla, han sido aplicadas previamente al reconocimiento de fuentes de ruido ambiental. Algunos de estos proyectos se han centrado en el ruido de aviones, pero la novedad en esta tesis radica en la aplicación de clasificadores uniclase en un sistema que detecta eventos sonoros gracias a la clasificación de los fragmentos que lo componen. Actualmente los sistemas de gestión de ruido aeroportuario enlazan los datos de ruido proporcionados por las estaciones de monitorado con los datos procedentes del sistema seguimiento de los vuelos de los aviones mediante radar. Este tipo de sistemas es el que ha presentado mayor aceptación y ha sido implantado en los sistemas de monitorado de ruido de los principales aeropuertos internacionales. Sin embargo, este enfoque requiere de equipamiento que permita realizar el seguimiento de la posición de avión, y, dado que únicamente utilizan los niveles sonoros medidos para enlazarlos con el avión que los origina, no será capaz de detectar errores derivados de la presencia de una fuente sonora secundaria cuando existe un avión en la zona. El sistema que se plantea con la realización de esta tesis supone un avance debido a que permite eliminar del proceso de discriminación los umbrales de nivel sonoro, analizando única y exclusivamente la semejanza entre las señales comparadas. De esta manera se pretende mejorar las tasas de error en la identificación, e incluir umbrales de semejanza que permitan eliminar los umbrales de nivel sonoro en el proceso de detección. La implementación del sistema complementando al resto de sistemas del aeropuerto, permitirá la ampliación de las capacidades en el monitorado y la reducción de los costes en las campañas de medición desatendida. Al tiempo que se introducen las técnicas de reconocimiento de patrones en los sistemas de discriminación de los monitores de ruido, se pretende sacar partido de las posibilidades abiertas para dotar al sistema de capacidades adicionales, como es el caso de la detección del ruido de reversa, que se produce tras el aterrizaje de los aviones. La reversa se activa tras el contacto con tierra por parte de los aviones, para reducir la velocidad y acortar la distancia de frenado de los aviones. Esta práctica se usa de forma habitual en los aterrizajes, especialmente en los casos en los que la salida que debe tomar el avión rumbo al terminal se encuentra demasiado próxima al punto de aterrizaje. El empuje inverso se debe a una alteración en el flujo normal de aire que atraviesa los motores, que produce un violento choque contra la carcasa del motor, originando vibraciones y flujo turbulento que se convierte en ruido. El ruido de reversa puede alcanzar unos niveles mucho mayores que el propio aterrizaje, y sus características dinámicas y espectrales lo convierten en especialmente molesto. Por este motivo la utilización injustificada (salvo por motivos de seguridad) está prohibida o es desaconsejada en un gran número de aeropuertos, a nivel internacional (especialmente durante el período nocturno). Sin embargo, las autoridades aeroportuarias carecen de herramientas eficientes y fiables que permitan detectar la utilización de reversa, siendo este punto uno de los aspectos tratados en esta investigación.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Los avances logrados en la última década en los métodos y técnicas para la obtención de información mediante secuenciación genética de muestras orgánicas han supuesto una revolución en el área de la investigación biomédica. La disponibilidad de nuevas fuentes de datos abre vías novedosas de trabajo para investigadores que ya están dando sus frutos con técnicas mejoradas de diagnóstico y nuevos tratamientos para enfermedades como el cáncer. El cambio ha sido tan drástico que, por contra, los métodos empleados para acceder a la información han quedado obsoletos. Para remediar esta situación se ha realizado un gran esfuerzo en el campo de la informática biomédica con el objetivo de desarrollar herramientas adecuadas para este reto tecnológico. Así, la “revolución” genética ha ido acompañada de un importante esfuerzo en el desarrollo de sistemas de integración de datos heterogéneos cada vez más sofisticados. Sin embargo, los sistemas construidos han utilizado a menudo soluciones “ad hoc” para cada problema. Aún cuando existen arquitecturas y estándares bien establecidos en esta área, cada sistema es diseñado y construido desde cero ante cada nueva situación. Asimismo, los sistemas desarrollados no son, en general, válidos para problemas diferentes o para un conjunto distinto de requisitos. Ha faltado por tanto un verdadero esfuerzo por estandarizar este tipo de sistemas. En esta tesis doctoral se propone un modelo genérico de sistemas de integración de datos heterogéneos que facilite el diseño de los mismos. Se aporta asimismo una metodología basada en dicho modelo y destinada a hacer más eficientes los procesos de implementación y despliegue de estos sistemas. El modelo presentado se basa en un análisis exhaustivo de las características inherentes de los sistemas de integración de datos. La metodología propuesta, por su parte, hace uso de los estándares y tecnologías más extendidos hoy en día en el ámbito de acceso, gestión y compartición de información de carácter biomédico. Asimismo, dicha metodologia se basa en el uso de modelos ontológicos como paradigma de caracterización de la información, dado su uso mayoritario en este campo. Se persigue de esta manera ofrecer un marco estándar de diseño y desarrollo de sistemas de integración que evite las implementaciones redundantes tan comunes en esta área. Se lograría así un avance importante en el área del desarrollo de herramientas de integración de datos heterogéneos al proporcionar un marco para el diseño e implementación de estos sistemas. El trabajo de esta tesis doctoral se ha llevado a cabo en el marco de un proyecto europeo de investigación, que ha servido a su vez de entorno de pruebas y validación del modelo y metodología propuestos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las Tecnologías de la Información y la Comunicación en general e Internet en particular han supuesto una revolución en nuestra forma de comunicarnos, relacionarnos, producir, comprar y vender acortando tiempo y distancias entre proveedores y consumidores. A la paulatina penetración del ordenador, los teléfonos inteligentes y la banda ancha fija y/o móvil ha seguido un mayor uso de estas tecnologías entre ciudadanos y empresas. El comercio electrónico empresa–consumidor (B2C) alcanzó en 2010 en España un volumen de 9.114 millones de euros, con un incremento del 17,4% respecto al dato registrado en 2009. Este crecimiento se ha producido por distintos hechos: un incremento en el porcentaje de internautas hasta el 65,1% en 2010 de los cuales han adquirido productos o servicios a través de la Red un 43,1% –1,6 puntos porcentuales más respecto a 2010–. Por otra parte, el gasto medio por comprador ha ascendido a 831€ en 2010, lo que supone un incremento del 10,9% respecto al año anterior. Si segmentamos a los compradores según por su experiencia anterior de compra podemos encontrar dos categorías: el comprador novel –que adquirió por primera vez productos o servicios en 2010– y el comprador constante –aquel que había adquirido productos o servicios en 2010 y al menos una vez en años anteriores–. El 85,8% de los compradores se pueden considerar como compradores constantes: habían comprado en la Red en 2010, pero también lo habían hecho anteriormente. El comprador novel tiene un perfil sociodemográfico de persona joven de entre 15–24 años, con estudios secundarios, de clase social media y media–baja, estudiante no universitario, residente en poblaciones pequeñas y sigue utilizando fórmulas de pago como el contra–reembolso (23,9%). Su gasto medio anual ascendió en 2010 a 449€. El comprador constante, o comprador que ya había comprado en Internet anteriormente, tiene un perfil demográfico distinto: estudios superiores, clase alta, trabajador y residente en grandes ciudades, con un comportamiento maduro en la compra electrónica dada su mayor experiencia –utiliza con mayor intensidad canales exclusivos en Internet que no disponen de tienda presencial–. Su gasto medio duplica al observado en compradores noveles (con una media de 930€ anuales). Por tanto, los compradores constantes suponen una mayoría de los compradores con un gasto medio que dobla al comprador que ha adoptado el medio recientemente. Por consiguiente es de interés estudiar los factores que predicen que un internauta vuelva a adquirir un producto o servicio en la Red. La respuesta a esta pregunta no se ha revelado sencilla. En España, la mayoría de productos y servicios aún se adquieren de manera presencial, con una baja incidencia de las ventas a distancia como la teletienda, la venta por catálogo o la venta a través de Internet. Para dar respuesta a las preguntas planteadas se ha investigado desde distintos puntos de vista: se comenzará con un estudio descriptivo desde el punto de vista de la demanda que trata de caracterizar la situación del comercio electrónico B2C en España, poniendo el foco en las diferencias entre los compradores constantes y los nuevos compradores. Posteriormente, la investigación de modelos de adopción y continuidad en el uso de las tecnologías y de los factores que inciden en dicha continuidad –con especial interés en el comercio electrónico B2C–, permiten afrontar el problema desde la perspectiva de las ecuaciones estructurales pudiendo también extraer conclusiones de tipo práctico. Este trabajo sigue una estructura clásica de investigación científica: en el capítulo 1 se introduce el tema de investigación, continuando con una descripción del estado de situación del comercio electrónico B2C en España utilizando fuentes oficiales (capítulo 2). Posteriormente se desarrolla el marco teórico y el estado del arte de modelos de adopción y de utilización de las tecnologías (capítulo 3) y de los factores principales que inciden en la adopción y continuidad en el uso de las tecnologías (capítulo 4). El capítulo 5 desarrolla las hipótesis de la investigación y plantea los modelos teóricos. Las técnicas estadísticas a utilizar se describen en el capítulo 6, donde también se analizan los resultados empíricos sobre los modelos desarrollados en el capítulo 5. El capítulo 7 expone las principales conclusiones de la investigación, sus limitaciones y propone nuevas líneas de investigación. La primera parte corresponde al capítulo 1, que introduce la investigación justificándola desde un punto de vista teórico y práctico. También se realiza una breve introducción a la teoría del comportamiento del consumidor desde una perspectiva clásica. Se presentan los principales modelos de adopción y se introducen los modelos de continuidad de utilización que se estudiarán más detalladamente en el capítulo 3. En este capítulo se desarrollan los objetivos principales y los objetivos secundarios, se propone el mapa mental de la investigación y se planifican en un cronograma los principales hitos del trabajo. La segunda parte corresponde a los capítulos dos, tres y cuatro. En el capítulo 2 se describe el comercio electrónico B2C en España utilizando fuentes secundarias. Se aborda un diagnóstico del sector de comercio electrónico y su estado de madurez en España. Posteriormente, se analizan las diferencias entre los compradores constantes, principal interés de este trabajo, frente a los compradores noveles, destacando las diferencias de perfiles y usos. Para los dos segmentos se estudian aspectos como el lugar de acceso a la compra, la frecuencia de compra, los medios de pago utilizados o las actitudes hacia la compra. El capítulo 3 comienza desarrollando los principales conceptos sobre la teoría del comportamiento del consumidor, para continuar estudiando los principales modelos de adopción de tecnología existentes, analizando con especial atención su aplicación en comercio electrónico. Posteriormente se analizan los modelos de continuidad en el uso de tecnologías (Teoría de la Confirmación de Expectativas; Teoría de la Justicia), con especial atención de nuevo a su aplicación en el comercio electrónico. Una vez estudiados los principales modelos de adopción y continuidad en el uso de tecnologías, el capítulo 4 analiza los principales factores que se utilizan en los modelos: calidad, valor, factores basados en la confirmación de expectativas –satisfacción, utilidad percibida– y factores específicos en situaciones especiales –por ejemplo, tras una queja– como pueden ser la justicia, las emociones o la confianza. La tercera parte –que corresponde al capítulo 5– desarrolla el diseño de la investigación y la selección muestral de los modelos. En la primera parte del capítulo se enuncian las hipótesis –que van desde lo general a lo particular, utilizando los factores específicos analizados en el capítulo 4– para su posterior estudio y validación en el capítulo 6 utilizando las técnicas estadísticas apropiadas. A partir de las hipótesis, y de los modelos y factores estudiados en los capítulos 3 y 4, se definen y vertebran dos modelos teóricos originales que den respuesta a los retos de investigación planteados en el capítulo 1. En la segunda parte del capítulo se diseña el trabajo empírico de investigación definiendo los siguientes aspectos: alcance geográfico–temporal, tipología de la investigación, carácter y ambiente de la investigación, fuentes primarias y secundarias utilizadas, técnicas de recolección de datos, instrumentos de medida utilizados y características de la muestra utilizada. Los resultados del trabajo de investigación constituyen la cuarta parte de la investigación y se desarrollan en el capítulo 6, que comienza analizando las técnicas estadísticas basadas en Modelos de Ecuaciones Estructurales. Se plantean dos alternativas, modelos confirmatorios correspondientes a Métodos Basados en Covarianzas (MBC) y modelos predictivos. De forma razonada se eligen las técnicas predictivas dada la naturaleza exploratoria de la investigación planteada. La segunda parte del capítulo 6 desarrolla el análisis de los resultados de los modelos de medida y modelos estructurales construidos con indicadores formativos y reflectivos y definidos en el capítulo 4. Para ello se validan, sucesivamente, los modelos de medida y los modelos estructurales teniendo en cuenta los valores umbrales de los parámetros estadísticos necesarios para la validación. La quinta parte corresponde al capítulo 7, que desarrolla las conclusiones basándose en los resultados del capítulo 6, analizando los resultados desde el punto de vista de las aportaciones teóricas y prácticas, obteniendo conclusiones para la gestión de las empresas. A continuación, se describen las limitaciones de la investigación y se proponen nuevas líneas de estudio sobre distintos temas que han ido surgiendo a lo largo del trabajo. Finalmente, la bibliografía recoge todas las referencias utilizadas a lo largo de este trabajo. Palabras clave: comprador constante, modelos de continuidad de uso, continuidad en el uso de tecnologías, comercio electrónico, B2C, adopción de tecnologías, modelos de adopción tecnológica, TAM, TPB, IDT, UTAUT, ECT, intención de continuidad, satisfacción, confianza percibida, justicia, emociones, confirmación de expectativas, calidad, valor, PLS. ABSTRACT Information and Communication Technologies in general, but more specifically those related to the Internet in particular, have changed the way in which we communicate, relate to one another, produce, and buy and sell products, reducing the time and shortening the distance between suppliers and consumers. The steady breakthrough of computers, Smartphones and landline and/or wireless broadband has been greatly reflected in its large scale use by both individuals and businesses. Business–to–consumer (B2C) e–commerce reached a volume of 9,114 million Euros in Spain in 2010, representing a 17.4% increase with respect to the figure in 2009. This growth is due in part to two different facts: an increase in the percentage of web users to 65.1% en 2010, 43.1% of whom have acquired products or services through the Internet– which constitutes 1.6 percentage points higher than 2010. On the other hand, the average spending by individual buyers rose to 831€ en 2010, constituting a 10.9% increase with respect to the previous year. If we select buyers according to whether or not they have previously made some type of purchase, we can divide them into two categories: the novice buyer–who first made online purchases in 2010– and the experienced buyer: who also made purchases in 2010, but had done so previously as well. The socio–demographic profile of the novice buyer is that of a young person between 15–24 years of age, with secondary studies, middle to lower–middle class, and a non–university educated student who resides in smaller towns and continues to use payment methods such as cash on delivery (23.9%). In 2010, their average purchase grew to 449€. The more experienced buyer, or someone who has previously made purchases online, has a different demographic profile: highly educated, upper class, resident and worker in larger cities, who exercises a mature behavior when making online purchases due to their experience– this type of buyer frequently uses exclusive channels on the Internet that don’t have an actual store. His or her average purchase doubles that of the novice buyer (with an average purchase of 930€ annually.) That said, the experienced buyers constitute the majority of buyers with an average purchase that doubles that of novice buyers. It is therefore of interest to study the factors that help to predict whether or not a web user will buy another product or use another service on the Internet. The answer to this question has proven not to be so simple. In Spain, the majority of goods and services are still bought in person, with a low amount of purchases being made through means such as the Home Shopping Network, through catalogues or Internet sales. To answer the questions that have been posed here, an investigation has been conducted which takes into consideration various viewpoints: it will begin with a descriptive study from the perspective of the supply and demand that characterizes the B2C e–commerce situation in Spain, focusing on the differences between experienced buyers and novice buyers. Subsequently, there will be an investigation concerning the technology acceptance and continuity of use of models as well as the factors that have an effect on their continuity of use –with a special focus on B2C electronic commerce–, which allows for a theoretic approach to the problem from the perspective of the structural equations being able to reach practical conclusions. This investigation follows the classic structure for a scientific investigation: the subject of the investigation is introduced (Chapter 1), then the state of the B2C e–commerce in Spain is described citing official sources of information (Chapter 2), the theoretical framework and state of the art of technology acceptance and continuity models are developed further (Chapter 3) and the main factors that affect their acceptance and continuity (Chapter 4). Chapter 5 explains the hypothesis behind the investigation and poses the theoretical models that will be confirmed or rejected partially or completely. In Chapter 6, the technical statistics that will be used are described briefly as well as an analysis of the empirical results of the models put forth in Chapter 5. Chapter 7 explains the main conclusions of the investigation, its limitations and proposes new projects. First part of the project, chapter 1, introduces the investigation, justifying it from a theoretical and practical point of view. It is also a brief introduction to the theory of consumer behavior from a standard perspective. Technology acceptance models are presented and then continuity and repurchase models are introduced, which are studied more in depth in Chapter 3. In this chapter, both the main and the secondary objectives are developed through a mind map and a timetable which highlights the milestones of the project. The second part of the project corresponds to Chapters Two, Three and Four. Chapter 2 describes the B2C e–commerce in Spain from the perspective of its demand, citing secondary official sources. A diagnosis concerning the e–commerce sector and the status of its maturity in Spain is taken on, as well as the barriers and alternative methods of e–commerce. Subsequently, the differences between experienced buyers, which are of particular interest to this project, and novice buyers are analyzed, highlighting the differences between their profiles and their main transactions. In order to study both groups, aspects such as the place of purchase, frequency with which online purchases are made, payment methods used and the attitudes of the purchasers concerning making online purchases are taken into consideration. Chapter 3 begins by developing the main concepts concerning consumer behavior theory in order to continue the study of the main existing acceptance models (among others, TPB, TAM, IDT, UTAUT and other models derived from them) – paying special attention to their application in e–commerce–. Subsequently, the models of technology reuse are analyzed (CDT, ECT; Theory of Justice), focusing again specifically on their application in e–commerce. Once the main technology acceptance and reuse models have been studied, Chapter 4 analyzes the main factors that are used in these models: quality, value, factors based on the contradiction of expectations/failure to meet expectations– satisfaction, perceived usefulness– and specific factors pertaining to special situations– for example, after receiving a complaint justice, emotions or confidence. The third part– which appears in Chapter 5– develops the plan for the investigation and the sample selection for the models that have been designed. In the first section of the Chapter, the hypothesis is presented– beginning with general ideas and then becoming more specific, using the detailed factors that were analyzed in Chapter 4– for its later study and validation in Chapter 6– as well as the corresponding statistical factors. Based on the hypothesis and the models and factors that were studied in Chapters 3 and 4, two original theoretical models are defined and organized in order to answer the questions posed in Chapter 1. In the second part of the Chapter, the empirical investigation is designed, defining the following aspects: geographic–temporal scope, type of investigation, nature and setting of the investigation, primary and secondary sources used, data gathering methods, instruments according to the extent of their use and characteristics of the sample used. The results of the project constitute the fourth part of the investigation and are developed in Chapter 6, which begins analyzing the statistical techniques that are based on the Models of Structural Equations. Two alternatives are put forth: confirmatory models which correspond to Methods Based on Covariance (MBC) and predictive models– Methods Based on Components–. In a well–reasoned manner, the predictive techniques are chosen given the explorative nature of the investigation. The second part of Chapter 6 explains the results of the analysis of the measurement models and structural models built by the formative and reflective indicators defined in Chapter 4. In order to do so, the measurement models and the structural models are validated one by one, while keeping in mind the threshold values of the necessary statistic parameters for their validation. The fifth part corresponds to Chapter 7 which explains the conclusions of the study, basing them on the results found in Chapter 6 and analyzing them from the perspective of the theoretical and practical contributions, and consequently obtaining conclusions for business management. The limitations of the investigation are then described and new research lines about various topics that came up during the project are proposed. Lastly, all of the references that were used during the project are listed in a final bibliography. Key Words: constant buyer, repurchase models, continuity of use of technology, e–commerce, B2C, technology acceptance, technology acceptance models, TAM, TPB, IDT, UTAUT, ECT, intention of repurchase, satisfaction, perceived trust/confidence, justice, feelings, the contradiction of expectations, quality, value, PLS.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las organizaciones son sistemas o unidades sociales, compuestas por personas que interactúan entre sí, para lograr objetivos comunes. Uno de sus objetivos es la productividad. La productividad es un constructo multidimensional en la que influyen aspectos tecnológicos, económicos, organizacionales y humanos. Diversos estudios apoyan la influencia de la motivación de las personas, de las habilidades y destrezas de los individuos, de su talento para desempeñar el trabajo, así como también del ambiente de trabajo presente en la organización, en la productividad. Por esta razón, el objetivo general de la investigación, es analizar la influencia entre los factores humanos y la productividad. Se hará énfasis en la persona como factor productivo clave, para responder a las interrogantes de la investigación, referidas a cuáles son las variables humanas que inciden en la productividad, a la posibilidad de plantear un modelo de productividad que considere el impacto del factor humano y la posibilidad de encontrar un método para la medición de la productividad que contemple la percepción del factor humano. Para resolver estas interrogantes, en esta investigación se busca establecer las relaciones entre las variables humanas y la productividad, vistas desde la perspectiva de tres unidades de análisis diferentes: individuo, grupo y organización, para la formulación de un modelo de productividad humana y el diseño de un instrumento para su medida. Una de las principales fuente de investigación para la elección de las variables humanas, la formulación del modelo, y el método de medición de la productividad, fue la revisión de la literatura disponible sobre la productividad y el factor humano en las organizaciones, lo que facilitó el trazado del marco teórico y conceptual. Otra de las fuentes para la selección fue la opinión de expertos y de especialistas directamente involucrados en el sector eléctrico venezolano, lo cual facilitó la obtención de un modelo, cuyas variables reflejasen la realidad del ámbito en estudio. Para aportar una interpretación explicativa del fenómeno, se planteó el modelo de los Factores Humanos vs Productividad (MFHP), el cual se analizó desde la perspectiva del análisis causal y fue conformado por tres variables latentes exógenas denominadas: factores individuales, factores grupales y factores organizacionales, que estaban relacionadas con una variable latente endógena denominada productividad. El MFHP se formuló mediante la metodología de los modelos de ecuaciones estructurales (SEM). Las relaciones inicialmente propuestas entre las variables latentes fueron corroboradas por los ajustes globales del modelo, se constataron las relaciones entre las variables latentes planteadas y sus indicadores asociados, lo que facilitó el enunciado de 26 hipótesis, de las cuales se comprobaron 24. El modelo fue validado mediante la estrategia de modelos rivales, utilizada para comparar varios modelos SEM, y seleccionar el de mejor ajuste, con sustento teórico. La aceptación del modelo se realizó mediante la evaluación conjunta de los índices de bondad de ajuste globales. Asimismo, para la elaboración del instrumento de medida de la productividad (IMPH), se realizó un análisis factorial exploratorio previo a la aplicación del análisis factorial confirmatorio, aplicando SEM. La revisión de los conceptos de productividad, la incidencia del factor humano, y sus métodos de medición, condujeron al planteamiento de métodos subjetivos que incorporaron la percepción de los principales actores del proceso productivo, tanto para la selección de las variables, como para la formulación de un modelo de productividad y el diseño de un instrumento de medición de la productividad. La contribución metodológica de este trabajo de investigación, ha sido el empleo de los SEM para relacionar variables que tienen que ver con el comportamiento humano en la organización y la productividad, lo cual abre nuevas posibilidades a la investigación en este ámbito. Organizations are social systems or units composed of people who interact with each other to achieve common goals. One objective is productivity, which is a multidimensional construct influenced by technological, economic, organizational and human aspects. Several studies support the influence on productivity of personal motivation, of the skills and abilities of individuals, of their talent for the job, as well as of the work environment present in the organization. Therefore, the overall objective of this research is to analyze the influence between human factors and productivity. The emphasis is on the individual as a productive factor which is key in order to answer the research questions concerning the human variables that affect productivity and to address the ability to propose a productivity model that considers the impact of the human factor and the possibility of finding a method for the measurement of productivity that includes the perception of the human factor. To consider these questions, this research seeks to establish the relationships between human and productivity variables, as seen from the perspective of three different units of analysis: the individual, the group and the organization, in order to formulate a model of human productivity and to design an instrument for its measurement. A major source of research for choosing the human variables, model formulation, and method of measuring productivity, was the review of the available literature on productivity and the human factor in organizations which facilitated the design of the theoretical and conceptual framework. Another source for the selection was the opinion of experts and specialists directly involved in the Venezuelan electricity sector which facilitated obtaining a model whose variables reflect the reality of the area under study. To provide an interpretation explaining the phenomenon, the model of the Human Factors vs. Productivity Model (HFPM) was proposed. This model has been analyzed from the perspective of causal analysis and was composed of three latent exogenous variables denominated: individual, group and organizational factors which are related to a latent variable denominated endogenous productivity. The HFPM was formulated using the methodology of Structural Equation Modeling (SEM). The initially proposed relationships between latent variables were confirmed by the global fits of the model, the relationships between the latent variables and their associated indicators enable the statement of 26 hypotheses, of which 24 were confirmed. The model was validated using the strategy of rival models, used for comparing various SEM models and to select the one that provides the best fit, with theoretical support. The acceptance of the model was performed through the joint evaluation of the adequacy of global fit indices. Additionally, for the development of an instrument to measure productivity, an exploratory factor analysis was performed prior to the application of a confirmatory factor analysis, using SEM. The review of the concepts of productivity, the impact of the human factor, and the measurement methods led to a subjective methods approach that incorporated the perception of the main actors of the production process, both for the selection of variables and for the formulation of a productivity model and the design of an instrument to measure productivity. The methodological contribution of this research has been the use of SEM to relate variables that have to do with human behavior in the organization and with productivity, opening new possibilities for research in this area.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El proyecto consiste en el diseño del sistema de climatización de un edificio ubicado en la ciudad de Madrid que utilice la energía solar como fuente de calor y electricidad. El objetivo es que el edificio tenga un consumo energético lo más bajo posible y que utilice energías de origen renovable para su explotación. Se incluye el cálculo de cargas térmicas, el dimensionamiento del sistema de climatización y de los sistemas de captación de energía solar (térmica y fotovoltaica). Adicionalmente, se definen las principales características de un sistema de control centralizado que permita optimizar el rendimiento y monitorizar el funcionamiento de la instalación de forma continua. Se incluye el diseño de las instalaciones auxiliares con un grado de detalle suficiente que permita su valoración, tanto desde el punto de vista energético como económico. Como parte fundamental del proyecto, se extraen conclusiones acerca del ahorro energético de las instalaciones y se analiza la viabilidad económica de las inversiones. ABSTRACT The project covers the design of a Heating and Climatization System for a building located in the city of Madrid (Spain). The facilities will use solar energy as the main source for both heat and electricity. The main goals are to achieve the lowest possible energy consumption and to use renewable sources of energy to cover it. Calculation of thermal charges is included, together with the sizing of both the Climatization System and the Solar Energy (Thermal and PV) facilities. In addition, the main characteristics of a Centralized Control System are defined. This will help both to optimize the performance of the different systems involved and to monitor the operation. Design of all auxiliary systems is included with enough level of detail as to be able to evaluate them from both energetic and economic points of view. Paramount in this project is to be able to draw conclusions about the energy savings and the profitability (or not) of the main investments to be carried out

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objeto de este proyecto es seleccionar los métodos estadísticos adecuados para el tratamiento de los resultados obtenidos en un ejercicio de intercomparación para ensayos de áridos para construcción con el fin de cumplir la normativa para dicho ejercicio. Los ensayos estudiados son: - Ensayo Azul de Metileno - Equivalente de arena - Contenido total en azufre - Contenido en humus - Reactividad álcali-carbonato Los criterios aplicables para el desarrollo de los trabajos son los exigidos por la Entidad Nacional de Acreditación (ENAC) para laboratorios acreditados conforme a la Norma UNE-EN ISO/IEC 17025 y para proveedores acreditados conforme a la Norma UNE-EN ISO/IEC 17043. ABSTRACT: The purpose of this Project is to select appropriate statistical methods for the treatment of the results obtained from an intercomparison exercise for testing of aggregates for construction with the target of comply the rules for this exercise. The studied assays are: - Methylene Blue Assay - Sand equivalent - Total Sulfur Content - Humus content - Alkali-carbonate reactivity The criteria for the development of the work are those required by the National Accreditation Body (ENAC) for laboratories accredited in accordance with the UNE-EN ISO / IEC 17025 and for suppliers in accordance with the UNE-EN ISO / IEC 17043.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Se compone de quince documentos sobre tecnologías de la información

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Clasificación y selección de materiales de cambio de fase según sus características para su aplicación en sistemas de almacenamiento de energía térmica

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Se amplía la investigación de la tesis en las circustancias que rodearon al concurso de la catedral y la aportación de Cabrero y Aburto, a partir de las fuentes pictóricas y el estudio de las referencias italianas y alemanas encontradas en la biblioteca de Cabrero. Se concluye que la pequeña capilla de la Feria del Campo fue un prototipo o ensayo previo.