1000 resultados para Descargas atmosféricas directas


Relevância:

10.00% 10.00%

Publicador:

Resumo:

En los últimos años la sociedad urbana ha evolucionado hacia la devaluación de lo público. Esto tiene consecuencias directas sobre lo que ocurre en las ciudades no solamente en sus sistemas organizativos sino también en cómo se traslada este problema a su espacio físico. Para ello la consideración de lo público como concepto que existe en nuestra memoria colectiva y la traslación del mismo a la historia de nuestras ciudades hasta nuestros días tiene un enorme interés. En este sentido el soporte físico de la ciudad, la forma de sus calles, sus plazas o sus jardines y el modo en el que están engarzadas formando una única parcela pública es determinante para acoger la expresión concreta en soportes reales del arte espontáneo o programado que refleja el sentir de una sociedad. Los valores y tradiciones sedimentan en las reflexiones artísticas más o menos elaboradas, más o menos académicas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se describen de forma panorámica los pasos e hitos principales que comprende el plan de estabilización y recuperación de la central de Fukushima-Daiichi, con los logros alcanzados hasta conseguir una refrigeración estable y llegar a la parada fría de los reactores, mantener la refrigeración de las piscinas, detener prácticamente por completo de las descargas radiactivas, gestionar y reutilizar cantidades enormes de agua contaminada, limpiar el emplazamiento y aislar la unidad 1. También se presentan sucintamente las etapas previstas posteriormente hasta llegar al desmantelamiento de la central, pasando por la extracción del combustible de las piscinas, y en una fase posterior mucho más delicada, del material fundido de los núcleos de los reactores y el resto de materiales y residuos altamente radiactivos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En los modelos promovidos por las normativas internacionales de análisis y gestión de riesgos en sistemas de información los activos están interrelacionados entre sí, de modo que un ataque sobre uno de ellos se puede transmitir a lo largo de toda la red, llegando a alcanzar a los activos más valiosos para la Organización. Es necesario entonces asignar el valor de todos los activos, así como las relaciones de dependencia directas e indirectas entre éstos, o la probabilidad de materialización de una amenaza y la degradación que ésta puede provocar sobre los activos. Sin embargo, los expertos encargados de asignar tales valores, a menudo aportan únicamente información imprecisa, de modo que las técnicas borrosas pueden ser muy útiles en este ámbito. Para poder dar un tratamiento computacional a esta información imprecisa es necesario proveer a los expertos de un método con el que puedan expresar sus juicios probabilísticos o sus valoraciones sobre los activos de información en forma de números difusos y evitando sesgos informativos. Una vez obtenidos tales valores, hemos de construir algoritmos que nos permitan establecer indicadores de impacto y riesgo para las amenazas que se ciernen sobre los activos de información, y finalmente debemos proponer conjuntos óptimos de salvaguardas y controles para reducir el riesgo a un nivel asumible. En este trabajo desarrollamos elementos que permiten realizar todo este proceso partiendo de los conceptos básicos de Lógica Borrosa y de las metodologías internacionales de análisis y gestión de riesgos en los sistemas de información.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las implicaciones ambientales, sociales y económicas que trae consigo el cambio climático, ponen en evidencia la creciente preocupación por desarrollar estrategias con el fin de combatirlo. El Protocolo de Kioto trajo consigo el compromiso a nivel internacional de disminuir las emisiones de origen antropogénicos. Sin embargo las emisiones mundiales siguen en aumento y nuevas estrategias deben ser desarrollas. En el presente Proyecto Fin de Carrera pone el punto de mira en las emisiones que se generan en los hogares españoles. Gracias al indicador Huella de Carbono se puede determinar de una manera rápida y eficaz las emisiones de gases de efecto invernadero que se producen de manera directas e indirectas como consecuencia del consumo de bienes y servicios. El objetivo es calcular la huella de carbono asociada a los habitantes españoles en relación a los bienes y servicios que estos consumen durante el periodo 1998-2011. La huella de carbono también es calculada para los habitantes de las diferentes Comunidades Autónomas que componen España para el periodo 2006-2011. El cálculo se realiza en base a las encuestas de los presupuestos familiares desarrolladas por el Instituto Nacional de Estadística. Los factores de emisión son obtenidos del al Método Compuesto de las Cuentas Contables. Una vez analizado los resultados, se cotejan con otros estudios para poder comparar la eficacia del método utilizado. Se evalúa el patrón y localización de las emisiones de gases de efecto invernadero en relación a las diferentes categorías de consumo de los hogares y se indicara cuáles son las que mayor huella generan. Al final del proyecto se enuncian las conclusiones de la utilización del Método Compuesto de las Cuentas Contables como herramienta de cálculo de huella de carbono y se enunciaran medidas para la reducción de la huella de carbono de los hogares.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesis se articula en tres capítulos, estructurados siguiendo un proceso de extensión espacio temporal paralelo al que incumbe al cuerpo propio, entendiendo por tanto la fachada, es decir el rostro de la arquitectura (facies), como proyección directa de nuestra exterioridad y punto de registro de las alteraciones que afectan tanto a nuestra corporeidad como al objeto arquitectónico y al paisaje natural y urbano contemporáneo. El cuerpo, su esqueleto, su piel, su rostro, y las diferentes máscaras que filtran su relación con el mundo, se convierten en la clave para una lectura interdisciplinar de las mutaciones que se registran en las fronteras arquitectónicas. La extensión espacio temporal del cuerpo es el punto de partida de la investigación y la estructura misma de la tesis que se desarrolla con el siguiente criterio: la fachada en relación con el rostro y el cuerpo propio (relación: cuerpo arquitectura, rostro- fachada); la fachada en relación con el edificio; su separación y autonomía formal, estructural y comunicativa (relación: piel esqueleto; estructura revestimiento). la fachada con respecto al nuevo paisaje natural y urbano (rostro paisaje; fachada nueva ecología, en un contexto de hibridación tecnológica y artificialización del mundo). En el primer capítulo partimos portante del cuerpo propio, entendiendo que las diferentes formas, fachadas o rostros que vestidos, cosas y casas adquieren en el tiempo, son proyecciones directas de nuestra exterioridad en un proceso de extensión espacio temporal que es también un proceso de significación. Como ya avisaba Ortega, todas las extensiones del hombre, es decir los productos de la técnica y de la industria que el hombre construye para adaptarse a diferentes condiciones de vida, se convierten en instrumentos para clasificar socialmente una persona, y son por tanto máscaras o "estilos" que revelan las épocas correspondientes. Por La máscara y sus diferentes connotaciones se convierten en medios para analizar un proceso que nos sitúa finalmente en la "máscara electrónica", es decir una piel híbrida, mejorada y extendida hasta los límites propios del mundo, que responde a los cambios impuestos por la moda y a los devenires cada vez más acelerados. En el segundo capítulo nos situamos en la piel del objeto arquitectónico y en su proceso de desvinculación formal, estructural y comunicativo de la estructura, en un debate abierto con diferentes connotaciones entre revelar y enmascarar El proceso pasa por diferentes momentos históricos, destacando: el Renacimiento, como momento en el que se forja el término fachada, como resultado de una determinada manera de entender la representación arquitectónica, social y urbana; la Revolución Industrial, por la introducción de los nuevos materiales y sistemas de producción y consumo que se materializan en las Grandes Exposiciones Universales; finalmente la Posmodernidad, como momento en el que se forjan las bases de la "superficialidad posmoderna", como Jameson la define, desde el presupuesto de una necesidad de símbolos y significados que justifica las actitudes formales propias del final del siglo XX y las alteraciones en el límite que se perfilan en el nuevo milenio. En el tercer capítulo se investigan las consecuencias de esta desvinculación a nivel del paisaje natural y urbano, en una perspectiva de hibridación planetaria que pone en cuestión las clasificaciones tradicionales. La fachada es finalmente interfaz, término de raíz informática, que indica en sí mismo las alteraciones que afectan al límite, convertido en lugar, membrana osmótica y filtro de informaciones. La interfaz es una máscara pues, como la definición indica, remite al intercambio de información pero no al proceso que dicho intercambio determina El límite es por tanto un lugar, una entidad ensanchada e indeterminada en la que ocurren intercambios e interacciones que sólo se revelan a pocos selectos y que tienen en definitiva que quedar ocultas. En este lugar nos situamos para analizar las alteraciones contemporáneas que afectan a nuestras ciudades, objeto, como la piel del cuerpo propio, de la colonización despiadada del consumo de masa y de la tecnología electrónica. Por un lado el fascinante mundo interconectado y fluido de las redes y por otro lado ciudades cada vez más fragmentadas en las que los límites se multiplican, obligando a situamos con nuevas actitudes frente a un paisaje y a una naturaleza controlados con diferentes grados de manipulación. Si la fachada en su acepción tradicional suponía una actitud de continuidad urbana y de respecto de reglas compositivas determinadas, la piel es un territorio más abierto y flexible, que puede ser camuflado, enmascarado, desmaterializado con diferentes estrategias que son en definitiva respuestas a la dilatación y proliferación de los límites y a las necesidades de una sociedad en la que predomina el control en todas sus acepciones. La fachada tradicional aislaba, protegía y filtraba prudentemente las relaciones entre la esfera pública y la privada, al tiempo que revelaba el estatus y el rol de cada edificio en su contexto. La anulación de la fachada en la modernidad, tanto a nivel del objeto arquitectónico como de la ciudad misma, supone una actitud de rechazo frente a la máscara y la contraposición edificio - paisaje como entidades autónomas. El artefacto arquitectónico se concibe como objeto aislado y la propia ciudad crece de manera exacerbada anulando el sentido de la fachada tradicional. Hoy la sustitución de la fachada por la interfaz no deriva de una actitud moralista, pues la ética ha sido anulada por una estetización que ocupa todos los niveles de la sociedad y de la vida. Asumimos que la máscara, como ya decía Semper, siempre es necesaria, pero si la fachada era máscara social, la interfaz es una máscara electrónica, piel híbrida capaz de ser infinitamente colonizada y de responder a las exigencias de cambio que impone el mundo en el que vivimos. El campo de investigación queda abierto, perfilándose la posibilidad de imaginar una arquitectura menos preocupada por efectos formales y espectaculares, y más centrada hacia las posibilidades que ofrece la electrónica en su aplicación a la arquitectura como respuesta a las exigencias del hombre contemporáneo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En los últimos años se observa una creciente demanda de modelos 3D, especialmente orientados al control dimensional dentro de los diferentes campos de la arquitectura o ingeniería, en los que tanto la instrumentación, los métodos de captura (fotogrametría digital y láser escáner), como el tratamiento posterior de la información, requieren de procedimientos y modernas herramientas informáticas acordes con los fines específicos. Los ensayos realizados se encuadran dentro de los métodos de homologación cinegética, que son en definitiva los distintos sistemas de medición y puntuación de las diferentes especies de caza mayor. En este estudio se ha seleccionado un trofeo de gamo para la realización de los diferentes tratamientos, análisis y modelización. En la actualidad los organismos competentes en esta materia emplean, para realizar estos trabajos, mediciones directas y baremos específicos, principalmente con instrumentación analógica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El origen del proyecto se encuentra en la mejora de un inversor trifásico sinusoidal comercial sobre la base del estudio de las técnicas de excitación óptimas para los IGBTs que lo componen en su etapa de potencia. En las primeras fases de planteamiento del proyecto se propone una idea mucho más ambiciosa, la realización de un nuevo convertidor de emergencia, destinado al sector ferroviario, para dar servicio de climatización. Este convertidor está formado por la asociación en cascada de un bloque DC/DC elevador y un bloque inversor DC/AC trifásico controlado mediante PWM con modulación sinusoidal. Se pretendía así dar solución a las siguientes problemáticas detectadas en los convertidores comercializados hasta el momento: un bloque elevador excesivamente sobredimensionado, subsistemas de control independientes para los dos bloques que configuran el convertidor, adicionalmente, la tarjeta driver se rediseña con cada cambio de especificaciones por parte de un nuevo cliente y finalmente, las comunicaciones tanto de diagnosis como de mantenimiento necesitaban una importante actualización. Inicialmente, se ha realizado un estudio teórico de los bloques elevador e inversor para poder realizar el diseño y dimensionamiento de sus componentes tanto semiconductores como electromagnéticos. Una vez completada la parte de potencia, se estudia el control que se realiza mediante medidas directas y simulación tanto de la estrategia de control del elevador como del inversor. Así se obtiene una información completa de la funcionalidad de las tarjetas existentes. Se desea realizar el diseño de una única tarjeta controladora y una única tarjeta de drivers para ambos bloques. Por problemas ajenos, en el transcurso de este proyecto se cancela su realización comercial, con lo que se decide al menos crear la placa de control y poder gobernar un convertidor ya existente, sustituyendo la tarjeta de control del bloque elevador. Para poder fabricar la placa de control se divide en dos tarjetas que irán conectadas en modo sándwich. En una tarjeta está el microcontrolador y en otra está todo el interface necesario para operar con el sistema: entradas y salidas digitales, entradas y salidas analógicas, comunicación CAN, y un pequeño DC/DC comercial que proporciona alimentación al prototipo. Se realiza un pequeño programa funcional para poder manejar el convertidor, el cual con una tensión de 110V DC, proporciona a la salida una tensión de 380V AC. Como ya se ha expuesto, debido a la cancelación del proyecto industrial no se profundiza más en su mejora y se decide proponerlo para su evaluación en su fase actual. ABSTRACT. The beginning of the project is found in the improvement of a commercial sine wave three phase inverter which is based in a study about optimal excitation techniques to IGBTs which compose in the power stage. In the early phases of project it is proposed a much more ambitious idea, the fact of a new emergency converter, proposed for the rail sector to work in an air condition unit. This converter is formed by an association of a block cascaded DC/DC booster and a block DC/AC inverter three-phase controlled by a sine wave modulation PWM. The purposed was to give a solution to following problems detected in commercial converters nowadays: an excessively oversized block boost, independent control subsystems for two blocks that configure the converter. In addition, driver board is redesigned with each specifications change demand it a new customer, and finally, the communications, diagnostic and maintenance that needed a important upgrade. Initially, it has been performed a theoretical study of boost and the inverter blocks to be able to perform the component’s design and the size (semiconductor and electromagnetic fields). Once finished power study, it is analysed the control performed using direct measures and simulation of boost control strategy and inverter. With this it is obtained complete information about existing cards functionality. The project is looking for the design of just one controller card and one drivers´ card for both blocks. By unrelated problems, during the course of this project a commercial realization. So at least its decided to create control board to be able to existing converter, replacing boost block’s control board. To be able to manufacture control board it is divided in two cards connected in sandwiching mode. In a card is microcontroller and in another is all needed interface to operate with the system: digital inputs and outputs, analogical inputs and outputs, CAN communication, and a small DC / DC business that provide power supply to the prototype. It is performed a small functional program to handle the converter, which with an input voltage 110V DC provides an output voltage 380V AC. As already has been exposed, due to industrial project cancellation it is decided no to continue with all improvements and directly to evaluate it in the current phase.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo principal del presente proyecto es proporcionar al ingeniero de telecomunicaciones una visión general de las técnicas que se utilizan en el modelado del sistema auditivo. El modelado del sistema auditivo se realiza con los siguientes objetivos: a) Interpretar medidas directas, b)unificar el entendimiento de diferentes fenómenos, c) guiar estrategias de amplificación para suplir pérdidas auditivas y d) tener predicciones experimentalmente comprobables de comportamientos, con diferentes niveles de complejidad. En este trabajo se tratarán y explicarán brevemente las diferentes técnicas utilizadas para modelar las partes del sistema auditivo, desde las analogías electroacústicas, modelos biofísicos, binaurales, hasta la implementación de filtros auditivos mediante procesado de señal. Podemos concluir que el modelado mediante analogías electroacústicas permite una rápida implementación y entendimiento, pero tiene ciertas limitaciones. Las simulaciones mediante análisis numéricos son precisas y de gran utilidad tanto para del oído medio como para el interno. El procesado de señal es el procedimiento más completo y utilizado ya que permite modelar oído externo y medio además de permitir la implementación de filtros cocleares muy precisos y coherentes con la realidad incluyéndolos en modelos perceptivos. ABSTRACT. The main aim of the Project is to provide the Telecommunications Engineer an overview about the approaches for modelling the auditory system. The auditory system modelling is done for the next objectives: a) Interpret direct measures, b) Understand different phenomena c) get strategies of amplification for hearing impaired people and d) Obtain testable predictions experimentally about some behaviors with different complexity levels. Inside this document, several approaches about modeling of the auditory system parts will be explained: analog circuits, biophysics models, binaural models, and auditory filters made through signal processing. In conclusion, analog circuits are made quickly and they are easier to understand but they have many limitations. Simulations through numerical analysis are accurate and useful in middle and inner ear models. Signal processing is the more versatile approach because it lets to make a model of external and middle ear and then it allows to make complex auditory filters. Perceptive models can be made entirely through this method.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMEN El apoyo a la selección de especies a la restauración de la vegetación en España en los últimos 40 años se ha basado fundamentalmente en modelos de distribución de especies, también llamados modelos de nicho ecológico, que estiman la probabilidad de presencia de las especies en función de las condiciones del medio físico (clima, suelo, etc.). Con esta tesis se ha intentado contribuir a la mejora de la capacidad predictiva de los modelos introduciendo algunas propuestas metodológicas adaptadas a los datos disponibles actualmente en España y enfocadas al uso de los modelos en la selección de especies. No siempre se dispone de datos a una resolución espacial adecuada para la escala de los proyectos de restauración de la vegetación. Sin embrago es habitual contar con datos de baja resolución espacial para casi todas las especies vegetales presentes en España. Se propone un método de recalibración que actualiza un modelo de regresión logística de baja resolución espacial con una nueva muestra de alta resolución espacial. El método permite obtener predicciones de calidad aceptable con muestras relativamente pequeñas (25 presencias de la especie) frente a las muestras mucho mayores (más de 100 presencias) que requería una estrategia de modelización convencional que no usara el modelo previo. La selección del método estadístico puede influir decisivamente en la capacidad predictiva de los modelos y por esa razón la comparación de métodos ha recibido mucha atención en la última década. Los estudios previos consideraban a la regresión logística como un método inferior a técnicas más modernas como las de máxima entropía. Los resultados de la tesis demuestran que esa diferencia observada se debe a que los modelos de máxima entropía incluyen técnicas de regularización y la versión de la regresión logística usada en las comparaciones no. Una vez incorporada la regularización a la regresión logística usando penalización, las diferencias en cuanto a capacidad predictiva desaparecen. La regresión logística penalizada es, por tanto, una alternativa más para el ajuste de modelos de distribución de especies y está a la altura de los métodos modernos con mejor capacidad predictiva como los de máxima entropía. A menudo, los modelos de distribución de especies no incluyen variables relativas al suelo debido a que no es habitual que se disponga de mediciones directas de sus propiedades físicas o químicas. La incorporación de datos de baja resolución espacial proveniente de mapas de suelo nacionales o continentales podría ser una alternativa. Los resultados de esta tesis sugieren que los modelos de distribución de especies de alta resolución espacial mejoran de forma ligera pero estadísticamente significativa su capacidad predictiva cuando se incorporan variables relativas al suelo procedente de mapas de baja resolución espacial. La validación es una de las etapas fundamentales del desarrollo de cualquier modelo empírico como los modelos de distribución de especies. Lo habitual es validar los modelos evaluando su capacidad predictiva especie a especie, es decir, comparando en un conjunto de localidades la presencia o ausencia observada de la especie con las predicciones del modelo. Este tipo de evaluación no responde a una cuestión clave en la restauración de la vegetación ¿cuales son las n especies más idóneas para el lugar a restaurar? Se ha propuesto un método de evaluación de modelos adaptado a esta cuestión que consiste en estimar la capacidad de un conjunto de modelos para discriminar entre las especies presentes y ausentes de un lugar concreto. El método se ha aplicado con éxito a la validación de 188 modelos de distribución de especies leñosas orientados a la selección de especies para la restauración de la vegetación en España. Las mejoras metodológicas propuestas permiten mejorar la capacidad predictiva de los modelos de distribución de especies aplicados a la selección de especies en la restauración de la vegetación y también permiten ampliar el número de especies para las que se puede contar con un modelo que apoye la toma de decisiones. SUMMARY During the last 40 years, decision support tools for plant species selection in ecological restoration in Spain have been based on species distribution models (also called ecological niche models), that estimate the probability of occurrence of the species as a function of environmental predictors (e.g., climate, soil). In this Thesis some methodological improvements are proposed to contribute to a better predictive performance of such models, given the current data available in Spain and focusing in the application of the models to selection of species for ecological restoration. Fine grained species distribution data are required to train models to be used at the scale of the ecological restoration projects, but this kind of data are not always available for every species. On the other hand, coarse grained data are available for almost every species in Spain. A recalibration method is proposed that updates a coarse grained logistic regression model using a new fine grained updating sample. The method allows obtaining acceptable predictive performance with reasonably small updating sample (25 occurrences of the species), in contrast with the much larger samples (more than 100 occurrences) required for a conventional modeling approach that discards the coarse grained data. The choice of the statistical method may have a dramatic effect on model performance, therefore comparisons of methods have received much interest in the last decade. Previous studies have shown a poorer performance of the logistic regression compared to novel methods like maximum entropy models. The results of this Thesis show that the observed difference is caused by the fact that maximum entropy models include regularization techniques and the versions of logistic regression compared do not. Once regularization has been added to the logistic regression using a penalization procedure, the differences in model performance disappear. Therefore, penalized logistic regression may be considered one of the best performing methods to model species distributions. Usually, species distribution models do not consider soil related predictors because direct measurements of the chemical or physical properties are often lacking. The inclusion of coarse grained soil data from national or continental soil maps could be a reasonable alternative. The results of this Thesis suggest that the performance of the models slightly increase after including soil predictors form coarse grained soil maps. Model validation is a key stage of the development of empirical models, such as species distribution models. The usual way of validating is based on the evaluation of model performance for each species separately, i.e., comparing observed species presences or absence to predicted probabilities in a set of sites. This kind of evaluation is not informative for a common question in ecological restoration projects: which n species are the most suitable for the environment of the site to be restored? A method has been proposed to address this question that estimates the ability of a set of models to discriminate among present and absent species in a evaluation site. The method has been successfully applied to the validation of 188 species distribution models used to support decisions on species selection for ecological restoration in Spain. The proposed methodological approaches improve the predictive performance of the predictive models applied to species selection in ecological restoration and increase the number of species for which a model that supports decisions can be fitted.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En los modelos promovidos por las normativas internacionales de análisis de riesgos en los sistemas de información, los activos están interrelacionados entre sí, de modo que un ataque sobre uno de ellos se puede transmitir a lo largo de toda la red, llegando a alcanzar a los activos más valiosos para la organización. Es necesario entonces asignar el valor de todos los activos, así como las relaciones de dependencia directas e indirectas entre estos, o la probabilidad de materialización de una amenaza y la degradación que ésta puede provocar sobre los activos. Sin embargo, los expertos encargados de asignar tales valores, a menudo aportan información vaga e incierta, de modo que las técnicas difusas pueden ser muy útiles en este ámbito. Pero estas técnicas no están libres de ciertas dificultades, como la necesidad de uso de una aritmética adecuada al modelo o el establecimiento de medidas de similitud apropiadas. En este documento proponemos un tratamiento difuso para los modelos de análisis de riesgos promovidos por las metodologías internacionales, mediante el establecimiento de tales elementos.Abstract— Assets are interrelated in risk analysis methodologies for information systems promoted by international standards. This means that an attack on one asset can be propagated through the network and threaten an organization’s most valuable assets. It is necessary to valuate all assets, the direct and indirect asset dependencies, as well as the probability of threats and the resulting asset degradation. However, the experts in charge to assign such values often provide only vague and uncertain information. Fuzzy logic can be very helpful in such situation, but it is not free of some difficulties, such as the need of a proper arithmetic to the model under consideration or the establishment of appropriate similarity measures. Throughout this paper we propose a fuzzy treatment for risk analysis models promoted by international methodologies through the establishment of such elements.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En España las actividades agroganaderas son responsables del 11% del total de emisiones de gases de efecto invernadero. Sin embargo, estos datos únicamente contabilizan emisiones directas de CH4 (metano) y N2O (óxido nitroso), no considerando factores específicos que afectan a dichas emisiones. Resultará ineficaz tratar de reducir la huella de C asociada a las actividades agropecuarias si se aíslan del sistema agroalimentario en su conjunto. Los sistemas ecológicos con menor huella de C (carbono) son los que logran una mayor autorregeneración de su fertilidad, a través de la fijación de N, la minimización de las pérdidas de éste y otros nutrientes y la maximización del reciclado de la materia orgánica residual. Con esto se consigue reducir el uso de insumos externos, disminuir la emisión de N2O y aumentar el secuestro de C.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ciudad sensible alude una óptica diferente de enfrentarse al análisis, el entendimiento y la configuración propiamente del espacio urbano. En el artículo se estudian los factores que provocan este cambio en la percepción de lo urbano con consecuencias directas en la forma de actuar sobre el espacio urbano.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Una evolución del método de diferencias finitas ha sido el desarrollo del método de diferencias finitas generalizadas (MDFG) que se puede aplicar a mallas irregulares o nubes de puntos. En este método se emplea una expansión en serie de Taylor junto con una aproximación por mínimos cuadrados móviles (MCM). De ese modo, las fórmulas explícitas de diferencias para nubes irregulares de puntos se pueden obtener fácilmente usando el método de Cholesky. El MDFG-MCM es un método sin malla que emplea únicamente puntos. Una contribución de esta Tesis es la aplicación del MDFG-MCM al caso de la modelización de problemas anisótropos elípticos de conductividad eléctrica incluyendo el caso de tejidos reales cuando la dirección de las fibras no es fija, sino que varía a lo largo del tejido. En esta Tesis también se muestra la extensión del método de diferencias finitas generalizadas a la solución explícita de ecuaciones parabólicas anisótropas. El método explícito incluye la formulación de un límite de estabilidad para el caso de nubes irregulares de nodos que es fácilmente calculable. Además se presenta una nueva solución analítica para una ecuación parabólica anisótropa y el MDFG-MCM explícito se aplica al caso de problemas parabólicos anisótropos de conductividad eléctrica. La evidente dificultad de realizar mediciones directas en electrocardiología ha motivado un gran interés en la simulación numérica de modelos cardiacos. La contribución más importante de esta Tesis es la aplicación de un esquema explícito con el MDFG-MCM al caso de la modelización monodominio de problemas de conductividad eléctrica. En esta Tesis presentamos un algoritmo altamente eficiente, exacto y condicionalmente estable para resolver el modelo monodominio, que describe la actividad eléctrica del corazón. El modelo consiste en una ecuación en derivadas parciales parabólica anisótropa (EDP) que está acoplada con un sistema de ecuaciones diferenciales ordinarias (EDOs) que describen las reacciones electroquímicas en las células cardiacas. El sistema resultante es difícil de resolver numéricamente debido a su complejidad. Proponemos un método basado en una separación de operadores y un método sin malla para resolver la EDP junto a un método de Runge-Kutta para resolver el sistema de EDOs de la membrana y las corrientes iónicas. ABSTRACT An evolution of the method of finite differences has been the development of generalized finite difference (GFD) method that can be applied to irregular grids or clouds of points. In this method a Taylor series expansion is used together with a moving least squares (MLS) approximation. Then, the explicit difference formulae for irregular clouds of points can be easily obtained using a simple Cholesky method. The MLS-GFD is a mesh-free method using only points. A contribution of this Thesis is the application of the MLS-GFDM to the case of modelling elliptic anisotropic electrical conductivity problems including the case of real tissues when the fiber direction is not fixed, but varies throughout the tissue. In this Thesis the extension of the generalized finite difference method to the explicit solution of parabolic anisotropic equations is also given. The explicit method includes a stability limit formulated for the case of irregular clouds of nodes that can be easily calculated. Also a new analytical solution for homogeneous parabolic anisotropic equation has been presented and an explicit MLS- GFDM has been applied to the case of parabolic anisotropic electrical conductivity problems. The obvious difficulty of performing direct measurements in electrocardiology has motivated wide interest in the numerical simulation of cardiac models. The main contribution of this Thesis is the application of an explicit scheme based in the MLS-GFDM to the case of modelling monodomain electrical conductivity problems using operator splitting including the case of anisotropic real tissues. In this Thesis we present a highly efficient, accurate and conditionally stable algorithm to solve a monodomain model, which describes the electrical activity in the heart. The model consists of a parabolic anisotropic partial differential equation (PDE), which is coupled to systems of ordinary differential equations (ODEs) describing electrochemical reactions in the cardiac cells. The resulting system is challenging to solve numerically, because of its complexity. We propose a method based on operator splitting and a meshless method for solving the PDE together with a Runge-Kutta method for solving the system of ODE’s for the membrane and ionic currents.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo principal de este proyecto será la obtención de una cartografía derivada empleando servicios OGC. Dado que se desconoce la funcionalidad y disponibilidad de dichos servicios se tendrá que hacer un análisis a priori de dichos servicios y a partir de este se seleccionará una zona de trabajo, objetivo y escala adecuada del mapa final. Objetivos Específicos: - Exploración y análisis de las diferentes IDEs dependientes de organizaciones oficiales. - Analizar la disponibilidad real de datos en sus correspondientes servicios de WFS, así como sus posibilidades de descarga y necesidad de registro. - Elección de una zona de trabajo, fin del mapa y escala adecuada. - Creación de una cartografía base. - Creación del mapa del Camino de Santiago a su paso por La Rioja y Navarra, relacionado con los monumentos y bodegas de la zona. - Impresión y maquetación.na de trabajo, objetivo y escala adecuada del mapa final. El Open Geospatial Consortium (OGC) fue creado en 1994 y agrupa (en febrero de 2009) a 372 organizaciones públicas y privadas. Su fin es la definición de estándares abiertos e interoperables dentro de los Sistemas de Información Geográfica y de la World Wide Web. Persigue acuerdos entre las diferentes empresas del sector que posibiliten la interoperación de sus sistemas de geoprocesamiento y facilitar el intercambio de la información geográfica en beneficio de los usuarios. Facilitar el acceso del público en general a productos cartográficos y descargas de información geográfica de gran calidad, siempre actualizados y cumpliendo requisitos de interoperabilidad. En este análisis tenemos en cuenta los siguientes servicios: - Web Map Service (WMS), o Servicios Web de Mapas - Web Feature Services (WFS), o Servicios Web de Entidades vectoriales - Web Coverage Services (WCS), o Servicios Web de Coberturas ráster.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los extensos tallares envejecidos de quercíneas mediterráneas son el resultado de una intensa gestión, consistente en la aplicación de cortas de matarrasa con turnos cortos durante largos períodos de tiempo. La pérdida de valor de leña y carbón vegetal provocó a partir de los años sesenta el abandono de dicha gestión. La ausencia de tratamientos de regeneración hace que muchas de estas masas presenten graves problemas selvícolas y ecológicos, así como falta de producciones directas. En este trabajo presentamos los resultados obtenidos tras ejecutar resalveos de conversión de diferente peso en tallares envejecidos de encina (Quercus ilex subsp. ballota) y quejigo (Q. faginea) situados en Guadalajara. El dispositivo experimental de parcelas permanents se instaló e inventarió en 1994. En 1995 se aplicaron resalveos de pesos variables entre 0 % (control) y 100 % de area basimétrica extraída. En 2011 se han realizado nuevos inventarios que nos permiten analizar, 15 años después del tratamiento, cuál ha sido la respuesta de diversos indices de espesura en funcion del peso de resalveo aplicado. También se analiza la aparición de masas mixtas como consecuencia de la incorporación, tras los resalveos, de regeneración de pino a partir de ejemplares aislados dispersos en la zona.