950 resultados para Shipping process with debit
Resumo:
El artículo propone un recorrido somero por la historia de la profesionalización del escritor en Argentina, a través de la lectura de tres textos autobiográficos escritos entre finales de la década de 1880 y 1930: una causerie de Lucio V. Mansilla, el diario del viaje a París de Horacio Quiroga y las memorias de Hugo Wast. La elección apunta a leer un proceso de transformación con sus inflexiones, superposiciones, emergencias y residuos, para revisar a partir de allí las relaciones que la literatura entabla con el dinero por medio de modalidades tan diversas como el trabajo periodístico, la colaboración free-lance o la escritura de best-sellers, aunque siempre reunidas bajo una figura común: el hambre en vinculación con la escena de iniciación al mundo de las letras.
Resumo:
Se propone ampliar el registro analítico sobre el proceso de conformación del sistema político e institucional de la "Confederación" (1852-1862), atendiendo a las vinculaciones entre el poder central y San Juan. Se examinan las relaciones de negociación y conflicto que entretejieron la política de San Juan entre 1855 y 1858, al calor del desarrollo de una institución estatal nacional: la Circunscripción Militar del Oeste. Se considera en forma recíproca la articulación del poder central en el espacio provincial y los clivajes y sucesos locales y regionales que se generaron en dicho devenir. Se estudia la interacción entre el Jefe de la Circunscripción Nazario Benavides, los Gobernadores de San Juan y los poderes legislativo y ejecutivo nacionales. Además, se enmarca el tema en el proceso de institucionalización política provincial, con especial interés en la sanción de la constitución sanjuanina. Para ello, se conjuga el examen de la Circunscripción con el del Congreso con sede en la ciudad capital de la Confederación (Paraná/Entre Ríos), lo que permite proyectar las escalas analíticas de observación por fuera de la geografía sanjuanina. Se aborda así al Congreso como otro sitio institucional de cristalización de los conflictos y juegos de alianzas políticas provinciales y nacionales estudiadas.
Resumo:
El artículo propone un recorrido somero por la historia de la profesionalización del escritor en Argentina, a través de la lectura de tres textos autobiográficos escritos entre finales de la década de 1880 y 1930: una causerie de Lucio V. Mansilla, el diario del viaje a París de Horacio Quiroga y las memorias de Hugo Wast. La elección apunta a leer un proceso de transformación con sus inflexiones, superposiciones, emergencias y residuos, para revisar a partir de allí las relaciones que la literatura entabla con el dinero por medio de modalidades tan diversas como el trabajo periodístico, la colaboración free-lance o la escritura de best-sellers, aunque siempre reunidas bajo una figura común: el hambre en vinculación con la escena de iniciación al mundo de las letras.
Resumo:
A framework for the automatic parallelization of (constraint) logic programs is proposed and proved correct. Intuitively, the parallelization process replaces conjunctions of literals with parallel expressions. Such expressions trigger at run-time the exploitation of restricted, goal-level, independent and-parallelism. The parallelization process performs two steps. The first one builds a conditional dependency graph (which can be implified using compile-time analysis information), while the second transforms the resulting graph into linear conditional expressions, the parallel expressions of the &-Prolog language. Several heuristic algorithms for the latter ("annotation") process are proposed and proved correct. Algorithms are also given which determine if there is any loss of parallelism in the linearization process with respect to a proposed notion of maximal parallelism. Finally, a system is presented which implements the proposed approach. The performance of the different annotation algorithms is compared experimentally in this system by studying the time spent in parallelization and the effectiveness of the results in terms of speedups.
Resumo:
El acero es, junto con el hormigón, el material más ampliamente empleado en la construcción de obra civil y de edificación. Además de su elevada resistencia, su carácter dúctil resulta un aspecto de particular interés desde el punto de vista de la seguridad estructural, ya que permite redistribuir esfuerzos a elementos adyacentes y, por tanto, almacenar una mayor energía antes del colapso final de la estructura. No obstante, a pesar de su extendida utilización, todavía existen aspectos relacionados con su comportamiento en rotura que necesitan una mayor clarificación y que permitirían un mejor aprovechamiento de sus propiedades. Cuando un elemento de acero es ensayado a tracción y alcanza la carga máxima, sufre la aparición de un cuello de estricción que plantea dificultades para conocer el comportamiento del material desde dicho instante hasta la rotura. La norma ISO 6892-1, que define el método a emplear en un ensayo de tracción con materiales metálicos, establece procedimientos para determinar los parámetros relacionados con este tramo último de la curva F − E. No obstante, la definición de dichos parámetros resulta controvertida, ya que éstos presentan una baja reproducibilidad y una baja repetibilidad que resultan difíciles de explicar. En esta Tesis se busca profundizar en el conocimiento del último tramo de la curva F − E de los aceros de construcción. Para ello se ha realizado una amplia campaña experimental sobre dos aceros representativos en el campo de la construcción civil: el alambrón de partida empleado en la fabricación de alambres de pretensado y un acero empleado como refuerzo en hormigón armado. Los dos materiales analizados presentan formas de rotura diferentes: mientras el primero de ellos presenta una superficie de rotura plana con una región oscura claramente apreciable en su interior, el segundo rompe según la clásica superficie en forma de copa y cono. La rotura en forma de copa y cono ha sido ampliamente estudiada en el pasado y existen modelos de rotura que han logrado reproducirla con éxito, en especial el modelo de Gurson- Tvergaard-Needleman (GTN). En cuanto a la rotura exhibida por el primer material, en principio nada impide abordar su reproducción numérica con un modelo GTN, sin embargo, las diferencias observadas entre ambos materiales en los ensayos experimentales permiten pensar en otro criterio de rotura. En la presente Tesis se realiza una amplia campaña experimental con probetas cilíndricas fabricadas con dos aceros representativos de los empleados en construcción con comportamientos en rotura diferentes. Por un lado se analiza el alambrón de partida empleado en la fabricación de alambres de pretensado, cuyo frente de rotura es plano y perpendicular a la dirección de aplicación de la carga con una región oscura en su interior. Por otro lado, se estudian barras de acero empleadas como armadura pasiva tipo B 500 SD, cuyo frente de rotura presenta la clásica superficie en forma de copa y cono. Estos trabajos experimentales han permitido distinguir dos comportamientos en rotura claramente diferenciados entre ambos materiales y, en el caso del primer material, se ha identificado un comportamiento asemejable al exhibido por materiales frágiles. En este trabajo se plantea la hipótesis de que el primer material, cuya rotura provoca un frente de rotura plano y perpendicular a la dirección de aplicación de la carga, rompe de manera cuasifrágil como consecuencia de un proceso de decohesión, de manera que la región oscura que se observa en el centro del frente de rotura se asemeja a una entalla circular perpendicular a la dirección de aplicación de la carga. Para la reproducción numérica de la rotura exhibida por el primer material, se plantea un criterio de rotura basado en un modelo cohesivo que, como aspecto novedoso, se hace depender de la triaxialidad de tensiones, parámetro determinante en el fallo de este tipo de materiales. Este tipo de modelos presenta varias ventajas respecto a los modelos GTN habitualmente empleados. Mientras los modelos GTN precisan de numerosos parámetros para su calibración, los modelos cohesivos precisan fundamentalmente de dos parámetros para definir su curva de ablandamiento: la tensión de decohesión ft y la energía de fractura GF . Además, los parámetros de los modelos GTN no son medibles de manera experimental, mientras que GF sí lo es. En cuanto a ft, aunque no existe un método para su determinación experimental, sí resulta un parámetro más fácilmente interpretable que los empleados por los modelos GTN, que utilizan valores como el porcentaje de huecos presentes en el material para iniciar el fenómeno de coalescencia o el porcentaje de poros que provoca una pérdida total de la capacidad resistente. Para implementar este criterio de rotura se ha desarrollado un elemento de intercara cohesivo dependiente de la triaxialidad de tensiones. Se han reproducido con éxito los ensayos de tracción llevados a cabo en la campaña experimental empleando dicho elemento de intercara. Además, en estos modelos la rotura se produce fenomenológicamente de la misma manera observada en los ensayos experimentales: produciéndose una decohesión circular en torno al eje de la probeta. En definitiva, los trabajos desarrollados en esta Tesis, tanto experimentales como numéricos, contribuyen a clarificar el comportamiento de los aceros de construcción en el último tramo de la curva F − E y los mecanismos desencadenantes de la rotura final del material, aspecto que puede contribuir a un mejor aprovechamiento de las propiedades de estos aceros en el futuro y a mejorar la seguridad de las estructuras construidas con ellos. Steel is, together with concrete, the most widely used material in civil engineering works. Not only its high strength, but also its ductility is of special interest from the point of view of the structural safety, since it enables stress distribution with adjacent elements and, therefore, more energy can be stored before reaching the structural failure. However, despite of being extensively used, there are still some aspects related to its fracture behaviour that need to be clarified and that will allow for a better use of its properties. When a steel item is tested under tension and reaches the maximum load point, necking process begins, which makes difficult to define the material behaviour from that moment onward. The ISO standard 6892-1, which defines the tensile testing method for metallic materials, describes the procedures to obtain some parameters related to this last section of the F − E curve. Nevertheless, these parameters have proved to be controversial, since they have low reproducibility and repeatibility rates that are difficult to explain. This Thesis tries to deepen the knowledge of the last section of the F − E curve for construction steels. An extensive experimental campaign has been carried out with two representative steels used in civil engineering works: a steel rod used for manufacturing prestressing steel wires, before the cold-drawing process is applied, and steel bars used in reinforced concrete structures. Both materials have different fracture surfaces: while the first of them shows a flat fracture surface, perpendicular to the loading direction with a dark region in the centre of it, the second one shows the classical cup-cone fracture surface. The cup-cone fracture surface has been deeply studied in the past and different numerical models have been able to reproduce it with success, with a special mention to the Gurson-Tvergaard-Needleman model (GTN). Regarding the failure surface shown by the first material, in principle it can be numerically reproduced by a GTN model, but the differences observed between both materials in the experimental campaign suggest thinking of a different failure criterium. In the present Thesis, an extensive experimental campaign has been carried out using cylindrical specimens made of two representative construction steels with different fracture behaviours. On one hand, the initial eutectoid steel rod used for manufacturing prestressing steel wires is analysed, which presents a flat fracture surface, perpendicular to the loading direction, and with a dark region in the centre of it. On the other hand, B 500 SD steel bars, typically used in reinforced concrete structures and with the typical cup-cone fracture surface, are studied. These experimental works have allowed distinguishing two clearly different fracture behaviours between both materials and, in the case of the first one, a fragile-like behaviour has been identified. For the first material, which shows a flat fracture surface perpendicular to the loading direction, the following hypothesis is proposed in this study: a quasi-brittle fracture is developed as a consequence of a decohesion process, with the dark region acting as a circular crack perpendicular to the loading direction. To reproduce numerically the fracture behaviour shown by the first material, a failure criterium based on a cohesive model is proposed in this Thesis. As an innovative contribution, this failure criterium depends on the stress triaxiality state of the material, which is a key parameter when studying fracture in this kind of materials. This type of models have some advantages when compared to the widely used GTN models. While GTN models need a high number of parameters to be defined, cohesive models need basically two parameters to define the softening curve: the decohesion stress ft and the fracture energy GF . In addition to this, GTN models parameters cannot be measured experimentally, while GF is indeed. Regarding ft, although no experimental procedure is defined for its obtention, it has an easier interpretation than the parameters used by the GTN models like, for instance, the void volume needed for the coalescence process to start or the void volume that leads to a total loss of the bearing capacity. In order to implement this failure criterium, a triaxiality-dependent cohesive interface element has been developed. The experimental results obtained in the experimental campaign have been successfully reproduced by using this interface element. Furthermore, in these models the failure mechanism is developed in the same way as observed experimentally: with a circular decohesive process taking place around the longitudinal axis of the specimen. In summary, the works developed in this Thesis, both experimental and numerical, contribute to clarify the behaviour of construction steels in the last section of the F − E curve and the mechanisms responsible for the eventual material failure, an aspect that can lead to a better use of the properties of these steels in the future and a safety improvement in the structures built with them.
Resumo:
These slides present several 3-D reconstruction methods to obtain the geometric structure of a scene that is viewed by multiple cameras. We focus on the combination of the geometric modeling in the image formation process with the use of standard optimization tools to estimate the characteristic parameters that describe the geometry of the 3-D scene. In particular, linear, non-linear and robust methods to estimate the monocular and epipolar geometry are introduced as cornerstones to generate 3-D reconstructions with multiple cameras. Some examples of systems that use this constructive strategy are Bundler, PhotoSynth, VideoSurfing, etc., which are able to obtain 3-D reconstructions with several hundreds or thousands of cameras. En esta presentación se tratan varios métodos de reconstrucción 3-D para la obtención de la estructura geométrica de una escena que es visualizada por varias cámaras. Se enfatiza la combinación de modelado geométrico del proceso de formación de la imagen con el uso de herramientas estándar de optimización para estimar los parámetros característicos que describen la geometría de la escena 3-D. En concreto, se presentan métodos de estimación lineales, no lineales y robustos de las geometrías monocular y epipolar como punto de partida para generar reconstrucciones con tres o más cámaras. Algunos ejemplos de sistemas que utilizan este enfoque constructivo son Bundler, PhotoSynth, VideoSurfing, etc., los cuales, en la práctica pueden llegar a reconstruir una escena con varios cientos o miles de cámaras.
Resumo:
We propose a method to measure real-valued time series irreversibility which combines two different tools: the horizontal visibility algorithm and the Kullback-Leibler divergence. This method maps a time series to a directed network according to a geometric criterion. The degree of irreversibility of the series is then estimated by the Kullback-Leibler divergence (i.e. the distinguishability) between the in and out degree distributions of the associated graph. The method is computationally efficient and does not require any ad hoc symbolization process. We find that the method correctly distinguishes between reversible and irreversible stationary time series, including analytical and numerical studies of its performance for: (i) reversible stochastic processes (uncorrelated and Gaussian linearly correlated), (ii) irreversible stochastic processes (a discrete flashing ratchet in an asymmetric potential), (iii) reversible (conservative) and irreversible (dissipative) chaotic maps, and (iv) dissipative chaotic maps in the presence of noise. Two alternative graph functionals, the degree and the degree-degree distributions, can be used as the Kullback-Leibler divergence argument. The former is simpler and more intuitive and can be used as a benchmark, but in the case of an irreversible process with null net current, the degree-degree distribution has to be considered to identify the irreversible nature of the series
Resumo:
The implementation of photovoltaic solar energy based on silicon is being slowed down by the shortage of raw material. In this context, the use of thinner wafers arises as a solution reducing the amount of silicon in the photovoltaic modules. On the other hand, the manufacturing process with thinner wafers can become complicated with traditional tools. The high number of damaged wafers reduces the global yield. It’s known that edge and surface cracks and defects determine the mechanical strength of wafers. There are several ways of removing these defects e. g. subjecting wafers to a mechanical polishing or to a chemical etching. This paper shows a comparison between different surface treatments and their influence on the mechanical strength.
Resumo:
The paper presents the possibility of implementing a p-adaptive process with the B.E.M. Although the exemples show that good results can be obtained with a limited amount of storage and with the simple ideas explained above, more research is needed in order to improve the two main problems of the method, i.e.: the criteria of where to refine and until what degree. Mathematically based reasoning is still lacking and will be useful to simplify the decission making. Nevertheless the method seems promising and, we hope, opens a path for a series of research lines of maximum interest. Although the paper has dealt only with plane potential problem the extension to plane elasticity as well as to 3-D potential problem is straight-forward.
Resumo:
El estado Bolívar con una superficie de 238.000 Km2 se encuentra ubicado al SE de Venezuela y su capital es Ciudad Bolívar. Ocupa el 26,24% de la superficie del territorio nacional. Ciudad Guayana es la principal región del desarrollo económico del estado siendo sede de las empresas básicas de los sectores siderúrgicos y del aluminio que se encargan de la extracción, procesamiento y transformación del mineral de hierro y de la transformación de la bauxita en aluminio primario. Además, cuenta con un gran potencial hidroeléctrico, garantizando el suministro de energía eléctrica para el funcionamiento de las empresas básicas, para el parque industrial de la región, así como para el desarrollo industrial, económico y social de la nación. Con relación al sector de la industria del mineral de hierro y del aluminio, las empresas destinan más del 60 por ciento de su producción al mercado internacional. A pesar de que el sector de las Pequeñas y Medianas Industrias (PYMIS) del estado Bolívar cuenta con un mercado cercano y seguro, no se le ha propiciado un desarrollo integral en términos de orientar sus esfuerzos en innovar en nuevos productos o mejoras de procesos. Debido a la falta del personal de investigación calificado, la escasa vinculación con centros de investigación, la baja inversión en investigación, desarrollo tecnológico e innovación (I+D+i), la ausencia de la aplicación de una política pública de I+D+i y la desarticulación de los miembros del Sistema Regional de Innovación (SRI), constituyen los principales obstáculos para generar bienes y servicios con un alto valor agregado. Esta situación desequilibra y hace ineficiente el funcionamiento del SRI. La baja capacidad de las PYMIS del estado Bolívar en I+D+i, es una situación que impide generar por si sola nuevos productos o procesos para satisfacer las demandas del mercado regional. Por lo tanto, se requiere de la intervención y participación activa de la institución gubernamental responsable del diseño y aplicación de una política pública de I+D+i para dinamizar la capacidad de innovación en las PYMIS, en su articulación y vinculación con los miembros del SRI. xiii El presente proyecto se planteó como objetivo diseñar una metodología de política pública de I+D+i para liderar, coordinar y direccionar el SRI del estado Bolívar, para el desarrollo de la capacidad de innovación en el sector industrial y específicamente en las PYMIS. La presente tesis representa una investigación no experimental de tipo proyectivo que analiza la situación actual del Sistema Regional de Innovación del estado Bolívar. El análisis de los resultados se ha dividido en tres fases. En la primera se realizan diagnósticos por medio de encuestas de las PYMIS en materia de I+D+i, de los centros y laboratorios de investigación pertenecientes a las universidades de la región en el área de Materiales y de los sectores financieros público y privado. En dichas encuestas se evalúa el nivel de integración con los entes gubernamentales que definen y administran la política pública de I+D+i. En la segunda fase, con el diagnóstico y procesamiento de los resultados de la primera fase, se procede a desarrollar un análisis de las fortalezas, oportunidades, debilidades y amenazas (FODA) del Sistema Regional de Innovación, permitiendo comprender la situación actual de la relación y vinculación de las PYMIS con los centros de investigación, instituciones financieras y entes gubernamentales. Con la problemática detectada, resultó necesario el diseño de estrategias y un modelo de gestión de política pública de I+D+i para la articulación de los miembros del SRI, para el apoyo de las PYMIS. En la tercera fase se diseña la metodología de política pública de I+D+i para fortalecer la innovación en las PYMIS. La metodología se representa a través de un modelo propuesto que se relaciona con las teorías de los procesos de innovación, con los modelos de sistemas de innovación y con las reflexiones y recomendaciones hechas por diferentes investigadores e instituciones de cooperación internacional referentes a la aplicación de políticas públicas de I+D+i para dinamizar la capacidad de innovación en el sector industrial. La metodología diseñada es comparada con diferentes modelos de aplicación de política pública de I+D+i. Cada modelo se representa en una figura y se analiza su xiv situación presente y la función que desempeña el ente gubernamental en la aplicación del enfoque de política pública de I+D+i. El diseño de la metodología de política pública de I+D+i propuesta aportará nuevos conocimientos y podrá ser aplicado para apoyar el progreso de la I+D+i en las PYMIS de la región, como caso de estudio, con el fin de impulsar una economía más competitiva y reducir el grado de dependencia tecnológica. La metodología una vez evaluada podrá ser empleada en el contexto de la gran industria y en otras regiones de Venezuela y además, puede aplicarse en otros países con características similares en su tejido industrial. En la tesis doctoral se concluye que el desarrollo de la capacidad de innovación en las PYMIS depende del diseño y aplicación de la política pública de I+D+i como elemento dinamizador y articulador del SRI del estado Bolívar. xv ABSTRACT The Bolivar state with an area of 238,000 km2 is located in the SE of Venezuela and its capital is Ciudad Bolivar. It occupies a surface which is 26.24% of the national territory. Ciudad Guayana is the main area of the state's economic development and the location of the corporate headquarters of the basic steel and aluminum sectors that are responsible for the extraction, processing and transformation of iron ore and bauxite processing for primary aluminum. It also has a great hydroelectric potential, ensuring the supply of electricity for the operation of enterprises, for the regional industrial park as well as for the industrial, economic and social development of the nation. With regard to the iron ore and aluminum industry, companies allocate more than 60 percent of their production to the international market. Although the sector of Small and Medium Industries (SMIs) of the Bolivar state has a secure market, it has not been led to an integral development in terms of targeting its efforts on innovating new products or improving processes. Due to the lack of qualified research staff, poor links with research centers, low investment in research, technological development and innovation (R & D & I), the absence of the implementation of a public policy for R & D & I and the dismantling of the members of the Regional Innovation System (RIS), are the main obstacles to generate goods and services with high added value. This situation makes the RIS unbalanced and inefficient. The low capacity of Bolivar state’s SMIs in R & D & I, is a situation that cannot generate by itself new products or processes to meet regional market demands. Therefore, it requires the active involvement and participation of the government institution responsible for the design and implementation of R & D & I public policy to boost the innovation capacity in SMIs, through the connection and integration with members of the RIS. This project is intended to design a methodology aimed at public policy for R & D & I to lead, coordinate and direct the RIS of Bolivar state, for the development of innovation capacity in the industrial sector and specifically in the SMIs. xvi This thesis is an experimental investigation of projective type which analyzes the current situation of the Regional Innovation System of the Bolivar state. The analysis of the results is divided into three phases. In the first one, a diagnosis is performed through surveys of SMIs in R & D & I centers and research laboratories belonging to the universities of the region in the area of materials and public and private financial sectors. In such surveys the level of integration with government agencies that define and manage the public policy of R & D & I is assessed. In the second phase, with the diagnosis and processing of the results of the first phase, we proceed to develop an analysis of the strengths, weaknesses, opportunities and threats (SWOT) of the Regional Innovation System, allowing the comprehension of the current status of the relationship of SMIs with research centers, financial institutions and government agencies. With the problems identified it was necessary to design strategies and a model of public policy management of R & D & I for the articulation of the members of the RIS, to support the SMIs. In the third phase a public policy methodology for R & D & I is designed in order to strengthen innovation in SMIs. The methodology is shown through a proposed model that relates to the theories of the innovation process, with models of innovation systems and with the discussions and recommendations made by different researchers and institutions of international cooperation concerning the implementation of policies public for R & D & I to boost innovation capacity in the industrial sector. The methodology designed is compared with different models of public policy implementation for R & D & I. Each model is represented in a figure and its current situation and the role of the government agency in the implementation of the public policy approach to R & D & I is analyzed. The design of the proposed public policy methodology for R & D & I will provide new knowledge and can be applied to support the progress of R & D & I in the region’s SMIs, as a case study, in order to boost a more competitive economy and reduce the degree of technological dependence. After being evaluated the methodology can be used in the context of big industry and in other regions of Venezuela and can also be applied in other countries with similar characteristics in their industrial structure. xvii The thesis concludes that the development of the innovation capacity in SMIs depends on the design and implementation of the public policy for R & D & I as a catalyst and coordination mechanism of the Regional Innovation System of the Bolivar state.
Resumo:
En esta tesis se presenta una nueva aproximación para la realización de mapas de calidad del aire, con objeto de que esta variable del medio físico pueda ser tenida en cuenta en los procesos de planificación física o territorial. La calidad del aire no se considera normalmente en estos procesos debido a su composición y a la complejidad de su comportamiento, así como a la dificultad de contar con información fiable y contrastada. Además, la variabilidad espacial y temporal de las medidas de calidad del aire hace que sea difícil su consideración territorial y exige la georeferenciación de la información. Ello implica la predicción de medidas para lugares del territorio donde no existen datos. Esta tesis desarrolla un modelo geoestadístico para la predicción de valores de calidad del aire en un territorio. El modelo propuesto se basa en la interpolación de las medidas de concentración de contaminantes registradas en las estaciones de monitorización, mediante kriging ordinario, previa homogeneización de estos datos para eliminar su carácter local. Con el proceso de eliminación del carácter local, desaparecen las tendencias de las series muestrales de datos debidas a las variaciones temporales y espaciales de la calidad del aire. La transformación de los valores de calidad del aire en cantidades independientes del lugar de muestreo, se realiza a través de parámetros de uso del suelo y de otras variables características de la escala local. Como resultado, se obtienen unos datos de entrada espacialmente homogéneos, que es un requisito fundamental para la utilización de cualquier algoritmo de interpolación, en concreto, del kriging ordinario. Después de la interpolación, se aplica una retransformación de los datos para devolver el carácter local al mapa final. Para el desarrollo del modelo, se ha elegido como área de estudio la Comunidad de Madrid, por la disponibilidad de datos reales. Estos datos, valores de calidad del aire y variables territoriales, se utilizan en dos momentos. Un momento inicial, donde se optimiza la selección de los parámetros más adecuados para la eliminación del carácter local de las medidas y se desarrolla cada una de las etapas del modelo. Y un segundo momento, en el que se aplica en su totalidad el modelo desarrollado y se contrasta su eficacia predictiva. El modelo se aplica para la estimación de los valores medios y máximos de NO2 del territorio de estudio. Con la implementación del modelo propuesto se acomete la territorialización de los datos de calidad del aire con la reducción de tres factores clave para su efectiva integración en la planificación territorial o en el proceso de toma de decisiones asociado: incertidumbre, tiempo empleado para generar la predicción y recursos (datos y costes) asociados. El modelo permite obtener una predicción de valores del contaminante objeto de análisis en unas horas, frente a los periodos de modelización o análisis requeridos por otras metodologías. Los recursos necesarios son mínimos, únicamente contar con los datos de las estaciones de monitorización del territorio que, normalmente, están disponibles en las páginas web viii institucionales de los organismos gestores de las redes de medida de la calidad del aire. Por lo que respecta a las incertidumbres de la predicción, puede decirse que los resultados del modelo propuesto en esta tesis son estadísticamente muy correctos y que los errores medios son, en general, similares o menores que los encontrados con la aplicación de las metodologías existentes. ABSTRACT This thesis presents a new approach for mapping air quality, so that this variable of physical environment can be taken into account in physical or territorial planning. Ambient air quality is not normally considered in territorial planning mainly due to the complexity of its composition and behavior and the difficulty of counting with reliable and contrasted information. In addition, the wide spatial and temporal variability of the measurements of air quality makes his territorial consideration difficult and requires georeferenced information. This involves predicting measurements in the places of the territory where there are no data. This thesis develops a geostatistical model for predicting air quality values in a territory. The proposed model is based on the interpolation of measurements of pollutants from the monitoring stations, using ordinary kriging, after a detrending or removal of the local character of sampling values process. With the detrending process, the local character of the time series of sampling data, due to temporal and spatial variations of air quality, is removed. The transformation of the air quality values into site-independent quantities is performed using land use parameters and other characteristic parameters of local scale. This detrending of the monitoring data process results in a spatial homogeneous input set which is a prerequisite for a correct use of any interpolation algorithm, particularly, ordinary kriging. After the interpolation step, a retrending or retransformation is applied in order to incorporate the local character in the final map at places where no monitoring data is available. For the development of this model, the Community of Madrid is chosen as study area, because of the availability of actual data. These data, air quality values and local parameters, are used in two moments. A starting point, to optimize the selection of the most suitable indicators for the detrending process and to develop each one of the model stages. And a second moment, to fully implement the developed model and to evaluate its predictive power. The model is applied to estimate the average and maximum values of NO2 in the study territory. With the implementation of the proposed model, the territorialization of air quality data is undertaken with the reduction in three key factors for the effective integration of this parameter in territorial planning or in the associated decision making process: uncertainty, time taken to generate the prediction and associated resources (data and costs). This model allows the prediction of pollutant values in hours, compared to the implementation time periods required for other modeling or analysis methodologies. The required resources are also minimal, only having data from monitoring stations in the territory, that are normally available on institutional websites of the authorities responsible for air quality networks control and management. With regard to the prediction uncertainties, it can be concluded that the results of the proposed model are statistically very accurate and the mean errors are generally similar to or lower than those found with the application of existing methodologies.
Resumo:
“Por lo tanto, la cristalización de polímeros se supone, y en las teorías se describe a menudo, como un proceso de múltiples pasos con muchos aspectos físico-químicos y estructurales influyendo en él. Debido a la propia estructura de la cadena, es fácil entender que un proceso que es termodinámicamente forzado a aumentar su ordenamiento local, se vea obstaculizado geométricamente y, por tanto, no puede conducirse a un estado de equilibrio final. Como resultado, se forman habitualmente estructuras de no equilibrio con diferentes características dependiendo de la temperatura, presión, cizallamiento y otros parámetros físico-químicos del sistema”. Estas palabras, pronunciadas recientemente por el profesor Bernhard Wunderlich, uno de los mas relevantes fisico-quimicos que han abordado en las ultimas décadas el estudio del estado físico de las macromoléculas, adelantan lo que de alguna manera se explicita en esta memoria y constituyen el “leitmotiv” de este trabajo de tesis. El mecanismo de la cristalización de polímeros esta aun bajo debate en la comunidad de la física de polímeros y la mayoría de los abordajes experimentales se explican a través de la teoría LH. Esta teoría clásica debida a Lauritzen y Hoffman (LH), y que es una generalización de la teoría de cristalización de una molécula pequeña desde la fase de vapor, describe satisfactoriamente muchas observaciones experimentales aunque esta lejos de explicar el complejo fenómeno de la cristalización de polímeros. De hecho, la formulación original de esta teoría en el National Bureau of Standards, a comienzos de la década de los 70, sufrió varias reformulaciones importantes a lo largo de la década de los 80, buscando su adaptación a los hallazgos experimentales. Así nació el régimen III de cristalización que posibilita la creacion de nichos moleculares en la superficie y que dio pie al paradigma ofrecido por Sadler y col., para justificar los experimentos que se obtenian por “scattering” de neutrones y otras técnicas como la técnica de “droplets” o enfriamiento rapido. Por encima de todo, el gran éxito de la teoría radica en que explica la dependencia inversa entre el tamaño del plegado molecular y el subenfriamiento, definido este ultimo como el intervalo de temperatura que media entre la temperatura de equilibrio y la temperatura de cristalización. El problema concreto que aborda esta tesis es el estudio de los procesos de ordenamiento de poliolefinas con distinto grado de ramificacion mediante simulaciones numéricas. Los copolimeros estudiados en esta tesis se consideran materiales modelo de gran homogeneidad molecular desde el punto de vista de la distribución de tamaños y de ramificaciones en la cadena polimérica. Se eligieron estas poliolefinas debido al gran interes experimental en conocer el cambio en las propiedades fisicas de los materiales dependiendo del tipo y cantidad de comonomero utilizado. Además, son modelos sobre los que existen una ingente cantidad de información experimental, que es algo que preocupa siempre al crear una realidad virtual como es la simulación. La experiencia en el grupo Biophym es que los resultados de simulación deben de tener siempre un correlato mas o menos próximo experimental y ese argumento se maneja a lo largo de esta memoria. Empíricamente, se conoce muy bien que las propiedades físicas de las poliolefinas, en suma dependen del tipo y de la cantidad de ramificaciones que presenta el material polimérico. Sin embargo, tal como se ha explicado no existen modelos teóricos adecuados que expliquen los mecanismos subyacentes de los efectos de las ramas. La memoria de este trabajo es amplia por la complejidad del tema. Se inicia con una extensa introducción sobre los conceptos básicos de una macromolecula que son relevantes para entender el contenido del resto de la memoria. Se definen los conceptos de macromolecula flexible, distribuciones y momentos, y su comportamiento en disolución y fundido con los correspondientes parametros caracteristicos. Se pone especial énfasis en el concepto de “entanglement” o enmaranamiento por considerarse clave a la hora de tratar macromoléculas con una longitud superior a la longitud critica de enmaranamiento. Finaliza esta introducción con una reseña sobre el estado del arte en la simulación de los procesos de cristalización. En un segundo capitulo del trabajo se expone detalladamente la metodología usada en cada grupo de casos. En el primer capitulo de resultados, se discuten los estudios de simulación en disolución diluida para sistemas lineales y ramificados de cadena única. Este caso mas simple depende claramente del potencial de torsión elegido tal como se discute a lo largo del texto. La formación de los núcleos “babys” propuestos por Muthukumar parece que son consecuencia del potencial de torsión, ya que este facilita los estados de torsión mas estables. Así que se propone el análisis de otros potenciales que son igualmente utilizados y los resultados obtenidos sobre la cristalización, discutidos en consecuencia. Seguidamente, en un segundo capitulo de resultados se estudian moleculas de alcanos de cadena larga lineales y ramificados en un fundido por simulaciones atomisticas como un modelo de polietileno. Los resultados atomisticos pese a ser de gran detalle no logran captar en su totalidad los efectos experimentales que se observan en los fundidos subenfriados en su etapa previa al estado ordenado. Por esta razon se discuten en los capítulos 3 y 4 de resultados sistemas de cadenas cortas y largas utilizando dos modelos de grano grueso (CG-PVA y CG-PE). El modelo CG-PE se desarrollo durante la tesis. El uso de modelos de grano grueso garantiza una mayor eficiencia computacional con respecto a los modelos atomísticos y son suficientes para mostrar los fenómenos a la escala relevante para la cristalización. En todos estos estudios mencionados se sigue la evolución de los procesos de ordenamiento y de fusión en simulaciones de relajación isoterma y no isoterma. Como resultado de los modelos de simulación, se han evaluado distintas propiedades fisicas como la longitud de segmento ordenado, la cristalinidad, temperaturas de fusion/cristalizacion, etc., lo que permite una comparación con los resultados experimentales. Se demuestra claramente que los sistemas ramificados retrasan y dificultan el orden de la cadena polimérica y por tanto, las regiones cristalinas ordenadas decrecen al crecer las ramas. Como una conclusión general parece mostrarse una tendencia a la formación de estructuras localmente ordenadas que crecen como bloques para completar el espacio de cristalización que puede alcanzarse a una temperatura y a una escala de tiempo determinada. Finalmente hay que señalar que los efectos observados, estan en concordancia con otros resultados tanto teoricos/simulacion como experimentales discutidos a lo largo de esta memoria. Su resumen se muestra en un capitulo de conclusiones y líneas futuras de investigación que se abren como consecuencia de esta memoria. Hay que mencionar que el ritmo de investigación se ha acentuado notablemente en el ultimo ano de trabajo, en parte debido a las ventajas notables obtenidas por el uso de la metodología de grano grueso que pese a ser muy importante para esta memoria no repercute fácilmente en trabajos publicables. Todo ello justifica que gran parte de los resultados esten en fase de publicación. Abstract “Polymer crystallization is therefore assumed, and in theories often described, to be a multi step process with many influencing aspects. Because of the chain structure, it is easy to understand that a process which is thermodynamically forced to increase local ordering but is geometrically hindered cannot proceed into a final equilibrium state. As a result, nonequilibrium structures with different characteristics are usually formed, which depend on temperature, pressure, shearing and other parameters”. These words, recently written by Professor Bernhard Wunderlich, one of the most prominent researchers in polymer physics, put somehow in value the "leitmotiv "of this thesis. The crystallization mechanism of polymers is still under debate in the physics community and most of the experimental findings are still explained by invoking the LH theory. This classical theory, which was initially formulated by Lauritzen and Hoffman (LH), is indeed a generalization of the crystallization theory for small molecules from the vapor phase. Even though it describes satisfactorily many experimental observations, it is far from explaining the complex phenomenon of polymer crystallization. This theory was firstly devised in the early 70s at the National Bureau of Standards. It was successively reformulated along the 80s to fit the experimental findings. Thus, the crystallization regime III was introduced into the theory in order to explain the results found in neutron scattering, droplet or quenching experiments. This concept defines the roughness of the crystallization surface leading to the paradigm proposed by Sadler et al. The great success of this theory is the ability to explain the inverse dependence of the molecular folding size on the supercooling, the latter defined as the temperature interval between the equilibrium temperature and the crystallization temperature. The main scope of this thesis is the study of ordering processes in polyolefins with different degree of branching by using computer simulations. The copolymers studied along this work are considered materials of high molecular homogeneity, from the point of view of both size and branching distributions of the polymer chain. These polyolefins were selected due to the great interest to understand their structure– property relationships. It is important to note that there is a vast amount of experimental data concerning these materials, which is essential to create a virtual reality as is the simulation. The Biophym research group has a wide experience in the correlation between simulation data and experimental results, being this idea highly alive along this work. Empirically, it is well-known that the physical properties of the polyolefins depend on the type and amount of branches presented in the polymeric material. However, there are not suitable models to explain the underlying mechanisms associated to branching. This report is extensive due to the complexity of the topic under study. It begins with a general introduction to the basics concepts of macromolecular physics. This chapter is relevant to understand the content of the present document. Some concepts are defined along this section, among others the flexibility of macromolecules, size distributions and moments, and the behavior in solution and melt along with their corresponding characteristic parameters. Special emphasis is placed on the concept of "entanglement" which is a key item when dealing with macromolecules having a molecular size greater than the critical entanglement length. The introduction finishes with a review of the state of art on the simulation of crystallization processes. The second chapter of the thesis describes, in detail, the computational methodology used in each study. In the first results section, we discuss the simulation studies in dilute solution for linear and short chain branched single chain models. The simplest case is clearly dependent on the selected torsion potential as it is discussed throughout the text. For example, the formation of baby nuclei proposed by Mutukhumar seems to result from the effects of the torsion potential. Thus, we propose the analysis of other torsion potentials that are also used by other research groups. The results obtained on crystallization processes are accordingly discussed. Then, in a second results section, we study linear and branched long-chain alkane molecules in a melt by atomistic simulations as a polyethylene-like model. In spite of the great detail given by atomistic simulations, they are not able to fully capture the experimental facts observed in supercooled melts, in particular the pre-ordered states. For this reason, we discuss short and long chains systems using two coarse-grained models (CG-PVA and CG-PE) in section 3 and 4 of chapter 2. The CG-PE model was developed during the thesis. The use of coarse-grained models ensures greater computational efficiency with respect to atomistic models and is enough to show the relevant scale phenomena for crystallization. In all the analysis we follow the evolution of the ordering and melting processes by both isothermal and non isothermal simulations. During this thesis we have obtained different physical properties such as stem length, crystallinity, melting/crystallization temperatures, and so on. We show that branches in the chains cause a delay in the crystallization and hinder the ordering of the polymer chain. Therefore, crystalline regions decrease in size as branching increases. As a general conclusion, it seems that there is a tendency in the macromolecular systems to form ordered structures, which can grown locally as blocks, occupying the crystallization space at a given temperature and time scale. Finally it should be noted that the observed effects are consistent with both, other theoretical/simulation and experimental results. The summary is provided in the conclusions chapter along with future research lines that open as result of this report. It should be mentioned that the research work has speeded up markedly in the last year, in part because of the remarkable benefits obtained by the use of coarse-grained methodology that despite being very important for this thesis work, is not easily publishable by itself. All this justify that most of the results are still in the publication phase.
Resumo:
This paper contributes with a unified formulation that merges previ- ous analysis on the prediction of the performance ( value function ) of certain sequence of actions ( policy ) when an agent operates a Markov decision process with large state-space. When the states are represented by features and the value function is linearly approxi- mated, our analysis reveals a new relationship between two common cost functions used to obtain the optimal approximation. In addition, this analysis allows us to propose an efficient adaptive algorithm that provides an unbiased linear estimate. The performance of the pro- posed algorithm is illustrated by simulation, showing competitive results when compared with the state-of-the-art solutions.
Resumo:
En el sector de la edificación, las grandes constructoras comienzan a considerar aspectos medioambientales, no limitándose a lo establecido por la legislación vigente, y buscando la implementación de buenas prácticas. Si bien este hecho es una realidad para las grandes empresas constructoras, todavía falta que la gran mayoría de las empresas del sector (pequeñas y medianas) adopten ésta tendencia. En este sentido, las publicaciones y estadísticas consultadas revelan que el sector de la construcción sigue siendo el sector con menor número de Sistemas de Gestión Ambiental (SGA) certificados en comparación con otros sectores industriales, debido principalmente a las peculiaridades de su actividad. Por otra parte, el sector de la construcción genera grandes cantidades de residuos de construcción y demolición (RCD). Aunque, en los últimos años la actividad de la construcción ha disminuido, debido a la crisis económica del país, no hay que olvidar todos los problemas causados por este tipo de residuos, o mejor dicho, por su gestión. La gestión de los RCD actual está lejos de alcanzar la meta propuesta en la Directiva Marco de Residuos (DMR), la cual exige un objetivo global para el año 2020 en el que el 70% de todos los RCD generados deberán ser reciclados en los países de la UE. Pero, la realidad es que sólo el 50% de la RCD generados en la Unión Europea se recicla. Por este motivo, en los últimos años se ha producido una completa modificación del régimen jurídico aplicable a los RCD, incorporando importantes novedades a nuestro ordenamiento interno como son: la redacción de un Estudio de gestión de RCD (en fase de diseño) y un Plan de gestión de RCD (en fase de ejecución). Entre estas medidas destaca el poder conocer, con la antelación suficiente, la cantidad y el momento en que los RCD son generados, para así poder planificar la gestión más adecuada para cada categoría de RCD. Es por ello que el desarrollo de cualquier instrumento que determine la estimación de RCD así como iniciativas para su control debe ser considerado como una herramienta para dar respuestas reales en el campo de la sostenibilidad en la edificación. Por todo lo anterior, el principal objetivo de la Tesis Doctoral es mejorar la gestión actual de los RCD, a través de la elaboración e implementación en obra de un Sistema de gestión de RCD en fase de ejecución que podrá ser incluido en el Sistema de Gestión Ambiental de las empresas constructoras. Para ello, se ha identificado la actividad que más residuo genera, así como las diferentes categorías de RCD generadas durante su ejecución, a través del análisis de nueve obras de edificación de nueva planta. Posteriormente, se han determinado y evaluado, en función de su eficacia y viabilidad, veinte buenas prácticas encaminadas a reducir la generación de RCD. También, se han identificado y evaluado, en función de su coste económico, cinco alternativas de gestión para cada categoría de RCD generada. Por último, se ha desarrollado e implementado un Sistema de Gestión de RCD en una empresa de construcción real. En definitiva, el Sistema de Gestión de RCD propuesto contiene una herramienta de estimación de RCD y también proporciona una relación de buenas prácticas, según su viabilidad y eficacia, sobre los aspectos más significativos en cuanto a la gestión de RCD se refiere. El uso de este Sistema de gestión de RCD ayudará a los técnicos de la construcción en el desarrollo de los documentos "Estudio de gestión de RCD " y "Plan de gestión de RCD " - requeridos por ley -. Además, el Sistema promueve la gestión ambiental de la empresa, favoreciendo la cohesión del proceso constructivo, estableciendo responsabilidades en el ámbito de RCD y proporcionando un mayor control sobre el proceso. En conclusión, la implementación de un sistema de gestión de RCD en obra ayuda a conseguir una actividad de edificación, cuyo principal objetivo sea la generación de residuos cero. ABSTRACT Currently, in the building sector, the main construction companies are considering environmental issues, not being limited to the current legislation, and seeking the implementation of good practices. While this fact is a reality for large construction companies, still the vast majority of construction companies (small and medium enterprises) need to accept this trend. In this sense, official publications and statistics reveal that the construction sector remains with the lowest number of certified Environmental Management Systems (EMS) compared to other industrial sectors, mainly due to the peculiarities of its activity. Moreover, the construction industry in Spain generates large volumes of construction and demolition waste (CDW) achieving a low recycling rate compared to other European Union countries and to the target set for 2020. Despite the complete change in the legal regime for CDW in Spain, there are still several difficulties for their application at the construction works. Among these difficulties the following can be highlighted: onsite segregation, estimating CDW generation and managing different CDW categories. Despite these difficulties, the proper CDW management must be one of the main aspects considered by construction companies in the EMS. However, at present the EMS used in construction companies consider very superficially CDW management issues. Therefore, current EMS should go a step further and include not only procedures for managing CDW globally, but also specific procedures for each CDW category, taking into account best practices for prevention, minimization and proper CDW management in order to achieve building construction works with zero waste generation. The few scientific studies analysing EMS implementation in construction enterprises focus on studying the benefits and barriers of their implementation. Despite the drawbacks found, implementing an EMS would bring benefits such as improving the corporate image in relation to the environment, ensuring compliance with the law or reducing environmental risks. Also, the international scientific community has shown great interest in defining models to estimate in advance the CDW that will be generated during the building construction or rehabilitation works. These studies analyse the overall waste generation and its different CDW categories. However, despite the many studies found on CDW quantification, analysing its evolution throughout the construction activities is a factor that must be further studied and discussed in greater depth, as results would be of great significance when planning the CDW management. According to the scientific studies analysing the implementation of good environmental practices in construction sites, it seems that, in general, the CDW collection system is done in a decentralized manner by each subcontracted company. In addition, the corporate image generated when poor practices are done may adversely affect the company's reputation and can result in loss of contracts. Finally, although there are numerous guides and manuals of good practices for CDW management, no references have been found implementing these measures in the Environmental Management System of the construction companies. From all the above, this thesis aims to provide answers to reduce the environmental impact caused by CDW generation in building construction works, in order to get a building process with zero waste generation. In this sense, is essential to generate new knowledge in order to implement a system which can carry out comprehensive management of CDW generated onsite, at the design stage until the end of its life cycle, taking into account both technical and economic criteria. Therefore, the main objective of this thesis is to define and implement a CDW management system for residential building construction works, helping construction agents not only to manage the CDW in accordance with current legislation, but also minimizing their generation on site by applying best practices, resulting in achieving the goal of zero waste in building works.
Resumo:
The biggest problem when analyzing the brain is that its synaptic connections are extremely complex. Generally, the billions of neurons making up the brain exchange information through two types of highly specialized structures: chemical synapses (the vast majority) and so-called gap junctions (a substrate of one class of electrical synapse). Here we are interested in exploring the three-dimensional spatial distribution of chemical synapses in the cerebral cortex. Recent research has showed that the three-dimensional spatial distribution of synapses in layer III of the neocortex can be modeled by a random sequential adsorption (RSA) point process, i.e., synapses are distributed in space almost randomly, with the only constraint that they cannot overlap. In this study we hypothesize that RSA processes can also explain the distribution of synapses in all cortical layers. We also investigate whether there are differences in both the synaptic density and spatial distribution of synapses between layers. Using combined focused ion beam milling and scanning electron microscopy (FIB/SEM), we obtained three-dimensional samples from the six layers of the rat somatosensory cortex and identified and reconstructed the synaptic junctions. A total volume of tissue of approximately 4500μm3 and around 4000 synapses from three different animals were analyzed. Different samples, layers and/or animals were aggregated and compared using RSA replicated spatial point processes. The results showed no significant differences in the synaptic distribution across the different rats used in the study. We found that RSA processes described the spatial distribution of synapses in all samples of each layer. We also found that the synaptic distribution in layers II to VI conforms to a common underlying RSA process with different densities per layer. Interestingly, the results showed that synapses in layer I had a slightly different spatial distribution from the other layers.