141 resultados para Algoritmo de optimización


Relevância:

20.00% 20.00%

Publicador:

Resumo:

La importancia de la seguridad en la aplicación de la tecnología nuclear impregna todas las tareas asociadas a la utilización de esta fuente de energía, comenzando por la fase de diseño, explotación y posterior desmantelamiento o gestión de residuos. En todos estos pasos, las herramientas de simulación computacional juegan un papel esencial como guía para el diseño, apoyo durante la operación o predicción de la evolución isotópica de los materiales del reactor. Las constantes mejoras en cuanto a recursos computacionales desde mediados del siglo XX hasta este momento así como los avances en los métodos de cálculo utilizados, permiten tratar la complejidad de estas situaciones con un detalle cada vez mayor, que en ocasiones anteriores fue simplemente descartado por falta de capacidad de cálculo o herramientas adecuadas. El presente trabajo se centra en el desarrollo de un método de cálculo neutrónico para reactores de agua ligera basado en teoría de difusión corregida con un nivel de detalle hasta la barra de combustible, considerando un número de grupos de energía mayor que los tradicionales rápido y térmico, y modelando la geometría tridimensional del núcleo del reactor. La capacidad de simular tanto situaciones estacionarias con posible búsqueda de criticidad, como la evolución durante transitorios del flujo neutrónico ha sido incluida, junto con un algoritmo de cálculo de paso de tiempo adaptativo para mejorar el rendimiento de las simulaciones. Se ha llevado a cabo un estudio de optimización de los métodos de cálculo utilizados para resolver la ecuación de difusión, tanto en el lazo de iteración de fuente como en los métodos de resolución de sistemas lineales empleados en las iteraciones internas. Por otra parte, la cantidad de memoria y tiempo de computación necesarios para resolver problemas de núcleo completo en malla fina obliga a introducir un método de paralelización en el cálculo; habiéndose aplicado una descomposición en subdominios basada en el método alternante de Schwarz acompañada de una aceleración nodal. La aproximación de difusión debe ser corregida si se desea reproducir los valores con una precisión cercana a la obtenida con la ecuación de transporte. Los factores de discontinuidad de la interfase utilizados para esta corrección no pueden en la práctica ser calculados y almacenados para cada posible configuración de una barra de combustible de composición determinada en el interior del reactor. Por esta razón, se ha estudiado una parametrización del factor de discontinuidad según la vecindad que permitiría tratar este factor como una sección eficaz más, parametrizada en función de valores significativos del entorno de la barra de material. Por otro lado, también se ha contemplado el acoplamiento con códigos termohidráulicos, lo que permite realizar simulaciones multifísica y producir resultados más realistas. Teniendo en cuenta la demanda creciente de la industria nuclear para que los resultados realistas sean suministrados junto con sus márgenes de confianza, se ha desarrollado la posibilidad de obtener las sensibilidades de los resultados mediante el cálculo del flujo adjunto, para posteriormente propagar las incertidumbres de las secciones eficaces a los cálculos de núcleo completo. Todo este trabajo se ha integrado en el código COBAYA3 que forma parte de la plataforma de códigos desarrollada en el proyecto europeo NURESIM del 6º Programa Marco. Los desarrollos efectuados han sido verificados en cuanto a su capacidad para modelar el problema a tratar; y la implementación realizada en el código ha sido validada numéricamente frente a los datos del benchmark de transitorio accidental en un reactor PWR con combustible UO2/MOX de la Agencia de Energía Nuclear de la OCDE, así como frente a otros benchmarks de LWR definidos en los proyectos europeos NURESIM y NURISP.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Para llegar a conseguir un país de calidad se ha de construir un país para todos los ciudadanos. Por ello uno de los grandes cambios en el proceso de transformación de las ciudades actuales, ya que se está produciendo y que se acelerará en el futuro, es su adecuación al uso por personas con limitaciones. En este sentido, en los próximos años debemos procurar avanzar hacia un paso más accesible y apto incluso para aquellas personas que por su avanzada edad, discapacidades, movilidad y/o comunicación reducida temporal o definitiva, se ven o verán afectados por una falta de autonomía, debido a las innumerables barreras físicas o sensoriales con que se encuentran todavía en la sociedad actual que les impiden poder realizar una vida lo más independiente posible, con seguridad y confort. La sociedad del futuro ha de ser una sociedad sin barreras, impidiendo vernos afectados por ellas, sobre todo cuando lleguemos a mayores, lo que nos debe motivar para realizar un esfuerzo de divulgación y formación que haga posible su definitiva eliminación. Es necesario que todos tengamos una sensibilidad y actitud positivas para conseguir la eliminación tanto de las barreras arquitectónicas propiamente dichas, como aquellas que afectan a las personas que padecen disminuciones sensoriales, mostrando a su vez un comportamiento que elimine los prejuicios sociales, pues como se ha venido sosteniendo “La accesibilidad no es solamente una necesidad para las personas con discapacidad, sino una ventaja para todos los ciudadanos”. Es responsabilidad de la sociedad en su conjunto y muy especialmente de los poderes públicos modificar el entorno de modo que pueda ser utilizado en igualdad de condiciones por todos y cada uno de los ciudadanos. En este sentido también es imprescindible hacer extensiva esta responsabilidad al tejido empresarial, a la universidad y a la sociedad civil en general. Especial responsabilidad tienen todos aquellos profesionales cuyo desempeño está directamente involucrado en los procesos de diseño, desarrollo e implantación de entornos, productos y servicios que serán utilizados por los ciudadanos. La discriminación de las personas con discapacidad responde a motivos similares a la que se ejerce contra otros grupos humanos, también alejados del arquetipo social predominante, tales como las personas mayores, los inmigrantes y las personas con opciones sexuales distintas a la establecida. Estos grupos sociales no disfrutan de los mismos niveles de participación que el resto y, lo que supone una preocupación aún mayor, se encuentran con enormes dificultades para promover cambios en esta sociedad. La “invisibilidad social” de estos grupos representa una barrera para que los sistemas democráticos representen en la práctica a todos los ciudadanos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La acumulación de material sólido en embalses, cauces fluviales y en zonas marítimas hace que la extracción mecánica de estos materiales por medio de succión sea cada vez mas frecuente, por ello resulta importante estudiar el rendimiento de la succión de estos materiales analizando la forma de las boquillas y los parámetros del flujo incluyendo la bomba. Esta tesis estudia, mediante equipos experimentales, la eficacia de distintos dispositivos de extracción de sólidos (utilizando boquillas de diversas formas y bombas de velocidad variable). El dispositivo experimental ha sido desarrollado en el Laboratorio de Hidráulica de la E.T.S.I. de Caminos, C. y P. de la Universidad Politécnica de Madrid. Dicho dispositivo experimental incluye un lecho sumergido de distintos tipos de sedimentos, boquillas de extracción de sólidos y bomba de velocidad variable, así como un elemento de separación del agua y los sólidos extraídos. Los parámetros básicos analizados son el caudal líquido total bombeado, el caudal sólido extraído, diámetro de la tubería de succión, forma y sección de la boquilla extractora, así como los parámetros de velocidad y rendimiento en la bomba de velocidad variable. Los resultados de las medidas obtenidas en el dispositivo experimental han sido estudiados por medio del análisis dimensional y con métodos estadísticos. A partir de este estudio se ha desarrollado una nueva formulación, que relaciona el caudal sólido extraído con los diámetros de tubería y boquilla, caudal líquido bombeado y velocidad de giro de la bomba. Así mismo, desde el punto de vista práctico, se han analizado la influencia de la forma de la boquilla con la capacidad de extracción de sólidos a igualdad del resto de los parámetros, de forma que se puedan recomendar que forma de la boquilla es la más apropiada. The accumulation of solid material in reservoirs, river channels and sea areas causes the mechanical extraction of these materials by suction is becoming much more common, so it is important to study the performance of the suction of these materials analyzing the shape of the nozzles and flow parameters, including the pump. This thesis studies, using experimental equipment, the effectiveness of different solids removal devices (using nozzles of different shapes and variable speed pumps). The experimental device was developed at the Hydraulics Laboratory of the Civil University of the Polytechnic University of Madrid. The device included a submerged bed with different types of sediment solids, different removal nozzles and variable speed pump. It also includes a water separation element and the solids extracted. The key parameters analyzed are the total liquid volume pumped, the solid volume extracted, diameter of the suction pipe, a section of the nozzle and hood, and the parameters of speed and efficiency of the variable speed pump. The basic parameters analyzed are the total liquid volume pumped, the removed solid volume, the diameter of the suction pipe, the shape and cross-section of the nozzle, and the parameters of speed, efficiency and energy consumed by the variable speed pump. The measurements obtained on the experimental device have been studied with dimensional analysis and statistical methods. The outcome of this study is a new formulation, which relates the solid volume extracted with the pipe and nozzle diameters, the pumped liquid flow and the speed of the pump. Also, from a practical point of view, the influence of the shape of the nozzle was compared with the solid extraction capacity, keeping equal the rest of the parameters. So, a recommendation of the best shape of the nozzle can be given.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Actualmente se está empezando a consolidar una nueva forma de gestionar la conservación y mantenimiento de la red viaria de las Administraciones Públicas, basándose en contratos de colaboración público-privadas (PPP). Las motivaciones que están provocando este movimiento son de diversa índole. Por un lado, en el seno de la Unión Europea, existen serias restricciones presupuestarias debido al alto endeudamiento del sector público, lo que está llevando a buscar la forma óptima de disminuir el endeudamiento público, sin dejar de prestar servicios a la sociedad como la conservación y mantenimiento de las redes viarias. Por esta vertiente, se trata de convertir contratos convencionales de conservación viaria a esquemas de colaboración público-privada, donde se transferiría al sector privado el riesgo de disponibilidad de la vía mediante el uso de indicadores de calidad y servicio. Con esta transferencia de riesgo, junto con la transferencia del riesgo de demanda/construcción, no consolidaría la deuda de la sociedad de propósito específico constituida para la gestión del contrato de colaboración público-privada dentro de las cuentas públicas, con lo que se conseguiría no aumentar el déficit público, permitiendo continuar ofreciendo el servicio demandado por la sociedad. Por otro lado, la segunda motivación del desarrollo de este tipo de contratos, no tan economicista como la anterior y más enfocada a la gestión, se trata de utilizar los contratos de gestión basados en el uso de indicadores de calidad de servicio para mejorar las prestaciones de la red viaria competencia de una Administración. Con el uso de estos indicadores, el gestor tiene una herramienta muy útil para controlar la actividad del sector privado y asegurar que se ofrece un buen servicio. En la presente tesis, la investigación se ha centrado más en la vertiente de los indicadores de calidad relacionados con la gestión eficiente de las vías objeto de conservación y mantenimiento mediante el empleo de contratos de gestión privada que utilicen este tipo de herramientas de control, monitorización y gestión. En una primera parte, la presente tesis estudia el estado de la red de carreteras, referido principalmente a España, comparando su estado con el resto de redes de carreteras de Europa, detectando las principales carencias de la misma, sobre todo en cuanto a la gestión y conservación de firmes. En un segundo bloque, la tesis analiza el estado del arte de los nuevos procedimientos de gestión de la conservación y mantenimiento basados en indicadores de calidad del servicio en el mundo, destacándose que se trata de un tema relativamente reciente, con gran interés para el sector de la gestión y financiación de infraestructuras viarias. Al ser tan novedoso, por la falta de experiencias previas, las distintas Administración, tanto propias como foráneas, han pecado de un exceso de celo a la hora de establecer los umbrales sobre los que giran los distintos indicadores de calidad de servicio que permiten controlar la gestión de la conservación y mantenimiento de la vía. Partiendo de la labor de análisis descrita, la tesis realiza una investigación más detallada de los indicadores de calidad de servicio correspondientes a firmes bituminosos, debido a que estos indicadores son los más delicados y decisivos a la hora de realizar una correcta gestión de la vía a largo plazo. Dentro de los indicadores de firmes bituminosos, se ha realizado un modelo específico de evolución de comportamiento a lo largo del tiempo de la regularidad superficial, parámetro básico para numerosas Administraciones y organismos investigadores para poder conocer la evolución de un firme a lo largo del tiempo. A esta metodología se le ha dado el nombre de Modelo JRB para evaluar la racionalidad económica de indicadores de calidad asociados a parámetros de firmes. El modelo propuesto básicamente evalúa el valor óptimo desde la perspectiva económica que ha de tener el parámetro técnico que defina alguna propiedad del firme, aplicado a la definición de los indicadores de calidad de servicio. Esta visión del valor umbral del indicador deja a un lado consideraciones de equidad o de cualquier otra índole, basándose más en una visión económica. La metodología del Modelo JRB se puede aplicar a cualquier indicador de calidad relacionado con firmes, ya que lo que se obtiene es el valor óptimo económico que debería tener el umbral del indicador de calidad. El Modelo JRB consta de varias fases. En las primeras etapas el Modelo realiza el cálculo de los costes totales de transporte utilizando como herramienta el software HDM-IV desarrollado por el Banco Mundial. En etapas posteriores, el Modelo realiza análisis de sensibilidad para distintas propuestas de sección de firme, intensidades de tráfico y restricciones al parámetro técnico que define el indicador de calidad de servicio. Como ejercicio práctico de cara a contrastar la metodología del Modelo JRB se ha realizado un Caso de Estudio. Se ha tomado un tramo teórico, con características similares a la red de carreteras española, y con una flota vehicular similar a la española, donde se ha elegido como indicador de calidad la regularidad superficial (IRI). Con las sensibilidades realizadas con el Modelo JRB, se ha determinado el rango de valores que debería tener un indicador de calidad basado en el IRI para que dichos valores fueran óptimos desde la perspectiva económica Nowadays is becoming a new way to manage O&M (operation and maintenance) in public road networks, based on PPP contracts (public-private partnership). There are several issues which are driving this trend. On the one hand, EU (European Union) has serious budgetary constraints due to the high public sector borrowing. EU politicians are looking for the best way to reduce public debt, keeping services to society such as O&M of road networks. For this aspect, conventional O&M contracts are switching to PPP scenarios, where availability risk would be transfer to private sector using PI (performance indicators), along with demand risk transfer With this risk transference, along with the transfer of demand/construction risk, SPV (specific purpose vehicle) debt doesn’t consolidate in public accounts, so deficit wouldn’t increase, allowing the continuation of services demanded by society. On the other hand, the second motivation for developing this kind of contracts, not so economist as above and more focused to management, it is about using O&M contracts based on the use of PI to improve road network maintenance. Using these indicators, manager has a very useful tool to monitor private sector activity and ensure that it is provided a good service. In this thesis, the research has been focused on PI quality aspect, related with efficient management of PPP contracts for roads, which use these tools for control, monitoring and management. In the first part, this thesis examines the state of road network, based mainly in Spain, comparing with other road networks in Europe, identifying the main gaps in it, especially with regard to the management and maintenance of pavements. In a second block, the thesis analyzes the state of art of new O&M contracts based on PI in the world, emphasizing that they are relatively recent. These kinds of contracts have a great interest in road management and financing sector. Administrations all around the world have launch tenders with very exigent PI thresholds due to several factors: this knowledge is a new area, the lack of previous experiences and the variety of Administrations which have bid these contracts. Building on the described analysis, thesis develops a more detailed research about PI for bituminous pavements, because these PI are the most delicate and decisive in making a proper long term road management. Among bituminous pavements PI, IRI (International Roughness Index) has been analyzed with more detail and has been developed a specific model of behaviour evolution over time for evenness (IRI), basic parameter for many administrations and research departments in order to know the evolution of a pavement over time. This methodology has been given the name of JRB Model to evaluate the economic rationality of performance indicators associated with pavements parameters. The proposed model basically evaluates the optimal value from an economic perspective it must have the technical parameter which defines some pavement characteristic applied to the definition of performance indicators. This point of view of indicator value threshold sets aside justice considerations or otherwise, based more on an economic perspective. JRB Model methodology can be applied to any performance indicator associated to pavements, because what you get is the economic optimum threshold should have the performance indicator. JRB Model consists of several phases. In the early stages, the Model calculates transport total cost using HDM-IV software, developed by the World Bank, as a tool. In later stages, the Model performs sensitivity analyzes for different pavement section, AADT and restrictions to the technical parameter which defines the performance indicator. As a practical exercise to test JRB Model methodology, it has done a Case Study. It has taken a theoretical section, with similar characteristics to Spanish road network, and a vehicles fleet similar to Spanish. Evenness (IRI) was chosen as a performance indicator. JRB Model calculated some sensitivities, which were useful to determined thresholds range for pavement performance indicators based on IRI to be optimal from an economic perspective.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Debido al carácter innovador de los objetivos científico-tecnológicos planteados al inicio de la presente Tesis doctoral, además de la primera recopilación bibliográfica, a lo largo del desarrollo de la misma se ha realizado una actualización bibliográfica continua centrada en los desarrollos relativos a la instrumentación, las aplicaciones y los procesos de interpretación de las técnicas de tomografía eléctrica. Durante el desarrollo del presente trabajo, se han realizado una serie de campañas diferenciadas, tanto por los ambientes geológicos y las condiciones antrópicas en los que se han efectuado los perfiles geoeléctricos, como por la profundidad y los objetivos de la prospección. En esas campañas se han obtenido, mediante el programa Res2DInv, las secciones tomográficas con la configuración de variables por defecto y se ha realizado una interpretación estructural de las mismas. Como parte central del desarrollo de esta investigación se han efectuado varios procesos de optimización: Comparación y optimización de los dispositivos empleados para la medición de perfiles de resistividad de cara a la obtención de secciones tomográficas que presenten la mayor resolución en distintos ambientes geológicos. Selección de los rangos de representación (lineales y logarítmicos) y de la gradación cromática que, pudiendo adoptarse de forma generalizada, permita la mejor interpretación gráfica para usuarios no avanzados. Diseño de criterios para la selección del factor de amortiguamiento, como parámetro crítico en los procesos de inversión tomográfica de perfiles geoeléctricos de superficie, de forma que los modelos resultantes alcancen la mejor relación entre fiabilidad y error respecto a los valores medidos. Paralelamente a los procesos anteriores se ha definido un índice de calidad de la inversión, que es directamente normalizado y que permite evaluar el grado en el que pueden considerarse fiables tanto los valores de resistividad obtenidos como su distribución espacial. El índice desarrollado (IRI) está basado en la influencia que tiene la resistividad inicial del modelo de inversión en los valores de cada una de las celdas de la malla de inversión. Tras un exhaustivo análisis estadístico se ha verificado que, a diferencia de otros índices utilizados hasta la fecha, dicho índice no está afectado ni por la profundidad de investigación y la resolución de los dispositivos, ni por la distribución de resistividades que presente el subsuelo. ABSTRACT Due to the innovative character of the scientific and technological objectives proposed at the beginning of this thesis, in addition to preparatory bibliographic reference, a constant bibliographic update on developments related to instrumentation, applications and interpretation processes for electric tomography has been performed all through the development of the work. Several measuring campaigns were performed during the development of the thesis. These campaigns, in which the geoelectric profiles were measured, varied in several aspects, both in the geological and anthropic conditions, and also in the depth and objectives of the prospection. Tomographic sections were obtained and interpretated by making use of the Res2DInv software configured with the default variables. As part of the core development in this research, several optimization processes have been done: Comparison and optimization of the devices used in the measurement of resistivity profiles. This optimization allows increasing the resolution of tomographic sections in different geological conditions. Selection of the best visual representation for the tomographic sections. This involves the selection of the range of values and type of scale (linear vs. logarithmic) as well as the chromatic graduation. This selection allows improving the interpretation of tomographic sections for the non-expert eye. Devising of criteria for the selection of the damping factor, as the critical parameter in processes of tomographic inversion of superficial geoelectrical profiles. The use of these criteria allows selecting the best factors to obtain the best ratio between reliability and error (in relation to the mean values) for the resulting model. In addition to the aforementioned processes, and as part of the work within this thesis, it has been defined a normalized quality index for inversion. This index allows evaluating the degree of reliability of the obtained resistivity values and spatial distribution. The developed index, termed IRI in the thesis, is based on the influence shown by the initial resistivity of the inversion model on the values of each of the cells of the inversion mesh. After an exhaustive statistical analysis it was verified that the IRI index is neither affected by the investigation depth, nor the resolution of the devices, nor the resistivity’s distribution of the sub soil. This independency is a unique characteristic of the IRI index, not present in other indexes developed and used till date.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En el presente trabajo de tesis se afronta el problema de la optimización de la superficie de grandes antenas reflectoras. Es sabido que los grandes reflectores, formados por una superficie panelada, sufren deformaciones debidas al impacto del viento, a los cambios de temperatura y a los efectos gravitacionales derivados del gran peso de la estructura. Estos efectos hacen que los reflectores pierdan su forma ideal, generalmente de paraboloide, y se reduzca su eficiencia de apertura y, por tanto, se limite la máxima frecuencia de uso de los mismos. Es necesario, por tanto, disponer de técnicas que permitan medir el estado de la superficie de grandes reflectores, y derivar los ajustes necesarios a aplicar sobre los tornillos de soporte de cada uno de los paneles que conforman dicha superficie. De esta manera, se devolvería al reflector su forma óptima y aumentaría la eficiencia de apertura y el rango de frecuencias de uso. Hay que resaltar que el aumento de la eficiencia de un radiotelescopio supone una reducción en el tiempo de integración necesario para la detección de las debilísimas señales generadas por las radiofuentes naturales, ahorrando así valioso tiempo de observación. Además, el incremento en el rango de frecuencias permite la detección de nuevas líneas o especies moleculares en dichas radiofuentes. Tras un primer capítulo introductorio, se presenta, en el capítulo segundo, la geometría de estos grandes reflectores y la influencia de los distintos factores que afectan a la calidad de la superficie de los mismos, como la gravedad, el viento y la temperatura, particularizando para el caso del radiotelescopio de 40 metros del Centro Astronómico de Yebes. En el tercer capítulo, se presentan las diferentes técnicas metrológicas empleadas actualmente para abordar la determinación de estos ajustes, mostrándose las ventajas e inconvenientes de cada una de ellas. Actualmente, la técnica metrológica más precisa y rápida para llevar a cabo esta tarea de caracterización de la superficie de un gran reflector, es la radio-holografía de microondas presentada en el capítulo cuarto. A partir de las medidas proporcionadas por esta técnica, realizadas con la ayuda de un transmisor, y mediante transformaciones de campo, se calculan los errores de la superficie del reflector, respecto al paraboloide ideal, y se derivan los ajustes necesarios. En los capítulos quinto y sexto se presentan los resultados de la aplicación de esta técnica a dos radiotelescopios: el de 30 metros de IRAM en Pico de Veleta (Granada) y los prototipos de 12 metros de las antenas del proyecto ALMA. Por su parte, el capítulo séptimo contiene el núcleo fundamental de esta tesis y presenta el desarrollo de la técnica de radio-holografía de microondas para optimizar la superficie del radiotelescopio de 40 metros del Centro Astronómico de Yebes. Para ello, ha sido necesario diseñar, construir e instalar un receptor de doble canal en banda Ku en foco primario, y la instrumentación asociada para hacer las medidas de amplitud y fase del diagrama de radiación. Además, ha sido necesario desarrollar el software para llevar a cabo las transformaciones de campo y derivar los ajustes de los paneles. De las medidas holográficas iniciales resultó un error de la superficie del radiotelescopio de 485 μm WRMS, respecto al paraboloide ideal en dirección normal. Tras varias iteraciones del proceso de medida y ajuste, se consiguió reducir dicho error a 194 μm WRMS. Esta notable mejora de la calidad de la superficie ha supuesto aumentar la eficiencia de apertura desde 2,6% al 38,2% a 86 GHz, para un receptor a esta frecuencia situado en el foco primario que produjese la misma iluminación que el receptor de holografía. In this thesis the problem of large reflector antenna surface optimization is faced. It is well known that large reflectors, which are made of a panelled surface, suffer from deformations due to the impact of wind, temperature gradients and gravity loads coming from the high weigth of the structure. These effects distort the ideal reflector shape, which is a paraboloid in most cases, hence reducing the aperture efficiency of the reflector and limiting the maximum frequency of operation. Therefore, it is necessary to have some techniques to measure the status of large reflector surfaces and to derive the adjustment values to be applied to the screws that connect the surface panels to the reflector back-up structure. In this way, the reflector would recover its optimum shape and the aperture efficiency and frequency range would increase. It has to be stated that an increment in the radiotelescope aperture efficiency would imply a reduction in the integration time needed to detect such weak signals coming from natural radiosources in space and, hence, an important saving in observation time. In addition, the increase in the frequency range of operation would allow the detection of new molecular lines in those radiosources. After the introduction, the second chapter shows the geometry of large reflector antennas and the impact on its surface quality of different factors like gravity, wind and temperature, particularly for the case of the Centro Astronómico de Yebes 40 meter radiotelescope. The third chapter deals with the different metrology techniques used to determine the panel adjustments, including the advantages and drawbacks of each one Currently, the most accurate and fast metrologic technique to carry out the characterization of large reflector surfaces is microwave radio-holography2, which is shown in chapter four. From the measurements provided by microwave radio-holography, performed with the help of a transmitter, and with the use of field transformations, the reflector surface errors are computed and the panel adjustments are derived. Chapters five and six show the results of holographic measurements applied to two first class radiotelescopes: the IRAM 30 meter radiotelescope and the 12 meter prototype antennas for the ALMA project. Chapter seven contains the main work of this thesis. It presents the development of the microwave radio-holography technique for the optimization of the Centro Astronómico de Yebes 40m radiotelescope. The work implied the design, construction and instalation of a prime focus Ku-band dual channel receiver, together with the associated instrumentation to measure the amplitude and phase of the radiotelescope radiation pattern. In addition, the software to carry out field transformations and screw settings computations was developed too. Initial holography measurements came up with an surface error of 485 μmWRMS in normal direction with respect to the best-fit paraboloid. After a few iterations of the measurementadjustment cycle, the surface error was reduced to 194 μm WRMS. This remarkable improvement in surface quality means an increment in aperture efficiency from 2,6% to 38,2% at 86 GHz, assuming a receiver at this frequency in prime focus position which produces the same illumination as the holography receiver.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En los últimos quince años se ha producido una liberalización de los mercados eléctricos en los distintos países de ámbito occidental que ha ido acompañado de un incremento por la preocupación por la incidencia de las distintas tecnologías de generación en el entorno medioambiental. Ello se ha traducido en la aparición de un marco regulatorio más restrictivo sobre las tecnologías de generación fósiles, con mayor incidencia en las derivadas de productos petrolíferos y carbón. A nivel mundial han ido apareciendo cambios normativos relativos a las emisiones de distintos elementos contaminantes (CO2, SO2, NOx…), que hacen que en particular las centrales térmicas de carbón vean muy afectadas su rentabilidad y funcionamiento. Esta situación ha supuesto que la tecnología de generación eléctrica con carbón haya avanzado considerablemente en los últimos años (calderas supercríticas, sistemas de desulfuración, gasificación del carbón…). No obstante, el desarrollo de la generación con energías renovables, la generación con gas mediante centrales de ciclo combinado y la opinión social relativa a la generación con carbón, principalmente en Europa, suponen un serio obstáculo a la generación con carbón. Por consiguiente, se hace necesario buscar vías para optimizar la competitividad de las centrales de carbón y el camino más razonable es mejorar el margen esperado de estas plantas y en particular el coste de adquisición del carbón. Ello se hace aún más importante por el hecho de existir numerosas centrales de carbón y un elevado número de nuevos proyectos constructivos de centrales de carbón en países asiáticos. Por consiguiente, el objeto de la presente tesis doctoral se centra en definir una metodología para optimizar la compra de carbón, desde el punto de vista económico y técnico, con destino a su consumo en una central térmica, con ello reducir el coste del carbón consumido y mejorar su competitividad. También se enfoca a determinar que herramientas pueden ser utilizadas para optimizar la gestión del carbón después de su compra y con ello abrir la posibilidad de obtener márgenes adicionales para dicho carbón. De acuerdo con este objetivo, el autor de la presente Tesis Doctoral realiza tres aportaciones novedosas en el ámbito de la contratación de carbón térmico y su optimización posterior: - Evaluación de carbones para su adquisición considerando el efecto de la calidad del carbón en el coste de generación asociado a cada carbón ofertado. - Creación, desarrollo, implantación y utilización de una potente herramienta de planificación de Combustibles. Esta herramienta, está diseñada con el objeto de determinar la solución económica óptima de aprovisionamientos, consumos y niveles de existencias para un parque de generación con centrales de carbón y fuelóleo. - La extensión de una metodología contractual habitual en el mercado spot de Gas Natural Licuado, a la contratación spot de Carbón de Importación. Esta se basa en el desarrollo de Acuerdos Marcos de Compra/Venta de carbón, que por su flexibilidad permitan obtener resultados económicos adicionales después de la compra de un carbón. Abstract In the last fifteen years, a liberalization of the electrical markets has occurred in the western countries. This process has been accompanied by an increasing concern of the impact of the different generation technologies towards the environment. This has motivated a regulated framework restricting the use of fossil fuels, impacting a great deal in coal and oil based products. Worldwide, new legal changes have been arising related to the emissions of the different pollutants (CO2, SO2, NOx…). These changes have had a deep impact in the feasibility, profit and running of coal fired power plants. This situation has motivated the coal electrical generation technologies to move forward in an important way in the last few years (supercritical furnaces, desulphuration plants, coal gasification…). Nevertheless, the development of the renewable generation, the gas combined cycle generation and the social opinion related to the coal electrical generation, mainly in Europe, have created a serious obstacle to the generation of electricity by coal. Therefore it is necessary to look for new paths in order to optimize the competitiveness of the coal fired power plants and the most reasonable way is to improve the expected margin of these plants and particularly the coal purchase cost. All of the above needs to be taken into context with the large number of existing coal fired power plants and an important number of new projects in Asian countries. Therefore, the goal of the current doctoral dissertation is focused to define a methodology to be considered in order to optimize the coal purchase, from an economical and a technical point of view. This coal, destined for power plant consumption, permits the reduction of consumption coal cost and improves the plant’s competitiveness. This document is also focused to define what tools we can use to optimize the coal management after deal closing and therefore open the possibility to get further margins. According to this goal, the author of this doctoral dissertation provides three important new ideas in the ambit of contracting steam coal and the posterior optimization: - Evaluation of coal purchases, considering the effect of coal quality on the cost of generation associated with each type of coal offered. - The creation, development, deployment and use of a strong planning tool of fuels. This tool is designed for the purpose of determining the optimal economic solution of fuel supply, consumption and stock levels for a power generation portfolio using coal and fuel oil fired power plants. - The application of a common contractual methodology in the spot market of Liquid Natural Gas, for the contracting spot imported coal. This is based on the development of Framework Agreements for the Purchasing / Sale of coal, which because of its flexibility allows for the gain of additional financial results after the purchase of coal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Con el surgir de los problemas irresolubles de forma eficiente en tiempo polinomial en base al dato de entrada, surge la Computación Natural como alternativa a la computación clásica. En esta disciplina se trata de o bien utilizar la naturaleza como base de cómputo o bien, simular su comportamiento para obtener mejores soluciones a los problemas que los encontrados por la computación clásica. Dentro de la computación natural, y como una representación a nivel celular, surge la Computación con Membranas. La primera abstracción de las membranas que se encuentran en las células, da como resultado los P sistemas de transición. Estos sistemas, que podrían ser implementados en medios biológicos o electrónicos, son la base de estudio de esta Tesis. En primer lugar, se estudian las implementaciones que se han realizado, con el fin de centrarse en las implementaciones distribuidas, que son las que pueden aprovechar las características intrínsecas de paralelismo y no determinismo. Tras un correcto estudio del estado actual de las distintas etapas que engloban a la evolución del sistema, se concluye con que las distribuciones que buscan un equilibrio entre las dos etapas (aplicación y comunicación), son las que mejores resultados presentan. Para definir estas distribuciones, es necesario definir completamente el sistema, y cada una de las partes que influyen en su transición. Además de los trabajos de otros investigadores, y junto a ellos, se realizan variaciones a los proxies y arquitecturas de distribución, para tener completamente definidos el comportamiento dinámico de los P sistemas. A partir del conocimiento estático –configuración inicial– del P sistema, se pueden realizar distribuciones de membranas en los procesadores de un clúster para obtener buenos tiempos de evolución, con el fin de que la computación del P sistema sea realizada en el menor tiempo posible. Para realizar estas distribuciones, hay que tener presente las arquitecturas –o forma de conexión– de los procesadores del clúster. La existencia de 4 arquitecturas, hace que el proceso de distribución sea dependiente de la arquitectura a utilizar, y por tanto, aunque con significativas semejanzas, los algoritmos de distribución deben ser realizados también 4 veces. Aunque los propulsores de las arquitecturas han estudiado el tiempo óptimo de cada arquitectura, la inexistencia de distribuciones para estas arquitecturas ha llevado a que en esta Tesis se probaran las 4, hasta que sea posible determinar que en la práctica, ocurre lo mismo que en los estudios teóricos. Para realizar la distribución, no existe ningún algoritmo determinista que consiga una distribución que satisfaga las necesidades de la arquitectura para cualquier P sistema. Por ello, debido a la complejidad de dicho problema, se propone el uso de metaheurísticas de Computación Natural. En primer lugar, se propone utilizar Algoritmos Genéticos, ya que es posible realizar alguna distribución, y basada en la premisa de que con la evolución, los individuos mejoran, con la evolución de dichos algoritmos, las distribuciones también mejorarán obteniéndose tiempos cercanos al óptimo teórico. Para las arquitecturas que preservan la topología arbórea del P sistema, han sido necesarias realizar nuevas representaciones, y nuevos algoritmos de cruzamiento y mutación. A partir de un estudio más detallado de las membranas y las comunicaciones entre procesadores, se ha comprobado que los tiempos totales que se han utilizado para la distribución pueden ser mejorados e individualizados para cada membrana. Así, se han probado los mismos algoritmos, obteniendo otras distribuciones que mejoran los tiempos. De igual forma, se han planteado el uso de Optimización por Enjambres de Partículas y Evolución Gramatical con reescritura de gramáticas (variante de Evolución Gramatical que se presenta en esta Tesis), para resolver el mismo cometido, obteniendo otro tipo de distribuciones, y pudiendo realizar una comparativa de las arquitecturas. Por último, el uso de estimadores para el tiempo de aplicación y comunicación, y las variaciones en la topología de árbol de membranas que pueden producirse de forma no determinista con la evolución del P sistema, hace que se deba de monitorizar el mismo, y en caso necesario, realizar redistribuciones de membranas en procesadores, para seguir obteniendo tiempos de evolución razonables. Se explica, cómo, cuándo y dónde se deben realizar estas modificaciones y redistribuciones; y cómo es posible realizar este recálculo. Abstract Natural Computing is becoming a useful alternative to classical computational models since it its able to solve, in an efficient way, hard problems in polynomial time. This discipline is based on biological behaviour of living organisms, using nature as a basis of computation or simulating nature behaviour to obtain better solutions to problems solved by the classical computational models. Membrane Computing is a sub discipline of Natural Computing in which only the cellular representation and behaviour of nature is taken into account. Transition P Systems are the first abstract representation of membranes belonging to cells. These systems, which can be implemented in biological organisms or in electronic devices, are the main topic studied in this thesis. Implementations developed in this field so far have been studied, just to focus on distributed implementations. Such distributions are really important since they can exploit the intrinsic parallelism and non-determinism behaviour of living cells, only membranes in this case study. After a detailed survey of the current state of the art of membranes evolution and proposed algorithms, this work concludes that best results are obtained using an equal assignment of communication and rules application inside the Transition P System architecture. In order to define such optimal distribution, it is necessary to fully define the system, and each one of the elements that influence in its transition. Some changes have been made in the work of other authors: load distribution architectures, proxies definition, etc., in order to completely define the dynamic behaviour of the Transition P System. Starting from the static representation –initial configuration– of the Transition P System, distributions of membranes in several physical processors of a cluster is algorithmically done in order to get a better performance of evolution so that the computational complexity of the Transition P System is done in less time as possible. To build these distributions, the cluster architecture –or connection links– must be considered. The existence of 4 architectures, makes that the process of distribution depends on the chosen architecture, and therefore, although with significant similarities, the distribution algorithms must be implemented 4 times. Authors who proposed such architectures have studied the optimal time of each one. The non existence of membrane distributions for these architectures has led us to implement a dynamic distribution for the 4. Simulations performed in this work fix with the theoretical studies. There is not any deterministic algorithm that gets a distribution that meets the needs of the architecture for any Transition P System. Therefore, due to the complexity of the problem, the use of meta-heuristics of Natural Computing is proposed. First, Genetic Algorithm heuristic is proposed since it is possible to make a distribution based on the premise that along with evolution the individuals improve, and with the improvement of these individuals, also distributions enhance, obtaining complexity times close to theoretical optimum time. For architectures that preserve the tree topology of the Transition P System, it has been necessary to make new representations of individuals and new algorithms of crossover and mutation operations. From a more detailed study of the membranes and the communications among processors, it has been proof that the total time used for the distribution can be improved and individualized for each membrane. Thus, the same algorithms have been tested, obtaining other distributions that improve the complexity time. In the same way, using Particle Swarm Optimization and Grammatical Evolution by rewriting grammars (Grammatical Evolution variant presented in this thesis), to solve the same distribution task. New types of distributions have been obtained, and a comparison of such genetic and particle architectures has been done. Finally, the use of estimators for the time of rules application and communication, and variations in tree topology of membranes that can occur in a non-deterministic way with evolution of the Transition P System, has been done to monitor the system, and if necessary, perform a membrane redistribution on processors to obtain reasonable evolution time. How, when and where to make these changes and redistributions, and how it can perform this recalculation, is explained.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las organizaciones son sistemas o unidades sociales, compuestas por personas que interactúan entre sí, para lograr objetivos comunes. Uno de sus objetivos es la productividad. La productividad es un constructo multidimensional en la que influyen aspectos tecnológicos, económicos, organizacionales y humanos. Diversos estudios apoyan la influencia de la motivación de las personas, de las habilidades y destrezas de los individuos, de su talento para desempeñar el trabajo, así como también del ambiente de trabajo presente en la organización, en la productividad. Por esta razón, el objetivo general de la investigación, es analizar la influencia entre los factores humanos y la productividad. Se hará énfasis en la persona como factor productivo clave, para responder a las interrogantes de la investigación, referidas a cuáles son las variables humanas que inciden en la productividad, a la posibilidad de plantear un modelo de productividad que considere el impacto del factor humano y la posibilidad de encontrar un método para la medición de la productividad que contemple la percepción del factor humano. Para resolver estas interrogantes, en esta investigación se busca establecer las relaciones entre las variables humanas y la productividad, vistas desde la perspectiva de tres unidades de análisis diferentes: individuo, grupo y organización, para la formulación de un modelo de productividad humana y el diseño de un instrumento para su medida. Una de las principales fuente de investigación para la elección de las variables humanas, la formulación del modelo, y el método de medición de la productividad, fue la revisión de la literatura disponible sobre la productividad y el factor humano en las organizaciones, lo que facilitó el trazado del marco teórico y conceptual. Otra de las fuentes para la selección fue la opinión de expertos y de especialistas directamente involucrados en el sector eléctrico venezolano, lo cual facilitó la obtención de un modelo, cuyas variables reflejasen la realidad del ámbito en estudio. Para aportar una interpretación explicativa del fenómeno, se planteó el modelo de los Factores Humanos vs Productividad (MFHP), el cual se analizó desde la perspectiva del análisis causal y fue conformado por tres variables latentes exógenas denominadas: factores individuales, factores grupales y factores organizacionales, que estaban relacionadas con una variable latente endógena denominada productividad. El MFHP se formuló mediante la metodología de los modelos de ecuaciones estructurales (SEM). Las relaciones inicialmente propuestas entre las variables latentes fueron corroboradas por los ajustes globales del modelo, se constataron las relaciones entre las variables latentes planteadas y sus indicadores asociados, lo que facilitó el enunciado de 26 hipótesis, de las cuales se comprobaron 24. El modelo fue validado mediante la estrategia de modelos rivales, utilizada para comparar varios modelos SEM, y seleccionar el de mejor ajuste, con sustento teórico. La aceptación del modelo se realizó mediante la evaluación conjunta de los índices de bondad de ajuste globales. Asimismo, para la elaboración del instrumento de medida de la productividad (IMPH), se realizó un análisis factorial exploratorio previo a la aplicación del análisis factorial confirmatorio, aplicando SEM. La revisión de los conceptos de productividad, la incidencia del factor humano, y sus métodos de medición, condujeron al planteamiento de métodos subjetivos que incorporaron la percepción de los principales actores del proceso productivo, tanto para la selección de las variables, como para la formulación de un modelo de productividad y el diseño de un instrumento de medición de la productividad. La contribución metodológica de este trabajo de investigación, ha sido el empleo de los SEM para relacionar variables que tienen que ver con el comportamiento humano en la organización y la productividad, lo cual abre nuevas posibilidades a la investigación en este ámbito. Organizations are social systems or units composed of people who interact with each other to achieve common goals. One objective is productivity, which is a multidimensional construct influenced by technological, economic, organizational and human aspects. Several studies support the influence on productivity of personal motivation, of the skills and abilities of individuals, of their talent for the job, as well as of the work environment present in the organization. Therefore, the overall objective of this research is to analyze the influence between human factors and productivity. The emphasis is on the individual as a productive factor which is key in order to answer the research questions concerning the human variables that affect productivity and to address the ability to propose a productivity model that considers the impact of the human factor and the possibility of finding a method for the measurement of productivity that includes the perception of the human factor. To consider these questions, this research seeks to establish the relationships between human and productivity variables, as seen from the perspective of three different units of analysis: the individual, the group and the organization, in order to formulate a model of human productivity and to design an instrument for its measurement. A major source of research for choosing the human variables, model formulation, and method of measuring productivity, was the review of the available literature on productivity and the human factor in organizations which facilitated the design of the theoretical and conceptual framework. Another source for the selection was the opinion of experts and specialists directly involved in the Venezuelan electricity sector which facilitated obtaining a model whose variables reflect the reality of the area under study. To provide an interpretation explaining the phenomenon, the model of the Human Factors vs. Productivity Model (HFPM) was proposed. This model has been analyzed from the perspective of causal analysis and was composed of three latent exogenous variables denominated: individual, group and organizational factors which are related to a latent variable denominated endogenous productivity. The HFPM was formulated using the methodology of Structural Equation Modeling (SEM). The initially proposed relationships between latent variables were confirmed by the global fits of the model, the relationships between the latent variables and their associated indicators enable the statement of 26 hypotheses, of which 24 were confirmed. The model was validated using the strategy of rival models, used for comparing various SEM models and to select the one that provides the best fit, with theoretical support. The acceptance of the model was performed through the joint evaluation of the adequacy of global fit indices. Additionally, for the development of an instrument to measure productivity, an exploratory factor analysis was performed prior to the application of a confirmatory factor analysis, using SEM. The review of the concepts of productivity, the impact of the human factor, and the measurement methods led to a subjective methods approach that incorporated the perception of the main actors of the production process, both for the selection of variables and for the formulation of a productivity model and the design of an instrument to measure productivity. The methodological contribution of this research has been the use of SEM to relate variables that have to do with human behavior in the organization and with productivity, opening new possibilities for research in this area.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este proyecto desarrolla una metodología de toma de datos y análisis para la optimización de la producción de la fase de avance de construcción del túnel de Seiró. Este túnel forma parte de las obras de construcción de la línea ferroviaria de alta velocidad corredor norte-noroeste a su paso por la provincia de Ourense. Mediante el análisis de diversos parámetros del diseño de la voladura, en la construcción de un túnel de 73 m2 de sección, en roca granítica, se pretende optimizar el tiempo de ciclo de excavación. Se estudia la variación de la fragmentación, el contorno y el avance obtenido y la influencia sobre estos parámetros del esquema de tiro y el tipo de cuele empleados y sus repercusiones en el tiempo de ciclo. El resultado del análisis concluye que el esquema de tiro óptimo, entre los usados, está formado por 112 barrenos de 51 mm de diámetro, con un cuele de 4 barrenos vacíos, que da lugar a mejores resultados de avance, contorno y fragmentación sin afectar negativamente al tiempo de ciclo. ABSTRACT This project develops a methodology for excavation cycle optimization by collecting and analyzing operational data for Seiró Tunnel construction site. This tunnel is included in construction project of high speed railway, located in N-NW direction, in Ourense province. Analyzing several blasting design parameters from the construction of a 73 m2 tunnel, in granitic rock, allows the optimization of cycle time. Variations in fragmentation, contour and advance length and influence about those parameters from blasting design und cut type used and its impact in the cycle time. Analysis results show up the best blasting design, among used, is formed of 112 holes 51 mm diameter, and a parallel cut with 4 empty holes. This configuration achieves the best fragmentation, contour and advance length without negative effects in time cycle

Relevância:

20.00% 20.00%

Publicador:

Resumo:

. Este proyecto tiene por objeto el desarrollo y la implantación de un sistema de optimización económica de instalaciones de producción de Régimen Especial, en una compañía eléctrica que representa a este tipo de instalaciones para su participación en los distintos mercados de electricidad. Inicialmente, se analizarán las opciones de participación en los distintos mercados de cada tecnología, en función de la legislación a la que pudieran estar acogidas las instalaciones del Régimen Especial; según tamaño y tipología de instalaciones, características o combustibles utilizados. En segundo lugar, se estudiará la relación entre dichas instalaciones y los distintos organismos reguladores del mercado; la Comisión Nacional de la Energía, el Ministerio de Industria y Turismo, Red Eléctrica de España y el Operador del mercado eléctrico. Posteriormente, se realizará un modelo de análisis estático de la situación actual de los mercados eléctricos, su estructura y funcionamiento, obteniendo para cada tipo de instalación el escenario de optimización de base, a partir del cual se podrá desarrollar el modelo dinámico que permitirá conocer en cualquier momento cuál será la mejor opción técnico-económica para cada tipo de instalación, optimizando así el presupuesto de las instalaciones objeto del estudio. Finalmente, este modelo se implementará en los sistemas de la compañía eléctrica, como una herramienta que permitirá asegurar la optimización en tiempo real a las instalaciones a las que representa en el mercado, optimizando sus propios costes a través de la implementación de este sistema automático y logrando así maximizar los ingresos de la compañía eléctrica. ABSTRACT DEVELOPMENT OF A SYSTEM OF ECONOMIC OPTIMIZATION FOR PLANTS OF SPECIAL REGIME. This project takes as an object the development and the implantation of a system of economic optimization of facilities of production of Special Regime, in an electrical company that it represents to this type of facilities for his participation in the different markets of electricity. Initially, there will be analyzed the options of participation in the different markets of every technology, depending on the legislation to which there could be received the facilities of the Special Regime; according to size and typology of facilities, characteristics or used fuels. Secondly, the relation will be studied between the above mentioned facilities and the different regulatory organisms of the market; the National Commission of the Energy, the Department of Industry and Tourism, Electrical Network of Spain and the Operator of the electrical market. Later, there will carry out a model of static analysis of the current situation of the electrical markets, his structure and functioning, obtaining for every type of installation the scene of base optimization, from which there will be able to develop the dynamic model who will allow to know at any time which will be the best technical - economic option for every type of installation, optimizing this way the budget of the facilities I object of the study. Finally, this model will be implemented in the systems of the electrical company, as a tool that will allow to assure the real time optimization to the facilities to which it represents on the market, optimizing his own costs across the implementation of this automatic system and managing this way to maximize the income of the electrical company.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Los servicios portuarios son responsables de la mayor parte del coste que se produce en el paso de la mercancía por un puerto, particularmente el servicio de manipulación de mercancías. La prestación de éstos de forma fiable y eficiente resulta clave en un sector en el que existe una gran opacidad. Con el estudio realizado se dota a la Administración responsable, la Autoridad Portuaria, de una herramienta que le ayude a objetivar la toma de decisiones tanto a la hora de otorgar las preceptivas licencias como durante el periodo de prestación del servicio. Además se proponen una serie de medidas cuya aplicación mejoraría las condiciones de prestación del servicio así como una reducción de costes al paso de la mercancía por el puerto. Port services are responsible for most of the cost for the passing of goods through the port, especially the cargo handling service. Reliability and efficiency in the provision of them are key in a sector where there is a high opacity. With this study, we provide the responsible Administration, the Port Authority, with a tool that will help to objectify the decision making process, both at the time of granting the required licenses and during the period of the service provision. Also, proposes a number of measures whose implementation would improve the conditions of the service delivery and will reduce the total cost of transporting goods through the port.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Son generalmente aceptadas las tendencias actuales de maximización de la automatización para la adaptación de las terminales marítimas de contenedores a las cada vez mayores exigencias competitivas del negocio de transporte de contenedores. En esta investigación, se somete a consideración dichas tendencias a través de un análisis que tenga en cuenta la realidad global de la terminal pero también su propia realidad local que le permita aprovechar sus fortalezas y minimizar sus debilidades en un mercado continuamente en crecimiento y cambio. Para lo cual se ha desarrollado un modelo de análisis en el que se tengan en cuenta los parámetros técnicos, operativos, económicos y financieros que influyen en el diseño de una terminal marítima de contenedores, desde su concepción como ente dependiente para generar negocio, todos ellos dentro de un perímetro definido por el mercado del tráfico de contenedores así como las limitaciones físicas introducidas por la propia terminal. Para la obtención de dicho modelo ha sido necesario llevar a cabo un proceso de estudio del contexto actual del tráfico de contenedores y su relación con el diseño de las terminales marítimas, así como de las metodologías propuestas hasta ahora por los diferentes autores para abordar el proceso de dimensionamiento y diseño de la terminal. Una vez definido el modelo que ha de servir de base para el diseño de una terminal marítima de contenedores desde un planteamiento multicriterio, se analiza la influencia de las diversas variables explicativas de dicho modelo y se cuantifica su impacto en los resultados económicos, financieros y operativos de la terminal. Un paso siguiente consiste en definir un modelo simplificado que vincule la rentabilidad de una concesión de terminal con el tráfico esperado en función del grado de automatización y del tipo de terminal. Esta investigación es el fruto del objetivo ambicioso de aportar una metodología que defina la opción óptima de diseño de una terminal marítima de contenedores apoyada en los pilares de la optimización del grado de automatización y de la maximización de la rentabilidad del negocio que en ella se desarrolla. It is generally accepted current trends in automation to maximize the adaptation of maritime container terminals to the growing competitive demands of the business of container shipping. In this research, is submitted to these trends through an analysis taking into account the global reality of the terminal but also their own local reality it could exploit its strengths and minimize their weaknesses in a market continuously growing and changing. For which we have developed a model analysis that takes into account the technical, operational, financial and economic influence in the design of a container shipping terminal, from its conception as being dependent to generate business, all within a perimeter defined by the market of container traffic and the physical constraints introduced by the terminal. To obtain this model has been necessary to conduct a study process in the current context of container traffic and its relation to the design of marine terminals, as well as the methodologies proposed so far by different authors to address the process sizing and design of the terminal. Having defined the model that will serve as the basis for the design for a container shipping terminal from a multi-criteria approach, we analyze the influence of various explanatory variables of the model and quantify their impact on economic performance, financial and operational of the terminal. A next step is to define a simplified model that links the profitability of a terminal concession with traffic expected on the basis of the degree of automation and the kind of terminal. This research is the result of the ambitious target of providing a methodology to define the optimal choice of designing a container shipping terminal on the pillars of automation optimizing and maximizing the profitability of the business that it develops.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Los códigos de difusión en multigrupos para an álisis tridimensional de núcleos PWR emplean como datos de entrada librerías de parámetros equivalentes homogeneizados y condensados (secciones eficaces y factores de discontinuidad), que dependen de las variables de estado como temperaturas o densidades. Típicamente, esos pará metros se pre-generan para cada tipo de celda o elemento combustible con un código de transporte determinista, dependiendo en gran medida la precisión de los cálculos neutrónicos acoplados con la termohidráulica de la calidad de la librería generada. Las librerías tabuladas son la forma más extendida de compilar las secciones eficaces pre-generadas. Durante el cálculo de núcleo, el código de difusión simplemente obtiene las secciones eficaces por interpolación de los valores en los puntos de la malla. Como los errores de interpolación dependen de la distancia entre esos puntos, se requiere un considerable refinamiento de la malla –con todas las posibles combinaciones de las variables de estado– para conseguir una precisión adecuada, lo que conduce a requisitos elevados de almacenamiento y un gran número de cálculos de transporte para su generación. Para evitar este inconveniente, se ha desarrollado un procedimiento de optimización de librerías tabuladas que permite seleccionar el menor número de puntos de malla para cada variable de estado independiente, manteniendo un error objetivo en la constante de multiplicación k-efectiva. El procedimiento consiste en determinar, aplicando teoría de perturbaciones, los coeficientes de sensibilidad de la k-efectiva con las secciones eficaces. Ello permite evaluar la influencia de los errores de interpolación de cada sección eficaz en la constante de multiplicación para cualquier combinación de las variables de estado. La medida de esta influencia o sensibilidad permite establecer una distancia óptima entre puntos de interpolación dado un error objetivo sobre la constante de multiplicación. Distintos números de grupos de energía, composiciones del elemento combustible y escalas de homogeneización, han sido estudia dos para conocer su efecto sobre la optimización. Asimismo se ha comprobado la influencia de variar el error objetivo o el grado del polinomio de interpolación entre puntos. Finalmente, se realiza un cálculo con la librería optimizada, y se verifica que el error en la k-efectiva está limitado. Se reduce así el tamaño de la librería sin comprometer su grado de precisión en todo el rango de interés.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En el presente artículo se proponen indicadores que permitan la búsqueda de trazados de autopistas más respetuosas con los valores ambientales del territorio en general y en particular con el paisaje. El trabajo desarrollado se ha dividido en dos fases. En una fase inicial se han recopilado recomendaciones teóricas orientadas a la búsqueda de trazados más respetuosos, a partir de manuales de trazado y de integración paisajística. En una segunda fase se ha realizado una revisión y selección de aquellos indicadores territoriales que permiten cuantificar la capacidad de acogida del territorio e incorporar dichas recomendaciones en función de ésta.