67 resultados para Operadores argumentativos


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La metodología Integrated Safety Analysis (ISA), desarrollada en el área de Modelación y Simulación (MOSI) del Consejo de Seguridad Nuclear (CSN), es un método de Análisis Integrado de Seguridad que está siendo evaluado y analizado mediante diversas aplicaciones impulsadas por el CSN; el análisis integrado de seguridad, combina las técnicas evolucionadas de los análisis de seguridad al uso: deterministas y probabilistas. Se considera adecuado para sustentar la Regulación Informada por el Riesgo (RIR), actual enfoque dado a la seguridad nuclear y que está siendo desarrollado y aplicado en todo el mundo. En este contexto se enmarcan, los proyectos Safety Margin Action Plan (SMAP) y Safety Margin Assessment Application (SM2A), impulsados por el Comité para la Seguridad de las Instalaciones Nucleares (CSNI) de la Agencia de la Energía Nuclear (NEA) de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) en el desarrollo del enfoque adecuado para el uso de las metodologías integradas en la evaluación del cambio en los márgenes de seguridad debidos a cambios en las condiciones de las centrales nucleares. El comité constituye un foro para el intercambio de información técnica y de colaboración entre las organizaciones miembro, que aportan sus propias ideas en investigación, desarrollo e ingeniería. La propuesta del CSN es la aplicación de la metodología ISA, especialmente adecuada para el análisis según el enfoque desarrollado en el proyecto SMAP que pretende obtener los valores best-estimate con incertidumbre de las variables de seguridad que son comparadas con los límites de seguridad, para obtener la frecuencia con la que éstos límites son superados. La ventaja que ofrece la ISA es que permite el análisis selectivo y discreto de los rangos de los parámetros inciertos que tienen mayor influencia en la superación de los límites de seguridad, o frecuencia de excedencia del límite, permitiendo así evaluar los cambios producidos por variaciones en el diseño u operación de la central que serían imperceptibles o complicados de cuantificar con otro tipo de metodologías. La ISA se engloba dentro de las metodologías de APS dinámico discreto que utilizan la generación de árboles de sucesos dinámicos (DET) y se basa en la Theory of Stimulated Dynamics (TSD), teoría de fiabilidad dinámica simplificada que permite la cuantificación del riesgo de cada una de las secuencias. Con la ISA se modelan y simulan todas las interacciones relevantes en una central: diseño, condiciones de operación, mantenimiento, actuaciones de los operadores, eventos estocásticos, etc. Por ello requiere la integración de códigos de: simulación termohidráulica y procedimientos de operación; delineación de árboles de sucesos; cuantificación de árboles de fallos y sucesos; tratamiento de incertidumbres e integración del riesgo. La tesis contiene la aplicación de la metodología ISA al análisis integrado del suceso iniciador de la pérdida del sistema de refrigeración de componentes (CCWS) que genera secuencias de pérdida de refrigerante del reactor a través de los sellos de las bombas principales del circuito de refrigerante del reactor (SLOCA). Se utiliza para probar el cambio en los márgenes, con respecto al límite de la máxima temperatura de pico de vaina (1477 K), que sería posible en virtud de un potencial aumento de potencia del 10 % en el reactor de agua a presión de la C.N. Zion. El trabajo realizado para la consecución de la tesis, fruto de la colaboración de la Escuela Técnica Superior de Ingenieros de Minas y Energía y la empresa de soluciones tecnológicas Ekergy Software S.L. (NFQ Solutions) con el área MOSI del CSN, ha sido la base para la contribución del CSN en el ejercicio SM2A. Este ejercicio ha sido utilizado como evaluación del desarrollo de algunas de las ideas, sugerencias, y los algoritmos detrás de la metodología ISA. Como resultado se ha obtenido un ligero aumento de la frecuencia de excedencia del daño (DEF) provocado por el aumento de potencia. Este resultado demuestra la viabilidad de la metodología ISA para obtener medidas de las variaciones en los márgenes de seguridad que han sido provocadas por modificaciones en la planta. También se ha mostrado que es especialmente adecuada en escenarios donde los eventos estocásticos o las actuaciones de recuperación o mitigación de los operadores pueden tener un papel relevante en el riesgo. Los resultados obtenidos no tienen validez más allá de la de mostrar la viabilidad de la metodología ISA. La central nuclear en la que se aplica el estudio está clausurada y la información relativa a sus análisis de seguridad es deficiente, por lo que han sido necesarias asunciones sin comprobación o aproximaciones basadas en estudios genéricos o de otras plantas. Se han establecido tres fases en el proceso de análisis: primero, obtención del árbol de sucesos dinámico de referencia; segundo, análisis de incertidumbres y obtención de los dominios de daño; y tercero, cuantificación del riesgo. Se han mostrado diversas aplicaciones de la metodología y ventajas que presenta frente al APS clásico. También se ha contribuido al desarrollo del prototipo de herramienta para la aplicación de la metodología ISA (SCAIS). ABSTRACT The Integrated Safety Analysis methodology (ISA), developed by the Consejo de Seguridad Nuclear (CSN), is being assessed in various applications encouraged by CSN. An Integrated Safety Analysis merges the evolved techniques of the usually applied safety analysis methodologies; deterministic and probabilistic. It is considered as a suitable tool for assessing risk in a Risk Informed Regulation framework, the approach under development that is being adopted on Nuclear Safety around the world. In this policy framework, the projects Safety Margin Action Plan (SMAP) and Safety Margin Assessment Application (SM2A), set up by the Committee on the Safety of Nuclear Installations (CSNI) of the Nuclear Energy Agency within the Organization for Economic Co-operation and Development (OECD), were aimed to obtain a methodology and its application for the integration of risk and safety margins in the assessment of the changes to the overall safety as a result of changes in the nuclear plant condition. The committee provides a forum for the exchange of technical information and cooperation among member organizations which contribute their respective approaches in research, development and engineering. The ISA methodology, proposed by CSN, specially fits with the SMAP approach that aims at obtaining Best Estimate Plus Uncertainty values of the safety variables to be compared with the safety limits. This makes it possible to obtain the exceedance frequencies of the safety limit. The ISA has the advantage over other methods of allowing the specific and discrete evaluation of the most influential uncertain parameters in the limit exceedance frequency. In this way the changes due to design or operation variation, imperceptibles or complicated to by quantified by other methods, are correctly evaluated. The ISA methodology is one of the discrete methodologies of the Dynamic PSA framework that uses the generation of dynamic event trees (DET). It is based on the Theory of Stimulated Dynamics (TSD), a simplified version of the theory of Probabilistic Dynamics that allows the risk quantification. The ISA models and simulates all the important interactions in a Nuclear Power Plant; design, operating conditions, maintenance, human actuations, stochastic events, etc. In order to that, it requires the integration of codes to obtain: Thermohydraulic and human actuations; Even trees delineation; Fault Trees and Event Trees quantification; Uncertainty analysis and risk assessment. This written dissertation narrates the application of the ISA methodology to the initiating event of the Loss of the Component Cooling System (CCWS) generating sequences of loss of reactor coolant through the seals of the reactor coolant pump (SLOCA). It is used to test the change in margins with respect to the maximum clad temperature limit (1477 K) that would be possible under a potential 10 % power up-rate effected in the pressurized water reactor of Zion NPP. The work done to achieve the thesis, fruit of the collaborative agreement of the School of Mining and Energy Engineering and the company of technological solutions Ekergy Software S.L. (NFQ Solutions) with de specialized modeling and simulation branch of the CSN, has been the basis for the contribution of the CSN in the exercise SM2A. This exercise has been used as an assessment of the development of some of the ideas, suggestions, and algorithms behind the ISA methodology. It has been obtained a slight increase in the Damage Exceedance Frequency (DEF) caused by the power up-rate. This result shows that ISA methodology allows quantifying the safety margin change when design modifications are performed in a NPP and is specially suitable for scenarios where stochastic events or human responses have an important role to prevent or mitigate the accidental consequences and the total risk. The results do not have any validity out of showing the viability of the methodology ISA. Zion NPP was retired and information of its safety analysis is scarce, so assumptions without verification or approximations based on generic studies have been required. Three phases are established in the analysis process: first, obtaining the reference dynamic event tree; second, uncertainty analysis and obtaining the damage domains; third, risk quantification. There have been shown various applications of the methodology and advantages over the classical PSA. It has also contributed to the development of the prototype tool for the implementation of the ISA methodology (SCAIS).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Entre os vários fatores que contribuem para a produção de uma cultura de milho, a distribuição vertical dos semeadores avaliada através da localização da semente em profundidade é um fator-chave, especialmente na técnica de sementeira direta. Simultaneamente, dada a complexidade dos ecossistemas naturais e agrícolas em sistemas de agricultura de conservação, a gestão diferenciada e localizada das parcelas assume um importante papel na análise e gestão da variabilidade das propriedades do solo e estabelecimento das culturas, nomeadamente utilizando informação geo referenciada e tecnologia expedita. Assim, o principal objetivo desta Tese foi a avaliação em culturas de milho da variabilidade espacial da localização de semente em profundidade e estabelecimento da cultura em sementeira direta usando sistemas convencionais de controlo de profundidade, tendo-se comparado com diferentes sistemas de mobilização e recorrendo a tecnologias de agricultura de precisão. Os ensaios decorreram na região Mediterrânea do Alentejo, em propriedades agrícolas no decorrer das campanhas de 2010, 2011, 2012 e 2015 em 6 diferentes campos experimentais. O trabalho experimental consistiu em ensaios com avaliações in loco do solo e cultura, consumo de combustível das operações e deteção remota. Os resultados obtidos indicam que não só o sistema de mobilização afetou a localização da semente em profundidade, como em sementeira direta a profundidade de sementeira foi afetada pelo teor de humidade do solo, resistência do solo à profundidade e velocidade da operação de sementeira. Adicionalmente observaram-se condições heterogéneas de emergência e estabelecimento da cultura afetadas por condições físicas de compactação do solo. Comparando os diferentes sistemas de mobilização, obteve-se uma significativa redução de combustível para a técnica de sementeira direta, apesar de se terem observado diferenças estatísticas significativas considerando diferentes calibrações de profundidade de sementeira Do trabalho realizado nesta Tese ressalva-se a importância que as tecnologias de agricultura de precisão podem ter no acompanhamento e avaliação de culturas em sementeira direta, bem como a necessidade de melhores procedimentos no controlo de profundidade dos semeadores pelo respetivos operadores ou ao invés, a adoção de semeadores com mecanismos ativos de controlo de profundidade. ABSTRACT Among the various factors that contribute towards producing a successful maize crop, seeders vertical distribution evaluated through seed depth placement is a key determinant, especially under a no-tillage technique. At the same time in conservation agriculture systems due to the complexity of natural and agricultural ecosystems site specific management became an important approach to understand and manage the variability of soil properties and crop establishment, especially when using geo spatial information and affording readily technology Thus, the main objective of this Thesis was to evaluate the spatial variability of seed depth placement and crop establishment in maize crops under no-tillage conditions compared to different tillage systems, using conventional seed depth control no till seeders and precision farming technologies. Trials were carried out in the Mediterranean region of Alentejo, in private farms along the sowing operations season over the years 2010, 2011, 2012 and 2015 in 6 different experimental fields. Experimental work covered field tests with in loco soil and crop evaluations, fuel operation evaluations and aerial sensing. The results obtained indicate that not only tillage system affected seed depth placement but under no till conditions seed depth was affected by soil moisture content, soil resistance to penetration and seeders forward speed. In addition uneven crop seedling and establishment depended on seed depth placement and could be affected by physical problems of compaction layers. Significant reduction in fuel consumption was observed for no till operations although significant differences observed according to different setting calibrations of seed depth control. According to the results, precision agriculture is an important tool to evaluate crops under no till conditions and seed depth mechanisms should be more accurate by the operators or is determinant the adoption of new active depth control technology to improve seeders performance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El estándar LTE se ha posicionado como una de las claves para que los operadores de telecomunicación puedan abordar de manera eficiente en costes el crecimiento de la demanda de tráfico móvil que se prevé para los próximos años, al ser una tecnología más escalable en el núcleo de la red y más flexible en la interfaz radio que sus predecesoras. En este sentido, es necesario también que los reguladores garanticen un acceso al espectro radioeléctrico adecuado, equitativo y no discriminatorio, que permita un entorno estable para el despliegue de redes de comunicaciones móviles avanzadas. Además de la flexibilización del marco regulador del espectro radioeléctrico en Europa, que ha permitido el despliegue de nuevas tecnologías en las bandas de frecuencia históricas de GSM, se ha puesto a disposición espectro adicional para sistemas IMT en nuevas bandas de frecuencia, lo que ha planteando a su vez nuevos retos para la tecnología y la regulación. La fragmentación del espectro disponible para comunicaciones móviles ha impulsado el desarrollo de técnicas de agregación de portadoras en las nuevas versiones del estándar LTE, que permiten explotar mejor los recursos radio en su conjunto. No obstante, el espectro inferior a 1 GHz sigue siendo escaso, ya que el tráfico móvil aumenta y la banda de 900 MHz aún se utiliza para servicios GSM, lo que no ha conseguido sino agravar la disputa entre los servicios de radiodifusión terrestre y de comunicaciones móviles por la parte superior de la banda UHF. En concreto, la banda de 700 MHz se perfila como una de las próximas para aumentar el espectro disponible para los servicios en movilidad, si bien su liberación por parte de las actuales redes de Televisión Digital Terrestre presenta no pocas dificultades en los Estados miembros en los que ésta es la principal plataforma audiovisual de acceso gratuito, abriendo un debate sobre el modelo audiovisual a largo plazo en Europa. Por otro lado, las políticas públicas de promoción del acceso a la banda ancha rápida y ultrarrápida de la presente década han establecido objetivos ambiciosos para el año 2020, tanto en el ámbito europeo como en los diferentes Estados miembros. La universalización del acceso a redes de banda ancha de al menos 30 Mbps constituye uno de los principales retos. Las expectativas generadas por la tecnología LTE y la puesta a disposición de nuevas bandas de frecuencia hace posible que los servicios de acceso fijo inalámbrico adquieran especial relevancia ante los objetivos de política pública establecidos que, como ha sido reconocido en diversas ocasiones, no podrán lograrse sino con un compendio de diferente tecnologías. Para esta Tesis Doctoral se han desarrollado una serie modelos tecnoeconómicos con el objetivo de realizar un análisis prospectivo que evalúa tres casos de especial relevancia en el despliegue de redes LTE: en primer lugar, la valoración económica de la banda de 700 MHz; en segundo lugar, la evaluación de modelos de negocio y reducción de costes considerando tecnologías femtocelulares; y finalmente, la viabilidad de las redes LTE de acceso fijo inalámbrico para el cierre de la brecha digital en el acceso a la banda ancha de 30 Mbps. En relación con la aplicación del análisis tecnoeconómico para la valoración del espectro de 700 MHz, los resultados obtenidos ponen de manifiesto dos cuestiones fundamentales. En primer lugar, la necesidad de asignar a los operadores más espectro para satisfacer las previsiones de demanda de tráfico móvil a medio plazo. En segundo, existe una diferencia notable en los costes de despliegue de una red LTE cuando se dispone de espectro en frecuencias inferiores a 1 GHz y cuando no, pero esta diferencia de costes disminuye a medida que se añade nuevo espectro sub-1GHz. De esta manera, la atribución de la banda de 700 MHz a servicios de comunicaciones móviles supone una reducción relevante en los costes de despliegue si el operador no dispone de espectro en la banda de 800 MHz, pero no así si ya dispone de espectro en bandas bajas para el despliegue. En este sentido, puede concluirse que el precio que los operadores estarán dispuestos a pagar por el espectro de la banda de 700 MHz dependerá de si ya tienen disponible espectro en la banda de 800 MHz. Sin embargo, dado que la competencia por ese espectro será menor, los ingresos esperables en las licitaciones de esta nueva banda serán en general menores, a pesar de que para algunos operadores este espectro sería tan valioso como el de 800 MHz. En segundo lugar, en relación con el despliegue de femtoceldas pueden extraerse algunas conclusiones en términos de ahorro de costes de despliegue y también de cara a la viabilidad de los modelos de negocio que posibilitan. El ahorro que supone la introducción de femtoceldas en el despliegue de una red LTE frente al caso de un despliegue exclusivamente macrocelular se ha demostrado que es mayor cuanto menor es el ancho de banda disponible para la red macrocelular. En esta línea, para un operador convergente el despliegue de femtoceldas tiene sentido económico si el ancho de banda disponible es escaso (en torno a 2x10 MHz), que, en el caso de España, puede reflejar el caso de los operadores del segmento fijo que son nuevos entrantes en el móvil. Por otro lado, los modelos de acceso abierto son interesantes para operadores exclusivamente móviles, porque consiguen flexibilizar los costes sustituyendo estaciones base macrocelulares por el despliegue de femtoceldas, pero necesitan desplegarse en zonas con una densidad de población relativamente elevada para que éstas descarguen tráfico de varios usuarios de la red macrocelular simultáneamente. No obstante, las femtoceldas son beneficiosas en todo caso si es el usuario quien asume los costes de la femtocelda y el backhaul, lo que sólo parece probable si se integran en el modelo de negocio de comercialización de nuevos servicios. Por tanto, el despliegue de femtoceldas en buena parte de la casuística estudiada sólo tiene sentido si consiguen aumentar los ingresos por usuario comercializando servicios de valor añadido que necesiten calidad de servicio garantizada y exploten a la vez de esa forma su principal ventaja competitiva respecto a la tecnología WiFi. Finalmente, en relación con el papel de la tecnología LTE para la provisión de servicios de acceso fijo inalámbrico para la banda ancha de 30 Mbps, se ha desarrollado un modelo TD-LTE y mediante la metodología de análisis tecnoeconómico se ha realizado un estudio prospectivo para el caso de España. Los resultados obtenidos preciden una huella de cobertura de FTTH del 74% para 2020, y demuestran que una red TD-LTE en la banda de 3,5 GHz resulta viable para aumentar la cobertura de servicios de 30 Mbps en 14 puntos porcentuales. Junto con la consideración de la cobertura de otras redes, la cobertura de 30 Mbps de acuerdo a la viabilidad de los despliegues alcanzaría el 95% en España en el año 2020. Como resumen, los resultados obtenidos muestran en todos los casos la capacidad de la tecnología LTE para afrontar nuevos desafíos en relación con el aumento del tráfico móvil, especialmente crítico en las zonas más urbanas, y el cierre de la brecha digital en el acceso a la banda ancha rápida en las zonas más rurales. ABSTRACT The LTE standard has been pointed out as one of the keys for telecom operators to address the demand growth in mobile traffic foreseen for the next years in a cost-efficient way, since its core network is more scalable and its radio interface more flexible than those of its predecessor technologies. On the other hand, regulators need to guarantee an adequate, equitable and non-discriminatory access to radio spectrum, which enable a favorable environment for the deployment of advanced mobile communication networks. Despite the reform of the spectrum regulatory framework in Europe, which allowed for the deployment of new technologies in the historic GSM bands, additional spectrum has been allocated to IMT systems in new frequency bands, what in turn has set out new challenges for technology and regulation. The current fragmentation of available spectrum in very different frequency bands has boosted the development of carrier aggregation techniques in most recent releases of the LTE standard, which permit a better exploitation of radio resources as a whole. Nonetheless, spectrum below 1 GHz is still scarce for mobile networks, since mobile traffic increases at a more rapid pace than spectral efficiency and spectrum resources. The 900 MHz frequency band is still being used for GSM services, what has worsen the dispute between mobile communication services and terrestrial broadcasting services for the upper part of the UHF band. Concretely, the 700 MHz frequency band has been pointed out as one of the next bands to be allocated to mobile in order to increase available spectrum. However, its release by current Digital Terrestrial Television networks is challenging in Member States where it constitutes the main free access audiovisual platform, opening up a new debate around the audiovisual model in the long term in Europe. On the other hand, public policies of the present decade to promote fast and ultrafast broadband access has established very ambitious objectives for the year 2020, both at European and national levels. Universalization of 30 Mbps broadband access networks constitutes one of the main challenges. Expectations raised by LTE technology and the allocation of new frequency bands has lead fixed wireless access (FWA) services to acquire special relevance in light of public policy objectives, which will not be met but with a compendium of different technologies, as different involved stakeholders have acknowledged. This PhD Dissertation develops techno-economic models to carry out a prospective analysis for three cases of special relevance in LTE networks’ deployment: the spectrum pricing of the 700 MHz frequency band, an assessment of new business models and cost reduction considering femtocell technologies, and the feasibility of LTE fixed wireless access networks to close the 30 Mbps broadband access gap in rural areas. In the first place and regarding the application of techno-economic analysis for 700 MHz spectrum pricing, obtained results reveal two core issues. First of all, the need to allocate more spectrum for operators in order to fulfill mobile traffic demand in the mid-term. Secondly, there is a substantial difference in deployment costs for a LTE network when there is sub-1GHz spectrum available and when there is not, but this difference decreases as additional sub-1GHz spectrum is added. Thus, the allocation of 700 MHz band to mobile communication services would cause a relevant reduction in deployment costs if the operator does not count on spectrum in the 800 MHz, but not if it already has been assigned spectrum in low frequencies for the deployment. In this regard, the price operators will be willing to pay for 700 MHz spectrum will depend on them having already spectrum in the 800 MHz frequency band or not. However, since competition for the new spectrum will not be so strong, expected incomes from 700 MHz spectrum awards will be generally lower than those from the digital dividend, despite this spectrum being as valuable as 800 MHz spectrum for some operators. In the second place, regarding femtocell deployment, some conclusions can be drawn in terms of deployment cost savings and also with reference to the business model they enable. Savings provided by a joint macro-femto LTE network as compared to an exclusively macrocellular deployment increase as the available bandwidth for the macrocells decreases. Therefore, for a convergent operator the deployment of femtocells can only have economic sense if the available bandwidth is scarce (around 2x10 MHz), which might be the case of fix market operators which are new entrant in mobile market. Besides, open access models are interesting for exclusively mobile operators, since they make costs more flexible by substituting macrocell base stations by femtocells, but they need to be deployed relatively densely populated areas so that they can offload traffic from several macrocell users simultaneously. Nonetheless, femtocells are beneficial in all cases if the user assumes both femtocell and backhaul costs, which only seems probable if they are integrated in a business model commercializing new services. Therefore, in many of the cases analyzed femtocell deployment only makes sense if they increase revenues per user through new added value services which need from guaranteed quality of service, thus exploiting its main competitive advantage compared to WiFi. Finally, regarding the role of LTE technology in the provision of fixed wireless access services for 30 Mbps broadband, a TD-LTE model has been developed and a prospective study has been carried out through techno-economic methodology for the Spanish case. Obtained results foresee a FTTH coverage footprint of 74% households for 2020, and prove that a TD-LTE network in the 3.5 GHz band results feasible to increase 30 Mbps service coverage in additional 14 percentage points. To sum up, obtained results show LTE technology capability to address new challenges regarding both mobile traffic growth, particularly critical in urban zones, and the current digital divide in fast broadband access in most rural zones.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Entre 1966 y 1967 un pequeño grupo de jóvenes arquitectos recién titulados en la Facultad de Arquitectura de Florencia escenifican en dos actos programados en las ciudades de Pistoia y Módenala exposición Superarchitettura, con la que sin saberlo inauguran un corto pero intenso periodo de experimentación arquitectónica que convulsionaría Italia durante los 10 años posteriores, dinamitados por multitud de propuestas que darán lugar a la última arquitectura con aspiraciones socio-políticas responsable de un vibrante legado teórico que proclamaba la vuelta a las raíces olvidadas de la profesión y que se mostraba más preocupada por reflexionar sobre sus fundamentos que por perpetuar la práctica de un oficio ahora puesto en crisis. Ambos eventos suponen también el nacimiento simultáneo de Superstudio y Archizoom, dos de los colectivos más influyentes de la arquitectura experimental italiana de estos años, convertidos en protagonistas de un agitado periodo de transición en el que una generación estaba dando paso a la siguiente a través de la sustitución de los principios doctrinarios recibidos de la modernidad por una jugosa incertidumbre desmitificadora ligada a una nueva realidad económica, política y social que marcaría los inicios de la posmodernidad. La experiencia italiana surge aprovechando la efervescencia de un fenómeno que posteriormente algunos críticos etiquetaron como Arquitectura Radical con la intención de unificar el trabajo de un heterogéneo y atomizado grupo de arquitectos fundamentalmente europeos – individualmente comprometidos con el replanteamiento total de la definición y objetivos de la disciplina, al tiempo que participaban en una particular cruzada existencial mediante la que pretendían, si no cambiar el mundo, al menos romper la dinámica estéril de la arquitectura profesional y tecnológica heredada. La presente tesis fomenta la recuperación interesada de este breve momento radical como un ambicioso proyecto de modernización inacabado, pero no solo para analizar las causas de su precipitado final, sino sobre todo para mostrar las razones de su gran éxito internacional, convirtiendo para ello el trabajo de Superstudio, ejemplo paradigmático de la actitud crítica compartida por el resto de operadores contemporáneos, en el catalizador adecuado a partir del cual interpretar y extrapolar su legado con el fin de narrar el cambio trascendental que este episodio supuso para la práctica arquitectónica, alejándola del diseño de edificios y centrándola en la adopción y aplicación de multitud de actividades no tectónicas en un intento por separarse de lo que era percibido como una disciplina corrupta. A lo largo de su corta carrera en común, los seis miembros de Superstudio sustituyeron la construcción convencional por la explotación intensiva de medios alternativos desde el diseño de mobiliario e iluminación y algunos experimentos en torno a la “arquitectura eléctrica”, hasta la expansión mediática de su trabajo a través de revistas, películas, exposiciones y conferencias contribuyendo así a una provocativa destrucción y posterior expansión de los límites dentro de los que hasta ese momento se había mantenido cómodamente instalada la arquitectura. Esta investigación descubre la trascendencia de considerar aquello que ocupó gran parte de la actividad de Superstudio y de sus colegas radicales (muebles, revistas, instalaciones, películas, labor teórica y docente, etc.) como nuevas formas de arquitectura con las que construir un nuevo lenguaje crítico, en un intento por contribuir a renovar y reforzar la relevancia y responsabilidad social de una profesión llamada a expandirse más allá de lo construido para nutrirse e interactuar con todos los ámbitos de nuestro entorno diario. ABSTRACT Between 1966 and 1967 a small group of newly qualified young architects from the Faculty of Architecture of Florence staged in two events planned in the cities of Pistoia and Modena the Superarchitettura exhibition, with which unwittingly inaugurated a short but intense period of architectural experimentation that convulse Italy during the following 10 years, blown up by a multitude of proposals that will result in the latest architecture with socio political aspirations responsible for a vibrant theoretical legacy proclaiming a return to forgotten roots of the profession and that was more concerned with reflect on its fundamentals than perpetuate the practice of a profession now put into crisis. Both events also involve the simultaneous birth of Superstudio and Archizoom, two of the most influential groups of Italian experimental architecture of these years, turned into protagonists of an hectic period of transition in which a generation was giving way to the next through replacing the received doctrinal principles of modernity by a juicy demystifying uncertainty linked to a new reality economic, political and social that would mark the beginning of postmodernism. The Italian experience arises taking advantage of the commotion of a phenomenon that later some critics labeled as Radical Architecture with the intention of unifying the work of a diverse and fragmented group of architects mainly European individually committed to the total rethinking of the definition and objectives of the discipline, while participating in a particular existential crusade with which they sought to, if not change the world, at least break out of the sterile dynamic of professional and technological architecture inherited. This doctoral thesis promotes an interested recovery of in this short radical time as an ambitious modernization project unfinished, but not only to analyze the causes of its precipitous end, but above all to show the reasons for it’s international success, turning the work of Superstudio, a paradigmatic example of the critical attitude shared by the rest of contemporary operators, into the suitable catalyst from which to interpret and extrapolate it’s legacy in order to recount the significant change that this episode marked for architectural practice, moving it away from building and focusing it on the adoption and implementation of many nonLtectonic activities in an attempt to separate from what was perceived as a corrupt discipline. Throughout their short career in common, the six members of Superstudio replaced conventional construction by intensive exploitation of alternative means L from furniture and lighting design and some experiments around the "electric architecture", to the media expansion of their work through magazines, films, exhibitions and lectures thus contributing to a provocative destruction and subsequent expansion of the limits within which architecture had remained ensconced until then. This dissertation finds out the importance of considering what occupied much of the activity of Superstudio and their radical colleagues (furniture, magazines, installations, films, theoretical and educational work, etc.) as new forms of architecture that build a new critical language, in an attempt to help renew and reinforce the relevance and social responsibility of a profession call to expand beyond the built to nourish and interact with all areas of our everyday environment.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente proyecto tiene como objetivo la realización de un cuadricóptero de bajo coste desarrollado con herramientas de software libre, con el fin de permitir el acceso y modificación del mismo a cualquiera que posea los conocimientos necesarios. Los cuadricópteros se definen como un vehículo aéreo no tripulado con cuatro rotores en los extremos. Los ejemplos existentes de estos tipos de vehículos son casi siempre de grandes cuadricópteros, los cuales utilizan diferentes tecnologías en los motores y control de los mismos. Los cuadricópteros de similar tamaño al que se pretende realizar son por lo general de compañías con hardware y software cerrado. En el caso de este proyecto se ha realizado un cuadricóptero de tamaño menor a 5 x 5 cm. La innovación que se propone con este proyecto es una forma de detectar obstáculos para cuadricópteros de tamaño similar, en los que la limitación del peso del dron supone una disminución de las opciones disponibles. Se desea que el cuadricóptero sea capaz de realizar un vuelo estable detectando y esquivando obstáculos sin necesidad de ayuda externa como operadores con mando de radio frecuencia. Para la creación del cuadricóptero, se ha realizado tanto el diseño de los esquemáticos como el diseño de las huellas para la utilización en el desarrollo de la PCB. Para ello se ha hecho uso de herramientas de software libre como es Kicad, software para el desarrollo de esquemáticos y placas de circuito impreso con las funcionalidades principales de cualquier software privativo relacionado. Se pretende de esta forma aportar a la literatura, un aspecto práctico de la realización de cuadricópteros, tanto desde los aspectos teóricos del diseño como los aspectos prácticos de la fabricación y soldadura de los componentes del cuadricóptero. En la realización del presente proyecto se ha tenido en cuenta los diferentes algoritmos que existen para la fusión de datos de la unidad de medida inercial, tanto la facilidad de implementación de los mismos como la facilidad de los cálculos resultantes de esta implementación. Se ha hecho una implementación de un filtro complementario, dando resultados satisfactorios debido a las características intrínsecas de la unidad de medida inercial. Además del filtro complementario, se ha realizado una implementación del filtro diseñado por Sebastian Madgwick [1]. Este filtro está especialmente diseñado para la fusión de los datos provenientes de la unidad de medida inercial, proporcionando la orientación del sistema haciendo uso de la representación en cuaternios de los datos del acelerómetro y giróscopo, permitiendo el uso del método del gradiente para el cálculo del error del giróscopo. Para la selección de los componentes, se ha hecho un análisis pormenorizado de las diferentes opciones disponibles, tomando como punto de partida los cuadricópteros que existen en la actualidad. Se han elegido estos componentes en función de las características de los mismos, prestando especial atención al tamaño, relacionado directamente con el peso de los mismos así como del precio, para lograr un cuadricóptero fácilmente reproducible de bajo coste. En este análisis se ha tenido en cuenta las dificultades existentes en la selección de determinados componentes como son los motores y las hélices. Al ser estos dos componentes caracterizados mediante tablas creadas por los fabricantes y usuarios de los mismos, la selección de los mismos se ha visto dificultada a la hora de elegir componentes de coste reducido al poseer poca información sobre los mismos. En especial, las formulas desarrolladas para el cálculo del empuje de los motores están directamente relacionados con los parámetros de las hélices. Estos parámetros están caracterizados para la mayoría de las hélices comerciales utilizadas en cuadricópteros. Para caracterizar las hélices se utiliza un banco de trabajo en donde es posible medir el empuje realizado por el conjunto del motor y hélice. En el caso del presente proyecto, no se disponía de la herramienta necesaria por lo que se ha realizado una estimación de los parámetros en función de las tablas disponibles para hélices similares de mayor tamaño. Para la elección de los sensores para la detección de los obstáculos se ha realizado un estudio de los diferentes sensores disponibles, analizando las ventajas y desventajas de los mismos para la elección del más adecuado para el proyecto. Se ha decidido el uso de sensores de distancia basados en tecnología infrarroja por ser los únicos que se adaptan a los requisitos de peso impuesto por el modelo. Además en este proyecto se ha realizado el montaje y soldadura de los componentes de la PCB. Estos componentes al ser de tamaño reducido, se ha comprobado que para la soldadura de los mismos es necesario el uso de herramientas especializadas, como puede ser estaciones de soldadura y pistola de aire caliente lo que dificulta su soldadura de manera no profesional. Al término de este proyecto se ha comprobado la dificultad de la realización de una correcta soldadura de los componentes, lo que introduce errores de conectividad entre los componentes, en concreto se ha detectado errores entre el microprocesador y unidad de medida inercial. Además de estos errores, se ha comprobado la dificultad de regular el sistema, no logrando un vuelo estable en el tiempo de escritura del presente proyecto. Por último se presenta el prototipo creado a lo largo del proyecto, al cual se le pueden hacer diferentes modificaciones como posibles líneas futuras, entre las que se encuentran una mejor regulación que permita el vuelo de un conjunto de drones.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El uso de aritmética de punto fijo es una opción de diseño muy extendida en sistemas con fuertes restricciones de área, consumo o rendimiento. Para producir implementaciones donde los costes se minimicen sin impactar negativamente en la precisión de los resultados debemos llevar a cabo una asignación cuidadosa de anchuras de palabra. Encontrar la combinación óptima de anchuras de palabra en coma fija para un sistema dado es un problema combinatorio NP-hard al que los diseñadores dedican entre el 25 y el 50 % del ciclo de diseño. Las plataformas hardware reconfigurables, como son las FPGAs, también se benefician de las ventajas que ofrece la aritmética de coma fija, ya que éstas compensan las frecuencias de reloj más bajas y el uso más ineficiente del hardware que hacen estas plataformas respecto a los ASICs. A medida que las FPGAs se popularizan para su uso en computación científica los diseños aumentan de tamaño y complejidad hasta llegar al punto en que no pueden ser manejados eficientemente por las técnicas actuales de modelado de señal y ruido de cuantificación y de optimización de anchura de palabra. En esta Tesis Doctoral exploramos distintos aspectos del problema de la cuantificación y presentamos nuevas metodologías para cada uno de ellos: Las técnicas basadas en extensiones de intervalos han permitido obtener modelos de propagación de señal y ruido de cuantificación muy precisos en sistemas con operaciones no lineales. Nosotros llevamos esta aproximación un paso más allá introduciendo elementos de Multi-Element Generalized Polynomial Chaos (ME-gPC) y combinándolos con una técnica moderna basada en Modified Affine Arithmetic (MAA) estadístico para así modelar sistemas que contienen estructuras de control de flujo. Nuestra metodología genera los distintos caminos de ejecución automáticamente, determina las regiones del dominio de entrada que ejercitarán cada uno de ellos y extrae los momentos estadísticos del sistema a partir de dichas soluciones parciales. Utilizamos esta técnica para estimar tanto el rango dinámico como el ruido de redondeo en sistemas con las ya mencionadas estructuras de control de flujo y mostramos la precisión de nuestra aproximación, que en determinados casos de uso con operadores no lineales llega a tener tan solo una desviación del 0.04% con respecto a los valores de referencia obtenidos mediante simulación. Un inconveniente conocido de las técnicas basadas en extensiones de intervalos es la explosión combinacional de términos a medida que el tamaño de los sistemas a estudiar crece, lo cual conlleva problemas de escalabilidad. Para afrontar este problema presen tamos una técnica de inyección de ruidos agrupados que hace grupos con las señales del sistema, introduce las fuentes de ruido para cada uno de los grupos por separado y finalmente combina los resultados de cada uno de ellos. De esta forma, el número de fuentes de ruido queda controlado en cada momento y, debido a ello, la explosión combinatoria se minimiza. También presentamos un algoritmo de particionado multi-vía destinado a minimizar la desviación de los resultados a causa de la pérdida de correlación entre términos de ruido con el objetivo de mantener los resultados tan precisos como sea posible. La presente Tesis Doctoral también aborda el desarrollo de metodologías de optimización de anchura de palabra basadas en simulaciones de Monte-Cario que se ejecuten en tiempos razonables. Para ello presentamos dos nuevas técnicas que exploran la reducción del tiempo de ejecución desde distintos ángulos: En primer lugar, el método interpolativo aplica un interpolador sencillo pero preciso para estimar la sensibilidad de cada señal, y que es usado después durante la etapa de optimización. En segundo lugar, el método incremental gira en torno al hecho de que, aunque es estrictamente necesario mantener un intervalo de confianza dado para los resultados finales de nuestra búsqueda, podemos emplear niveles de confianza más relajados, lo cual deriva en un menor número de pruebas por simulación, en las etapas iniciales de la búsqueda, cuando todavía estamos lejos de las soluciones optimizadas. Mediante estas dos aproximaciones demostramos que podemos acelerar el tiempo de ejecución de los algoritmos clásicos de búsqueda voraz en factores de hasta x240 para problemas de tamaño pequeño/mediano. Finalmente, este libro presenta HOPLITE, una infraestructura de cuantificación automatizada, flexible y modular que incluye la implementación de las técnicas anteriores y se proporciona de forma pública. Su objetivo es ofrecer a desabolladores e investigadores un entorno común para prototipar y verificar nuevas metodologías de cuantificación de forma sencilla. Describimos el flujo de trabajo, justificamos las decisiones de diseño tomadas, explicamos su API pública y hacemos una demostración paso a paso de su funcionamiento. Además mostramos, a través de un ejemplo sencillo, la forma en que conectar nuevas extensiones a la herramienta con las interfaces ya existentes para poder así expandir y mejorar las capacidades de HOPLITE. ABSTRACT Using fixed-point arithmetic is one of the most common design choices for systems where area, power or throughput are heavily constrained. In order to produce implementations where the cost is minimized without negatively impacting the accuracy of the results, a careful assignment of word-lengths is required. The problem of finding the optimal combination of fixed-point word-lengths for a given system is a combinatorial NP-hard problem to which developers devote between 25 and 50% of the design-cycle time. Reconfigurable hardware platforms such as FPGAs also benefit of the advantages of fixed-point arithmetic, as it compensates for the slower clock frequencies and less efficient area utilization of the hardware platform with respect to ASICs. As FPGAs become commonly used for scientific computation, designs constantly grow larger and more complex, up to the point where they cannot be handled efficiently by current signal and quantization noise modelling and word-length optimization methodologies. In this Ph.D. Thesis we explore different aspects of the quantization problem and we present new methodologies for each of them: The techniques based on extensions of intervals have allowed to obtain accurate models of the signal and quantization noise propagation in systems with non-linear operations. We take this approach a step further by introducing elements of MultiElement Generalized Polynomial Chaos (ME-gPC) and combining them with an stateof- the-art Statistical Modified Affine Arithmetic (MAA) based methodology in order to model systems that contain control-flow structures. Our methodology produces the different execution paths automatically, determines the regions of the input domain that will exercise them, and extracts the system statistical moments from the partial results. We use this technique to estimate both the dynamic range and the round-off noise in systems with the aforementioned control-flow structures. We show the good accuracy of our approach, which in some case studies with non-linear operators shows a 0.04 % deviation respect to the simulation-based reference values. A known drawback of the techniques based on extensions of intervals is the combinatorial explosion of terms as the size of the targeted systems grows, which leads to scalability problems. To address this issue we present a clustered noise injection technique that groups the signals in the system, introduces the noise terms in each group independently and then combines the results at the end. In this way, the number of noise sources in the system at a given time is controlled and, because of this, the combinato rial explosion is minimized. We also present a multi-way partitioning algorithm aimed at minimizing the deviation of the results due to the loss of correlation between noise terms, in order to keep the results as accurate as possible. This Ph.D. Thesis also covers the development of methodologies for word-length optimization based on Monte-Carlo simulations in reasonable times. We do so by presenting two novel techniques that explore the reduction of the execution times approaching the problem in two different ways: First, the interpolative method applies a simple but precise interpolator to estimate the sensitivity of each signal, which is later used to guide the optimization effort. Second, the incremental method revolves on the fact that, although we strictly need to guarantee a certain confidence level in the simulations for the final results of the optimization process, we can do it with more relaxed levels, which in turn implies using a considerably smaller amount of samples, in the initial stages of the process, when we are still far from the optimized solution. Through these two approaches we demonstrate that the execution time of classical greedy techniques can be accelerated by factors of up to ×240 for small/medium sized problems. Finally, this book introduces HOPLITE, an automated, flexible and modular framework for quantization that includes the implementation of the previous techniques and is provided for public access. The aim is to offer a common ground for developers and researches for prototyping and verifying new techniques for system modelling and word-length optimization easily. We describe its work flow, justifying the taken design decisions, explain its public API and we do a step-by-step demonstration of its execution. We also show, through an example, the way new extensions to the flow should be connected to the existing interfaces in order to expand and improve the capabilities of HOPLITE.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durante los últimos años, la construcción de grandes yates ha evolucionado hacia conceptos y diseños más complejos dónde se ha priorizado en muchas ocasiones la estética arquitectónica y exigencias de confort de los armadores y operadores dejando en segundo plano aspectos clave de seguridad. Diferentes Organismos Internacionales y las Sociedades de Clasificación han venido adaptando sus requisitos a la problemática específica de este tipo de buques, tratando de compatibilizar tendencias de diseño con exigencias de resistencia, integridad estructural, estanqueidad y seguridad entre otras. En la actualidad, la construcción de grandes yates con esloras incluso por encima de los 100 metros, el aumento del número de pasajeros por encima del límite tradicional de 12, las nuevas tendencias de ahorro energético y protección medioambiental que se están implantando en la industria en general y marítima en particular, plantean una serie de desafíos tanto a los diseñadores como a las Sociedades de Clasificación que deben avanzar en sus reglamentaciones para cubrir estos y otros aspectos. Son precisamente estos aspectos medioambientales, tradicionalmente relegados en la industria de grandes yates los que están ocupando en la actualidad un primer plano en los desarrollos de normativa de diferentes Organismos Internacionales y Nacionales. El impacto que estas nuevas normativas van a tener sobre el diseño de grandes yates a motor centra el desarrollo de esta Tesis. Hasta donde ha podido conocer el doctorando, esta es la primera vez que en una Tesis Doctoral se abordan los principales mecanismos que regulan el diseño y la construcción de grandes yates a motor, se estudian y analizan las regulaciones internacionales en materia de protección medioambiental y de eficiencia energética aplicables a los yates, se seleccionan y describen un conjunto de tecnologías maduras de carácter medioambiental, susceptibles de ser empleadas en yates y se determina los parámetros y aspectos del diseño a aplicar al proyecto de grandes yates a motor como resultado de la aplicación de estas tecnologías, analizados bajo la perspectiva de la Sociedad de Clasificación y de los Organismos Internacionales. La Tesis comienza con un análisis de la industria de construcción de grandes yates, la flota existente de grandes yates, la cartera actual de pedidos y la evolución esperada del mercado. Aquí se pone de manifiesto que a pesar de la crisis económica global de los últimos años, este mercado goza relativamente de buena salud y las previsiones son favorables, particularmente para el sector en Europa. A continuación se aborda el estado del arte del diseño de yate grande, sus peculiaridades, particularmente estructurales y de armamento, que le diferencian de otros tipos de buques y las tendencias en su diseño. Se pone de manifiesto cómo el proyecto de estos yates ha evolucionado hacia yates de gran tamaño y complejidad técnica, debido a la demanda y necesidades actuales y cómo ha influido en aspectos como la disposición estructural. Seguidamente se describen los principales mecanismos que regulan el diseño y construcción de grandes yates, particularmente el Código de Grandes Yates Comerciales de la Maritime & Coastguard Agency del Reino Unido, y las Reglas y Reglamentos de la Sociedad de Clasificación Lloyd’s Register para la Clasificación de yates; por ser ambas organizaciones las que lideran el Registro y la Clasificación respectivamente de este tipo de buques, objeto del estudio. El doctorando ejerce su actividad profesional como inspector de Lloyd’s Register en una oficina técnica de apoyo y evaluación de diseño, siendo especialista en grandes yates, lo que ha permitido exponer de primera mano el punto de vista de la Sociedad de Clasificación. En el siguiente Capítulo se describen las principales reglamentaciones internacionales de carácter medioambiental que afectan al diseño, construcción y operación de los yates, algunas de las cuales, como es el caso del Convenio Internacional para el Control y la Gestión del Agua de Lastre y Sedimentos de los buques (BWM 2004) aún no ha entrado en vigor a la fecha de terminación de esta Tesis. Seguidamente se realiza una selección de tecnologías desde el punto de vista de protección medioambiental y ahorro energético y su aplicación al diseño y construcción de grandes yates. Algunas de estas tecnologías son maduras y ya habían sido utilizadas con éxito en otros tipos de buques, pero su aplicación a los yates entraña ciertos desafíos que se describen en este Capítulo. A continuación se determinan y analizan los principales parámetros de diseño de los yates grandes a motor como consecuencia de las tecnologías estudiadas y se indican una serie de aspectos de diseño bajo la perspectiva de la Sociedad de Clasificación y de los Organismos Marítimos Internacionales. Finalmente se llega a una serie de conclusiones y se identifican futuras líneas de investigación en relación a las tecnologías descritas en este trabajo. ABSTRACT In recent years, the building of large yachts has evolved into more complex concepts and designs where often prioritized architectural aesthetics and comfort requirements of owners and operators leaving in the background key security aspects. Several international organizations and classification societies have been adapting their requirements to the specific problems of this type of vessel, trying to reconcile demands design trends with resistance, structural integrity, watertightness and safety among others. At present, the building of large yachts with lengths even above 100 meters, the increase in passenger numbers over the traditional limit of 12, new trends of energy saving and environmental protection are being implemented in the marine industry in particular, they pose a number of challenges to both designers and classification societies that should update and improve their regulations to cover these and other aspects. It is precisely these environmental issues, traditionally relegated to the large yacht industry, which are currently occupying center stage in the development of rules of different international and national bodies. The impact that these new standards will have on the design of large motor yachts focuses the development of this thesis. As far as it is known, this is the first time in a doctoral thesis the main mechanisms regulating the design and construction of large motor yachts are addressed, the international regulations on environmental protection and energy efficiency requirements for yachts are studied and analyzed, a set of mature environmental technologies, capable of being applied to yachts are selected and described, the parameters and design aspects to be applied to large yacht projects as a result of the application of these technologies are determined and analyzed from the perspective of the Classification Society and international organizations. The thesis begins with an analysis of the shipbuilding industry of large yachts, the existing fleet of large yachts, the current backlog and the expected market developments. Here it becomes clear that despite the global economic crisis of recent years, this market enjoys relatively good health and prospects are favorable, particularly for the sector in Europe. Then the state of the art of large yacht design, its peculiarities, particularly structural and outfitting, that differentiate it from other types of ships and trends in design is discussed. It shows how the project of these yachts has evolved to large yachts and technical complexity, due to the demand and needs and how it has influenced the structural arrangement aspects. Then the main mechanisms regulating the design and construction of large yachts, particularly the Large Commercial Yacht Code developed by the Maritime & Coastguard Agency (UK) and the Lloyd’s Register Rules & Regulations for the Classification of Special Service Craft including yachts are described; the two organizations to be leading the registration and classification respectively of such vessels under study. The doctoral student practices his profession as a senior specialist to Lloyd’s Register in a technical support office, dealing with the design assessment of large yachts, which allowed exposing firsthand view of the Classification Society. In the next chapter describes the main international environmental regulations, affecting the design, construction and operation of yachts, some of which, such as the International Convention for the Control and Management of Ships' Ballast Water and Sediments (BWM 2004) has not yet entered into force at the date of completion of this thesis. Following is a selection of technologies from the point of view of environmental protection and energy saving and its application to design and construction of large yachts. Some of these technologies are mature and have already been used successfully in other ship types, but their application to yachts entails certain challenges that are described in this chapter. Then identifies and analyzes the main design parameters of large motor yachts as a result of the technologies studied and a number of design aspects are given from the perspective of Classification Society and international maritime organizations. Finally, a number of conclusions are exposed, and future research is identified in relation to the technologies described in this Thesis.