486 resultados para Corvina uçu
Resumo:
Abordamos en este trabajo la cuarta y última entrega de los Tipos de Instalaciones de Ordeño, correspondiente a la 2ª parte de un conjunto de artículos que hemos denominado globalmente SALAS DE ORDEÑO. En esta cuarta entrega describiremos la sala que quizá tenga mayor rendimiento, expresado en vacas ordeñadas/hora, la SALA ROTATIVA, aunque, como trataremos de demostrar, el rendimiento no es tan elevado cuando se expresa en vacas orde- ñadas/hora y hombre. Esta sala suele utilizarse en grandes rebaños, donde se precisa ordeñar un gran número de vacas, 2 ó 3 veces al día. En estos casos, incluso las grandes salas paralelo 2 x 40 (80 unidades) pueden quedarse algo cortas en rendimiento, aunque una posible solución sería instalar 2 salas de ordeño paralelo. No obstante, existen salas rotativas de menor número de plazas, que se utilizan en rebaños de tamaño medio con notable eficiencia. Aunque la primera sala rotativa se diseñó en Estados Unidos en 1930, no fue hasta los años sesenta del pasado siglo cuando se popularizó en Europa Occidental, Gran Bretaña, Australia; nueva Zelanda y los propios EE.UU. La nueva generación de salas rotativas fue desarrollada en Nueva Zelanda hacia 1970. También fueron muy habituales en los años 60 y 70 en las grandes granjas estatales de los países de Europa del Este
Resumo:
Introduction Lithium-based ceramics (silicates, titanates, ?) possess a series of advantages as alternative over liquid lithium and lithium-lead alloys for fusion breeders. They have a sufficient lithium atomic density (up to 540 kg*m-3), high temperature stability (up to 1300 K), and good chemical compatibility with structural materials. Nevertheless, few research is made on the diffusion behavior of He and H isotopes through polycrystalline structures of porous ceramics which is crucial in order to understand the mobility of gas coolants as well as, the release of tritium. Moreover, in the operating conditions of actual breeder blanket concepts, the extraction rate of the helium produced during lithium transmutation can be affected by the composition and the structure of the near surface region modifying the performance of BB materials
Resumo:
The work reported here shows a direct experimental comparison of the sensitivities of AlN solidly mounted resonators (SMR)-based biosensors fabricated with standard metal electrodes and with carbon nanotube electrodes. SMRs resonating at frequencies around 1.75 GHz have been fabricated, some devices using a thin film of multi-wall carbon nanotubes (CNTs) as the top electrode material and some identical devices using a chromium/gold electrode. Protein solutions with different concentrations were loaded on the top of the resonators and their responses to mass-load from physically adsorbed coatings were investigated. Results show that resonators using CNTs as the top electrode material exhibited higher frequency change for a given load due to the higher active surface area of a thin film of interconnecting CNTs compared to that of a metal thin film electrode and hence exhibited greater mass loading sensitivity. It is therefore concluded that the use of CNT electrodes on resonators for their use as gravimetric biosensors is viable and worthwhile.
Resumo:
This work describes the assessment of the acoustic properties of sputtered tantalum oxide films intended as high impedance films for the acoustic isolation of bulk acoustic wave devices operating in the GHz frequency range. The films are grown by sputtering a metallic tantalum target under different oxygen and argon gas mixtures, total pressures, pulsed DC powers and substrate bias. The structural properties of the films are assessed through infrared absorption spectroscopy and X-ray diffraction measurements. Their acoustic impedance is obtained after estimating the mass density by X-ray reflectometry measurements and the longitudinal acoustic velocity by analyzing the longitudinal λ/2 resonance induced in a tantalum oxide film inserted between an acoustic reflector and an AlN-based resonator. A second measurement of the sound velocity is achieved through picosecond acoustic spectroscopy.
Resumo:
This paper reports the simultaneous fabrication of Receive and Transmit Bulk Acoustic Wave filters for the WCDMA standard on the same die. Both filters are based on Solidly Mounted Resonators using a common Bragg mirror, but with each having a specific piezoelectric film thickness. Electrical measurements reveal that the process steps required to provide the two different piezoelectric film thicknesses on the same die does not impact the electrical performances of resonators and filters and that this approach could thus be generalised to more than two filters.
Resumo:
This work describes the performance of AlN-based bulk acoustic wave resonators built on top of insulating acoustic reflectors and operating at around 8 GHz. The acoustic reflectors are composed of alternate layers of amorphous Ta2O5and SiO2 deposited at room temperature by pulsed-DC reactive sputtering in Ar/O2 atmospheres. SiO2 layers have a porous structure that provides a low acoustic impedance of only 9.5 MRayl. Ta2O5 films exhibit an acoustic impedance of around 39.5 MRayl that was assessed by the picoseconds acoustic technique These values allow to design acoustic mirrors with transmission coefficients in the centre of the band lower than -40 dB (99.998 % of reflectance) with only seven layers. The resonators were fabricated by depositing a very thin AlN film onto an iridium bottom electrode 180 nm-thick and by using Ir or Mo layers as top electrode. Resonators with effective electromechanical coupling factors of 5.7% and quality factors at the antiresonant frequency around 600 are achieved.
Resumo:
En este trabajo se comparan las codificaciones de competencias del Plan de estudios de CDIO (Conceive, Desing, Implement and Operate systems in the enterprise and societal context) con las definidas por el Proyecto Tuning y las de IPMA (International Project Management Asociation). También se determina el tipo de aprendizaje más apropiado para lograr la adquisición de competencias en la formación de los ingenieros y se revisa la evolución de los programas de ingeniería industrial en Perú, España y EE.UU para definir las competencias específicas aplicables al caso peruano. La codificación de CDIO responde a los estándares de acreditación de ABET (Accreditation Board for Engineering and Technology) y las competencias del Proyecto Tuning son las definidas para Latinoamérica. Se comparan las competencias definidas en los estándares de acreditación ABET en el ámbito de las ingenierías, con las competencias internacionales según el modelo IPMA. Los resultados evidencian la necesidad de aplicar modelos holísticos que abarquen competencias técnicas, contextuales y de comportamiento en los planes de estudio de ingeniería, su pertinencia para la definición de programas de ingeniería en Latinoamérica y la posibilidad de definir un plan de estudios de ingeniería industrial con una estrategia de aprendizaje apropiada.
Resumo:
En el Distrito de Coixtlahuaca (Estado de Oaxaca, México) desde antiguo se han realizado obras y prácticas de conservación de suelos que intentaran paliar su degradación como consecuencia de la sobreexplotación de las actividades humanas, como el pastoreo, sistemas de cultivo como la roza, tumba y quema o la obtención de leña; a lo que se une la propia la vulnerabilidad natural de sus recursos naturales y las complicadas condiciones climáticas y orográficas. Estos factores han acabado con graves pérdidas de suelo por erosión hídrica en el centro y sur del Distrito, dificultando o impidiendo el normal desarrollo de las actividades humanas más básicas, como la agricultura o el abastecimiento de agua, o las funciones propias del ecosistema, y derivando en otros de índole socioeconómica como la marginalidad o la emigración hacia los EE. UU. y otros Estados del país. Las obras de conservación de suelos en ladera son medidas de amplia difusión en el ámbito conservacionista y de lucha contra la erosión; y han sido objeto de numerosos Programas de Gobierno, sobre todo entre 1966 y 1974. Sin embargo, la eficacia nunca ha sido comprobada para dichas tecnologías ni para el Distrito de Coixtlahuaca, con lo que los esfuerzos retomados en la actualidad continúan la inercia de las obras de conservación realizadas en el pasado, a pesar de haber sido el centro de encendidos debates. La evaluación de las obras de conservación de suelos, objeto de este estudio, analiza su eficacia, sus beneficios en relación al coste, y sus repercusiones socioeconómicas, culturales y ambientales; para lo que se ha estudiado la influencia de las obras sobre los procesos erosivos y la erosionabilidad del suelo, e integrado los distintos puntos de vista de los grupos afectados. Ello ha permitido extraer conclusiones aplicables a las que se están ejecutando actualmente, y la posibilidad de optimizar los recursos económicos empleados desde el Gobierno, la Reserva de la Biosfera a la que pertenece parte del Distrito u otras instituciones y ONGs locales; así como los recursos humanos que con tanto esfuerzo aportan los propios habitantes. Junto a las mejoras que se proponen, se hace necesario reseñar los medios que faciliten la realización de las obras de conservación de suelos, no sólo en su financiación, sino también aquellos que permitan activar los mecanismos de cambio en una sociedad en la que ha renacido una incipiente voluntad por recuperar los recursos en que basan sus medios de vida. Una implementación cuya sostenibilidad, en última instancia, sólo se puede garantizar mediante la adopción de dichas tecnologías a través los beneficios observados por ellos mismos.
Resumo:
El interés cada vez mayor por las redes de sensores inalámbricos pueden ser entendido simplemente pensando en lo que esencialmente son: un gran número de pequeños nodos sensores autoalimentados que recogen información o detectan eventos especiales y se comunican de manera inalámbrica, con el objetivo final de entregar sus datos procesados a una estación base. Los nodos sensores están densamente desplegados dentro del área de interés, se pueden desplegar al azar y tienen capacidad de cooperación. Por lo general, estos dispositivos son pequeños y de bajo costo, de modo que pueden ser producidos y desplegados en gran numero aunque sus recursos en términos de energía, memoria, velocidad de cálculo y ancho de banda están enormemente limitados. Detección, tratamiento y comunicación son tres elementos clave cuya combinación en un pequeño dispositivo permite lograr un gran número de aplicaciones. Las redes de sensores proporcionan oportunidades sin fin, pero al mismo tiempo plantean retos formidables, tales como lograr el máximo rendimiento de una energía que es escasa y por lo general un recurso no renovable. Sin embargo, los recientes avances en la integración a gran escala, integrado de hardware de computación, comunicaciones, y en general, la convergencia de la informática y las comunicaciones, están haciendo de esta tecnología emergente una realidad. Del mismo modo, los avances en la nanotecnología están empezando a hacer que todo gire entorno a las redes de pequeños sensores y actuadores distribuidos. Hay diferentes tipos de sensores tales como sensores de presión, acelerómetros, cámaras, sensores térmicos o un simple micrófono. Supervisan las condiciones presentes en diferentes lugares tales como la temperatura, humedad, el movimiento, la luminosidad, presión, composición del suelo, los niveles de ruido, la presencia o ausencia de ciertos tipos de objetos, los niveles de tensión mecánica sobre objetos adheridos y las características momentáneas tales como la velocidad , la dirección y el tamaño de un objeto, etc. Se comprobara el estado de las Redes Inalámbricas de Sensores y se revisaran los protocolos más famosos. Así mismo, se examinara la identificación por radiofrecuencia (RFID) ya que se está convirtiendo en algo actual y su presencia importante. La RFID tiene un papel crucial que desempeñar en el futuro en el mundo de los negocios y los individuos por igual. El impacto mundial que ha tenido la identificación sin cables está ejerciendo fuertes presiones en la tecnología RFID, los servicios de investigación y desarrollo, desarrollo de normas, el cumplimiento de la seguridad y la privacidad y muchos más. Su potencial económico se ha demostrado en algunos países mientras que otros están simplemente en etapas de planificación o en etapas piloto, pero aun tiene que afianzarse o desarrollarse a través de la modernización de los modelos de negocio y aplicaciones para poder tener un mayor impacto en la sociedad. Las posibles aplicaciones de redes de sensores son de interés para la mayoría de campos. La monitorización ambiental, la guerra, la educación infantil, la vigilancia, la micro-cirugía y la agricultura son solo unos pocos ejemplos de los muchísimos campos en los que tienen cabida las redes mencionadas anteriormente. Estados Unidos de América es probablemente el país que más ha investigado en esta área por lo que veremos muchas soluciones propuestas provenientes de ese país. Universidades como Berkeley, UCLA (Universidad de California, Los Ángeles) Harvard y empresas como Intel lideran dichas investigaciones. Pero no solo EE.UU. usa e investiga las redes de sensores inalámbricos. La Universidad de Southampton, por ejemplo, está desarrollando una tecnología para monitorear el comportamiento de los glaciares mediante redes de sensores que contribuyen a la investigación fundamental en glaciología y de las redes de sensores inalámbricos. Así mismo, Coalesenses GmbH (Alemania) y Zurich ETH están trabajando en diversas aplicaciones para redes de sensores inalámbricos en numerosas áreas. Una solución española será la elegida para ser examinada más a fondo por ser innovadora, adaptable y polivalente. Este estudio del sensor se ha centrado principalmente en aplicaciones de tráfico, pero no se puede olvidar la lista de más de 50 aplicaciones diferentes que ha sido publicada por la firma creadora de este sensor específico. En la actualidad hay muchas tecnologías de vigilancia de vehículos, incluidos los sensores de bucle, cámaras de video, sensores de imagen, sensores infrarrojos, radares de microondas, GPS, etc. El rendimiento es aceptable, pero no suficiente, debido a su limitada cobertura y caros costos de implementación y mantenimiento, especialmente este ultimo. Tienen defectos tales como: línea de visión, baja exactitud, dependen mucho del ambiente y del clima, no se puede realizar trabajos de mantenimiento sin interrumpir las mediciones, la noche puede condicionar muchos de ellos, tienen altos costos de instalación y mantenimiento, etc. Por consiguiente, en las aplicaciones reales de circulación, los datos recibidos son insuficientes o malos en términos de tiempo real debido al escaso número de detectores y su costo. Con el aumento de vehículos en las redes viales urbanas las tecnologías de detección de vehículos se enfrentan a nuevas exigencias. Las redes de sensores inalámbricos son actualmente una de las tecnologías más avanzadas y una revolución en la detección de información remota y en las aplicaciones de recogida. Las perspectivas de aplicación en el sistema inteligente de transporte son muy amplias. Con este fin se ha desarrollado un programa de localización de objetivos y recuento utilizando una red de sensores binarios. Esto permite que el sensor necesite mucha menos energía durante la transmisión de información y que los dispositivos sean más independientes con el fin de tener un mejor control de tráfico. La aplicación se centra en la eficacia de la colaboración de los sensores en el seguimiento más que en los protocolos de comunicación utilizados por los nodos sensores. Las operaciones de salida y retorno en las vacaciones son un buen ejemplo de por qué es necesario llevar la cuenta de los coches en las carreteras. Para ello se ha desarrollado una simulación en Matlab con el objetivo localizar objetivos y contarlos con una red de sensores binarios. Dicho programa se podría implementar en el sensor que Libelium, la empresa creadora del sensor que se examinara concienzudamente, ha desarrollado. Esto permitiría que el aparato necesitase mucha menos energía durante la transmisión de información y los dispositivos sean más independientes. Los prometedores resultados obtenidos indican que los sensores de proximidad binarios pueden formar la base de una arquitectura robusta para la vigilancia de áreas amplias y para el seguimiento de objetivos. Cuando el movimiento de dichos objetivos es suficientemente suave, no tiene cambios bruscos de trayectoria, el algoritmo ClusterTrack proporciona un rendimiento excelente en términos de identificación y seguimiento de trayectorias los objetos designados como blancos. Este algoritmo podría, por supuesto, ser utilizado para numerosas aplicaciones y se podría seguir esta línea de trabajo para futuras investigaciones. No es sorprendente que las redes de sensores de binarios de proximidad hayan atraído mucha atención últimamente ya que, a pesar de la información mínima de un sensor de proximidad binario proporciona, las redes de este tipo pueden realizar un seguimiento de todo tipo de objetivos con la precisión suficiente. Abstract The increasing interest in wireless sensor networks can be promptly understood simply by thinking about what they essentially are: a large number of small sensing self-powered nodes which gather information or detect special events and communicate in a wireless fashion, with the end goal of handing their processed data to a base station. The sensor nodes are densely deployed inside the phenomenon, they deploy random and have cooperative capabilities. Usually these devices are small and inexpensive, so that they can be produced and deployed in large numbers, and so their resources in terms of energy, memory, computational speed and bandwidth are severely constrained. Sensing, processing and communication are three key elements whose combination in one tiny device gives rise to a vast number of applications. Sensor networks provide endless opportunities, but at the same time pose formidable challenges, such as the fact that energy is a scarce and usually non-renewable resource. However, recent advances in low power Very Large Scale Integration, embedded computing, communication hardware, and in general, the convergence of computing and communications, are making this emerging technology a reality. Likewise, advances in nanotechnology and Micro Electro-Mechanical Systems are pushing toward networks of tiny distributed sensors and actuators. There are different sensors such as pressure, accelerometer, camera, thermal, and microphone. They monitor conditions at different locations, such as temperature, humidity, vehicular movement, lightning condition, pressure, soil makeup, noise levels, the presence or absence of certain kinds of objects, mechanical stress levels on attached objects, the current characteristics such as speed, direction and size of an object, etc. The state of Wireless Sensor Networks will be checked and the most famous protocols reviewed. As Radio Frequency Identification (RFID) is becoming extremely present and important nowadays, it will be examined as well. RFID has a crucial role to play in business and for individuals alike going forward. The impact of ‘wireless’ identification is exerting strong pressures in RFID technology and services research and development, standards development, security compliance and privacy, and many more. The economic value is proven in some countries while others are just on the verge of planning or in pilot stages, but the wider spread of usage has yet to take hold or unfold through the modernisation of business models and applications. Possible applications of sensor networks are of interest to the most diverse fields. Environmental monitoring, warfare, child education, surveillance, micro-surgery, and agriculture are only a few examples. Some real hardware applications in the United States of America will be checked as it is probably the country that has investigated most in this area. Universities like Berkeley, UCLA (University of California, Los Angeles) Harvard and enterprises such as Intel are leading those investigations. But not just USA has been using and investigating wireless sensor networks. University of Southampton e.g. is to develop technology to monitor glacier behaviour using sensor networks contributing to fundamental research in glaciology and wireless sensor networks. Coalesenses GmbH (Germany) and ETH Zurich are working in applying wireless sensor networks in many different areas too. A Spanish solution will be the one examined more thoroughly for being innovative, adaptable and multipurpose. This study of the sensor has been focused mainly to traffic applications but it cannot be forgotten the more than 50 different application compilation that has been published by this specific sensor’s firm. Currently there are many vehicle surveillance technologies including loop sensors, video cameras, image sensors, infrared sensors, microwave radar, GPS, etc. The performance is acceptable but not sufficient because of their limited coverage and expensive costs of implementation and maintenance, specially the last one. They have defects such as: line-ofsight, low exactness, depending on environment and weather, cannot perform no-stop work whether daytime or night, high costs for installation and maintenance, etc. Consequently, in actual traffic applications the received data is insufficient or bad in terms of real-time owed to detector quantity and cost. With the increase of vehicle in urban road networks, the vehicle detection technologies are confronted with new requirements. Wireless sensor network is the state of the art technology and a revolution in remote information sensing and collection applications. It has broad prospect of application in intelligent transportation system. An application for target tracking and counting using a network of binary sensors has been developed. This would allow the appliance to spend much less energy when transmitting information and to make more independent devices in order to have a better traffic control. The application is focused on the efficacy of collaborative tracking rather than on the communication protocols used by the sensor nodes. Holiday crowds are a good case in which it is necessary to keep count of the cars on the roads. To this end a Matlab simulation has been produced for target tracking and counting using a network of binary sensors that e.g. could be implemented in Libelium’s solution. Libelium is the enterprise that has developed the sensor that will be deeply examined. This would allow the appliance to spend much less energy when transmitting information and to make more independent devices. The promising results obtained indicate that binary proximity sensors can form the basis for a robust architecture for wide area surveillance and tracking. When the target paths are smooth enough ClusterTrack particle filter algorithm gives excellent performance in terms of identifying and tracking different target trajectories. This algorithm could, of course, be used for different applications and that could be done in future researches. It is not surprising that binary proximity sensor networks have attracted a lot of attention lately. Despite the minimal information a binary proximity sensor provides, networks of these sensing modalities can track all kinds of different targets classes accurate enough.
Resumo:
El accidente de rotura de tubos de un generador de vapor (Steam Generator Tube Rupture, SGTR) en los reactores de agua a presión es uno de los transitorios más exigentes desde el punto de vista de operación. Los transitorios de SGTR son especiales, ya que podría dar lugar a emisiones radiológicas al exterior sin necesidad de daño en el núcleo previo o sin que falle la contención, ya que los SG pueden constituir una vía directa desde el reactor al medio ambiente en este transitorio. En los análisis de seguridad, el SGTR se analiza desde un punto determinista y probabilista, con distintos enfoques con respecto a las acciones del operador y las consecuencias analizadas. Cuando comenzaron los Análisis Deterministas de Seguridad (DSA), la forma de analizar el SGTR fue sin dar crédito a la acción del operador durante los primeros 30 min del transitorio, lo que suponía que el grupo de operación era capaz de detener la fuga por el tubo roto dentro de ese tiempo. Sin embargo, los diferentes casos reales de accidentes de SGTR sucedidos en los EE.UU. y alrededor del mundo demostraron que los operadores pueden emplear más de 30 minutos para detener la fuga en la vida real. Algunas metodologías fueron desarrolladas en los EEUU y en Europa para abordar esa cuestión. En el Análisis Probabilista de Seguridad (PSA), las acciones del operador se tienen en cuenta para diseñar los cabeceros en el árbol de sucesos. Los tiempos disponibles se utilizan para establecer los criterios de éxito para dichos cabeceros. Sin embargo, en una secuencia dinámica como el SGTR, las acciones de un operador son muy dependientes del tiempo disponible por las acciones humanas anteriores. Además, algunas de las secuencias de SGTR puede conducir a la liberación de actividad radiológica al exterior sin daño previo en el núcleo y que no se tienen en cuenta en el APS, ya que desde el punto de vista de la integridad de núcleo son de éxito. Para ello, para analizar todos estos factores, la forma adecuada de analizar este tipo de secuencias pueden ser a través de una metodología que contemple Árboles de Sucesos Dinámicos (Dynamic Event Trees, DET). En esta Tesis Doctoral se compara el impacto en la evolución temporal y la dosis al exterior de la hipótesis más relevantes encontradas en los Análisis Deterministas a nivel mundial. La comparación se realiza con un modelo PWR Westinghouse de tres lazos (CN Almaraz) con el código termohidráulico TRACE, con hipótesis de estimación óptima, pero con hipótesis deterministas como criterio de fallo único o pérdida de energía eléctrica exterior. Las dosis al exterior se calculan con RADTRAD, ya que es uno de los códigos utilizados normalmente para los cálculos de dosis del SGTR. El comportamiento del reactor y las dosis al exterior son muy diversas, según las diferentes hipótesis en cada metodología. Por otra parte, los resultados están bastante lejos de los límites de regulación, pese a los conservadurismos introducidos. En el siguiente paso de la Tesis Doctoral, se ha realizado un análisis de seguridad integrado del SGTR según la metodología ISA, desarrollada por el Consejo de Seguridad Nuclear español (CSN). Para ello, se ha realizado un análisis termo-hidráulico con un modelo de PWR Westinghouse de 3 lazos con el código MAAP. La metodología ISA permite la obtención del árbol de eventos dinámico del SGTR, teniendo en cuenta las incertidumbres en los tiempos de actuación del operador. Las simulaciones se realizaron con SCAIS (sistema de simulación de códigos para la evaluación de la seguridad integrada), que incluye un acoplamiento dinámico con MAAP. Las dosis al exterior se calcularon también con RADTRAD. En los resultados, se han tenido en cuenta, por primera vez en la literatura, las consecuencias de las secuencias en términos no sólo de daños en el núcleo sino de dosis al exterior. Esta tesis doctoral demuestra la necesidad de analizar todas las consecuencias que contribuyen al riesgo en un accidente como el SGTR. Para ello se ha hecho uso de una metodología integrada como ISA-CSN. Con este enfoque, la visión del DSA del SGTR (consecuencias radiológicas) se une con la visión del PSA del SGTR (consecuencias de daño al núcleo) para evaluar el riesgo total del accidente. Abstract Steam Generator Tube Rupture accidents in Pressurized Water Reactors are known to be one of the most demanding transients for the operating crew. SGTR are special transient as they could lead to radiological releases without core damage or containment failure, as they can constitute a direct path to the environment. The SGTR is analyzed from a Deterministic and Probabilistic point of view in the Safety Analysis, although the assumptions of the different approaches regarding the operator actions are quite different. In the beginning of Deterministic Safety Analysis, the way of analyzing the SGTR was not crediting the operator action for the first 30 min of the transient, assuming that the operating crew was able to stop the primary to secondary leakage within that time. However, the different real SGTR accident cases happened in the USA and over the world demonstrated that operators can took more than 30 min to stop the leakage in actual sequences. Some methodologies were raised in the USA and in Europe to cover that issue. In the Probabilistic Safety Analysis, the operator actions are taken into account to set the headers in the event tree. The available times are used to establish the success criteria for the headers. However, in such a dynamic sequence as SGTR, the operator actions are very dependent on the time available left by the other human actions. Moreover, some of the SGTR sequences can lead to offsite doses without previous core damage and they are not taken into account in PSA as from the point of view of core integrity are successful. Therefore, to analyze all this factors, the appropriate way of analyzing that kind of sequences could be through a Dynamic Event Tree methodology. This Thesis compares the impact on transient evolution and the offsite dose of the most relevant hypothesis of the different SGTR analysis included in the Deterministic Safety Analysis. The comparison is done with a PWR Westinghouse three loop model in TRACE code (Almaraz NPP), with best estimate assumptions but including deterministic hypothesis such as single failure criteria or loss of offsite power. The offsite doses are calculated with RADTRAD code, as it is one of the codes normally used for SGTR offsite dose calculations. The behaviour of the reactor and the offsite doses are quite diverse depending on the different assumptions made in each methodology. On the other hand, although the high conservatism, such as the single failure criteria, the results are quite far from the regulatory limits. In the next stage of the Thesis, the Integrated Safety Assessment (ISA) methodology, developed by the Spanish Nuclear Safety Council (CSN), has been applied to a thermohydraulical analysis of a Westinghouse 3-loop PWR plant with the MAAP code. The ISA methodology allows obtaining the SGTR Dynamic Event Tree taking into account the uncertainties on the operator actuation times. Simulations are performed with SCAIS (Simulation Code system for Integrated Safety Assessment), which includes a dynamic coupling with MAAP thermal hydraulic code. The offsite doses are calculated also with RADTRAD. The results shows the consequences of the sequences in terms not only of core damage but of offsite doses. This Thesis shows the need of analyzing all the consequences in an accident such as SGTR. For that, an it has been used an integral methodology like ISA-CSN. With this approach, the DSA vision of the SGTR (radiological consequences) is joined with the PSA vision of the SGTR (core damage consequences) to measure the total risk of the accident.
Resumo:
El cacahuete es una de las plantas hortícolas de mayor riqueza alimenticia y que tiene grandes posibilidades de expansión en nuestro país. Su contenido en grasa varía del 47 al 50 %; el de hidratos de carbono, alrededor del 18 %, y el de proteínas, alrededor del 26 %. El resto hasta 100 (5-8 %) es el tanto por ciento de humedad del cacahuete sin tostar. Su valor energético es considerable, produciendo 1 kg de cacahuetes alrededor de las 6.300 kilocalorías. La producción mundial de cacahuetes es de unos 17 millones de toneladas, siendo los principales productores: India (6 millones de t), China (2,5 millones), Nigeria (1,4 millones), EE.UU. (1,1 millones) y Senegal (1 millón). España encabeza la lista de los productores europeos, con cerca de 15.000 t, producidas en su mayor parte en la región valenciana, habiéndose sembrado cantidades mínimas en Extremadura y Andalucía [1] *. En la región de Valencia ocupa el cacahuete un puesto más entre los cultivos hortícolas de verano; se siembra en mayo-junio y se recoge en octubre-noviembre. Es una especie que fructifica de forma característica.- enterrando el ovario fecundado en la zona superior de la parte subterránea de la planta y formando ahí las vainas (fig. 1). Por tanto, en cierto modo ha de asemejarte su cultivo y recolección a los de las patatas y otros productos subterráneos. El sistema de cultivo es ancestral, tal como se realizaba hace doscientos años, cuando fue introducido en la región valenciana; así también la recolección, que consta de las siguientes operaciones manuales: 1 2.° Arranque: Tirando hacia arriba de la planta firme, pero suavemente, para disminuir al máximo las pérdidas en el suelo. Sacudida de la tierra y cambio de posición durante el secado en la hilera. 3.° Trilla o sacudida enérgica sobre un cesto para la separación de las vainas (flg. 2). 4.° Cribado y limpieza, variable según las condiciones del producto. Las pérdidas son muy altas (pueden llegar hasta el 50 %), especialmente en el arranque, que, según las condiciones del terreno, se hace muy difícil (en estos casos se ayuda el operario de una azada). El rendimiento de estas labores es muy bajo, sobre todo el del arranque, labor ésta que incluye además gran porcentaje de tiempo muerto, debido a ser altamente fatigosa. Se calculan 182 h TH/ha * * para el conjunto de arranque y trilla manuales.
Resumo:
Los cultivos hortofrutícolas están muy extendidos en España, especialmente en el Sur y a orillas del Mediterráneo, donde el clima es muy apropiado para muchas especies de frutas y hortalizas. La superficie dedicada a cultivos hortícolas es de 3.915.000 ha (1.830.000 ha descontado el olivar), las cuales produjeron en I 982 unos ingresos brutos a los agricultores de 574.896 x 106 ptas. La mecanización de los cultivos hortícolas está muy generalizada en las faenas comunes con otros cultivos (laboreo, fertilización, pulverización); se han conseguido grandes avances en la mecanización de la siembra y trasplante, y están menos extendidos los medios mecánicos para la recolección o aún no se ha logrado una solución satisfactoria para algunos cultivos. La recolección de los productos hortofrutícolas presenta la dificultad de que los órganos a recoger son muy diversos por lo que las máquinas de recolección deben ser muy específicas, se usan pocos días al año y su coste horario resulta elevado. Estas circunstancias unidas al hecho de que la recesión económica ha provocado desde 1974 la aparición de mano de obra desocupada, ha impedido que se haya generalizado la recolección mecanizada en la horticultura. La industria nacional sólo se ha preocupado de fabricar máquinas destinadas a recoger los cultivos más extendidos (olivar, patata) y ha sido necesario importar las máquinas más sofisticadas para cosechar otros cultivos (tomate, judías verdes, guisantes, etc.). Paralelamente al desarrollo y utilización de las máquinas para efectuar la recolección, se han investigado otros problemas relacionados con la misma. En los cultivos anuales se ha avanzado en la selección de variedades especialmente adaptadas a la recolección. Se han desarrollado algunas variedades autóctonas y se han adaptado otras traídas de EE.UU., y Más concretamente de California, dada la similitud de clima. La introducción de variedades y métodos de cultivo distintos de los tradicionales presenta dificultades aunque en los últimos años parece acelerarse la transformación hacia los nuevos sistemas. La infraestructura (parcelas pequeñas) es un problema básico en ciertas áreas, pero en los nuevos regadíos se cuenta con una situación bastante adecuada para los sistemas más industriales de producción. Los cultivos frutales son más difíciles de mecanizar. La poda que tiene la vid hace que sea prácticamente imposible hasta ahora la recolección mecánica y es muy difícil lograrlo con el olivar. Sé han hecho grandes avances en el manejo y limpieza del producto recogido y su transporte a fábrica, estando estas faenas mecanizadas casi por completo.
Resumo:
In the last several years, micro-blogging Online Social Networks (OSNs), such as Twitter, have taken the world by storm, now boasting over 100 million subscribers. As an unparalleled stage for an enormous audience, they offer fast and reliable centralized diffusion of pithy tweets to great multitudes of information-hungry and always-connected followers. At the same time, this information gathering and dissemination paradigm prompts some important privacy concerns about relationships between tweeters, followers and interests of the latter. In this paper, we assess privacy in today?s Twitter-like OSNs and describe an architecture and a trial implementation of a privacy-preserving service called Hummingbird. It is essentially a variant of Twitter that protects tweet contents, hashtags and follower interests from the (potentially) prying eyes of the centralized server. We argue that, although inherently limited by Twitter?s mission of scalable information-sharing, this degree of privacy is valuable. We demonstrate, via a working prototype, that Hummingbird?s additional costs are tolerably low. We also sketch out some viable enhancements that might offer better privacy in the long term.
Resumo:
1. Introduction 2. Air Quality Modeling system 3. Emission Inventories 4. Applications and Results 5. Conclusions
Resumo:
En las últimas décadas hemos visto como han proliferado en la periferia de nuestras ciudades grandes extensiones de asentamientos residenciales. Este modelo urbanístico se ha demostrado no solo lesivo para el medio ambiente sino además ideológicamente erróneo. Concebido en EE.UU. como respuesta a la demanda de bienestar de una reciente clase media, su tipología fue penetrando paulatinamente en la ciudad europea a través del cine. Basada en premisas poco flexibles, pronto se revelaría como un modelo insatisfactorio para la mujer a la que en teoría iba dirigida. In recent decades we have experienced how large extensions of residential settlements have proliferated in the periphery of our cities. This urban model has been shown not only harmful to the environment but also ideologically wrong. Designed in the USA in response to the demand for welfare of an emerging middle class, their typology was gradually penetrating the European city through cinema. Based on inflexible assumptions, it was soon revealed as an unsatisfactory model for women to whom it was theoretically addressed.