1000 resultados para Refrigeración y refrigeradores-Maquinaria
Resumo:
Las empresas explotadoras de yacimientos de petróleo y geotérmicos diseñan y construyen sus instalaciones optimizándolas según dos características especialmente representativas: su temperatura y su presión. Por ello, tener información precisa sobre ambos aspectos lo antes posible puede permitir ahorros importantes en las inversiones en infraestructuras y también acortar los plazos de comienzo de explotación; ambos, aspectos esenciales en la rentabilidad del yacimiento. La temperatura estática de una formación es la temperatura existente antes del inicio de las tareas de perforación del yacimiento. Las operaciones de perforación tienen como objetivo perforar, evaluar y terminar un pozo para que produzca de una forma rentable. Durante estas tareas se perturba térmicamente la formación debido a la duración de la perforación, la circulación de fluidos de refrigeración, la diferencia de temperaturas entre la formación y el fluido que perfora, el radio, la difusividad térmica de las formaciones y la tecnología de perforación [7]. La principal herramienta para determinar la temperatura estática de formación son las medidas de temperaturas en los pozos. Estas medidas de temperatura se realizan una vez cesados los trabajos de perforación y circulación de fluidos. El conjunto de medidas de temperatura obtenidas es una serie de valores ascendentes, pero no llega a alcanzar el valor de la temperatura estática de la formación. Para estimar esta temperatura se plantean las ecuaciones diferenciales que describen los fenómenos de transmisión de calor en el yacimiento [14]. Estos métodos se emplean tanto en yacimientos geotérmicos como en yacimientos de petróleo indistintamente [16]. Cada uno de ellos modela el problema de transmisión de calor asociado de una forma distinta, con hipótesis simplificadoras distintas. Se ha comprobado que la aplicación de los distintos métodos a un yacimiento en concreto presenta discrepancias en cuanto a los resultados obtenidos [2,16]. En muchos de los yacimientos no se dispone de información sobre los datos necesarios para aplicar el método de estimación. Esto obliga a adoptar una serie de hipótesis que comprometen la precisión final del método utilizado. Además, puede ocurrir que el método elegido no sea el que mejor reproduce el comportamiento del yacimiento. En el presente trabajo se han analizado los distintos métodos de cálculo. De la gran variedad de métodos existentes [9] se han seleccionado los cuatro más representativos [2,7]: Horner (HM), flujo radial y esférico (SRM), de las dos medidas (TLM) y de fuente de calor cilíndrica (CSM). Estos métodos se han aplicado a una serie de yacimientos de los cuales se conoce la temperatura estática de la formación. De cada yacimiento se disponía de datos tanto de medidas como de las propiedades termo-físicas. Estos datos, en ocasiones, eran insuficientes para la aplicación de todos los métodos, lo cual obligo a adoptar hipótesis sobre los mismos. Esto ha permitido evaluar la precisión de cada método en cada caso. A partir de los resultados obtenidos se han formulado una colección de criterios que permiten seleccionar qué método se adapta mejor para el caso de un yacimiento concreto, de tal manera que el resultado final sea lo más preciso posible. Estos criterios se han fijado en función de las propiedades termo-físicas del yacimiento, que determinan el tipo de yacimiento, y del grado de conocimiento que se dispone del yacimiento objeto de estudio.
Resumo:
El principal objetivo de este proyecto consiste en diseñar una nueva instalación de trituración de caliza en una fábrica de cemento, de manera que esté en disposición de obtener las correspondientes autorizaciones administrativas para su puesta en marcha. Dicha fábrica cuenta con un horno para la producción de clínker gris con una capacidad de 3.400 tjd, además de las correspondientes instalaciones de molienda, almacenamiento, expedición y servicios auxiliares. La nueva instalación tiene como objetivo la trituración de caliza, con un caudal de 800 t/h y una granulometría final de O- 15 mm., para la alimentación al molino de crudo. Con la nueva instalación se buscan varios fines: Disminuir la granulometría del material triturado a un tamaño 0-15 mm., para que aumente la producción del molino de crudo. Aumentar la capacidad de trituración de 500 t/h a 800 tjh. para mejorar los costes operativos. Disminuir las emisiones de polvo por debajo de 50 mg/Nm3. Reducción del consumo energético en kW /t. en la producción de caliza, al utilizar maquinaria de nueva generación.
Resumo:
La Gestión Forestal Sustentable es la principal herramienta para garantizar la compatibilidad entre producción y conservación en todos los bosques, y mas especialmente en los que exhiben niveles máximos de diversidad, como los tropicales humedos. En ellos existe un gran desconocimiento sobre la gestión de los recursos maderables de pequeña dimensión y los no maderables (PFNM) con mercado local. La madera redonda de pequeño diámetro es un recurso forestal de bajo valor económico extraído tradicionalmente por los pobladores locales de las zonas tropicales húmedas para construir sus viviendas. Los fustes de mejor calidad se obtienen del bosque de varillal, o bosques sobre arena blanca, altamente oligotroficos, sin potencial agrícola, escasos, dispersos, de pequeña superficie, gran fragilidad y alto porcentaje de endemismos. En el entorno de los centros urbanos de la Amazonia peruana, esta madera supone uno de los principales ingresos económicos para la población local, al ser extraida para su comercialización en dichos centros urbanos. Esto supone un riesgo de sobre-explotacion cuyos efectos se desconocen hasta el momento. Para acercarnos la situacion ambiental, social y económica asociada al varillal, se han realizado inventarios botanicos y de estructura forestal, se ha descrito el sistema de aprovechamiento tradicional y cuantificado sus efectos y, finalmente, se han realizado encuestas orientadas a analizar la situación social y economica de las comunidades locales que extraen y comercializan sus productos. El aprovechamiento tradicional del varillal es una actividad de bajo impacto que no emplea maquinaria y se centra en la extracción de fustes con diámetro normal entre 5 y 15 cm y características especificas de longitud, forma de fuste y calidad de la especie. Los resultados ponen de manifiesto la relevancia de la distancia existente entre el punto de extracción y el punto de venta, asi como la gran influencia que tiene la situación social y económica en la gestión sustentable del varillal. Todo ello pone en evidencia que si existe un cierto efecto negativo de la extracción intensa y continuada que han sufrido los varíllales mas próximos al centro urbano. Para favorecer una Gestión Forestal Sustentable que reduzca este efecto negativo es esencial llevar a cabo una adecuada planificación comunal que permita establecer una secuencia ordenada de zonas de corta y un cronograma para su gestión y aprovechamiento que evite la extracción repetida en un mismo varillal. ABSTRACT Sustainable forest management is the main tool to ensure compatibility between production and conservation in all forests, and especially in those exhibiting the maximum levels of diversity, such as tropical rain. Within them there is a great ignorance about the management of small sized timber and non-timber resources (PFMN) in the local market. The small-diameter round timber is a forest resource of low economic value extracted traditionally by local people of the humid tropics to build their homes. The better quality shafts are obtained from varillal forest or forests on white sand, highly oligotrophic, no agricultural potential, few, scattered, small size, fragility and high percentage of endemic species. In the environment of the urban centres of the Peruvian Amazon, this wood is one of the main incomes for the local population, since it is extracted for marketing in these urban centres. This poses a risk of overexploitation whose effects are unknown so far. To approach the environmental, social and economic situation associated to the varillal, botanical and forest structure inventories have been conducted, traditional harvesting systems described and their effects quantified and targeted surveys have eventually been conducted to analyse the social and local economic situation of the communities that extract and sell the products. The traditional use of varillal is a low-impact activity that does not use machinery and focuses on the extraction of shafts with a normal diameter of between 5 and 15 cm and specific characteristics in length, stem form and quality of the species. The results highlight the importance of the distance from the extraction point and the sale point, and the great influence of the social and economic situation in the sustainable management of varillal. This demonstrates that there is indeed a negative effect caused by the intense and continuous extraction that varillales closest to the city centre have suffered. To encourage a Sustainable Forest Management to reduce this negative effect is essential to conduct proper community planning in order to establish an ordered sequence of areas and a chronogram for their management and use, to avoid a repeat extraction in the same varillal.
Resumo:
Materiales termoplásticos son las resinas que se ablandan en presencia del calor y se endurecen cuando se enfrían, no importa cuantas veces se repita el proceso. Su arquitectura es la de una cadena polimérica lineal. Los termoplásticos son el grupo más numeroso, con el 78-80% del consumo total de plásticos. Por lo general, presentan un buen conjunto de propiedades mecánicas, son fáciles de procesar,reciclables y bastante económicos. Una gran característica es que se pueden soldar. La principal desventaja deriva del hecho de que son materiales que funden, de modo que no tienen aplicaciones a elevadas temperaturas, puesto que comienzan a reblandecer con la consiguiente pérdida de propiedades mecánicas.
Resumo:
Los materiales termoestables son resinas que se solidifican de forma definitiva cuando se les aplica calor y presión durante el moldeo. Su arquitectura corresponde a la de una cadena polimérica tridimensional reticulada o entrecruzada. A diferencia de los termoplásticos, no se pueden soldar. En la práctica para poder dar forma a estos materiales se parte de un estado intermedio (prepolímero), plástico termoendurecible, que puede fundir, teniendo lugar el entrecruzamiento y su conversión o curado
Resumo:
Es importante disponer de una herramienta con la cual diseñar dispositivos de uso industrial y comercial que trabajen con metales líquidos (fuentes de neutrones de alta intensidad, núcleos de sistemas de transmutación nuclear, reactores de fisión de nueva generación, instalaciones de irradiación de materiales o reactores de fusión nuclear). Los códigos CFD (Computational Fluid Dynamics) son una de esas herramientas, y la manera de llevar a cabo su validación es la simulación de experimentos existentes. La turbulencia y la presencia de dos o más fases, son los dos principales problemas a los que tiene que hacer frente un código CFD. La mayoría de los modelos de turbulencia presentes en los códigos CFD se basan en considerar la proporcionalidad directa entre el transporte de cantidad de movimiento turbulento y el transporte turbulento de calor. Precisamente, el coeficiente de difusión del calor turbulento, se asume que sea proporcional a la viscosidad turbulenta a través de una constante empírica, llamada número de Prandtl turbulento. El valor de este número, en los códigos comerciales está entre 0,9 y 0,85 dependiendo del modelo de turbulencia, lo cual significa que en los códigos se asume que el transporte turbulento tanto de cantidad de movimiento como de calor, son prácticamente equivalentes. Esta asunción no es cierta en los flujos de metales líquidos, donde se demuestra que la transmisión de calor por turbulencia es pequeña frente a la transmisión de calor molecular. La solución pasa por aumentar el número de Prandtl turbulento, o abandonar la analogía de Reynolds, en el tratamiento de la turbulencia. Por otro lado, en los metales líquidos la capa límite térmica es más ancha que la de velocidad, y las funciones de pared incluidas en los códigos no satisfacen adecuadamente los flujos turbulentos de los fluidos con bajo número de Prantdl (los metales líquidos). Sí serían adecuados, si el mallado es tal, que la celda más cercana a la pared, está dentro de la subcapa laminar, en la cual la propiedad dominante es la conductividad molecular. En la simulación de flujo multifase los códigos se encuentran con una serie de dificultades, que en el caso de que las densidades de los fluidos que intervienen sean muy diferentes entre sí (como ocurre con los metales líquidos y los gases), serán aún mayores. La modelización de la interfase gas metal líquido, así como el encontrar una correlación válida para los coeficientes de resistencia y sustentación para el movimiento de las burbujas en el seno del metal líquido, son dos de los principales retos en la simulación de este tipo de flujos. Las dificultades no se limitan sólo a la simulación mediante CFD, las medidas experimentales de velocidad de las burbujas y del metal líquido también son complicadas. Hay parámetros que no se pueden definir bien: la trayectoria y la forma de las burbujas entre ellos. En el campo de aplicación industrial de los metales líquidos, los altos valores de los coeficientes de expansión volumétrica y de conductividad térmica hacen que estos fluidos sean muy atractivos en la refrigeración por convección libre en dispositivos de alta densidad de potencia. Tomando como base uno de los diseños de ADS (Accelerator Driven System), y teniendo en cuenta la dificultad que conlleva el uso de múltiples modelos físicos, los cálculos realizados muestran cómo, en caso de fallo eléctrico, la operación de la instalación puede continuar de forma segura. Para la validación de los códigos CFD en su uso como herramienta de diseño, uno de los fenómenos donde cuantitativamente más dificultades encuentran los códigos es en los que aparecen en la modelización de las superficies libres. Un buen ajuste de los modelos multifase y de turbulencia es imprescindible en este tipo de simulaciones. Efectivamente, en la instalación de irradiación de materiales IFMIF, la formación de ondas en la superficie libre del flujo de Litio, es un fenómeno que hay que tratar de evitar, y además se requiere predecir las temperaturas, para ver si hay peligro de ebullición del metal líquido. La simulación llevada a cabo se enfoca al análisis termohidráulico. Variando la velocidad de inyección de Litio desde 10 hasta 20 m/s, se comprueba que las temperaturas máximas quedan alejadas del punto de ebullición del Litio, debido al aumento de presión producido por la fuerza centrífuga. Una de las cuestiones más críticas que se presentan en las fuentes de neutrones sería la refrigeración de la ventana metálica sobre la que incide el haz de protones. La simulación de experimentos como MEGAPIE y TS-1, permite la “visualización” de recirculación en el flujo, de los puntos de estancamiento, de los puntos calientes, etc, y da una fotografía de las zonas críticas del diseño.
Resumo:
La evolución de la maquinaria agrícola en el siglo XX ha sido tan espectacular que, de los tres grandes avances habidos a lo largo de la historia de la maquinaria agrícola, dos de ellos podemos considerar que marcan el comienzo y el fin del siglo XX. El primer avance fundamental se dio el día en que el hombre que removía la tierra golpeándola con una herramienta tipo azada decidió avanzar con ella introducida en el suelo venciendo la fuerza de tiro. Nació así el arado en un tiempo indeterminado de la prehistoria. Esa primera máquina y las pocas que en muchos siglos después se diseñaron para trabajar la tierra estaban accionadas por esfuerzo muscular, ya fuera el del hombre o de los animales de tiro. El siguiente paso decisivo, que libra al hombre de la necesidad de contar con fuerza muscular para trabajar el campo, se dio al aplicar a la agricultura la energía generada por motores que consumen combustibles. Aunque a lo largo del siglo XIX se construyeron máquinas de vapor estacionarias denominadas locomóviles que, mediante un juego de cables y poleas, conseguían tirar de los arados, su uso fue escaso y los agricultores no se libraron de seguir con su collera de muías o yunta de bueyes. Sin embargo, la construcción del primer tractor con motor de combustión interna, debida a Froelich en 1892, marca el inicio de la actual tractorización. A partir de ese momento, tanto el tamaño de las máquinas como el de la superficie trabajada por un agricultor pueden crecer, porque es la energía desarrollada por un motor la que realiza los esfuerzos necesarios. Esta fecha de 1892 podemos considerarla el inicio del siglo XX en maquinaria agrícola. Por último, en época reciente estamos asistiendo al empleo de dispositivos electrónicos e informáticos en las máquinas, los cuales miden diversas variables relativas al trabajo que desarrolla, guardan la información en registros e, incluso, deciden cómo debe comandarse la máquina. No sólo estamos liberados de realizar esfuerzos, sino también de mantener toda nuestra atención en el trabajo y tomar decisiones en función de las características del terreno, cultivo, etc. Estas técnicas, que a nivel de investigación y prototipo existen desde los años 90, marcan el inicio del siglo XXI en el que es de esperar que se difundan. Por tanto, ya tenemos encuadrado el siglo XX como el periodo comprendido desde que el esfuerzo para trabajar la tierra deja de ser muscular hasta que el cerebro que toma las decisiones podrá dejar de ser humano.
Resumo:
Con el título de "III Demostración Internacional de Maquinaria para Siembra, Transplante, Cultivo y Recolección de Tomate" y organizada conjuntamente por la Dirección General de Agricultura del M.A.P.A. y la Dirección General de Producción, Investigación y Formación Agraria de la Consejería de Agricultura de la Junta de Extremadura, se celebró durante los días 13 y 14 de septiembre en la finca "El Condado" en Montijo (Badajoz) una demostración de maquinaria trabajando en el campo que se circunscribía fundamentalmente a la recolección del tomate.
Resumo:
Se describen de forma panorámica los pasos e hitos principales que comprende el plan de estabilización y recuperación de la central de Fukushima-Daiichi, con los logros alcanzados hasta conseguir una refrigeración estable y llegar a la parada fría de los reactores, mantener la refrigeración de las piscinas, detener prácticamente por completo de las descargas radiactivas, gestionar y reutilizar cantidades enormes de agua contaminada, limpiar el emplazamiento y aislar la unidad 1. También se presentan sucintamente las etapas previstas posteriormente hasta llegar al desmantelamiento de la central, pasando por la extracción del combustible de las piscinas, y en una fase posterior mucho más delicada, del material fundido de los núcleos de los reactores y el resto de materiales y residuos altamente radiactivos.
Resumo:
Todo tipo de trabajos de investigación y desarrollo en el área de la mecanización de la recolección y manipulación de productos hortícolas requieren del conocimiento de las propiedades físicas de dichos productos. Las propiedades físicas más estudiadas hasta el momento incluyen aspectos tan variados y extensos como: fuerzas de desprendimiento y fuerzas de corte (primera fase de la recolección); parámetros físicos .como tamaño forma, peso específico, superficie externa, etc. (esenciales en las diversas fases de la manipulación y del almacenamiento) características de orientación, deslizamiento, y fricción (para el estudio del manejo de los productos); parámetros mecánicos elásticos y viscosos, de la parte carnosa de los frutos (para predecir la resistencia a los daños); absorbencia y reflectancia de las diversas radiaciones ( respuesta selectiva de diversos materiales); características aero-e hidrodinámicas para su utilización en sistemas de transporte y en corrientes fluidas); propiedades ligadas a la madurez y a la calidad: dureza de piel y carne, resistencia a la penetración, al esfuerzo cortante, etc. En los esfuerzos realizados por automatizar la tría y la clasificación de los productos cosechados, la reflexión de la luz en diversas zonas del espectro electromagnético es una de las propiedades que mayores posibilidades ofrece para resolver los diversos problemas planteados (diferencias de aspecto externo, defectos, etc.). Una de las consecuencias inevitables de la manipulación mecánica de los productos hortícolas es la aparición de daños en los mismos, que acarrean las consiguientes pérdidas económicas. Las principales causas de estos daños son compresiones e impactos contra elementos diversos, que causan magulladuras y roturas Se analizan, en base a referencias bibliográficas y a trabajos propios, cada uno de los aspectos arriba mencionados y se estudian algunos ejemplos de aplicación.
Resumo:
Dada la importancia económica que tienen las pérdidas de frutos por daños mecánicos y la creciente demanda de productos de calidad, se hace necesario contar con dispositivos para determinar rápidamente los puntos en que este tipo de daños se originan. Los daños por impacto se producen durante los procesos de recolección, manipulación y transporte de los productos agrícolas. Poder determinar la gravedad de los golpes producidos en cada caso es de gran importancia. Los SEPs (productos electrónicos simulados) miden y registran las fuerzas que intervienen en todo el proceso de manipulación de las frutas y hortalizas. De este modo, los puntos donde se producen fuerzas capaces de dañar al fruto pueden ser eliminados o modificados para evitar daños elevados y mejorar claramente la calidad y el valor del producto. En este articulo, se describen algunos de estos dispositivos electrónicos y los ensayos de laboratorio realizados para su calibración. Se discute su adaptación y posible utilización en nuestro país.
Resumo:
Se presenta el estudio de los parámetros mecánicos resultantes de la aplicación del ensayo de impacto controlado por ordenador en la evaluación de la madurez post-recolección de aguacate cv. "Hass", utilizándose un equipo de ensayo de impactos con impactador de 49,29 g y altura de caída de 4 cm. Los datos obtenidos fueron comparado s con la firmeza de la pulpa, medida por la penetración, índice tradicional para evaluar la madurez de la mayoría de los frutos climatéricos. Se establecieron dos lotes de frutos, de los que uno fue mantenido a + 20°C para su maduración durante once días y otro mantenido a + 6°C durante sesenta días. Se ha comprobado que el impacto mecánico controlado, bajo las condiciones del trabajo resulta no destructivo y puede ser utilizado para la evaluación del estado de madurez de estos frutos.
Resumo:
Ensayos de laboratorios de compresión y punción cuasiestáticas realizados: en las campañas 1.990-1.991 sobre muestras de doce variedades de albaricoque, evidencian la posibilidad de establecer una segregación de las variedades en base a sus propiedades mecánicas. Dichas características pueden a su vez relacionarse con el estado fisiológico de los frutos a través de sus índices de emisión de etileno. Por otra parte, se confirma la punción como prueba de menor variabilidad, y los valores en N/mm deformado recogidos en este ensayo demuestran una elevadísima correlación con la resistencia a compresión por mm de deformación y la magulladura producida en el fruto.
Resumo:
Se pretende hacer una guía sencilla y casi intuitiva para ayudar al agricultor o técnico a tomar la difícil decisión de cual es el tamaño óptimo del parque de maquinaria de una explotación. El agricultor se debe obligar a decidir qué máquinas le resultan más rentables tener en propiedad o en otros regímenes como la propiedad conjunta, el alquiler o la contratación a terceros (maquileros). Se trata del primer paso para optimizar una explotación agrícola y tener opciones de éxito en el difícil mundo de ser agricultor hoy día.
Resumo:
Como en toda reflexión humana desde el inicio de la modernidad, en la arquitectura se entrelazan las aspiraciones de racionalidad con las contaminaciones, errores e interferencias aleatorias propias de cualquier contexto real. De un lado, los modelos de pensamiento y control describen los hechos y los procedimientos, amplificando las pautas de una explicación coherente de los mismos; de otro, el contacto continuo con entornos reales distorsiona cualquier sistema de leyes internas, aumenta la complejidad de los modelos y abre la vía a la indeterminación y la aleatoriedad tanto en la producción como en el pensamiento. Este escenario de conflicto entre el orden abstracto y la singularidad de cada circunstancia real se reproduce reiteradamente en los problemas arquitectónicos, provocando que los mensajes no sigan pautas lineales. Por el contrario, estos se difunden siguiendo un modelo más parecido al de las ondas, en el que las respuestas obtenidas no son unívocas sino múltiples y deformadas, alteradas por las superposiciones y contaminaciones derivadas de este escenario. En la década de 1920 el movimiento Surrealista había detectado no solo la presencia de este conflicto, sino también su condición estructural en la naturaleza de lo contemporáneo y su permanente dilema entre la proyección hacia un futuro utópico predicado en el progreso tecnológico y el peso de la memoria de un pasado igualmente idealizado por la nostalgia. Un conflicto definitivamente magnificado por la Gran Guerra, capaz de poner en duda la existencia incluso de un futuro. La razón ilustrada y el desarrollo tecnológico se ven profundamente contaminados por la destrucción irracional y la mortal maquinaria bélica. Sus imágenes y experiencia directa constituyen, de hecho, uno de los detonantes de la reacción surrealista ante el ‘statu quo’, exacerbada por hechos circustanciales que se tornan intensamente significativos, como la prematura muerte de Apollinaire como consecuencia precisamente de las heridas recibidas en la guerra. “If reality’, Aragon writes in 1924,’ is the apparent absence of contradiction’, a construct that effaces conflict, then ‘the marvellous is the eruption of contradiction in the real’, an eruption that exposes this construct as such.” El shock traumático de la confrontación y las imágenes de una destrucción ajena a cualquier razón están en el origen de la pregunta que formula Aragon: enfrentados con lo absurdo e inexplicable de los hechos, de la destrucción irracional, debe existir necesariamente otro nivel de conciencia y comprensión bajo la apariencia de estabilidad y normalidad que facilite otra descripción de la realidad, por anormal e irracional que esta sea. Las actividades surrealistas en el París de entreguerras se centraron en el potencial de tales contradicciones, las cuales atravesaban, de medio a medio, las certezas de un futuro predicado en la razón objetiva y el avance tecnológico. Y, a pesar de su imprecisa relación con la arquitectura –no existe, de hecho, una arquitectura que pueda calificarse como ‘surrealista’-, identificaron en la construcción misma de la ciudad y de su experiencia diaria, a un tiempo rutinaria y desestabilizadora, los síntomas de tales conflictos.