1000 resultados para MEZCLA ASFÁLTICA EN CALIENTE
Resumo:
Los recubrimientos lubricantes sólidos son requeridos para reducir la fricción y prevenir el desgaste en componentes que operan a altas temperaturas o en vacío (vehículos espaciales, industria química, motores diésel, turbinas aeronáuticas y de generación de energía…). Los lubricantes líquidos pierden sus características cuando las condiciones de presión, temperatura o ambientales son severas (oxidación, inestabilidad térmica, volatilidad,…), por ejemplo los aceites minerales convencionales se descomponen a temperaturas próximas a 200 ºC. Por tanto, la única manera de poder conseguir una adecuada lubricación a temperaturas extremas es por medio de sólidos, que cada vez más, se aplican en forma de recubrimientos. Estos recubrimientos podrían ser empleados en componentes de vehículos espaciales reutilizables, donde se pueden alcanzar, en la reentrada en la atmósfera, temperaturas de 700 ºC (bisagras, rodamientos, articulaciones y zonas de sellado en las superficies de control, y rodamientos de las turbobombas y las cajas de engranajes). Dichos recubrimientos también deberían ser capaces de proporcionar una lubricación efectiva a bajas temperaturas para las operaciones en tierra, para las operaciones de arranque en frío, incluso en el espacio. El conjunto de requisitos que tendrían que satisfacer las capas tribológicas relacionadas con estas condiciones extremas es muy diverso, lo que hace que el concepto de capas tipo composite (aquéllas constituidas por varios componentes) sea, en principio, muy adecuado para estas aplicaciones. Recubrimientos composite proyectados térmicamente constituidos por una matriz dura y conteniendo lubricantes sólidos pueden ser una buena solución desde el punto de vista tribológico. El “Lewis Research Centre” de la NASA ha estado desarrollando recubrimientos autolubricantes tipo composite, constituidos por la combinación de materiales duros como el carburo de cromo, junto con lubricantes sólidos como plata o la eutéctica de fluoruros de calcio y bario, en una matriz de NiCr, para su uso en aplicaciones terrestres a alta temperatura. Estos recubrimientos han sido aplicados mediante proyección térmica, siendo denominados como series PS100, PS200, PS300 y PS400, reduciendo de forma significativa el coeficiente de fricción y mejorando la resistencia al desgaste en un amplio margen de temperaturas. Otra nueva familia de materiales con comportamiento tribológico prometedor son las aleaciones cuasicristalinas (QC). Presentan características muy atractivas: alta dureza, baja fricción, alto límite elástico de compresión... Son muy frágiles como materiales másicos, por lo que se intentan aplicar en forma de recubrimientos. Se pueden depositar mediante proyección térmica. Algunos de estos materiales cuasicristalinos, como AlCoFeCr, poseen coeficientes de dilatación próximos al de los materiales metálicos, alta estabilidad térmica, baja conductividad térmica y una elevada resistencia a la oxidación y a la corrosión en caliente. En esta tesis se han desarrollado recubrimientos tipo composite conteniendo cuasicristales como componente antidesgaste, NiCr como componente tenaz, y Ag y la eutéctica de BaF2-CaF2, como lubricantes sólidos. Estos recubrimientos han sido depositados con diferentes composiciones (denominadas TH100, TH103, TH200, TH400, TH600…) mediante distintos procesos de proyección térmica: plasma en aire (PS), plasma en baja presión (LPPS) y combustión a alta velocidad (HVOF). Los recubrimientos se han generado sobre el sustrato X-750, una superaleación base níquel, endurecible por precipitación, con muy buena resistencia mecánica y a la oxidación hasta temperaturas de 870 ºC y, además, es empleada en aplicaciones aeroespaciales e industriales. Los recubrimientos han sido caracterizados microestructuralmente en INTA (Instituto Nacional de Técnica Aeroespacial), mediante SEM-EDS (Scanning Electronic Microscopy-Energy Dispersive Spectroscopy) y XRD (X-Ray Diffraction), y tribológicamente mediante medidas de microdureza y ensayos en tribómetro POD (Pin On Disc) para determinar los coeficientes de fricción y de desgaste. Los recubrimientos han sido ensayados tribológicamente a alta temperatura en INTA y en vacío en AMTTARC (Aerospace and Space Materials Technology Testhouse – Austrian Research Centres), en Seibersdorf (Austria). Se ha estudiado la influencia de la carga normal aplicada, la velocidad lineal y el material del pin. De entre las diferentes series de recubrimientos cuasicristalinos tipo composite desarrolladas, dos de ellas, TH100 y TH103 han presentado una excelente calidad microestructural (baja porosidad, distribución uniforme de fases…) y se han mostrado como excelentes recubrimientos antidesgaste. Sin embargo, estas capas presentan un pobre comportamiento como autolubricantes a temperatura ambiente, aunque mejoran mucho a alta temperatura o en vacío. Los resultados del trabajo presentado en esta tesis han proporcionado nuevo conocimiento respecto al comportamiento tribológico de recubrimientos autolubricantes cuasicristalinos tipo composite depositados por proyección térmica. Sin embargo, dichos resultados, aunque son muy prometedores, no han puesto de manifiesto el adecuado comportamiento autolubricante que se pretendía y, además, como ocurre en cualquier trabajo de investigación, durante el desarrollo del mismo siempre aparecen nuevas dudas por resolver. Se proponen nuevas líneas de trabajo futuro que complementen los resultados obtenidos y que puedan encaminar hacia la obtención de un recubrimiento que mejore su comportamiento autolubricante. ABSTRACT Solid lubricant coatings are required to reduce friction and prevent wear in components that operate at high temperatures or under vacuum (space vehicles, chemical industry, diesel engines, power generation turbines and aeronautical turbines, for instance). In these cases neither greases nor liquid lubricants can be employed and the only practicable approach to lubrication in such conditions is by means of solids. These are increasingly applied in the form of coatings which should exhibit low shear strength, whilst maintaining their chemical stability at extremes temperatures and in the space environment. In the space field, these coatings would be employed in re-usable space plane applications, such as elevon hinges, where temperatures of 700 ºC are reached during re-entry into the Earth’s atmosphere. These coatings should also be capable of providing effective lubrication at lower temperatures since “cold start” operation may be necessary, even in the space environment. The diverse and sometimes conflictive requirements in high temperature and space-related tribological coatings make the concept of composite coatings highly suitable for these applications. Thermal-sprayed composites containing solid lubricants in a hard matrix perform well tribologically. NASA‘s Lewis Research Centre had developed self-lubricating composite coatings for terrestrial use, comprising hard materials like chromium carbide as well as solid lubricant additives such as silver and BaF2-CaF2 eutectic on a Ni-Cr matrix. These coatings series, named PS100, PS200, PS300 and PS400, are applied by thermal spray and significantly reduce friction coefficients, improving wear resistance over a wide temperature range. Quasicrystalline alloys (QC) constitute a new family of materials with promising tribological behaviour. Some QC materials exhibit a combination of adequate antifriction properties: low friction coefficient, high hardness and high yield strength under compression, and can be easily produced as coatings on top of metallic and non-metallic materials. Among these QC alloys, AlCoFeCr has high hardness (700 HV0.1), a thermal expansion coefficient close to that of metals, high thermal stability, low thermal conductivity and good oxidation and hot corrosion resistance. However most QC materials have the disadvantage of being very brittle. In order to take advantage of the excellent tribological properties of QCs, thick composite lubricant coatings were prepared containing them as the hard phase for wear resistance, Ag and BaF2-CaF2 eutectic as lubricating materials and NiCr as the tough component. These coatings were deposited in different composition mixtures (named TH100, TH103, TH200, TH400, TH600…) by different thermal spray processes: air plasma spray (PS), low pressure plasma spray (LPPS) and high velocity oxy-fuel (HVOF), on X-750 substrates. X-750 is an age-hardenable nickel-base superalloy with very good strength and a good resistance to oxidising combustion gas environments at temperatures up to about 870 ºC and it is widely used in aerospace and industrial applications. Coatings have been characterized microstructurally, at INTA (National Institute for Aerospace Technology), by means of SEM-EDS (Scanning Electronic Microscopy- Energy Dispersive Spectroscopy) and XRD (X-Ray Diffraction), and tribologically by microhardness measurements and pin-on-disc testing to determine friction coefficients as well as wear resistance. The coatings were tested tribologically at high temperature at INTA and under vacuum at AMTT-ARC (Aerospace and Space Materials Technology Testhouse – Austrian Research Centres), in Seibersdorf (Austria). Different loads, linear speeds and pin materials were studied. TH100 and TH103 QC alloy matrix composite coatings were deposited by HVOF with excellent microstructural quality (low porosity, uniform phase distribution) and showed to be excellent wear resistant coatings. However these QC alloy matrix composite coatings are poor as a self-lubricant at room temperature but much better at high temperature or in vacuum. The results from the work performed within the scope of this thesis have provided new knowledge concerning the tribological behavior of self-lubricating quasicrystalline composite coatings deposited by thermal spraying. Although these results are very promising, they have not shown an adequate self-lubricating behavior as was intended, and also, as in any research, the results have in addition raised new questions. Future work is suggested to complement the results of this thesis in order to improve the selflubricating behaviour of the coatings.
Resumo:
La Ingeniería Biomédica surgió en la década de 1950 como una fascinante mezcla interdisciplinaria, en la cual la ingeniería, la biología y la medicina aunaban esfuerzos para analizar y comprender distintas enfermedades. Las señales existentes en este área deben ser analizadas e interpretadas, más allá de las capacidades limitadas de la simple vista y la experiencia humana. Aquí es donde el procesamiento digital de la señal se postula como una herramienta indispensable para extraer la información relevante oculta en dichas señales. La electrocardiografía fue una de las primeras áreas en las que se aplicó el procesado digital de señales hace más de 50 años. Las señales electrocardiográficas continúan siendo, a día de hoy, objeto de estudio por parte de cardiólogos e ingenieros. En esta área, las técnicas de procesamiento de señal han ayudado a encontrar información oculta a simple vista que ha cambiado la forma de tratar ciertas enfermedades que fueron ya diagnosticadas previamente. Desde entonces, se han desarrollado numerosas técnicas de procesado de señales electrocardiográficas, pudiéndose resumir estas en tres grandes categorías: análisis tiempo-frecuencia, análisis de organización espacio-temporal y separación de la actividad atrial del ruido y las interferencias. Este proyecto se enmarca dentro de la primera categoría, análisis tiempo-frecuencia, y en concreto dentro de lo que se conoce como análisis de frecuencia dominante, la cual se va a aplicar al análisis de señales de fibrilación auricular. El proyecto incluye una parte teórica de análisis y desarrollo de algoritmos de procesado de señal, y una parte práctica, de programación y simulación con Matlab. Matlab es una de las herramientas fundamentales para el procesamiento digital de señales por ordenador, la cual presenta importantes funciones y utilidades para el desarrollo de proyectos en este campo. Por ello, se ha elegido dicho software como herramienta para la implementación del proyecto. ABSTRACT. Biomedical Engineering emerged in the 1950s as a fascinating interdisciplinary blend, in which engineering, biology and medicine pooled efforts to analyze and understand different diseases. Existing signals in this area should be analyzed and interpreted, beyond the limited capabilities of the naked eye and the human experience. This is where the digital signal processing is postulated as an indispensable tool to extract the relevant information hidden in these signals. Electrocardiography was one of the first areas where digital signal processing was applied over 50 years ago. Electrocardiographic signals remain, even today, the subject of close study by cardiologists and engineers. In this area, signal processing techniques have helped to find hidden information that has changed the way of treating certain diseases that were already previously diagnosed. Since then, numerous techniques have been developed for processing electrocardiographic signals. These methods can be summarized into three categories: time-frequency analysis, analysis of spatio-temporal organization and separation of atrial activity from noise and interferences. This project belongs to the first category, time-frequency analysis, and specifically to what is known as dominant frequency analysis, which is one of the fundamental tools applied in the analysis of atrial fibrillation signals. The project includes a theoretical part, related to the analysis and development of signal processing algorithms, and a practical part, related to programming and simulation using Matlab. Matlab is one of the fundamental tools for digital signal processing, presenting significant functions and advantages for the development of projects in this field. Therefore, we have chosen this software as a tool for project implementation.
Resumo:
La computación ubicua está extendiendo su aplicación desde entornos específicos hacia el uso cotidiano; el Internet de las cosas (IoT, en inglés) es el ejemplo más brillante de su aplicación y de la complejidad intrínseca que tiene, en comparación con el clásico desarrollo de aplicaciones. La principal característica que diferencia la computación ubicua de los otros tipos está en como se emplea la información de contexto. Las aplicaciones clásicas no usan en absoluto la información de contexto o usan sólo una pequeña parte de ella, integrándola de una forma ad hoc con una implementación específica para la aplicación. La motivación de este tratamiento particular se tiene que buscar en la dificultad de compartir el contexto con otras aplicaciones. En realidad lo que es información de contexto depende del tipo de aplicación: por poner un ejemplo, para un editor de imágenes, la imagen es la información y sus metadatos, tales como la hora de grabación o los ajustes de la cámara, son el contexto, mientras que para el sistema de ficheros la imagen junto con los ajustes de cámara son la información, y el contexto es representado por los metadatos externos al fichero como la fecha de modificación o la de último acceso. Esto significa que es difícil compartir la información de contexto, y la presencia de un middleware de comunicación que soporte el contexto de forma explícita simplifica el desarrollo de aplicaciones para computación ubicua. Al mismo tiempo el uso del contexto no tiene que ser obligatorio, porque si no se perdería la compatibilidad con las aplicaciones que no lo usan, convirtiendo así dicho middleware en un middleware de contexto. SilboPS, que es nuestra implementación de un sistema publicador/subscriptor basado en contenido e inspirado en SIENA [11, 9], resuelve dicho problema extendiendo el paradigma con dos elementos: el Contexto y la Función de Contexto. El contexto representa la información contextual propiamente dicha del mensaje por enviar o aquella requerida por el subscriptor para recibir notificaciones, mientras la función de contexto se evalúa usando el contexto del publicador y del subscriptor. Esto permite desacoplar la lógica de gestión del contexto de aquella de la función de contexto, incrementando de esta forma la flexibilidad de la comunicación entre varias aplicaciones. De hecho, al utilizar por defecto un contexto vacío, las aplicaciones clásicas y las que manejan el contexto pueden usar el mismo SilboPS, resolviendo de esta forma la incompatibilidad entre las dos categorías. En cualquier caso la posible incompatibilidad semántica sigue existiendo ya que depende de la interpretación que cada aplicación hace de los datos y no puede ser solucionada por una tercera parte agnóstica. El entorno IoT conlleva retos no sólo de contexto, sino también de escalabilidad. La cantidad de sensores, el volumen de datos que producen y la cantidad de aplicaciones que podrían estar interesadas en manipular esos datos está en continuo aumento. Hoy en día la respuesta a esa necesidad es la computación en la nube, pero requiere que las aplicaciones sean no sólo capaces de escalar, sino de hacerlo de forma elástica [22]. Desgraciadamente no hay ninguna primitiva de sistema distribuido de slicing que soporte un particionamiento del estado interno [33] junto con un cambio en caliente, además de que los sistemas cloud actuales como OpenStack u OpenNebula no ofrecen directamente una monitorización elástica. Esto implica que hay un problema bilateral: cómo puede una aplicación escalar de forma elástica y cómo monitorizar esa aplicación para saber cuándo escalarla horizontalmente. E-SilboPS es la versión elástica de SilboPS y se adapta perfectamente como solución para el problema de monitorización, gracias al paradigma publicador/subscriptor basado en contenido y, a diferencia de otras soluciones [5], permite escalar eficientemente, para cumplir con la carga de trabajo sin sobre-provisionar o sub-provisionar recursos. Además está basado en un algoritmo recientemente diseñado que muestra como añadir elasticidad a una aplicación con distintas restricciones sobre el estado: sin estado, estado aislado con coordinación externa y estado compartido con coordinación general. Su evaluación enseña como se pueden conseguir notables speedups, siendo el nivel de red el principal factor limitante: de hecho la eficiencia calculada (ver Figura 5.8) demuestra cómo se comporta cada configuración en comparación con las adyacentes. Esto permite conocer la tendencia actual de todo el sistema, para saber si la siguiente configuración compensará el coste que tiene con la ganancia que lleva en el throughput de notificaciones. Se tiene que prestar especial atención en la evaluación de los despliegues con igual coste, para ver cuál es la mejor solución en relación a una carga de trabajo dada. Como último análisis se ha estimado el overhead introducido por las distintas configuraciones a fin de identificar el principal factor limitante del throughput. Esto ayuda a determinar la parte secuencial y el overhead de base [26] en un despliegue óptimo en comparación con uno subóptimo. Efectivamente, según el tipo de carga de trabajo, la estimación puede ser tan baja como el 10 % para un óptimo local o tan alta como el 60 %: esto ocurre cuando se despliega una configuración sobredimensionada para la carga de trabajo. Esta estimación de la métrica de Karp-Flatt es importante para el sistema de gestión porque le permite conocer en que dirección (ampliar o reducir) es necesario cambiar el despliegue para mejorar sus prestaciones, en lugar que usar simplemente una política de ampliación. ABSTRACT The application of pervasive computing is extending from field-specific to everyday use. The Internet of Things (IoT) is the shiniest example of its application and of its intrinsic complexity compared with classical application development. The main characteristic that differentiates pervasive from other forms of computing lies in the use of contextual information. Some classical applications do not use any contextual information whatsoever. Others, on the other hand, use only part of the contextual information, which is integrated in an ad hoc fashion using an application-specific implementation. This information is handled in a one-off manner because of the difficulty of sharing context across applications. As a matter of fact, the application type determines what the contextual information is. For instance, for an imaging editor, the image is the information and its meta-data, like the time of the shot or camera settings, are the context, whereas, for a file-system application, the image, including its camera settings, is the information and the meta-data external to the file, like the modification date or the last accessed timestamps, constitute the context. This means that contextual information is hard to share. A communication middleware that supports context decidedly eases application development in pervasive computing. However, the use of context should not be mandatory; otherwise, the communication middleware would be reduced to a context middleware and no longer be compatible with non-context-aware applications. SilboPS, our implementation of content-based publish/subscribe inspired by SIENA [11, 9], solves this problem by adding two new elements to the paradigm: the context and the context function. Context represents the actual contextual information specific to the message to be sent or that needs to be notified to the subscriber, whereas the context function is evaluated using the publisher’s context and the subscriber’s context to decide whether the current message and context are useful for the subscriber. In this manner, context logic management is decoupled from context management, increasing the flexibility of communication and usage across different applications. Since the default context is empty, context-aware and classical applications can use the same SilboPS, resolving the syntactic mismatch that there is between the two categories. In any case, the possible semantic mismatch is still present because it depends on how each application interprets the data, and it cannot be resolved by an agnostic third party. The IoT environment introduces not only context but scaling challenges too. The number of sensors, the volume of the data that they produce and the number of applications that could be interested in harvesting such data are growing all the time. Today’s response to the above need is cloud computing. However, cloud computing applications need to be able to scale elastically [22]. Unfortunately there is no slicing, as distributed system primitives that support internal state partitioning [33] and hot swapping and current cloud systems like OpenStack or OpenNebula do not provide elastic monitoring out of the box. This means there is a two-sided problem: 1) how to scale an application elastically and 2) how to monitor the application and know when it should scale in or out. E-SilboPS is the elastic version of SilboPS. I t is the solution for the monitoring problem thanks to its content-based publish/subscribe nature and, unlike other solutions [5], it scales efficiently so as to meet workload demand without overprovisioning or underprovisioning. Additionally, it is based on a newly designed algorithm that shows how to add elasticity in an application with different state constraints: stateless, isolated stateful with external coordination and shared stateful with general coordination. Its evaluation shows that it is able to achieve remarkable speedups where the network layer is the main limiting factor: the calculated efficiency (see Figure 5.8) shows how each configuration performs with respect to adjacent configurations. This provides insight into the actual trending of the whole system in order to predict if the next configuration would offset its cost against the resulting gain in notification throughput. Particular attention has been paid to the evaluation of same-cost deployments in order to find out which one is the best for the given workload demand. Finally, the overhead introduced by the different configurations has been estimated to identify the primary limiting factor for throughput. This helps to determine the intrinsic sequential part and base overhead [26] of an optimal versus a suboptimal deployment. Depending on the type of workload, this can be as low as 10% in a local optimum or as high as 60% when an overprovisioned configuration is deployed for a given workload demand. This Karp-Flatt metric estimation is important for system management because it indicates the direction (scale in or out) in which the deployment has to be changed in order to improve its performance instead of simply using a scale-out policy.
Resumo:
Las características y capacidades de los aceros inoxidables sinterizados se han investigado en una doble vertiente. Por una parte con vista a sus capacidades de resistencia a la oxidación en caliente y por otra parte se ha investigado su capacidad para retener microorganismos que contribuyan a la descontaminación de un ambiente. Por ello, para cada una de estas funciones se han utilizado los aceros inoxidables sinterizados, que se han considerado más adecuados. Para estudiar sus capacidades de resistencia a la oxidación en caliente se ha utilizado un acero inoxidable austenítico AISI 304L, un acero inoxidable ferrítico AISI 430L y un acero inoxidable Fe-16Cr-3Al. Para estudiar sus capacidades para retener microorganismos se ha utilizado un acero inoxidable austenítico AISI 316L, un acero inoxidable ferrítico AISI 430L y un acero inoxidable dúplex 50%/50% de los anteriores. Para esta última finalidad los aceros se han compactado a tres diferentes presiones 300, 500 y 700 MPa, a las que corresponden diferentes porosidades. En relación con el comportamiento frente a la oxidación en caliente, se han cuantificado los incrementos positivos o negativos de volumen, masa y densidad en los diferentes tipos de sinterización y estados de tratamiento de oxidación. Como tónica general de comportamiento, puede decirse que los aceros sinterizados bajo vacío son más resistentes a la oxidación, que los sinterizados en atmósfera de N2-5H2 y que los aceros inoxidables austeníticos son algo más resistentes, que los Cr-Al y estos, a su vez, más que los aceros inoxidables ferríticos. Respecto a la retención de microorganismos, los tres aceros inoxidables sinterizados se han ensayado en diferentes medios de cultivo, utilizando cuatro especies de bacterias. Los mejores resultados se han obtenido con Staphylococcus aureus, muy favorable para su observación y recuento. Se han cuantificado, una vez sinterizados y colonizados por los microorganismos, para cada material y presión de compactación, las áreas de cada uno de los poros y el número de microorganismos situados en los poros y en la superficie sin poros. Se ha establecido en cada caso la densidad de microorganismos en las zonas de poros y en las zonas sin poros. Como tónica general puede decirse, que los aceros inoxidables austeníticos aparecen más favorables para estos estudios, que los aceros dúplex y estos más que los inoxidables ferríticos. Asimismo, se desprende que las áreas de los poros dependen de forma unívoca de la presión de compactación y que para áreas de poros decrecientes las densidades de microorganismos son crecientes. En consecuencia, podría deducirse, que a igualdad de área de poros en una superficie, aquella que tuviera los poros más pequeños, retendría mayor cantidad de bacterias. ABSTRACT The characteristics and capacities of sintered stainless steels have been researched from two perspectives: firstly, with a view to their resistance to hot oxidation, and secondly their capacity to retain microorganisms able to decontaminate the environment. For both these functions, sintered stainless steels were used, which are considered to be the most fit for purpose. To study their resistance to hot oxidation, we used austenitic stainless steel AISI 304L, ferritic stainless steel AISI 430L and stainless steel Fe-16Cr-3Al. To study their ability to retain microorganisms, we used austenitic stainless steel AISI 316L, ferritic stainless steel AISI 430L, and duplex stainless steel, being a 50/50 blend of the two former ones. For this last purpose, the steels were compacted at three different pressures (300, 500 and 700 MPa) corresponding to different porosities. With regard to the hot oxidation, we quantified the positive or negative increments in volume, mass and density in the different types of sintering and oxidation treatment states. As a general performance trend, we observed that vacuum sintered steels are more resistant to oxidation than those sintered in an atmosphere of N2-5H2, and that austenitic stainless steels are slightly more resistant than the Cr-Al steels which, in turn, are more resistant than the ferritic stainless steels. With regard to the retention of microorganisms, the three sintered stainless steels were tested in different culture media using four types of bacteria. The best results for observation and counting were obtained with Staphylococcus aureus bacteria. Once sintered and colonized by microorganisms, for each material and compacting pressure we quantified the areas of the pores and the number of microorganisms situated in the pores and on the pore-free surface. In each case, the density of microorganisms in the pores and in the pore-free areas was established. As a general rule, we can say that the austenitic stainless steels appear to be more favourable for this type of study than the duplex steels which, in turn, are more favourable than the ferritic stainless steels. It also emerged that the areas with the pores depend unequivocally on the compacting pressure, and that the smaller the area of the pore the higher the density of the microorganisms. Consequently, it can be deduced that comparing an equal area of pores on a surface, the one with the smaller pores would retain a larger number of bacteria.
Resumo:
El objetivo del presente trabajo es la caracterización, tanto teórica como experimental, de un reactor de lecho fluidizado para operaciones de termoquímica solar. En el apartado experimental se emplea un reactor de lecho fluidizado cedido por el CIEMAT. Para la parte numérica, se realiza un análisis óptico-energético y un estudio termofluidodinámico (dinámica de fluidos computacional, DFC). Se llevan a cabo ensayos en frío y en caliente para la parte experimental. Los ensayos en frío tienen el objetivo de demostrar la teoría establecida de fluidización, usando partículas de alúmina y ferritas de níquel. Los ensayos en caliente se realizan para observar el comportamiento de un reactor de lecho fluidizado irradiado. Se emplean partículas de carburo de silicio (SiC) y ferritas de níquel. El análisis óptico-energético se realiza usando el software de trazado de rayos TracePro. La simulación se hace con partículas de α-SiC. Las propiedades del material se obtienen con un software adicional. Por otra parte, el estudio DFC se realiza con una licencia académica de Ansys Fluent. Se hacen 2 simulaciones de un modelo euleriano de 2 fases, sin condiciones de calor y con 2 paredes con una temperatura fijada.
Resumo:
La invención proporciona un método para preparar un concentrado de ácidos grasos poliinsaturados (PUFAS) a partir de biomasa que comprende: (a) extraer y saponificar la biomasa mediante tratamiento con un alcohol inferior y un hidróxido de metal alcalino a 75-90ºC; (b) enfriar la mezcla obtenida en (a) para obtener una fase líquida y una fase sólida; (c) filtrar la fase sólida a la temperatura de enfriamiento; (d) acidificar el filtrado; (e) extraer el filtrado acidificado con un disolvente orgánico; y (f) purificar el extracto destilando el disolvente; en el que en la etapa (a) el alcohol inferior es etanol absoluto y el hidróxido de metal alcalino es hidróxido sódico sólido; y el enfriamiento de la etapa (b) y la filtración de la etapa (c) se llevan a cabo a una temperatura de 0-4ºC. El concentrado de PUFAS así obtenido puede usarse en la industria agroalimentaria, farmacéutica o química.
Resumo:
El presente trabajo de investigación tuvo como objetivo principal, el determinar y caracterizar la microestructura de una superaleación Inconel 625 antes y después de pasar por procesos termomecánicos, con el fin de comprender su evolución microestructural y sus fases presentes. Para cumplir este objetivo se propuso realizar una caracterización microestructural antes y después de una serie de trabajos termomecánicos, los cuales se realizaron ensayos mecánicos de compresión en caliente a diferentes temperaturas (900ºC, 950°C, 1000°C, 1050°C) a diferentes velocidades de deformación (0.1 mm/s, 0.01 mm/s), en muestras previamente solubilizadas a 1150°C por 1 hora. Esto con la finalidad de caracterizar el material bajo estas condiciones termomecánicas, esto con el fin de observar la formación de fases y precipitación de carburos, todo esto mediante el uso de técnicas como Difracción de Rayos X, Análisis Térmico, Microscopia Óptica, y Microscopia Electrónica de Barrido.
Resumo:
La fotodescomposición de dodecilbencenosulfato sódico (DBS) se ha estudiado como un proceso de purificación del agua. Soluciones acuosas de DBS han sido irradiadas en un fotorreactor anular de mezcla perfecta, aplicándose el modelo de radiación cilíndrico esférico extenso.
Resumo:
Tesis ( Maestría en Administración de Empresas con Especialidad en mercadotecnia) U.A.N.L.
Resumo:
Tesis (Maestría en Ciencias con Orientación en Química Analítica Ambiental) UANL, 2010.
Resumo:
Tesis (Maestría en Ciencias en Nutrición) UANL, 2012.
Resumo:
El presente artículo es una reseña explicativa de la creatividad del juez para combinar elementos de los procesos constitucionales con el fin de fortalecer los derechos fundamentales. Se presentará a continuación un análisis de las fuentes de derecho y su valor equivalente en los razonamientos constitucionales. Subrayando la equidad en la importancia de las fuentes, el presente artículo busca incentivar la labor conciliadora de los jueces y los procesos de creación del derecho bajo los límites de la coherencia jurídica. Se explicarán a continuación los eventos en los cuáles puede cambiarse la jurisprudencia y sus ventajas para garantizar la evolución del derecho constitucional. Uno de los cambios más importantes de la jurisprudencia, es la tendencia que muestra la articulación de los procedimientos constitucionales.
Resumo:
Resumen de la autora en catalán
Resumo:
Estudiar las peculiaridades y el desarrollo del lenguaje en los bilingües familiares. Tres sujetos: 1) trilingüe inglés-castellano-catalán, 4'2 años; 2) bilingüe inglés-castellano, 3'11 años; 3) bilingüe inglés-castellano, 3'11 años. Recogido el material durante el periodo de dos años. Tras el marco teórico se formula el concepto de bilingüismo familiar. Analiza posteriormente dos bloques: 1) análisis de datos segun los resultados de Slabin (1985); 2) aparición del fenomeno de Code Mixing y Code Switching en el habla bilingüe. Se realizan grabaciones magnetofónicas de los sujetos en situaciones naturales. Se realiza el análisis de contenido y del material observacional recogido y se extraen las conclusiones pertinentes. Los sujetos fueron grabados con cassette durante media hora cada sesión, siempre en condiciones naturales, cada sesión se daba cada 3 o 4 semanas. El análisis se realiza bajo tres bloques: 1) desarrollo morfosintáctico; 2) mezcla y cambio de códigos; 3) aparición de la conciencia metalingüística, tomando el error como término de análisis, siendo un análisis de técnicas observacionales o de contenido. Tanto el Code Mixing como el Code Switching son fenómenos con entidad propia, genuinos de las producciones bilingües. La elección del código está en consonancia con una situación contextual. En lo referente a la conciencia metalingüística llega a coincidir con la definición de Jackobson, teniendo el niño dos significantes para un solo significado que puede utilizar en diferentes situaciones, según sea el contexto. Obtención de resultados interesantes en el estudio de diferentes aspectos del lenguaje de bilingües familiares. Desvela estrategias que estas utilizan en el desarrollo de las dos lenguas. Son necesarias posteriores investigaciones, desde metodologías de análisis de la Psicología Cognitiva, Lingüística y Sociolingüística, así como una unificación de criterios.
Resumo:
Resumen tomado de las autoras