942 resultados para microgravity gas-liquid two-phase flow


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Results of investigation of various forms of oil pollution, i.e. oil films, tar, and hydrocarbons in the Northeast Atlantic Ocean and North Indian Ocean during October-December 1980 and February-May 1981 are presented. Oil pollution was found only in regions of the heaviest ship traffic and was somewhat less than in 1976-1977. Background concentration of non-polar hydrocarbons was 8-10 ?g/l in surface waters and 14 ?g/l in the shelf zone. Infrared spectroscopy and gas-liquid chromatography indicate that hydrocarbons occurring at concentrations exceeding 50 ?g/l have composition differing from background hydrocarbons. There is considerable accumulation of hydrocarbons in the thin surface layer, and they exist in different forms close to pollution sources.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The first Cenozoic ice sheets initiated in Antarctica from the Gamburtsev Subglacial Mountains and other highlands as a result of rapid global cooling ~34 million years ago. In the subsequent 20 million years, at a time of declining atmospheric carbon dioxide concentrations and an evolving Antarctic circumpolar current, sedimentary sequence interpretation and numerical modelling suggest that cyclical periods of ice-sheet expansion to the continental margin, followed by retreat to the subglacial highlands, occurred up to thirty times. These fluctuations were paced by orbital changes and were a major influence on global sea levels. Ice-sheet models show that the nature of such oscillations is critically dependent on the pattern and extent of Antarctic topographic lowlands. Here we show that the basal topography of the Aurora Subglacial Basin of East Antarctica, at present overlain by 2-4.5 km of ice, is characterized by a series of well-defined topographic channels within a mountain block landscape. The identification of this fjord landscape, based on new data from ice-penetrating radar, provides an improved under¬standing of the topography of the Aurora Subglacial Basin and its surroundings, and reveals a complex surface sculpted by a succession of ice-sheet configurations substantially different from today's. At different stages during its fluctuations, the edge of the East Antarctic Ice Sheet lay pinned along the margins of the Aurora Subglacial Basin, the upland boundaries of which are currently above sea level and the deepest parts of which are more than 1 km below sea level. Although the timing of the channel incision remains uncertain, our results suggest that the fjord landscape was carved by at least two ice- flow regimes of different scales and directions, each of which would have over-deepened existing topographic depressions, reversing valley floor slopes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Debido al aumento de los estándares de calidad exigidos internacionalmente, así como por una mayor presión sobre la industria mediante legislaciones ambientales más rigurosas, el sector cafetalero está obligado a buscar, a través de la investigación, un sistema adecuado de tratamiento para las aguas residuales generadas en el beneficiado húmedo del café. En este trabajo se evaluó el funcionamiento de la digestión anaerobia para el tratamiento de las aguas residuales de despulpe. Para ello, se utilizaron dos sistemas anaerobios, uno en una etapa (UASB), y otro con separación de fases (2PUASB). Se investigó el efecto en la digestión anaerobia de tres cargas orgánicas volumétricas (OLR) y de las dos configuraciones de reactor usadas. Los valores de OLR de operación en el sistema UASB variaron en un intervalo de 3.6-4.1 kgCOD m-3 d-1, con una tasa de recirculación del efluente de 1.0. El sistema 2PUASB fue alimentado con OLR similares a las que se emplearon en el sistema en una etapa. El reactor de acidificación fue cargado a 11.0 kgCOD m-3 d-1, mientras que en el reactor metanogénico varió en el intervalo de 2.6-4.67 kgCOD m-3 d-1. El uso de reactores UASB en una etapa y en dos fases, bajo las mismas condiciones de operación ya descritas, propiciaron el logro de una eficiencia de degradación de COD total superior al 75% y al 85% para la COD soluble, respectivamente. Sin embargo, el sistema en dos fases mostró mejores resultados en el tratamiento de este tipo de agua residual, no solo en cuanto a eficiencia de eliminación de la carga orgánica contaminante así como una menor concentración de ácidos grasos volátiles (VFA) en el efluente. Obtenidas las mejores condiciones de trabajo, fue evaluada la separación de fases bajo el efecto de la recirculación. Los grupos de fermentaciones producidos fueron similares a los obtenidos en el experimento sin recirculación, indicando que está última no afectó la composición relativa de los VFA del reactor anaerobio, por lo que no cambió el patrón de degradación del residuo. Una tasa de recirculación de 1.0 del efluente del reactor metanogénico al reactor acidogénico mejoró significativamente el proceso, ya que se incrementó la conversión de los VFA (31%), la eliminación de la fracción total y soluble del residuo tratado (6.5%) y la reducción del consumo de alcalinizante (39%); manteniendo similares producciones de metano. El uso de la digestión anaerobia en dos fases demostró una mejora en la estabilidad del proceso y un incremento de la eficiencia de operación y de la producción de metano, respectivamente.Tesis Doctoral Yans Guardia Puebla Abstract ix ABSTRACT Due to the increase of quality standards internationally demanded, as well as for a greater pressure on the industry by means of more rigorous environmental legislations, the coffee sector is forced to search, through the research, an appropriated treatment system for coffee wet wastewaters generated. In this work the performance of the anaerobic digestion for the coffee wet wastewater treatment was evaluated. For it, two anaerobic systems, one in single-stage (UASB), and another with two-phase (2PUASB) were used. The effect in the anaerobic digestion of three organic loading rates (OLR) and of two reactor configurations used was investigated. OLR operation values in UASB system varied in an interval of 3.6-4.1 kgCOD m-3 d-1, with a recycle rate of the effluent of 1.0. 2PUASB system was fed with OLR similar to those that were used in the reactor in a stage. The acidification reactor was loaded to 11.0 kgCOD m-3 d-1, whereas in the methanogenic reactor varied in the interval of 2.6-4.67 kgCOD m-3 d-1. The use of single-stage and two-phase UASB reactors, under the same operation conditions already before described, a total COD removal efficiency of 75% and 85% for the soluble COD removal efficiency, respectively, was achieved. However, two-phase system showed better results in the treatment of this wastewater type, not only as for removal efficiency of loading organic polluting as well as a smaller volatile fatty acid (VFA) concentration in the effluent. Obtained the best work conditions, the two-phase system under the effect of the recycle was evaluated. Fermentations groups produced were similar to those obtained in the experiment without recycle, indicating that it last one do not affect the relative composition of VFA of the anaerobic reactor, for that reason the degradation pattern of the residue does not change. A recycle rate of 1.0 of the effluent of the methanogenic reactor to the acidogenic reactor improved the process significantly, since it was increased the VFA conversion (31%), the removal of total and soluble fraction of the residue treated (6.5%) and the decrease of the alkalinity consumption (39%); maintaining similar methane productions. The use of the two-phase anaerobic digestion demonstrated to an improvement in the stability of the process and an increase of the operation efficiency and methane production, respectively.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En los últimos años hemos sido testigos de la creciente demanda de software para resolver problemas cada vez más complejos y de mayor valor agregado. Bajo estas circunstancias, nos podemos hacer la siguiente pregunta: ¿Está preparada la industria de software para entregar el software que se necesita en los próximos años, de acuerdo con las demandas del cliente? Hoy en día, muchos expertos creen que el éxito de esta industria dependerá de su capacidad para gestionar los proyectos, las personas y los recursos. En este sentido, la gestión de proyectos es un factor clave para el éxito de los proyectos software en todo el mundo. Además, considerando que las Pequeñas y Medianas Empresas de software (PYMEs) representan el 99,87% de las empresas españolas, es vital para este tipo de empresas la implementación de los procesos involucrados con la gestión de proyectos. Es cierto que existen muchos modelos que mejoran la eficacia de la gestión de proyectos, pero la mayoría de ellos se centra únicamente en dos procesos: la planificación del proyecto y la monitorización y control del proyecto, ninguno de los cuales a menudo es asequible para las PYMEs. Estos modelos se basan en el consenso de un grupo de trabajo designado para establecer cómo debe ser gestionado el proceso software. Los modelos son bastante útiles ya que proporcionan lineamientos generales sobre dónde empezar a mejorar la gestión de los proyectos, y en qué orden, a personas que no saben cómo hacerlo. Sin embargo, como se ha dicho anteriormente, la mayoría de estos modelos solamente funcionan en escenarios dentro de las grandes empresas. Por lo tanto, es necesario adaptar los modelos y herramientas para el contexto de PYMEs. Esta tesis doctoral presenta una solución complementaria basada en la aplicación de un metamodelo. Este metamodelo es creado para mejorar la calidad de los procesos de la gestión de proyectos a través de la incorporación de prácticas eficaces identificadas a través del análisis y estudio de los modelos y normas existentes relacionadas con la gestión de proyectos. viii ProMEP – Metamodelo para la gestión de proyectos Por lo tanto, el metamodelo PROMEP (Gestión de Proyectos basada en Prácticas Efectivas) permitirá establecer un proceso estándar de gestión de proyectos que puede adaptarse a los proyectos de cada empresa a través de dos pasos: En primer lugar, para obtener una fotografía instantánea (o base) de los procesos de gestión de proyectos de las PYMEs se creó un cuestionario de dos fases para identificar tanto las prácticas realizadas y como las no realizadas. El cuestionario propuesto se basa en el Modelo de Madurez y Capacidad Integrado para el Desarrollo v1.2 (CMMI-DEV v1.2). Como resultado adicional, se espera que la aplicación de este cuestionario ayude a las PYMEs a identificar aquellas prácticas que se llevan a cabo, pero no son documentadas, aquellas que necesitan más atención, y aquellas que no se realizan debido a la mala gestión o al desconocimiento. En segundo lugar, para apoyar fácilmente y eficazmente las tareas de gestión de proyectos software del metamodelo PROMEP, se diseñó una biblioteca de activos de proceso (PAL) para apoyar la definición de los procesos de gestión de proyectos y realizar una gestión cuantitativa de cada proyecto de las PYMEs. Ambos pasos se han implementado como una herramienta computacional que apoya nuestro enfoque de metamodelo. En concreto, la presente investigación propone la construcción del metamodelo PROMEP para aquellas PYMEs que desarrollan productos software de tal forma que les permita planificar, monitorizar y controlar sus proyectos software, identificar los riesgos y tomar las medidas correctivas necesarias, establecer y mantener un conjunto de activos de proceso, definir un mecanismo cuantitativo para predecir el rendimiento de los procesos, y obtener información de mejora. Por lo tanto, nuestro estudio sugiere un metamodelo alternativo para lograr mayores niveles de rendimiento en los entornos de PYMEs. Así, el objetivo principal de esta tesis es ayudar a reducir los excesos de trabajo y el tiempo de entrega, y aumentar así la calidad del software producido en este tipo de organizaciones. Abstract In recent years we have been witnessing the increasing demand for software to solve more and more complex tasks and greater added value. Under these circumstances, we can ourselves the following question: Is the software industry prepared to deliver the software that is needed in the coming years, according to client demands? Nowadays, many experts believe that the industry’ success will depend on its capacity to manage the projects, people and resources. In this sense, project management is a key factor for software project success around the world. Moreover, taking into account that small and medium-sized software enterprises (SMSe) are the 99.87% of the Spanish enterprises, it is vital for this type of enterprises to implement the processes involved in project management. It is true that there are many models that improve the project management effectiveness, but most of them are focused only on two processes: project planning and project monitoring and control, neither of which is affordable for SMSe. Such models are based on the consensus of a designated working group on how software process should be managed. They are very useful in that they provide general guidelines on where to start improving the project management, and in which order, to people who do not know how to do it. However, as we said, the majority of these models have only worked in scenarios within large companies. So, it is necessary to adapt these models and tools to the context of SMSe. A complementary solution based on the implementation of a metamodel is presented in this thesis. This metamodel is created to improve the quality of project management processes through the incorporation of effective practices identified through the analysis and study of relevant models and standards related to project management. Thus, the PROMEP (PROject Management based on Effective Practices) metamodel will allow establishing a project management standard process to be tailored to each enterprise’s project through two steps: Firstly, to obtain a baseline snapshot of project management processes in SMSe a two-phase questionnaire was created to identify both performed and nonperformed practices. The x ProMEP – Metamodelo para la gestión de proyectos proposed questionnaire is based on Capability Maturity Model Integration for Development v1.2. As additional result, it is expected that the application of the questionnaire to the processes will help SMSe to identify those practices which are performed but not documented, which practices need more attention, and which are not implemented due to bad management or unawareness. Secondly, to easily an effectively support the software project management tasks in the PROMEP metamodel, a Process Asset Library (PAL) is designed to support the definition of project management processes and to achieve quantitative project management in SMSe. Both steps have been implemented as a computational tool that supports our metamodel approach. Concretely, the present research proposes the accomplishment of the PROMEP metamodel for those SMSe which develop software products and enable them to plan, supervise and control their software projects, identify risks and take corrective actions, establish and maintain a set of process assets, define quantitative models that predict the process performance, and provide improvement information. So, our study suggests an alternative metamodel to achieve higher performance levels in the SMSe environments. The main objective of this thesis is help to reduce software overruns and delivery time, and increase software quality in these types of organizations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nuestro cerebro contiene cerca de 1014 sinapsis neuronales. Esta enorme cantidad de conexiones proporciona un entorno ideal donde distintos grupos de neuronas se sincronizan transitoriamente para provocar la aparición de funciones cognitivas, como la percepción, el aprendizaje o el pensamiento. Comprender la organización de esta compleja red cerebral en base a datos neurofisiológicos, representa uno de los desafíos más importantes y emocionantes en el campo de la neurociencia. Se han propuesto recientemente varias medidas para evaluar cómo se comunican las diferentes partes del cerebro a diversas escalas (células individuales, columnas corticales, o áreas cerebrales). Podemos clasificarlos, según su simetría, en dos grupos: por una parte, la medidas simétricas, como la correlación, la coherencia o la sincronización de fase, que evalúan la conectividad funcional (FC); mientras que las medidas asimétricas, como la causalidad de Granger o transferencia de entropía, son capaces de detectar la dirección de la interacción, lo que denominamos conectividad efectiva (EC). En la neurociencia moderna ha aumentado el interés por el estudio de las redes funcionales cerebrales, en gran medida debido a la aparición de estos nuevos algoritmos que permiten analizar la interdependencia entre señales temporales, además de la emergente teoría de redes complejas y la introducción de técnicas novedosas, como la magnetoencefalografía (MEG), para registrar datos neurofisiológicos con gran resolución. Sin embargo, nos hallamos ante un campo novedoso que presenta aun varias cuestiones metodológicas sin resolver, algunas de las cuales trataran de abordarse en esta tesis. En primer lugar, el creciente número de aproximaciones para determinar la existencia de FC/EC entre dos o más señales temporales, junto con la complejidad matemática de las herramientas de análisis, hacen deseable organizarlas todas en un paquete software intuitivo y fácil de usar. Aquí presento HERMES (http://hermes.ctb.upm.es), una toolbox en MatlabR, diseñada precisamente con este fin. Creo que esta herramienta será de gran ayuda para todos aquellos investigadores que trabajen en el campo emergente del análisis de conectividad cerebral y supondrá un gran valor para la comunidad científica. La segunda cuestión practica que se aborda es el estudio de la sensibilidad a las fuentes cerebrales profundas a través de dos tipos de sensores MEG: gradiómetros planares y magnetómetros, esta aproximación además se combina con un enfoque metodológico, utilizando dos índices de sincronización de fase: phase locking value (PLV) y phase lag index (PLI), este ultimo menos sensible a efecto la conducción volumen. Por lo tanto, se compara su comportamiento al estudiar las redes cerebrales, obteniendo que magnetómetros y PLV presentan, respectivamente, redes más densamente conectadas que gradiómetros planares y PLI, por los valores artificiales que crea el problema de la conducción de volumen. Sin embargo, cuando se trata de caracterizar redes epilépticas, el PLV ofrece mejores resultados, debido a la gran dispersión de las redes obtenidas con PLI. El análisis de redes complejas ha proporcionado nuevos conceptos que mejoran caracterización de la interacción de sistemas dinámicos. Se considera que una red está compuesta por nodos, que simbolizan sistemas, cuyas interacciones se representan por enlaces, y su comportamiento y topología puede caracterizarse por un elevado número de medidas. Existe evidencia teórica y empírica de que muchas de ellas están fuertemente correlacionadas entre sí. Por lo tanto, se ha conseguido seleccionar un pequeño grupo que caracteriza eficazmente estas redes, y condensa la información redundante. Para el análisis de redes funcionales, la selección de un umbral adecuado para decidir si un determinado valor de conectividad de la matriz de FC es significativo y debe ser incluido para un análisis posterior, se convierte en un paso crucial. En esta tesis, se han obtenido resultados más precisos al utilizar un test de subrogadas, basado en los datos, para evaluar individualmente cada uno de los enlaces, que al establecer a priori un umbral fijo para la densidad de conexiones. Finalmente, todas estas cuestiones se han aplicado al estudio de la epilepsia, caso práctico en el que se analizan las redes funcionales MEG, en estado de reposo, de dos grupos de pacientes epilépticos (generalizada idiopática y focal frontal) en comparación con sujetos control sanos. La epilepsia es uno de los trastornos neurológicos más comunes, con más de 55 millones de afectados en el mundo. Esta enfermedad se caracteriza por la predisposición a generar ataques epilépticos de actividad neuronal anormal y excesiva o bien síncrona, y por tanto, es el escenario perfecto para este tipo de análisis al tiempo que presenta un gran interés tanto desde el punto de vista clínico como de investigación. Los resultados manifiestan alteraciones especificas en la conectividad y un cambio en la topología de las redes en cerebros epilépticos, desplazando la importancia del ‘foco’ a la ‘red’, enfoque que va adquiriendo relevancia en las investigaciones recientes sobre epilepsia. ABSTRACT There are about 1014 neuronal synapses in the human brain. This huge number of connections provides the substrate for neuronal ensembles to become transiently synchronized, producing the emergence of cognitive functions such as perception, learning or thinking. Understanding the complex brain network organization on the basis of neuroimaging data represents one of the most important and exciting challenges for systems neuroscience. Several measures have been recently proposed to evaluate at various scales (single cells, cortical columns, or brain areas) how the different parts of the brain communicate. We can classify them, according to their symmetry, into two groups: symmetric measures, such as correlation, coherence or phase synchronization indexes, evaluate functional connectivity (FC); and on the other hand, the asymmetric ones, such as Granger causality or transfer entropy, are able to detect effective connectivity (EC) revealing the direction of the interaction. In modern neurosciences, the interest in functional brain networks has increased strongly with the onset of new algorithms to study interdependence between time series, the advent of modern complex network theory and the introduction of powerful techniques to record neurophysiological data, such as magnetoencephalography (MEG). However, when analyzing neurophysiological data with this approach several questions arise. In this thesis, I intend to tackle some of the practical open problems in the field. First of all, the increase in the number of time series analysis algorithms to study brain FC/EC, along with their mathematical complexity, creates the necessity of arranging them into a single, unified toolbox that allow neuroscientists, neurophysiologists and researchers from related fields to easily access and make use of them. I developed such a toolbox for this aim, it is named HERMES (http://hermes.ctb.upm.es), and encompasses several of the most common indexes for the assessment of FC and EC running for MatlabR environment. I believe that this toolbox will be very helpful to all the researchers working in the emerging field of brain connectivity analysis and will entail a great value for the scientific community. The second important practical issue tackled in this thesis is the evaluation of the sensitivity to deep brain sources of two different MEG sensors: planar gradiometers and magnetometers, in combination with the related methodological approach, using two phase synchronization indexes: phase locking value (PLV) y phase lag index (PLI), the latter one being less sensitive to volume conduction effect. Thus, I compared their performance when studying brain networks, obtaining that magnetometer sensors and PLV presented higher artificial values as compared with planar gradiometers and PLI respectively. However, when it came to characterize epileptic networks it was the PLV which gives better results, as PLI FC networks where very sparse. Complex network analysis has provided new concepts which improved characterization of interacting dynamical systems. With this background, networks could be considered composed of nodes, symbolizing systems, whose interactions with each other are represented by edges. A growing number of network measures is been applied in network analysis. However, there is theoretical and empirical evidence that many of these indexes are strongly correlated with each other. Therefore, in this thesis I reduced them to a small set, which could more efficiently characterize networks. Within this framework, selecting an appropriate threshold to decide whether a certain connectivity value of the FC matrix is significant and should be included in the network analysis becomes a crucial step, in this thesis, I used the surrogate data tests to make an individual data-driven evaluation of each of the edges significance and confirmed more accurate results than when just setting to a fixed value the density of connections. All these methodologies were applied to the study of epilepsy, analysing resting state MEG functional networks, in two groups of epileptic patients (generalized and focal epilepsy) that were compared to matching control subjects. Epilepsy is one of the most common neurological disorders, with more than 55 million people affected worldwide, characterized by its predisposition to generate epileptic seizures of abnormal excessive or synchronous neuronal activity, and thus, this scenario and analysis, present a great interest from both the clinical and the research perspective. Results revealed specific disruptions in connectivity and network topology and evidenced that networks’ topology is changed in epileptic brains, supporting the shift from ‘focus’ to ‘networks’ which is gaining importance in modern epilepsy research.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Two-phase plant communities with an engineer conforming conspicuous patches and affecting the performance and patterns of coexisting species are the norm under stressful conditions. To unveil the mechanisms governing coexistence in these communities at multiple spatial scales, we have developed a new point-raster approach of spatial pattern analysis, which was applied to a Mediterranean high mountain grassland to show how Festuca curvifolia patches affect the local distribution of coexisting species. We recorded 22 111 individuals of 17 plant perennial species. Most coexisting species were negatively associated with F. curvifolia clumps. Nevertheless, bivariate nearest-neighbor analyses revealed that the majority of coexisting species were confined at relatively short distances from F. curvifolia borders (between 0-2 cm and up to 8 cm in some cases). Our study suggests the existence of a fine-scale effect of F. curvifolia for most species promoting coexistence through a mechanism we call 'facilitation in the halo'. Most coexisting species are displaced to an interphase area between patches, where two opposite forces reach equilibrium: attenuated severe conditions by proximity to the F. curvifolia canopy (nutrient-rich islands) and competitive exclusion mitigated by avoiding direct contact with F. curvifolia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Although tree ferns are an important component of temperate and tropical forests, very little is known about their ecology. Their peculiar biology (e.g., dispersal by spores and two-phase life cycle) makes it difficult to extrapolate current knowledge on the ecology of other tree species to tree ferns. In this paper, we studied the effects of negative density dependence (NDD) and environmental heterogeneity on populations of two abundant tree fern species, Cyathea caracasana and Alsophila engelii, and how these effects change across a successional gradient. Species patterns harbor information on processes such as competition that can be easily revealed using point pattern analysis techniques. However, its detection may be difficult due to the confounded effects of habitat heterogeneity. Here, we mapped three forest plots along a successional gradient in the montane forests of Southern Ecuador. We employed homogeneous and inhomogeneous K and pair correlation functions to quantify the change in the spatial pattern of different size classes and a case-control design to study associations between juvenile and adult tree ferns. Using spatial estimates of the biomass of four functional tree types (short- and long-lived pioneer, shade- and partial shade-tolerant) as covariates, we fitted heterogeneous Poisson models to the point pattern of juvenile and adult tree ferns and explored the existence of habitat dependencies on these patterns. Our study revealed NDD effects for C. caracasana and strong environmental filtering underlying the pattern of A. engelii. We found that adult and juvenile populations of both species responded differently to habitat heterogeneity and in most cases this heterogeneity was associated with the spatial distribution of biomass of the four functional tree types. These findings show the effectiveness of factoring out environmental heterogeneity to avoid confounding factors when studying NDD and demonstrate the usefulness of covariate maps derived from mapped communities.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En el campo agrícola se producen una serie de desechos orgánicos, que por un lado representan serios problemas de contaminación ambiental y por otro el desperdicio de valores energéticos importantes. Es decir una acción contraria a la sostenibilidad que debe buscarse en este siglo XXI. Entre estos productos agrícolas pueden citarse la pulpa de café, residuos herbáceos, bagazo de caña y la fracción insoluble de estiércol de ganado porcino conocida como cerdaza. Un problema añadido para dar solución adecuada es la disponibilidad de estos solo en cortas épocas del año. Todo lo anterior ha sido el origen de la presente investigación, para dar solución adecuada tanto en el aprovechamiento de biogás como en la reducción de la contaminación. La investigación descrita en este documento contempla el desarrollo de los siguientes aspectos: 1) Caracterización y problemática de cada uno de los productos señalados, 2) la solución al problema mediante el proceso de digestión anaerobia con fases separadas con el aprovechamiento del biogás generados y 3) recomendaciones para el arranque del proceso de digestión anaerobia y su mantenimiento en una alternancia de los productos citados. En la primera etapa de la fase experimental se estimó el rendimiento específico de metano para los diferentes sustratos, utilizando reactores batch configurados en una y dos fases concluyendo que la digestión anaerobia en dos fases presenta diferentes ventajas sobre la digestión monoetapa. En general se obtuvo un mayor rendimiento en la producción de metano, una reducción en los tiempos de retención, mayor eficiencia en la eliminación de los sólidos volátiles agregados, y una mayor estabilidad en el proceso reflejado en el mantenimiento de valores de pH en los rangos de operación recomendados. Seguidamente, al comparar dos procesos para la puesta en marcha de digestores metanogénicos operados en forma continua, se concluye que las variables determinantes en la estabilidad del sistema son la alcalinidad total presente en el digestor, el establecimiento de la población de microorganismos y la carga orgánica aplicada. Las dos primeras están determinadas por la calidad y proporción del inóculo suministrado al inicio del proceso. La alternación de sustratos suministrados al sistema de digestión en dos fases, permitió determinar el impacto sobre el desempeño del mismo, registrando una reducción en la producción de biogás, la riqueza de metano y la eficiencia de eliminación de sólidos volátiles durante los primeros días de operación luego del cambio de sustrato. Este periodo corresponde al proceso de aclimatación de los microorganismos el cual requirió de 20 días para asimilar los componentes del nuevo sustrato. Finalmente, entre los sustratos analizados, la menor carga orgánica de operación para mantener la operación del sistema en continuo corresponde a la pulpa de café con 0.1 kg SV/m3. La composición de este sustrato favorece la rápida acumulación de acidez volátil en el sistema, proporcionando una tendencia a la acidificación. Sin embargo, al controlar las cargas orgánicas volumétricas, el sistema permaneció operando sin necesidad de adición de alcalinizantes. La aplicación de los resultados de la presente investigación a la problemática de residuos de café es alentadora, comprobando que el sistema puede ser operado en continuo alternando residuos boreales y pulpa de café, ambos sustratos disponibles en las plantas de procesamiento de la cereza de café. ABSTRACT In the agricultural field there are series of organic wastes, which in one hand are the source of serious problems of environmental pollution and in the other, they represent a residue that could be used as a feedstock with significant energy values. These actions are contrary to efforts towards sustainability, which should be a priority in this century. Among agricultural residues with significant abundance, the coffee pulp, herbaceous waste, sugarcane bagasse and the insoluble fraction of pig manure can be mentioned. An added problem to the development of appropriate treatment systems, which provides a solution to the disposal of such wastes, is the limited availability of these feedstocks only in short seasons. These arguments have been the source of our research, in order to provide properly measures to biogas usage and pollution reduction. The research presented in this document includes the approaches to the following aspects. 1) Characterization and problems regarding the selected feedstocks 2) the solution to the problem by anaerobic digestion process with separate phases and 3) recommendations for starting the process of anaerobic digestion and its maintenance with alternation of the products listed For the first stage of the experimental phase, the specific methane yield of the selected feedstocks was estimated using batch reactors configured in one and two phases. It was concluded that two-phase anaerobic digestion offered distinct advantages over the single-stage digestion. In general a higher methane production yields, lower retention times, higher efficiency in volatile solids removal, and increased stability among the process were obtained. When comparing two processes for starting up methanogenic digesters, it is concluded that the variables that determine the stability of the system are the total alkalinity in the digester, the establishment of the population of microorganisms and the organic load. The first variables are influenced by the proportion and quality of the inoculum supplied at the beginning of the process. The alternation of substrates gave as a result a negative impact on system performance, recording a reduction on biogas production, the methane concentration and the efficiency of volatile solids removal. The situation was observed during the first days of operation after the change of feeding. This period corresponds to the process of acclimatization of the microorganisms which required 20 days to assimilate new substrate components. Finally, among substrates studied, the lowest organic load applied to maintain a continuous operation of the system, corresponds to the coffee pulp with 0.1 kg VS / m3. The composition of this substrate promotes a rapid accumulation of volatile acidity within the system, providing a tendency to acidification. However, by controlling organic loads, the operating system remained stable without addition of alkalizing components. The application of the results of this research to the problem of coffee waste is promising, proving that an anaerobic system can be operated continuously by alternating boreal waste and coffee pulp, both substrates available in coffee processing plants.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O consumidor contemporâneo, inserido em um novo ambiente de comunicação, potencializa suas expressões, capaz de avaliar uma marca ou produto e transmitir sua opinião pelas redes sociais, ou seja, o consumidor expressa suas opiniões e desejos dialogando com seus pares de forma espontânea nas redes sociais on-line. É neste ambiente de participação e interação (ciberespaço) que está nosso objeto de estudo, o boca a boca on-line – a voz do consumidor contemporâneo, também conhecido como uma manifestação informativa pessoal ou uma conversa, a opinion sharing. Proporcionado pelos consumidores nas redes sociais on-line, o boca a boca se fortalece em função das possibilidades de interação, característica da sociedade em rede. Nesse cenário, oobjetivo desta pesquisa é caracterizar o boca a boca on-line como um novo fluxo comunicacional entre consumidores, hoje potencializado pelas novas tecnologias da comunicação, capazes de alterar a percepção da marca e demonstrar o uso, pelas marcas, das redes sociais on-line ainda como um ambiente de comunicação unidirecional. Mediante três casos selecionados por conveniência (dois casos nacionais e um internacional), o corpus de análise de nossa pesquisa se limitou aos 5.084 comentários disponibilizados após publicação de matérias jornalísticas no Portal G1 e nas fanpages (Facebook), ambos relativos aos casos selecionados. Com a Análise de Conteúdo dos posts, identificamos e categorizamos a fala do consumidor contemporâneo, sendo assim possível comprovar que as organizações/marcas se valem da cultura do massivo, não dialogando com seus consumidores, pois utilizam as redes sociais on-line ainda de forma unidirecional, além de não darem a devida atenção ao atual fluxo onde se evidencia a opinião compartilhada dos consumidores da sociedade em rede.