1000 resultados para métodos de aplicação


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Currently the market requires increasingly pure oil derivatives and, with that, comes the need for new methods for obtaining those products that are more efficient and economically viable. Considering the removal of sulfur from diesel, most refineries uses catalytic hydrogenation process, the hydrodesulfurization. These processes needs high energy content and high cost of production and has low efficiency in removing sulfur at low concentrations (below 500 ppm). The adsorption presents itself as an efficient and economically viable alternative in relation to the techniques currently used. With that, the main purpose of this work is to develop and optimize the obtaining of new adsorbents based on diatomite, modified with two non ionic surfactants microemulsions, adding efficiency to the material, to its application on removal of sulfur present in commercial diesel. Analyses were undertaken of scanning electron microscopy (SEM), x-ray diffraction (XRD), x-ray fluorescence (XRF), thermogravimetry (TG) and N2 adsorption (BET) for characterization of new materials obtained. The variables used for diatomite modification were: microemulsion points for each surfactant (RNX 95 and UNTL 90), microemulsion aqueous phase through the use or non-use of salts (CaCl2 and BaCl2), the contact time during the modification and the contact form. The study of adsorption capacity of materials obtained was performed using a statistical modeling to evaluate the influence of salt concentration in the aqueous phase (20 ppm to 1500 ppm), finite bath temperature (25 to 60° C) and the concentration of sulphur in diesel. It was observed that the temperature and the concentration of sulphur (300 to 1100 ppm) were the most significant parameters, in which increasing their values increase the ability of modified clay to adsorb the sulphur in diesel fuel. Adsorption capacity increased from 0.43 to mg/g 1.34 mg/g with microemulsion point optimization and with the addition of salts.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This work presents an application of a hybrid Fuzzy-ELECTRE-TOPSIS multicriteria approach for a Cloud Computing Service selection problem. The research was exploratory, using a case of study based on the actual requirements of professionals in the field of Cloud Computing. The results were obtained by conducting an experiment aligned with a Case of Study using the distinct profile of three decision makers, for that, we used the Fuzzy-TOPSIS and Fuzzy-ELECTRE-TOPSIS methods to obtain the results and compare them. The solution includes the Fuzzy sets theory, in a way it could support inaccurate or subjective information, thus facilitating the interpretation of the decision maker judgment in the decision-making process. The results show that both methods were able to rank the alternatives from the problem as expected, but the Fuzzy-ELECTRE-TOPSIS method was able to attenuate the compensatory character existing in the Fuzzy-TOPSIS method, resulting in a different alternative ranking. The attenuation of the compensatory character stood out in a positive way at ranking the alternatives, because it prioritized more balanced alternatives than the Fuzzy-TOPSIS method, a factor that has been proven as important at the validation of the Case of Study, since for the composition of a mix of services, balanced alternatives form a more consistent mix when working with restrictions.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The objective of this study was to determine the seasonal and interannual variability and calculate the trends of wind speed in NEB and then validate the mesoscale numerical model for after engage with the microscale numerical model in order to get the wind resource at some locations in the NEB. For this we use two data sets of wind speed (weather stations and anemometric towers) and two dynamic models; one of mesoscale and another of microscale. We use statistical tools to evaluate and validate the data obtained. The simulations of the dynamic mesoscale model were made using data assimilation methods (Newtonian Relaxation and Kalman filter). The main results show: (i) Five homogeneous groups of wind speed in the NEB with higher values in winter and spring and with lower in summer and fall; (ii) The interannual variability of the wind speed in some groups stood out with higher values; (iii) The large-scale circulation modified by the El Niño and La Niña intensified wind speed for the groups with higher values; (iv) The trend analysis showed more significant negative values for G3, G4 and G5 in all seasons and in the annual average; (v) The performance of dynamic mesoscale model showed smaller errors in the locations Paracuru and São João and major errors were observed in Triunfo; (vi) Application of the Kalman filter significantly reduce the systematic errors shown in the simulations of the dynamic mesoscale model; (vii) The wind resource indicate that Paracuru and Triunfo are favorable areas for the generation of energy, and the coupling technique after validation showed better results for Paracuru. We conclude that the objective was achieved, making it possible to identify trends in homogeneous groups of wind behavior, and to evaluate the quality of both simulations with the dynamic model of mesoscale and microscale to answer questions as necessary before planning research projects in Wind-Energy area in the NEB

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Although efficient from a technical point of view, mortar layers that make up the traditional masonry coating (slurry mortar, plaster and plaster) have to be in contradiction with the new construction technologies and more efficient methods of consumption and work rationalization. From an environmental point of view, the recovery of waste into new composites for the building has been a growing strand of studies in the scientific community, may prove to be a cost-effective solution in some cases. Thus, this research proposes the development of a mortar Decorative Coating Monolayer (RDM), for use in facades, produced on site, incorporating tempered glass waste (RVT) in the cement matrix, as a partial substitute for aggregate. Therefore, we adopted the binder respect / aggregate of 1: 6 (by volume), consistency index 250mm ± 20, sand substitution levels of glass waste 20%, 50% and 80% and relative water / cement varied in many traits. Two additives were used, a polymer, styrene-butadiene-based, and other chemical, besides mineral and silica fume inorganic pigment in colors red, yellow and blue. Mechanical tests were carried out on fresh pasta and hardened, as well as for the applied coating on masonry, so as to demonstrate the feasibility of the material. In addition, it verified the adequacy of the RDM built environment by means of thermal tests. The results demonstrated the feasibility of the proposed RDM with significantly higher values when compared to norms, especially the dash-added replacement content of 20% and addition of pigment in red. Therefore, the study shows the scientific community as an incentive to the use of technological innovations in construction, increasing the range of alternatives available for housing production, with the proposition of a material that achieves the desired functionality and obtain environmental gain, and may be adopted on construction sites as an alternative industrialized mortars.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In the oil prospection research seismic data are usually irregular and sparsely sampled along the spatial coordinates due to obstacles in placement of geophones. Fourier methods provide a way to make the regularization of seismic data which are efficient if the input data is sampled on a regular grid. However, when these methods are applied to a set of irregularly sampled data, the orthogonality among the Fourier components is broken and the energy of a Fourier component may "leak" to other components, a phenomenon called "spectral leakage". The objective of this research is to study the spectral representation of irregularly sampled data method. In particular, it will be presented the basic structure of representation of the NDFT (nonuniform discrete Fourier transform), study their properties and demonstrate its potential in the processing of the seismic signal. In this way we study the FFT (fast Fourier transform) and the NFFT (nonuniform fast Fourier transform) which rapidly calculate the DFT (discrete Fourier transform) and NDFT. We compare the recovery of the signal using the FFT, DFT and NFFT. We approach the interpolation of seismic trace using the ALFT (antileakage Fourier transform) to overcome the problem of spectral leakage caused by uneven sampling. Applications to synthetic and real data showed that ALFT method works well on complex geology seismic data and suffers little with irregular spatial sampling of the data and edge effects, in addition it is robust and stable with noisy data. However, it is not as efficient as the FFT and its reconstruction is not as good in the case of irregular filling with large holes in the acquisition.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In the oil prospection research seismic data are usually irregular and sparsely sampled along the spatial coordinates due to obstacles in placement of geophones. Fourier methods provide a way to make the regularization of seismic data which are efficient if the input data is sampled on a regular grid. However, when these methods are applied to a set of irregularly sampled data, the orthogonality among the Fourier components is broken and the energy of a Fourier component may "leak" to other components, a phenomenon called "spectral leakage". The objective of this research is to study the spectral representation of irregularly sampled data method. In particular, it will be presented the basic structure of representation of the NDFT (nonuniform discrete Fourier transform), study their properties and demonstrate its potential in the processing of the seismic signal. In this way we study the FFT (fast Fourier transform) and the NFFT (nonuniform fast Fourier transform) which rapidly calculate the DFT (discrete Fourier transform) and NDFT. We compare the recovery of the signal using the FFT, DFT and NFFT. We approach the interpolation of seismic trace using the ALFT (antileakage Fourier transform) to overcome the problem of spectral leakage caused by uneven sampling. Applications to synthetic and real data showed that ALFT method works well on complex geology seismic data and suffers little with irregular spatial sampling of the data and edge effects, in addition it is robust and stable with noisy data. However, it is not as efficient as the FFT and its reconstruction is not as good in the case of irregular filling with large holes in the acquisition.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As Instituições de Ensino Superior (IES) brasileiras têm passado por grandes desafios devido ao aumento da concorrência. Paralelamente, no campo da Administração, um tema que tem sido estudado de forma recorrente são os modelos de avaliação organizacional. Nesse contexto, foi realizada uma pesquisa com o objetivo de identificar e comparar os principais métodos e indicadores de avaliação de desempenho organizacional desenvolvidos na literatura e sua forma de utilização nas IES da Região Metropolitana de São Paulo – RMSP. Com base em análise sistematizada da bibliografia consultada foram identificados 19 modelos de avaliação de desempenho, resumindo-se suas principais características, pontos fortes e fracos. Realizou-se, adicionalmente, uma análise comparativa destes modelos com base na consideração de 18 aspectos classificados em 5 grupos: clientes e mercado; econômico-financeiros; gestão e organização; recursos humanos; e sociedade em geral. Por meio de «survey» junto aos gestores de 14 significativas IES foram identificados seus formatos e indicadores de avaliação de desempenho organizacional constatando-se que a maioria realiza avaliação de desempenho por meio de modelos, sendo o «The Balanced Scorecard» o mais utilizado. Entre os 19 indicadores de desempenho pesquisados, os quatro utilizados com mais frequência e também considerados de maior importância pelas IES são os relacionados: à demanda por ensino; aos clientes, ou alunos; à qualidade e eficiência dos processos; e a aspectos econômico-financeiros. É possível levantar a hipótese de que a importância dos dois primeiros deve-se ao fato de serem relevantes direcionadores de receita, a do terceiro, ser direcionador de custo, e a do quarto, ser a síntese dos resultados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

No estudo de séries temporais, os processos estocásticos usuais assumem que as distribuições marginais são contínuas e, em geral, não são adequados para modelar séries de contagem, pois as suas características não lineares colocam alguns problemas estatísticos, principalmente na estimação dos parâmetros. Assim, investigou-se metodologias apropriadas de análise e modelação de séries com distribuições marginais discretas. Neste contexto, Al-Osh and Alzaid (1987) e McKenzie (1988) introduziram na literatura a classe dos modelos autorregressivos com valores inteiros não negativos, os processos INAR. Estes modelos têm sido frequentemente tratados em artigos científicos ao longo das últimas décadas, pois a sua importância nas aplicações em diversas áreas do conhecimento tem despertado um grande interesse no seu estudo. Neste trabalho, após uma breve revisão sobre séries temporais e os métodos clássicos para a sua análise, apresentamos os modelos autorregressivos de valores inteiros não negativos de primeira ordem INAR (1) e a sua extensão para uma ordem p, as suas propriedades e alguns métodos de estimação dos parâmetros nomeadamente, o método de Yule-Walker, o método de Mínimos Quadrados Condicionais (MQC), o método de Máxima Verosimilhança Condicional (MVC) e o método de Quase Máxima Verosimilhança (QMV). Apresentamos também um critério automático de seleção de ordem para modelos INAR, baseado no Critério de Informação de Akaike Corrigido, AICC, um dos critérios usados para determinar a ordem em modelos autorregressivos, AR. Finalmente, apresenta-se uma aplicação da metodologia dos modelos INAR em dados reais de contagem relativos aos setores dos transportes marítimos e atividades de seguros de Cabo Verde.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A crescente urbanização global tem como consequência o aumento dos níveis de poluentes na atmosfera e a respetiva deterioração da qualidade do ar. O controlo da poluição atmosférica e monitorização da qualidade do ar são passos fundamentais para implementar estratégias de redução e estimular a consciência ambiental dos cidadãos. Com este intuito, existem várias técnicas e tecnologias que podem ser usadas para monitorizar a qualidade do ar. A utilização de microsensores surge como uma ferramenta inovadora para a monitorização da qualidade do ar. E, apesar dos desempenhos dos microsensores permitirem uma nova estratégia, resultando em respostas rápidas, baixos custos operacionais e eficiências elevadas, que não podem ser alcançados apenas com abordagens convencionais, ainda é necessário aprofundar o conhecimento a fim de integrar estas novas tecnologias, particularmente quanto à verificação do desempenho dos sensores comparativamente aos métodos de referência em campanhas experimentais. Esta dissertação, desenvolvida no Instituto do Ambidente e Desenvolvimento em forma de estágio, teve como objetivo a avaliação do desempenho de sensores de baixo custo comparativamente com os métodos de referência, tendo como base uma campanha de monitorização da qualidade do ar realizada no centro de Aveiro durante 2 semanas de outubro de 2014. De forma mais específica pretende-se perceber até que ponto se podem utilizar sensores de baixo custo que cumpram os requisitos especificados na legislação e as especificidades das normas, estabelecendo assim um protocolo de avaliação de microsensores. O trabalho realizado passou ainda pela caracterização da qualidade do ar no centro de Aveiro para o período da campanha de monitorização. A aplicação de microsensores eletroquímicos, MOS e OPC em paralelo com equipamento de referência neste estudo de campo permitiu avaliar a fiabilidade e a incerteza destas novas tecnologias de monitorização. Com este trabalho verificou-se que os microsensores eletroquímicos são mais precisos comparativamente aos microsensores baseados em óxidos metálicos, apresentando correlações fortes com os métodos de referência para diversos poluentes. Por sua vez, os resultados obtidos pelos contadores óticos de partículas foram satisfatórios, contudo poderiam ser melhorados quer pelo modo de amostragem, quer pelo método de tratamento de dados aplicado. Idealmente, os microsensores deveriam apresentar fortes correlações com o método de referência e elevada eficiência de recolha de dados. No entanto, foram identificados alguns problemas na eficiência de recolha de dados dos sensores que podem estar relacionados com a humidade relativa e temperaturas elevadas durante a campanha, falhas de comunicação intermitentes e, também, a instabilidade e reatividade causada por gases interferentes. Quando as limitações das tecnologias de sensores forem superadas e os procedimentos adequados de garantia e controlo de qualidade possam ser cumpridos, os sensores de baixo custo têm um grande potencial para permitir a monitorização da qualidade do ar com uma elevada cobertura espacial, sendo principalmente benéfico em áreas urbanas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A crescente urbanização global tem como consequência o aumento dos níveis de poluentes na atmosfera e a respetiva deterioração da qualidade do ar. O controlo da poluição atmosférica e monitorização da qualidade do ar são passos fundamentais para implementar estratégias de redução e estimular a consciência ambiental dos cidadãos. Com este intuito, existem várias técnicas e tecnologias que podem ser usadas para monitorizar a qualidade do ar. A utilização de microsensores surge como uma ferramenta inovadora para a monitorização da qualidade do ar. E, apesar dos desempenhos dos microsensores permitirem uma nova estratégia, resultando em respostas rápidas, baixos custos operacionais e eficiências elevadas, que não podem ser alcançados apenas com abordagens convencionais, ainda é necessário aprofundar o conhecimento a fim de integrar estas novas tecnologias, particularmente quanto à verificação do desempenho dos sensores comparativamente aos métodos de referência em campanhas experimentais. Esta dissertação, desenvolvida no Instituto do Ambidente e Desenvolvimento em forma de estágio, teve como objetivo a avaliação do desempenho de sensores de baixo custo comparativamente com os métodos de referência, tendo como base uma campanha de monitorização da qualidade do ar realizada no centro de Aveiro durante 2 semanas de outubro de 2014. De forma mais específica pretende-se perceber até que ponto se podem utilizar sensores de baixo custo que cumpram os requisitos especificados na legislação e as especificidades das normas, estabelecendo assim um protocolo de avaliação de microsensores. O trabalho realizado passou ainda pela caracterização da qualidade do ar no centro de Aveiro para o período da campanha de monitorização. A aplicação de microsensores eletroquímicos, MOS e OPC em paralelo com equipamento de referência neste estudo de campo permitiu avaliar a fiabilidade e a incerteza destas novas tecnologias de monitorização. Com este trabalho verificou-se que os microsensores eletroquímicos são mais precisos comparativamente aos microsensores baseados em óxidos metálicos, apresentando correlações fortes com os métodos de referência para diversos poluentes. Por sua vez, os resultados obtidos pelos contadores óticos de partículas foram satisfatórios, contudo poderiam ser melhorados quer pelo modo de amostragem, quer pelo método de tratamento de dados aplicado. Idealmente, os microsensores deveriam apresentar fortes correlações com o método de referência e elevada eficiência de recolha de dados. No entanto, foram identificados alguns problemas na eficiência de recolha de dados dos sensores que podem estar relacionados com a humidade relativa e temperaturas elevadas durante a campanha, falhas de comunicação intermitentes e, também, a instabilidade e reatividade causada por gases interferentes. Quando as limitações das tecnologias de sensores forem superadas e os procedimentos adequados de garantia e controlo de qualidade possam ser cumpridos, os sensores de baixo custo têm um grande potencial para permitir a monitorização da qualidade do ar com uma elevada cobertura espacial, sendo principalmente benéfico em áreas urbanas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

An effective hygiene and sanitation inspection of meat and meat products is essential for its production and commercialization. For this reason, the national and international standards responsible for these products quality control employs microbiological analyses methods as quality control tools. In December of 2012, it was included in the Ministério da Agricultura Pecuária e Abastecimento (MAPA) website, a Microbiological Scope of food and water, which presents the replacement of some methods proposed by the Normative Instruction 62. Some of these methodologies are considered rapid, practical and convenient. However, other methodologies were still replaced by conventional ones, which presents disadvantages as incorrect interpretations of the microorganism phenotypical and biochemical characteristics, leading to the misinterpretation of test results. Therefore, the objective of this study is to develop a comprehensive, practical and illustrative guidebook of microbiological analysis for in natura poultry cuts. The methods addressed in this guide are the official standards analysis required by the poultry cuts legislation, which are the Escherichia coli count, the thermotolerant coliforms count, the aerobic plate count and the detection of Salmonella spp. The approached methodologies for these analysis will be the AOAC 998.08, the Normative Instruction 62 and the ISO 4833-1:2013 and ISO 6579:2002, respectively. In these events, it is expected to obtain an enlightening and approved guidebook evaluated by laboratory technicians, which will help reduce the analytical subjectivity leading to a more reliable interpretation of the test results.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os projetos multimédia são uma forma única de desenvolver produtos e serviços inovadores, com recurso a um conjunto distintivo de membros de equipa, conhecimentos e metodologias. Grande parte dos estudos desenvolvidos em torno do conceito de desenvolvimento ágil são orientados para a área da engenharia de software, não sendo, muitas vezes, ajustados às particularidades dos projetos multimédia. Ainda que seja possível desenvolver e gerir projetos multimédia com recurso a métodos ágeis, é fundamental aprofundar o conhecimento nesta área apresentando estudos que comprovem a efetiva adequação das metodologias ágeis a esta tipologia projetual. O trabalho desenvolvido nesta dissertação pretendeu, não só analisar e compreender as metodologias, instrumentos e ferramentas de desenvolvimento ágil, considerando as particularidades da área da multimédia, como também analisar dados recolhidos num contexto real de desenvolvimento, observando práticas e eventos de um projeto específico; tais dados foram confrontados com metodologias existentes, de modo a permitir o desenho e a proposta de uma metodologia de suporte ao desenvolvimento ágil de um projeto multimédia. Os dados foram recolhidos em quatro fases e com objetivos distintos: conhecer o projeto e os elementos envolvidos; observar dinâmicas de trabalho em equipa; recolher informações sobre eventos de interação e partilha, organização hierárquica, controlo e monitorização e tomada de decisão e, por fim, recolher a opinião dos envolvidos sobre a proposta da metodologia de suporte. Esta proposta de metodologia constituiu, portanto, o principal resultado do estudo, apontando para a necessidade de (i) recorrer a uma ferramenta online de suporte à gestão de tempo e tarefas, (ii) utilizar uma ferramenta de partilha que permita um acesso constante por todos os elementos da equipa e (iii) promover reuniões periódicas, com ordem de trabalho definida.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Trabalho Final de Mestrado para obtenção do Grau de Mestre em Engenharia de Redes de Comunicação e Multimédia

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The routine analysis for quantization of organic acids and sugars are generally slow methods that involve the use and preparation of several reagents, require trained professional, the availability of special equipment and is expensive. In this context, it has been increasing investment in research whose purpose is the development of substitutive methods to reference, which are faster, cheap and simple, and infrared spectroscopy have been highlighted in this regard. The present study developed multivariate calibration models for the simultaneous and quantitative determination of ascorbic acid, citric, malic and tartaric and sugars sucrose, glucose and fructose, and soluble solids in juices and fruit nectars and classification models for ACP. We used methods of spectroscopy in the near infrared (Near Infrared, NIR) in association with the method regression of partial least squares (PLS). Were used 42 samples between juices and fruit nectars commercially available in local shops. For the construction of the models were performed with reference analysis using high-performance liquid chromatography (HPLC) and refractometry for the analysis of soluble solids. Subsequently, the acquisition of the spectra was done in triplicate, in the spectral range 12500 to 4000 cm-1. The best models were applied to the quantification of analytes in study on natural juices and juice samples produced in the Paraná Southwest Region. The juices used in the application of the models also underwent physical and chemical analysis. Validation of chromatographic methodology has shown satisfactory results, since the external calibration curve obtained R-square value (R2) above 0.98 and coefficient of variation (%CV) for intermediate precision and repeatability below 8.83%. Through the Principal Component Analysis (PCA) was possible to separate samples of juices into two major groups, grape and apple and tangerine and orange, while for nectars groups separated guava and grape, and pineapple and apple. Different validation methods, and pre-processes that were used separately and in combination, were obtained with multivariate calibration models with average forecast square error (RMSEP) and cross validation (RMSECV) errors below 1.33 and 1.53 g.100 mL-1, respectively and R2 above 0.771, except for malic acid. The physicochemical analysis enabled the characterization of drinks, including the pH working range (variation of 2.83 to 5.79) and acidity within the parameters Regulation for each flavor. Regression models have demonstrated the possibility of determining both ascorbic acids, citric, malic and tartaric with successfully, besides sucrose, glucose and fructose by means of only a spectrum, suggesting that the models are economically viable for quality control and product standardization in the fruit juice and nectars processing industry.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Apesar dos avanços na sua abordagem terapêutica, a hemorragia severa continua a ser a principal causa de morbilidade e mortalidade em animais vítimas de trauma ou sujeitos a intervenção cirúrgica. O aparecimento de lesões decorrentes, ou da morte consequente, deve-se ao deficit de volume de fluidos intravasculares e subsequente desenvolvimento do estado hipovolémico. Em termos fisiológicos, a consequência mais devastadora desta condição é a diminuição, absoluta ou relativa, da pré-carga cardíaca, resultando num baixo débito cardíaco, perfusão tecidular inadequada e diminuição do aporte de oxigénio aos tecidos, o qual compromete, inequivocamente, a função celular. O controlo da hipovolémia passa pela resolução da hemorragia e pela correção do deficit de volume intravascular causado e envolve, obrigatoriamente, o recurso à administração de fluidos intravenosos. A escolha do tipo de fluido mais adequado para a terapia intravenosa, em cada ocorrência, é uma tarefa que exige reflexão e ponderação. A seleção dos fluidos apropriados é da responsabilidade do médico veterinário, sendo, no entanto, fundamental que o enfermeiro veterinário detenha conhecimentos básicos sobre as diferenças entre os fluidos disponíveis para a fluidoterapia. O objetivo deste projeto é determinar qual o tipo de fluido mais adequado para ajudar a preservar a integridade e funcionalidade hepática, em situações de hipoperfusão, e assim ajudar a padronizar a sua escolha no momento da decisão pela fluidoterapia. Para atingir este objetivo recorreu-se ao modelo suíno, a fim de recrear a situação de hipoperfusão e posteriormente avaliar os efeitos de dois fluidos diferentes administrados na reposição volémica, o lactato de Ringer e hidroxietilamido 130/0,4. Os animais foram sujeitos a uma hemorragia controlada, após a qual foi reposta a volémia com os respetivos fluidos. Após esta reposição volémica os animais foram eutanaziados e foram obtidas amostras de vários órgãos, incluindo fígado, objeto do presente estudo, alvo de diversas técnicas histopatológicas, nomeadamente o estudo histopatológico de rotina, através de hematoxilina e eosina, e diversos métodos para deteção de eventos apoptóticos, incluindo citocromo c, TUNEL e M30.Após a avaliação exaustiva dos resultados obtidos através das técnicas realizadas, foi possível concluir que o lactato de Ringer confere uma maior proteção contra a lesão de reperfusão, quando comparado com o hidroxietilamido 130/0,4.