1000 resultados para 149-900


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Foi empregado o teste imunoenzimático com componentes antigênicos de Cysticercus cellulosae quimicamente ligados a suporte inerte constituído por discos de tecido-resina, ELISA-d, com a finalidade de investigar a entidade neurocisticercose (NC) em líquidos cefalorraquianos (LCR) de pacientes com meningites de etiologia indeterminada. Foram ensaiados 277 LCR de 128 crianças e 149 adultos. A densidade óptica média (DO) obtida para os 22 LCR de pacientes nos quais foi afastada a possibilidade diagnóstica de meningite foi de 0,03. Os 44 LCR de pacientes com meningites determinadas por diversos agentes etiológicos, não cisticercose, apresentaram DO de 0,05. O limiar de reatividade do teste ELISA-d calculado a partir desses dois grupos (controle) foi de 0,13 (DO + 3SD). No grupo de 13 LCR de pacientes com NC comprovada em episódio meningítico por essa causa, foi observada DO de 0,41 (0,10 a 0,91) no teste ELISA-d. Dos 198 LCR de meningites por agente etiológico não identificado pelos métodos usualmente empregados, 23 (11,6%) apresentaram DO acima de 0,13, sugerindo que a possível causa da meningite tenha sido por cisticercose, uma vez que o teste ELISA-d tem apresentado elevadas sensibilidade, especificidade e reprodutibilidade. Em cinco dos 23 LCR a alteração no exame quimiocitológico era às custas do aumento do número de células predominantemente linfomononucleares, em 13 o predomínio era de polimorfonucleares e nos cinco restantes ambos os tipos de células estavam em número aumentado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The chemical features of the ground water in the Lower Tagus Cenozoic deposits are strongly influenced by lithology, by the velocity and direction of the water movement as well as by the localization of the recharge and discharge zones. The mineralization varies between 80 and 900 mg/l. It is minimal in the recharge zones and in the Pliocene sand and maximum in the Miocene carbonated and along the alluvial valley. Mineralization always reflects the time of permanence, the temperature and the pressure. The natural process of water mineralization is disturbed in agricultural areas because the saline concentration of the infiltration water exceeds that of the infiltrated rainwater. In the discharge zones, the rise of the more mineralized, some times thermal deep waters related to tectonic accidents give rise to anomalies in the distribution of the aquiferous system mineralization model. The diversity of the hydrochemical facies of the ground water may be related to several factors whose identification is some times difficult.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Phenylketonuria is an inborn error of metabolism, involving, in most cases, a deficient activity of phenylalanine hydroxylase. Neonatal diagnosis and a prompt special diet (low phenylalanine and natural-protein restricted diets) are essential to the treatment. The lack of data concerning phenylalanine contents of processed foodstuffs is an additional limitation for an already very restrictive diet. Our goals were to quantify protein (Kjeldahl method) and amino acid (18) content (HPLC/fluorescence) in 16 dishes specifically conceived for phenylketonuric patients, and compare the most relevant results with those of several international food composition databases. As might be expected, all the meals contained low protein levels (0.67–3.15 g/100 g) with the highest ones occurring in boiled rice and potatoes. These foods also contained the highest amounts of phenylalanine (158.51 and 62.65 mg/100 g, respectively). In contrast to the other amino acids, it was possible to predict phenylalanine content based on protein alone. Slight deviations were observed when comparing results with the different food composition databases.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lotes de Biomphalaria glabrata (controle), B. tenagophila e B. straminea (com respectivamente 139, 77 e 149 exemplares) criados em laboratório a partir de espécimes coletados na região metropolitana de Belo Horizonte, MG (Brasil), foram infectados experimentalmente com larvas L1 de Angiostrongylus costaricensis. Decorridos aproximadamente 25 dias, os moluscos foram digeridos individual e artificialmente para exame. De 87 B. glabrata examinadas, 62 (71,3%) estavam positivas e apresentaram de uma a 61 larvas L3; de 42 B. tenagophila, 21 (50,0%) possuíam de uma a cinco L3; e de 89 B. straminea, 69 (77,5%), de uma a 72 L3. As três espécies de planorbídeos mostraram-se suscetíveis à infecção pelo A. costaricensis, sendo a B. glabrata e a B. straminea as mais eficientes para manutenção do ciclo do nematódeo em laboratório.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se estudió la respuesta clínica y serológica a la infección chagásica de 937 embarazadas y sus 929 recién nacidos (RN) vivos, grupo I; 4 RN de origen diverso, grupo II y 35 RN derivados de otros centros, grupo III. Las embarazadas se estudiaron con 3 reacciones serológicas; se definió infección cuando 2 o más reacciones eran positivas. En los RN el diagnóstico se confirmó por observación directa del T. cruzi en una muestra de sangre. Los RN con Chagas congénita (RN-ChC) fueron tratados y seguidos con estudios clínicos y de laboratorio. Se detectaron 149 embarazadas chagásicas (15.9%), de las cuales se diagnosticaron 6 RN-ChC (4%). En el total de 968 RN estudiados se detectaron 12 RN infectados. El micro-hematócrito fue el método parasitológico de lectura rápida más efectivo para el diagnóstico de infección en nuestra serie. El par de reacciones serológicas específicas constituyó un criterio de mayor seguridad para el control y seguimiento de la infección congénita. Las expresiones clínicas más comunes de infección fueron hepatomegalia, esplenomegalia, ictericia, anemia y prematurez, con distintos grados de asociación. Se concluye que dadas las características clínicas de la enfermedad de Chagas congénita en nuestro medio, se impone como estrategia el diagnóstico serológico para la enfermedad de Chagas en todas las embarazadas y el control y seguimiento de sus RN hasta descartar o confirmar infección congénita.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do grau de Mestre em Tecnologia e Segurança Alimentar, Ramo Qualidade Alimentar

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The integrated numerical tool SWAMS (Simulation of Wave Action on Moored Ships) is used to simulate the behavior of a moored container carrier inside Sines’ Harbour. Wave, wind, currents, floating ship and moorings interaction is discussed. Several case scenarios are compared differing in the layout of the harbour and wind and wave conditions. The several harbour layouts correspond to proposed alternatives for the future expansion of Sines’ terminal XXI that include the extension of the East breakwater and of the quay. Additionally, the influence of wind on the behavior of the ship moored and the introduction of pre tensioning the mooring lines was analyzed. Hydrodynamic forces acting on the ship are determined using a modified version of the WAMIT model. This modified model utilizes the Haskind relations and the non-linear wave field inside the harbour obtained with finite element numerical model, BOUSS-WMH (Boussinesq Wave Model for Harbors) to get the wave forces on the ship. The time series of the moored ship motions and forces on moorings are obtained using BAS solver. © 2015 Taylor & Francis Group, London.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The capability to anticipate a contact with another device can greatly improve the performance and user satisfaction not only of mobile social network applications but of any other relying on some form of data harvesting or hoarding. One of the most promising approaches for contact prediction is to extrapolate from past experiences. This paper investigates the recurring contact patterns observed between groups of devices using an 8-year dataset of wireless access logs produced by more than 70000 devices. This effort permitted to model the probabilities of occurrence of a contact at a predefined date between groups of devices using a power law distribution that varies according to neighbourhood size and recurrence period. In the general case, the model can be used by applications that need to disseminate large datasets by groups of devices. As an example, the paper presents and evaluates an algorithm that provides daily contact predictions, based on the history of past pairwise contacts and their duration. Copyright © 2015 ICST.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The development of high spatial resolution airborne and spaceborne sensors has improved the capability of ground-based data collection in the fields of agriculture, geography, geology, mineral identification, detection [2, 3], and classification [4–8]. The signal read by the sensor from a given spatial element of resolution and at a given spectral band is a mixing of components originated by the constituent substances, termed endmembers, located at that element of resolution. This chapter addresses hyperspectral unmixing, which is the decomposition of the pixel spectra into a collection of constituent spectra, or spectral signatures, and their corresponding fractional abundances indicating the proportion of each endmember present in the pixel [9, 10]. Depending on the mixing scales at each pixel, the observed mixture is either linear or nonlinear [11, 12]. The linear mixing model holds when the mixing scale is macroscopic [13]. The nonlinear model holds when the mixing scale is microscopic (i.e., intimate mixtures) [14, 15]. The linear model assumes negligible interaction among distinct endmembers [16, 17]. The nonlinear model assumes that incident solar radiation is scattered by the scene through multiple bounces involving several endmembers [18]. Under the linear mixing model and assuming that the number of endmembers and their spectral signatures are known, hyperspectral unmixing is a linear problem, which can be addressed, for example, under the maximum likelihood setup [19], the constrained least-squares approach [20], the spectral signature matching [21], the spectral angle mapper [22], and the subspace projection methods [20, 23, 24]. Orthogonal subspace projection [23] reduces the data dimensionality, suppresses undesired spectral signatures, and detects the presence of a spectral signature of interest. The basic concept is to project each pixel onto a subspace that is orthogonal to the undesired signatures. As shown in Settle [19], the orthogonal subspace projection technique is equivalent to the maximum likelihood estimator. This projection technique was extended by three unconstrained least-squares approaches [24] (signature space orthogonal projection, oblique subspace projection, target signature space orthogonal projection). Other works using maximum a posteriori probability (MAP) framework [25] and projection pursuit [26, 27] have also been applied to hyperspectral data. In most cases the number of endmembers and their signatures are not known. Independent component analysis (ICA) is an unsupervised source separation process that has been applied with success to blind source separation, to feature extraction, and to unsupervised recognition [28, 29]. ICA consists in finding a linear decomposition of observed data yielding statistically independent components. Given that hyperspectral data are, in given circumstances, linear mixtures, ICA comes to mind as a possible tool to unmix this class of data. In fact, the application of ICA to hyperspectral data has been proposed in reference 30, where endmember signatures are treated as sources and the mixing matrix is composed by the abundance fractions, and in references 9, 25, and 31–38, where sources are the abundance fractions of each endmember. In the first approach, we face two problems: (1) The number of samples are limited to the number of channels and (2) the process of pixel selection, playing the role of mixed sources, is not straightforward. In the second approach, ICA is based on the assumption of mutually independent sources, which is not the case of hyperspectral data, since the sum of the abundance fractions is constant, implying dependence among abundances. This dependence compromises ICA applicability to hyperspectral images. In addition, hyperspectral data are immersed in noise, which degrades the ICA performance. IFA [39] was introduced as a method for recovering independent hidden sources from their observed noisy mixtures. IFA implements two steps. First, source densities and noise covariance are estimated from the observed data by maximum likelihood. Second, sources are reconstructed by an optimal nonlinear estimator. Although IFA is a well-suited technique to unmix independent sources under noisy observations, the dependence among abundance fractions in hyperspectral imagery compromises, as in the ICA case, the IFA performance. Considering the linear mixing model, hyperspectral observations are in a simplex whose vertices correspond to the endmembers. Several approaches [40–43] have exploited this geometric feature of hyperspectral mixtures [42]. Minimum volume transform (MVT) algorithm [43] determines the simplex of minimum volume containing the data. The MVT-type approaches are complex from the computational point of view. Usually, these algorithms first find the convex hull defined by the observed data and then fit a minimum volume simplex to it. Aiming at a lower computational complexity, some algorithms such as the vertex component analysis (VCA) [44], the pixel purity index (PPI) [42], and the N-FINDR [45] still find the minimum volume simplex containing the data cloud, but they assume the presence in the data of at least one pure pixel of each endmember. This is a strong requisite that may not hold in some data sets. In any case, these algorithms find the set of most pure pixels in the data. Hyperspectral sensors collects spatial images over many narrow contiguous bands, yielding large amounts of data. For this reason, very often, the processing of hyperspectral data, included unmixing, is preceded by a dimensionality reduction step to reduce computational complexity and to improve the signal-to-noise ratio (SNR). Principal component analysis (PCA) [46], maximum noise fraction (MNF) [47], and singular value decomposition (SVD) [48] are three well-known projection techniques widely used in remote sensing in general and in unmixing in particular. The newly introduced method [49] exploits the structure of hyperspectral mixtures, namely the fact that spectral vectors are nonnegative. The computational complexity associated with these techniques is an obstacle to real-time implementations. To overcome this problem, band selection [50] and non-statistical [51] algorithms have been introduced. This chapter addresses hyperspectral data source dependence and its impact on ICA and IFA performances. The study consider simulated and real data and is based on mutual information minimization. Hyperspectral observations are described by a generative model. This model takes into account the degradation mechanisms normally found in hyperspectral applications—namely, signature variability [52–54], abundance constraints, topography modulation, and system noise. The computation of mutual information is based on fitting mixtures of Gaussians (MOG) to data. The MOG parameters (number of components, means, covariances, and weights) are inferred using the minimum description length (MDL) based algorithm [55]. We study the behavior of the mutual information as a function of the unmixing matrix. The conclusion is that the unmixing matrix minimizing the mutual information might be very far from the true one. Nevertheless, some abundance fractions might be well separated, mainly in the presence of strong signature variability, a large number of endmembers, and high SNR. We end this chapter by sketching a new methodology to blindly unmix hyperspectral data, where abundance fractions are modeled as a mixture of Dirichlet sources. This model enforces positivity and constant sum sources (full additivity) constraints. The mixing matrix is inferred by an expectation-maximization (EM)-type algorithm. This approach is in the vein of references 39 and 56, replacing independent sources represented by MOG with mixture of Dirichlet sources. Compared with the geometric-based approaches, the advantage of this model is that there is no need to have pure pixels in the observations. The chapter is organized as follows. Section 6.2 presents a spectral radiance model and formulates the spectral unmixing as a linear problem accounting for abundance constraints, signature variability, topography modulation, and system noise. Section 6.3 presents a brief resume of ICA and IFA algorithms. Section 6.4 illustrates the performance of IFA and of some well-known ICA algorithms with experimental data. Section 6.5 studies the ICA and IFA limitations in unmixing hyperspectral data. Section 6.6 presents results of ICA based on real data. Section 6.7 describes the new blind unmixing scheme and some illustrative examples. Section 6.8 concludes with some remarks.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A eficiência energética e a preocupação com a sustentabilidade têm vindo a ganhar preponderância na sociedade moderna. Este trabalho é uma contribuição para esta tendência onde se pretendeu avaliar e sugerir alterações ao sistema de climatização do edifício Biorama do Parque Biológico de Vila Nova de Gaia (PBG). Procedeu-se em primeiro lugar a uma caracterização física, química e geográfica dos 5 biomas constituintes do Biorama. Para isso, recorreu-se a documentos fornecidos pelo próprio PBG, visitas ao local e registo de medições de alguns parâmetros (temperatura, humidade relativa, qualidade do ar). Posteriormente foi realizado o balanço térmico dos edifícios, de acordo com a legislação em vigor, recorrendo a expressões e conceitos teóricos. Foram determinados valores dos ganhos térmicos de aquecimento de 15811, 10694, 7939, 9233, e 6621 kWh/ano para Floresta tropical, Mesozoico, Dunas, Savana e Deserto, respetivamente. Foram igualmente determinados valores dos ganhos térmicos no verão de 7093, 4798, 3560, 4144 e 2971 kWh na Floresta tropical, no Mesozoico, nas Dunas, na Savana e no Deserto, respetivamente. As cargas térmicas de aquecimento foram 149, 125, 47, 60 e 51 kW na Floresta tropical, no Mesozoico, nas Dunas, na Savana e no Deserto, respetivamente. As cargas térmicas de arrefecimento foram iguais a 59, 57, 47, 35 e 36 kW na Floresta tropical, no Mesozoico, nas Dunas, na Savana e no Deserto, respetivamente. Algumas soluções são avançadas, bem como alternativas comportamentais de modo a corrigir alguns problemas identificados. Uma proposta é a da instalação de painéis solares e acumuladores de calor, com os quais se estima um ganho médio conjunto de 500 W em cada bioma, e representam um investimento de 1050 euros e terão um retorno de 1 ano. Em relação à humidade é sugerido a utilização mais eficaz dos aspersores existentes e a utilização de esponjas, para fazer subir a humidade relativa para valores superiores a 80%. Em sentido inverso, no inverno, propõem-se a utilização de material higroscópico para fazer baixar a humidade relativa em cerca de 5%. Os custos com os suportes e o material higroscópico rondam os 250 €. Por fim, é sugerido a instalação de um aparelho de ar condicionado de 16 000 BTU no corredor de ligação, pois é a única forma de garantir condições de conforto térmico. Esta proposta de arrefecimento com ar condicionado e ainda o recurso a uma cortina de lâminas de plástico, que servem para efetuar uma separação mais eficiente entre ar frio e ar quente, têm um custo aproximado de 350 €. É ainda sugerida a utilização de lonas ou de uma planta trepadeira com um custo por planta de 5€, nas coberturas dos telhados virados a sul, sendo que a zona do corredor deverá ser totalmente coberta, a fim de evitar a exposição solar direta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Four rabies antigen batches were produced from virus suspensions resulting from BHK21 cells adhered to microcarriers (Cytodex 1), inoculated and cultured in a bioreactor. In parallel the methodology of production of rabies virus through cultures of BHK21 cells in monolayers in bottles was used. The results obtained showed that infecting titles were 106.69 DL50/mL and 107.28 DL50/mL for suspensions cultured in bottles and in the bioreactor, respectively. The viral suspension volumes collected were on average 11,900 per batch from the bioreactor and 800mL per bottle. Ten horses were immunized with the antigen produced in the bioreactor. The means of antirabies antibody titers found were 240 and 212 IU/mL after the initial and the first booster doses, respectively. Rabies antigen with satisfactory infecting titers can be obtained on a large scale by culturing in a bioreactor inoculated BHK21 cells adhered to microcarriers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O instável mas tendencialmente crescente preço dos combustíveis associado a preocupações ambientais cada vez mais enraizadas nas sociedades, têm vindo a despoletar uma maior atenção à procura de combustíveis alternativos. Por outro lado, várias projecções indicam um aumento muito acentuado do consumo energético global no curto prazo, fruto do aumento da população e do nível de industrialização das sociedades. Neste contexto, o biodiesel (ésteres de ácidos gordos) obtido através da transesterificação de triglicerídeos de origem vegetal ou animal, surge como a alternativa “verde” mais viável para utilização em equipamentos de combustão. A reacção de transesterificação é catalisada, por norma com recurso a catalisadores homogéneos alcalinos (NaOH ou KOH). Este tipo de processo, o único actualmente com expressão a nível industrial, apresenta algumas desvantagens que, para além de aumentarem o custo do produto final, contribuem para reduzir a benignidade do mesmo: a impossibilidade de reutilização do catalisador, o aumento do número e complexidade das etapas de separação e a produção de efluentes resultantes das referidas etapas. Com o intuito de minimizar ou eliminar estes problemas, vários catalisadores heterogéneos têm vindo a ser estudados para esta reacção. Apesar de muitos apresentarem resultados promissores, a grande maioria não tem viabilidade para aplicação industrial seja devido ao seu próprio custo, seja devido aos pré-tratamentos necessários à sua utilização. Entre estes catalisadores, o óxido de cálcio é talvez o que apresenta resultados mais promissores. O crescente número de estudos envolvendo este catalisador em detrimento de outros, é por si mesmo prova do potencial do CaO. A realização deste trabalho pretendia atingir os seguintes objectivos principais: • Avaliar a elegibilidade do óxido de cálcio enquanto catalisador da reacção de transesterificação de óleos alimentares usados com metanol; • Avaliar qual a sua influência nas características dos produtos finais; • Avaliar as diferenças de performance entre o óxido de cálcio activado em atmosfera inerte (N2) e em ar, enquanto catalisadores da reacção de transesterificação de óleos alimentares usados com metanol; • Optimizar as condições da reacção com recurso às ferramentas matemáticas disponibilizadas pelo planeamento factorial, através da variação de quatro factores chave de influência: temperatura, tempo, relação metanol / óleo e massa de catalisador utilizado. O CaO utlizado foi obtido a partir de carbonato de cálcio calcinado numa mufla a 750 °C durante 3 h. Foi posteriormente activado a 900 °C durante 2h, em atmosferas diferentes: azoto (CaO-N2) e ar (CaO-Ar). Avaliaram-se algumas propriedades dos catalisadores assim preparados, força básica, concentração de centros activos e áreas específicas, tendo-se obtido uma força básica situada entre 12 e 14 para ambos os catalisadores, uma concentração de centros activos de 0,0698 mmol/g e 0,0629 mmol/g e áreas específicas de 10 m2/g e 11 m2/g respectivamente para o CaO-N2 e CaO-Ar. Efectuou-se a transesterificação, com catálise homogénea, da mistura de óleos usados utilizada neste trabalho com o objectivo de determinar os limites para o teor de FAME’s (abreviatura do Inglês de Fatty Acid Methyl Esters’) que se poderiam obter. Foi este o parâmetro avaliado em cada uma das amostras obtidas por catálise heterogénea. Os planos factoriais realizados tiveram como objectivo maximizar a sua quantidade recorrendo à relação ideal entre tempo de reacção, temperatura, massa de catalisador e quantidade de metanol. Verificou-se que o valor máximo de FAME’s obtidos a partir deste óleo estava situado ligeiramente acima dos 95 % (m/m). Realizaram-se três planos factoriais com cada um dos catalisadores de CaO até à obtenção das condições óptimas para a reacção. Não se verificou influência significativa da relação entre a quantidade de metanol e a massa de óleo na gama de valores estudada, pelo que se fixou o valor deste factor em 35 ml de metanol / 85g de óleo (relação molar aproximada de 8:1). Verificou-se a elegibilidade do CaO enquanto catalisador para a reacção estudada, não se tendo observado diferenças significativas entre a performance do CaO-N2 e do CaO-Ar. Identificaram-se as condições óptimas para a reacção como sendo os valores de 59 °C para a temperatura, 3h para o tempo e 1,4 % de massa de catalisador relativamente à massa de óleo. Nas referidas condições, obtiveram-se produtos com um teor de FAME’s de 95,7 % na catálise com CaO-N2 e 95,3 % na catálise com CaO-Ar. Alguns autores de estudos consultados no desenvolvimento do presente trabalho, referiam como principal problema da utilização do CaO, a lixiviação de cálcio para os produtos obtidos. Este facto foi confirmado no presente trabalho e na tentativa de o contornar, tentou-se promover a carbonatação do cálcio com a passagem de ar comprimido através dos produtos e subsequente filtração. Após a realização deste tratamento, não mais se observaram alterações nas suas propriedades (aparecimento de turvação ou precipitados), no entanto, nos produtos obtidos nas condições óptimas, a concentração de cálcio determinada foi de 527 mg/kg no produto da reacção catalisada com CaO-N2 e 475 mg/kg com CaO-A. O óxido de cálcio apresentou-se como um excelente catalisador na transesterificação da mistura de óleos alimentares usados utilizada no presente trabalho, apresentando uma performance ao nível da obtida por catálise homogénea básica. Não se observaram diferenças significativas de performance entre o CaO-N2 e o CaO-Ar, sendo possível obter nas mesmas condições reaccionais produtos com teores de FAME’s superiores a 95 % utilizando qualquer um deles como catalisador. O elevado teor de cálcio lixiviado observado nos produtos, apresenta-se como o principal obstáculo à aplicação a nível industrial do óxido de cálcio como catalisador para a transesterificação de óleos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertation presented in fulfillment of the requirements for the Degree of Doctor of Philosophy in Biology (Molecular Genetics) at the Instituto de Tecnologia Química e Biológica da Universidade Nova de Lisboa

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Inhalation injuries are currently the factor most responsible for mortality in thermally injured patients. Inhalation injuries may occur independently, but generally occur together with skin burn. Smoke inhalation affects all levels of the respiratory system and the extent of the inhalation injury depends on the duration, exposure, amount and toxicity of the fume temperature, concentration and solubility of toxic gases, the occurrence of the accident in a closed space and pre-existing diseases. Smoke inhalation also induces changes in the systemic organs with the need for more fluid for resuscitation. Systemic vasoconstriction, with an elevation in systemic vascular resistance, a fall in myocardial contractility and a great increase in lymphatic flow in soft tissue are the most important changes in systemic organs. On admission of a burn patient there is a high suspicion of inhalation injury when there are signs and symptoms such as hoarseness, strides, dyspnea, carbonaceous sputum, anxiety or disorientation, with or without face burns. The patient with these findings has partial airway obstruction and there is substantial risk complete airway obstruction occurring of secondary to the edema. Patients with suspected inhalation injury should be intubated so as to maintain airway patency and avoid a total obstruction. This group of patients frequently develop respiratory failure with the need for mechanical ventilatory support. Nosocomial infections, sepsis and multiple organ system failure may occur. Late complications of inhalation injury are tracheitis, tracheal stenosis or tracheomalacia and chronic airway disease, which is relatively rare. Early diagnosis of inhalation injury and treatment in a Burn Unit by a group of highly motivated clinicians and a good team of nurses is essential in order to decrease the morbidity and mortality related to inhalation injury.