957 resultados para Termodinamica estatística
Resumo:
o presente trabalho busca ampliar o conhecimento das relações entre aglomerados abertos de estrelas e seus remanescentes. Do ponto de vista observacional, um remanescente pode ser definido como uma concentração pouco povoada de estrelas resultante da evolução dinâmica de um sistema inicialmente mais massivo. Apesar do avanços no conhecimento teórico a respeito desses objetos e, nos últimos anos, da busca pela identificação observacional dos mesmos ter aumep.tado, muitas questões permanecem em aberto. Assim, no presente estudo serão analisados 23 candidatos a remanescentes através de dados fotométricos, espectroscópicos e de movimentos próprios. Esses dados fornecem informações sobre os objetos e seus campos. Por meio destas, buscam-se estabelecer critérios de definição de remanescentes de aglomerados abertos, levando-se em conta incertezas observacionais. Os dados fotométricos no infravermelho oriundos do catálogo The Two Micron Ali sky Survey possibilitam, nesse estudo, (i) estudar as propriedades estruturais dos objetos por meio dos perfis de densidade radial de estrelas; (ii) testar a semelhanças entre objetos e campos através de um método estatístico de comparação entre distribuições de estrelas no plano do diagrama cor-magnitude e, (iii) obter idades, avermelhamentos e distâncias com o uso de diagramas cor-magnitude, além de distinguir os objetos em função de um índice de ajuste de isócronas. Os dados espectroscópicos obtidos através de observações óticas no Complejo Astronómico EI Leoncito (Argentina) fornecem para 12 objetos da amostra informações adicionais de avermelhamentos e idades. Os dados cinemáticos extraídos do The Second U. S. Naval Observatory CCD Astrograph Catalog permitem, por sua vez, uma comparação objetiva entre a distribuição de movimentos próprios dos objetos e campos próximos de grande ângulo sólido O emprego desses métodos complementares se mostra essencial no estudo em função da carência de dados completos para os candidatos a remanescentes. No que diz respeito à amostra, em geral não é possível afirmar individualmente qual objeto caracteriza-se de forma definitiva como um remanescente de aglomerado aberto devido à incompleteza dos dados, às incertezas observacionais e à baixa estatística. Entretanto, os métodos desenvolvidos permitem uma análise objetiva e sugerem a presença de remanescentes de aglomerados abertos na amostra. Além disso, há evidência da presença de binarismo, o que é esperado para sistemas evoluídos dinamicamente. Portanto, pode-se inferir sobre estágios evolutivos para remanescentes a partir das distribuições de movimento próprio de suas estrelas e de seu mapeamento no diagrama cor-magnitude.
Resumo:
A durabilidade das estruturas de concreto armado tem sido motivo de grande interesse nas pesquisas em construção civil, nos últimos anos. Dentre os problemas que mais afetam a durabilidade dessas estruturas, está a corrosão de armaduras. O concreto que envolve o aço, proporciona-lhe uma barreira física, através do cobrimento, e uma proteção química, gerada pela elevada alcalinidade do concreto, formando uma película passivadora em torno do aço. Uma das formas de romper essa película passivadora, é através da diminuição da alcalinidade do concreto, por reações físico-químicas entre o dióxido de carbono (CO2) da atmosfera, com os produtos da hidratação do cimento, caracterizando a carbonatação. Esse fenômeno em si, não é prejudicial ao concreto armado, mas propicia condições para a corrosão da armadura. Em função do tempo que as estruturas levam para carbonatarem naturalmente, são utilizados ensaios acelerados para conhecer seu comportamento. Esses ensaios não são padronizados, o que muitas vezes dificulta, e até mesmo impede a comparação entre as diversas pesquisas. Nesse sentido, esse trabalho faz uma análise comparativa de alguns procedimentos e fatores envolvidos nos ensaios de carbonatação acelerada. Para tanto, foram empregadas argamassas, que foram preparadas com dois tempos de cura submersa (7 e 28 dias), dois tipos de cimento (CPI-S e CPIV), três relações água/cimento (0,40, 0,55 e 0,70), dois tipos de secagem (em sala climatizada e em estufa, pelas recomendações da RILEM), dois tempos de secagem (o mesmo período para todas as amostras, e diferentes períodos para cada traço) e, dois percentuais de dióxido de carbono (6% e câmara saturada de CO2). Os resultados da análise estatística, indicaram que os fatores mais significativos foram o percentual de CO2 e a relação água/cimento As amostras carbonatadas em câmara saturada de CO2 apresentaram um comportamento distinto daquelas carbonatadas a 6%, além de atingirem profundidades de carbonatação inferiores. A secagem que segue as recomendações da RILEM, propiciou condições para profundidades de carbonatação maiores. O tipo de cimento e o tipo de secagem apresentaram uma significância intermediária na profundidade de carbonatação, quando comparados aos demais fatores. O tempo de cura submersa e o tempo de secagem, influenciaram muito pouco na carbonatação.
Resumo:
Esta dissertação examina soluções para o controle estatístico em sistemas de produção que utilizam meios contínuos, onde freqüentemente os dados de análise apresentam o fenômeno da autocorrelação. A princípio são abordadas as técnicas de CEP tradicional (gráficos de Shewhart) para meios discretos, mostrando-se que estas técnicas não dão o resultado esperado quando utilizadas em processos contínuos, tanto em relação à amostragem como ao problema da autocorrelação. Em seguida são apresentadas outras soluções baseadas em técnicas mais recentes como EWMA e modelos autorregressivos, que tem uma melhor performance em meios contínuos. Damos os aspectos teóricos e exemplos de aplicação de cada solução obtida por consulta bibliográfica. Finalmente, é feita uma simulação comparativa das soluções citadas, baseandose em programação de macros e uso de software, para verificar o escopo e desempenho das soluções, sendo dadas recomendações sobre o seu uso, bem como sugestões para futuras pesquisas.
Resumo:
O presente estudo tem como objetivo avaliar se existe associação entre indicadores de desempenho, qualidade assistencial e o resultado da pesquisa de satisfação do usuário em hospitais públicos estaduais gerenciados por Organizações Sociais de Saúde (OSS). Para atingir esse resultado foi realizada revisão bibliográfica sobre reforma do Estado, marketing de serviços e avaliação de qualidade em saúde. O estudo foi realizado tendo por objeto um conjunto de oito hospitais da Região Metropolitana de São Paulo. Os dados utilizados foram produzidos pelos próprios gestores dos hospitais de maneira padronizada, mensalmente, como parte das obrigações contratuais com a Secretaria de Estado da Saúde de São Paulo (SES-SP). Correspondem a um período de 20 meses, de janeiro de 2008 a agosto de 2009. A análise estatística foi realizada através do cálculo do coeficiente de correlação linear de Pearson entre variáveis da produção de assistência e os originados na pesquisa de satisfação. Dois grupos principais de variáveis foram comparados: aquelas originadas da produção assistencial e as resultantes da pesquisa de satisfação do usuário. O grupo da produção assistencial apresentava 23 variáveis relacionadas predominantemente com as metas contratuais voltadas à intensidade de utilização do hospital. As variáveis da pesquisa de satisfação correspondiam a 36 questões sobre a percepção do usuário com aspectos diversos do atendimento hospitalar. Os resultados foram agrupados em dois conjuntos: o primeiro com as correlações obtidas entre as variáveis da pesquisa de satisfação; o segundo, destas com as variáveis dos dados de produção. A análise dos dados do primeiro grupo sugere fortemente que os usuários praticamente não diferenciaram entre os subitens incluídos em cada dimensão de satisfação da pesquisa considerada. Também foi observada associação positiva entre as variáveis de diferentes dimensões do questionário de satisfação do usuário. No segundo grupo de comparação de variáveis, entre as de produção e as satisfação, foram encontradas correlações entre variáveis de ocupação e cumprimento de metas e variáveis associadas à satisfação. Algumas correlações aparentavam ser espúrias, ou intermediadas por variáveis não identificadas. Não foi possível identificar um padrão comum entre os hospitais.
Resumo:
A presente monografia teve como motivação básica nosso desejo de buscar conhecer como se processa a gestão mercadológica no mercado industrial brasileiro, especificamente no segmento de bens de capital sob encomenda, destinados ao mercado de geração e transmissão de energia elétrica. Nossa orientação para este segmento deveu-se ao fato de ouvirmos, com freqüência, que o parque gerador do país não teria potencial suficiente para sustentarum crescimento interno da ordem de 5% a.a. por três anos consecutivos e por sabermos que sem energia o país terá dificuldades de toda ordem (econômica/financeira/produtiva). Além do mais, quizemos saber como esse segmento, no seu todo (fabricantes, fornecedores e clientes), estaria se posicionando face às contingências de um mercado global a exigir maior competitividade entre empresas e onde o Estado brasileiro, por impotência, vem tendo que abrir mão de suas prerrogativas, seja a nível de fomentar o desenvolvimento do setor, seja a nível de cliente/comprador dos bens supracitados. Ao longo das pesquisas pôde-se constatar acentuada escassez de bibliografia que dissesse respeito a marketing para bens de capital, especialmente àqueles não-seriados. Quase nada de relevante existe sobre o tema, tanto em língua portuguesa, como em outras línguas. O que nos foi possível encontrar, em outras línguas, versava sobre "cases" específicos. Quanto às premissas do trabalho, em número de cinco, as pesquisas ratificaram umas e surpreenderam-nos com outras, como a similitude de posicionamentos entre fabricantes e clientes, evidenciados por testes de correlação estatística. Não obstante os segmentos relacionados à int:ra-estrutura do Brasil sofrerem o mesmo tipo de condicionantes, relativamente a marketing (mercado protegido, com predominância do Estado e com falta de inversões financeiras), o presente estudo não autoriza a generalizações das conclusões a que se chegou. Permitimo-no sugerir que novos estudos exploratórios e pesquisas sejam feitos, pois, do ponto de vista da mercadologia, muito pouco se conhece sobre as atividades industriais no segmento de bens de capital sob encomenda, suas motivações e os fatores que pesam sobre as decisões de compra/investimento
Resumo:
Neste trabalho apresenta-se uma solução analítica para a dispersão vertical turbulenta em uma Camada Limite Convectiva e em uma Camada Limite Estável. A equação analisada considera a difusão com velocidades finitas, o que representa o transporte turbulento fisicamente correto. Considerando o caráter não-local, adicionam-se na equação que representa uma fonte área instantânea, termos como: o tempo de relaxação, a assimetria, a escala de tempo Lagrangeana e a velocidade turbulenta vertical. A solução é obtida utilizando-se a técnica da Transformada de Laplace. Os parâmetros que encerram a turbulência são derivados da teoria de difusão estatística de Taylor combinada com a teoria de similaridade. Foram utilizados coeficientes de difusão especáficos para cada uma das camadas. A transformada inversa é obtida através do esquema numérico de quadratura Gaussiana. São apresentadas várias simulações para diferentes alturas de fonte área e obtém-se o valor da concentração para alturas próximas ao solo e próximas ao topo da Camada Limite Planetária. A inserção do termo de contra-gradiente na equação resultou em uma pequena influência na concentração de poluentes, observada de forma mais expressiva na Camada Limite Convectiva.
Resumo:
Neste trabalho é desenvolvida uma solução semi-analítica para a Equação de Langevin assintótica (Equação de Deslocamento Aleatório) aplicada à dispersão de poluentes na Camada Limite Convectiva (CLC). A solução tem como ponto de partida uma equação diferencial de primeira ordem para o deslocamento aleatório, sobre a qual é aplicado o Método Iterativo de Picard. O novo modelo é parametrizado por um coeficiente de difusão obtido a partir da Teoria de Difusão Estatística de Taylor e de um modelo para o espectro de turbulência, assumindo a supersposição linear dos efeitos de turbulência térmica e mecânica. A avaliação do modelo é realizada através da comparação com dados de concentração medidos durante o experimento de dispersão de Copenhagen e com resultados obtidos por outros quatro modelos: modelo de partículas estocástico para velocidade aleatória (Modelo de Langevin), solução analítica da equação difusão-advecção, solução numérica da equação difusão-advecção e modelo Gaussiano. Uma análise estatística revela que o modelo proposto simula satisfatoriamente os valores de concentração observados e apresenta boa concordância com os resultados dos outros modelos de dispersão. Além disso, a solução através do Método Iterativo de Picard pode apresentar algumas vantagem em relação ao método clássico de solução.
Resumo:
Este trabalho tem como objetivo o levantamento e análise de fatores intervenientes na capacidade de processamento de veículos em cabines de praças de pedágio com o recolhimento manual de tarifas. Buscando o entendimento de como estes fatores interferem nos tempos de atendimento nas cabines foi realizada uma análise estatística e posterior modelagem, que utilizou redes neurais artificiais. Redes neurais artificiais são úteis no entendimento de problemas com alto grau de complexidade, que agregam diversas variáveis de entrada com relações não-lineares entre si. As variáveis de entrada escolhidas para a modelagem foram forma de pagamento, intensidade de fluxo, valor das tarifas e classes de veículos. A variável de saída foi o tempo de atendimento nas cabines de cobrança de pedágios. Foram obtidos três modelos que buscaram refletir a variação dos tempos de atendimento para um mesmo conjunto de dados de entrada: Modelo de Tempos Mínimos de Atendimento; Modelo de 85° Percentil de Tempos de Atendimento, e; Modelo de Tempos Máximos de Atendimento. As análises de sensibilidade dos modelos indicaram que tempos de atendimento são fortemente influenciados pelo fluxo de veículos nas praças. Quanto mais intenso o fluxo de veículos, tempos mínimos de atendimento tendem a sofrer leve aumento, indicando pequena perda de rendimento do processo. Perda de rendimento pode ser resultado de (i) necessidade de digitação das placas de licença dos veículos no sistema operacional das praças-dificuldade de visualização das mesmas em situação de filas, e (ii) desgaste físico dos arrecadadores. O desgaste físico dos arrecadadores também se apresenta como provável causa para o aumento de tempos mínimos de atendimento para fluxos altos. Quanto mais intenso o fluxo de veículos, menores são os tempos máximos de atendimento. Quanto maior o fluxo de veículos nas praças, as modelagens indicam uma maior estabilidade do sistema com relação ao processamento de veículos.
Resumo:
O objetivo deste estudo foi avaliar e comparar in vitro o desempenho dos fotoativadores Apollo® 95E /DenMed Technologies, com luz xênon (arco de plasma - PAC), e o Curing Light® XL 3000 /3M-Unitek, com luz halógena (convencional - QTH), comparando-se, desta forma, um fotoativador de alta intensidade de luz (PAC) com um convencional (QTH). A efetividade dos aparelhos foi verificada pelo grau de polimerização apresentado pela resina composta (Transbond™XT/3MUnitek), avaliado em espectrofotometria por infravermelho e pela análise de microdureza Knoop. Os tempos de ativação para a fonte PAC foram um, dois e três segundos e, para a fonte QTH, foram 10, 20 e 30 segundos, buscando-se avaliar a equivalência, ou não, dos diferentes tempos das diferentes unidades fotoativadoras. Foram usadas matrizes metálicas circulares, que receberam a resina para posterior polimerização. Para cada tempo de ativação, para cada aparelho e para cada teste, foi fotoativada a resina composta de cinco corpos-de-prova. Foi avaliada, também, a temperatura no extremo distal do condutor de luz de cada aparelho, nos seus respectivos tempos predeterminados, colocando-se justaposto, à ponta do fotoativador, o sensor do dispositivo de aferição Sekundenthermometer/GTH 1160 – Phywe. Os resultados obtidos foram submetidos ao teste não-paramétrico Kolmogorov-Smirnov, à Análise de Variância (ANOVA) e ao teste de comparações múltiplas de Tukey. Os resultados da espectrofotometria apontaram diferença estatística significativa entre os grupos estudados. O grupo QTH alcançou as maiores médias e diferiu do grupo PAC (p=0,01). O ensaio de microdureza Knoop também apresentou resultados que apontaram a existência de diferença estatística significativa entre os grupos estudados, tendo o grupo QTH alcançado as maiores médias (p=0,01). A avaliação da temperatura igualmente apresentou diferença estatística significativa entre os grupos estudados (p=0,01), sendo que o grupo QTH atingiu as maiores médias. Com base na metodologia empregada e na análise dos dados obtidos no presente estudo, pode-se concluir que o grau de polimerização da resina composta e a temperatura no extremo distal do condutor de luz apresentaram diferença estatística significativa com o uso das unidades fotoativadoras Apollo® 95E (xênon) e Curing Light® XL 3000 (halógena) nos respectivos tempos predeterminados (p=0,01), ficando sempre, com as maiores médias, o aparelho convencional com luz halógena.
Resumo:
Trata de estabelecer parâmetros científico para análise de preço de obras de Construção Civil realizadas pelo poder público, apontando caminhos para se economizar e dar mais eficiência aos gastos no setor
Resumo:
Analisa-se o acordo setorial automobilístico mostrando que o mesmo introduziu uma mudança estrutural no comportamento da produção de automóveis. Considera-se que a evidência estatística pode ser interpretada como argumento em favor da tese de que o tal acordo foi importante para suportar a indústria nacional em uma conjuntura de maior exposição aos mercados externos.
Resumo:
Em cenas naturais, ocorrem com certa freqüência classes espectralmente muito similares, isto é, os vetores média são muito próximos. Em situações como esta, dados de baixa dimensionalidade (LandSat-TM, Spot) não permitem uma classificação acurada da cena. Por outro lado, sabe-se que dados em alta dimensionalidade [FUK 90] tornam possível a separação destas classes, desde que as matrizes covariância sejam suficientemente distintas. Neste caso, o problema de natureza prática que surge é o da estimação dos parâmetros que caracterizam a distribuição de cada classe. Na medida em que a dimensionalidade dos dados cresce, aumenta o número de parâmetros a serem estimados, especialmente na matriz covariância. Contudo, é sabido que, no mundo real, a quantidade de amostras de treinamento disponíveis, é freqüentemente muito limitada, ocasionando problemas na estimação dos parâmetros necessários ao classificador, degradando portanto a acurácia do processo de classificação, na medida em que a dimensionalidade dos dados aumenta. O Efeito de Hughes, como é chamado este fenômeno, já é bem conhecido no meio científico, e estudos vêm sendo realizados com o objetivo de mitigar este efeito. Entre as alternativas propostas com a finalidade de mitigar o Efeito de Hughes, encontram-se as técnicas de regularização da matriz covariância. Deste modo, técnicas de regularização para a estimação da matriz covariância das classes, tornam-se um tópico interessante de estudo, bem como o comportamento destas técnicas em ambientes de dados de imagens digitais de alta dimensionalidade em sensoriamento remoto, como por exemplo, os dados fornecidos pelo sensor AVIRIS. Neste estudo, é feita uma contextualização em sensoriamento remoto, descrito o sistema sensor AVIRIS, os princípios da análise discriminante linear (LDA), quadrática (QDA) e regularizada (RDA) são apresentados, bem como os experimentos práticos dos métodos, usando dados reais do sensor. Os resultados mostram que, com um número limitado de amostras de treinamento, as técnicas de regularização da matriz covariância foram eficientes em reduzir o Efeito de Hughes. Quanto à acurácia, em alguns casos o modelo quadrático continua sendo o melhor, apesar do Efeito de Hughes, e em outros casos o método de regularização é superior, além de suavizar este efeito. Esta dissertação está organizada da seguinte maneira: No primeiro capítulo é feita uma introdução aos temas: sensoriamento remoto (radiação eletromagnética, espectro eletromagnético, bandas espectrais, assinatura espectral), são também descritos os conceitos, funcionamento do sensor hiperespectral AVIRIS, e os conceitos básicos de reconhecimento de padrões e da abordagem estatística. No segundo capítulo, é feita uma revisão bibliográfica sobre os problemas associados à dimensionalidade dos dados, à descrição das técnicas paramétricas citadas anteriormente, aos métodos de QDA, LDA e RDA, e testes realizados com outros tipos de dados e seus resultados.O terceiro capítulo versa sobre a metodologia que será utilizada nos dados hiperespectrais disponíveis. O quarto capítulo apresenta os testes e experimentos da Análise Discriminante Regularizada (RDA) em imagens hiperespectrais obtidos pelo sensor AVIRIS. No quinto capítulo são apresentados as conclusões e análise final. A contribuição científica deste estudo, relaciona-se à utilização de métodos de regularização da matriz covariância, originalmente propostos por Friedman [FRI 89] para classificação de dados em alta dimensionalidade (dados sintéticos, dados de enologia), para o caso especifico de dados de sensoriamento remoto em alta dimensionalidade (imagens hiperespectrais). A conclusão principal desta dissertação é que o método RDA é útil no processo de classificação de imagens com dados em alta dimensionalidade e classes com características espectrais muito próximas.
Resumo:
Analisa-se as técnicas de previsão mais utilizadas pelos analistas técnicos, procurando verificar se existe base estatística que corrobore a elevada popularidade que estes métodos possuem nos mercados financeiros. A evidência estatística mostra que estes métodos funcionam durante determinados períodos de tempo, não existindo evidência de que o mesmo método funcione durante longos períodos de tempo.
Resumo:
Introdução: A existência de uma nítida relação entre níveis insulinêmicos anormais e a ocorrência de distúrbios labirínticos tem sido demonstrada em vários trabalhos. Entre as alterações metabólicas, estudos apontam a hiperinsulinemia como sendo uma das causas mais freqüentes de síndromes cocleovestibulares. Objetivo: Neste trabalho, foram monitorizados os limiares das emissões otoacústicas por produtos de distorção durante a hiperinsulinemia provocada aguda em modelo animal, com o objetivo de verificar a existência de alterações eletrofisiológicas nas células ciliadas externas cocleares. Materiais e método: Foram estudadas sete ovelhas no grupo controle e sete ovelhas no grupo estudo, dosando-se os níveis de insulina e glicose simultaneamente ao registro das emissões otoacústicas por produtos de distorção de 10 em 10 minutos até o tempo de 90 minutos. O grupo controle recebeu soro fisiológico, e o grupo estudo, injeção em bolo de 0,1 U/kg de peso de insulina humana regular. Os resultados foram submetidos à avaliação estatística. Resultados: O método empregado foi apropriado para promover a hipoglicemia e a hiperinsulinemia desejadas, não havendo modificações nos limiares dos produtos de distorção no grupo controle durante o tempo total do experimento. O grupo estudo apresentou uma diminuição nos limiares dos produtos de distorção em relação ao grupo controle, bem mais nítida nas freqüências acima de 1.500 Hz e após o tempo de 60 minutos (P < 0,001). Conclusão: O estudo das emissões otoacústicas durante a hiperinsulinemia provocada aguda em ovelhas determinou uma significativa modificação eletrofisiológica nas células ciliadas externas da cóclea, verificada pela variação nos limiares dos produtos de distorção nas altas freqüências após o tempo de 60 minutos.
Resumo:
A necessidade de estimar com precisão o gasto energético dos pacientes gravemente doentes é cada vez mais importante para que se possa planejar uma nutrição adequada. Está bem estabelecido que tanto a desnutrição quanto o excesso alimentar prejudicam a evolução favorável destes doentes, especialmente quando estão sob ventilação mecânica. O objetivo do presente estudo foi comparar o Gasto Energético Total (GET) dos pacientes ventilados mecanicamente nos modos controlado e assistido, através da calorimetria indireta, medidos pelos monitores de gases TEEM-100 e DATEX-OHMEDA, verificando a necessidade de ajuste no aporte calórico em cada modo, correlacionando-os com a equação de Harris-Benedict (H-B). Foram estudados 100 pacientes em que os gases exalados (CO2 e O2) foram medidos durante 20 minutos em cada modo ventilatório (controlado e assistido) e o gasto energético calculado pela fórmula de “Weir”, determinando o GET, em 24 horas e comparado com o GET estimado pela equação de H-B. A média do escore APACHE II foi 21,1± 8,3. A média dos valores estimados pela equação de H-B foi de 1853,87±488,67 Kcal/24 h, considerando os fatores de atividade e estresse. Os valores médios obtidos pela calorimetria indireta (CI) foram de 1712,76 ±491,95 Kcal/24 h para a modalidade controlada e de 1867,33±542,67 Kcal/24 h para a assistida. A média do GET na modalidade assistida foi de 10,71% maior do que na controlada (p<0,001). A comparação das médias do GET, obtidos por CI com a equação de H-B ajustada para fatores de atividade e estresse demonstraram que a equação superestimou em 141,10 Kcal/24 h (8,2%) (p=0,012), quando na modalidade controlada. Retirando-se os fatores de atividade, observou-se uma tendência não significativa a subestimar em 44,28 Kcal/24 h (2,6%) (p=0,399). Quando na modalidade assistida, a comparação com H-B sem o fator de atividade, a medida por CI subestima em 198,84 Kcal/24 h, (10,71%), (p=0,001), enquanto que com o fator de atividade também subestimam, mas em 13,46 Kcal/24 h (0,75%) sem significância estatística (p=0,829). As diferenças observadas com o uso ou não de vasopressor, presença ou não de infecção e sepse como causa de internação na UTI, o tipo de dieta parenteral ou enteral ou sem dieta, e as faixas etárias não tiveram significância estatística, portanto não tiveram influência no gasto energético entre os modos ventilatórios. Os homens quando ventilando no modo controlado gastaram mais energia em relação às mulheres (1838,08 vs. 1577,01; p=0,007). Concluindo-se, os dados sugerem que devemos considerar o fator de atividade de 10%, somente quando em VM assistida, uma vez que este fator de atividade determina hiperalimentação, quando no modo controlado.