1000 resultados para Métodos de estimação paramétricos e semi-paramétricos


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os recentes avanços na tecnologia de sensores tem disponibilizado imagens em alta dimensionalidade para fins de sensoriamento Remoto. Análise e interpretação dos dados provenientes desta nova geração de sensores apresenta novas possibilidades e também novos desafios. Neste contexto,um dos maiores desafios consiste na estimação dos parâmetros em um classificador estatístico utilizando-se um número limitado de amostras de treinamento.Neste estudo,propõe-se uma nova metodologia de extração de feições para a redução da dimensionalidadedos dados em imagens hiperespectrais. Essa metodologia proposta é de fácil implementação e também eficiente do ponto de vista computacional.A hipótese básica consiste em assumir que a curva de resposta espectral do pixel, definida no espaço espectral, pelos contadores digitais (CD's) das bandas espectrais disponíveis, pode ser substituída por um número menor de estatísticas, descrevendo as principais característicasda resposta espectral dos pixels. Espera-se que este procedimento possa ser realizado sem uma perda significativa de informação. Os CD's em cada banda espectral são utilizados para o cálculo de um número reduzido de estatísticas que os substituirão no classificador. Propõe-se que toda a curva seja particionada em segmentos, cada segmento sendo então representado pela respectiva média e variância dos CD's. Propõem-se três algoritmos para segmentação da curva de resposta espectral dos pixels. O primeiro utiliza um procedimento muito simples. Utilizam-se segmentos de comprimento constante, isto é, não se faz nenhuma tentativa para ajustar o comprimento de cada segmento às características da curva espectral considerada. Os outros dois implementam um método que permite comprimentos variáveis para cada segmento,onde o comprimentodos segmentos ao longo da curva de resposta espectral é ajustado seqüencialmente.Um inconveniente neste procedimento está ligado ao fato de que uma vez selecionadauma partição, esta não pode ser alterada, tornando os algoritmos sub-ótimos. Realizam-se experimentos com um classificador paramétrico utilizando-se uma imagem do sensor AVIRIS. Obtiveram-se resultados animadores em termos de acurácia da classificação,sugerindo a eficácia dos algoritmos propostos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este estudo tem por objetivo estimar o impacto do fluxo de emissões corporativas brasileiras em dólar sobre o cupom cambial. Podemos entender o cupom cambial, sob a ótica da Paridade Coberta da Taxa de Juros, como resultado de dois componentes: Taxa de juros externa (Libor) e Risco País. Desvios adicionais sobre a Paridade podem ser explicados por diversos fatores como custos de transação, liquidez, fluxos em transações de arbitragem de empresas financeiras ou não-financeiras, etc. Neste contexto, os fluxos de arbitragem ocorrem quando é possível para uma empresa brasileira captar recursos no mercado externo e internar estes recursos no Brasil encontrando uma taxa final de captação em reais inferior à de sua captação local (via debêntures, notas financeiras, empréstimos, CDB’s, etc) incluindo todos os custos. Quando há condições necessárias a este tipo de operação, o efeito pode ser visto no mercado de FRA de cupom cambial da BM&F, através de um fluxo anormal de doadores de juros. Testes não-paramétricos (Wilcoxon-Mann-Whitney, Kruskal-Wallis e Van der Waerden) e a metodologia de estudo de eventos detectaram comportamento anormal no mercado de FRA de cupom cambial frente aos eventos aqui considerados como emissões de eurobonds de empresas brasileiras, excluindo o efeito do risco soberano, medido pelo CDS Brasil e considerando nulo o risco de conversibilidade no período, após análise do diferencial entre NDF onshore e offshore. Para estimação do impacto das emissões sobre o FRA de cupom cambial foram utilizados dois modelos, AR-GARCH e OLS com correção de Newey-West, e os resultados mostraram que as emissões causam fechamento de 2 a 5 bps no FRA de cupom cambial, dependendo do vencimento da emissão e do modelo avaliado. Sob a mesma metodologia, concluímos de cada USD 100 milhões de emissões são responsáveis por, em média, 1 bps de fechamento no FRA de cupom cambial, tudo mais constante.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A avaliação da solicitação produzida por explosões, assim como da resposta de estruturas, são temas de muito interesse na engenharia atualmente, tanto pela quantidade crescente de acidentes relacionados com explosões quanto pelas ações terroristas muitas vezes vinculadas a estes tipos de ações. Neste contexto, o presente trabalho tem por objetivo explorar técnicas de análise tanto na modelagem da excitação quanto na resposta de estruturas consideradas como alvos. Para isto, são utilizadas metodologias de diferentes tipos: implementações baseadas em sistema de elementos finitos comerciais como Ansys [2000] e LS-Dyna [2003] e técnicas simplificativas que permitem realizar uma avaliação preliminar. As aplicações consideradas são indicadas a seguir: • Análise da Resposta de Estruturas Laminares Submetidas à Ação de Cargas Explosivas: determina-se a pressão produzida por explosivos sólidos a certa distância do epicentro, através de métodos simplificados, determinando a resposta esperada em placas retangulares; • Efeito da Pressão Interna em Vasos de Pressão (Extintores de Incêndio): comparando resultados numéricos e experimentais verifica-se a influência da pressão interna nas propriedades dinâmicas do sistema; • Estudo de Um Vaso Esférico de GLP Sob Ação de Uma Carga Explosiva: aplica-se a ação de uma onda explosiva produzida por um gás inflamável pesado sobre uma estrutura de vaso de pressão esférico com fluido e gás em seu interior, determinando sua resposta, avaliando também a influência de diferentes quantidades de líquido e pressão interna na resposta da estrutura; • Modelamento de uma Camada de Solo / Propagação das Ondas: verifica-se o comportamento da propagação de ondas em um meio elástico, comparando valores encontrados em testes experimentais. Analisa-se numericamente o efeito da inserção de uma valeta na atenuação de tais ondas; • Simulação Numérica Completa de uma Explosão: modela-se um semi-espaço submetido à ação de um explosivo sólido sobre sua superfície, avaliando os campos de pressão gerados. Ao final de cada aplicação são apresentadas conclusões parciais obtidas e as possibilidades de trabalhos futuros vislumbrados. Finalmente, conclui-se que as técnicas empregadas para as simulações são extremamente eficientes, considerando conhecidos todos os parâmetros envolvidos em cada modelo. Neste ponto é fundamental o trabalho do engenheiro, utilizando-se de seus conhecimentos técnicos para transformação do evento real em um modelo numérico, considerando e selecionando as simplificações necessárias.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho analisamos o efeito da contratação de sistemas de ensino para métodos estruturados sobre a evolução e dispersão do desempenho dos alunos das escolas públicas municipais do estado de São Paulo. O objetivo da análise é avaliar se os métodos estruturados de ensino, além de aumentar o desempenho médio dos alunos nos municípios contratantes, também servem com meio para homogeneizar a nota dos alunos em um nível mais elevado. Para este fim utilizamos os dados dos exames de português e matemática dos anos de 2005, 2007 e 2009 da Prova Brasil e, pelo método de estimação de diferenças em diferenças com, efeito fixo por município, avaliamos o incremento no desempenho médio e no desvio padrão do desempenho dos municípios devido à posse de contrato para método estruturado em relação àqueles que não o possuem. Os resultados obtidos revelaram que os métodos estruturados de ensino contribuem para o aumento do desempenho médio dos municípios, e que não foi observado benefício diferenciado a alunos com maior ou menor desempenho inicial. Sobre o efeito da contratação de sistemas de ensino sobre o desvio padrão do desempenho, os resultados não apresentaram robustez suficiente que nos permitissem afirmar que os métodos contribuem para a homogeneização do desempenho.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Realizou-se a dedução de um formalismo básico, útil para o desenvolvimento de novas implementações semi-empíricas, partindo de primeiros princípios. A abordagem utilizada é inspirada nos métodos da família HAM, e visa possibilitar o desenvolvimento de uma implementação semi-empírica de última geração que não esteja sujeita às di culdades que ocorrem com métodos da família ZDO. São apresentadas as expressões para a energia total e para os elementos da matriz de Fock segundo este formalismo básico. O emprego de expoentes variáveis nas funções de base (orbitais atômicos) é proposto e modelado com esquemas tipo HAM/3, HAM/4 e polinomial, tomando-se como referência resultados obtidos por cálculo ab initio. Além disso, uma contribuição para produção de conjuntos de dados de referência por cálculo ab initio é fornecida. Esta contribuição permite que sejam produzidos resultados de alto nível para energias eletrônicas a um custo computacional moderado, por meio da extrapola- ção da energia de correlação eletrônica em cálculos com bases correlation consistent de Dunning.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este estudo compara previsões de volatilidade de sete ações negociadas na Bovespa usando 02 diferentes modelos de volatilidade realizada e 03 de volatilidade condicional. A intenção é encontrar evidências empíricas quanto à diferença de resultados que são alcançados quando se usa modelos de volatilidade realizada e de volatilidade condicional para prever a volatilidade de ações no Brasil. O período analisado vai de 01 de Novembro de 2007 a 30 de Março de 2011. A amostra inclui dados intradiários de 5 minutos. Os estimadores de volatilidade realizada que serão considerados neste estudo são o Bi-Power Variation (BPVar), desenvolvido por Barndorff-Nielsen e Shephard (2004b), e o Realized Outlyingness Weighted Variation (ROWVar), proposto por Boudt, Croux e Laurent (2008a). Ambos são estimadores não paramétricos, e são robustos a jumps. As previsões de volatilidade realizada foram feitas através de modelos autoregressivos estimados para cada ação sobre as séries de volatilidade estimadas. Os modelos de variância condicional considerados aqui serão o GARCH(1,1), o GJR (1,1), que tem assimetrias em sua construção, e o FIGARCH-CHUNG (1,d,1), que tem memória longa. A amostra foi divida em duas; uma para o período de estimação de 01 de Novembro de 2007 a 30 de Dezembro de 2010 (779 dias de negociação) e uma para o período de validação de 03 de Janeiro de 2011 a 31 de Março de 2011 (61 dias de negociação). As previsões fora da amostra foram feitas para 1 dia a frente, e os modelos foram reestimados a cada passo, incluindo uma variável a mais na amostra depois de cada previsão. As previsões serão comparadas através do teste Diebold-Mariano e através de regressões da variância ex-post contra uma constante e a previsão. Além disto, o estudo também apresentará algumas estatísticas descritivas sobre as séries de volatilidade estimadas e sobre os erros de previsão.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Modelos de predição baseados em estimações não-paramétricas continuam em desenvolvimento e têm permeado a comunidade quantitativa. Sua principal característica é que não consideram a priori distribuições de probabilidade conhecidas, mas permitem que os dados passados sirvam de base para a construção das próprias distribuições. Implementamos para o mercado brasileiro os estimadores agrupados não-paramétricos de Sam e Jiang (2009) para as funções de drift e de difusão do processo estocástico da taxa de juros instantânea, por meio do uso de séries de taxas de juros de diferentes maturidades fornecidas pelos contratos futuros de depósitos interfinanceiros de um dia (DI1). Os estimadores foram construídos sob a perspectiva da estimação por núcleos (kernels), que requer para a sua otimização um formato específico da função-núcleo. Neste trabalho, foi usado o núcleo de Epanechnikov, e um parâmetro de suavizamento (largura de banda), o qual é fundamental para encontrar a função de densidade de probabilidade ótima que forneça a estimação mais eficiente em termos do MISE (Mean Integrated Squared Error - Erro Quadrado Integrado Médio) no momento de testar o modelo com o tradicional método de validação cruzada de k-dobras. Ressalvas são feitas quando as séries não possuem os tamanhos adequados, mas a quebra estrutural do processo de difusão da taxa de juros brasileira, a partir do ano 2006, obriga à redução do tamanho das séries ao custo de reduzir o poder preditivo do modelo. A quebra estrutural representa um processo de amadurecimento do mercado brasileiro que provoca em grande medida o desempenho insatisfatório do estimador proposto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Uma ferramenta importante na avaliação de políticas econômicas é a estimação do efeito médio de um programa ou tratamento sobre uma variável de interesse. Em geral, a atribuição do tratamento aos potenciais participantes não é aleatória, o que pode causar viés de seleção quando desconsiderada. Uma maneira de resolver esse problema é supor que o econometrista observa um conjunto de características determinantes, a menos de um componente estritamente aleatório, da participação. Sob esta hipótese, existem na literatura estimadores semiparamétricos do efeito médio do tratamento que são consistentes e capazes de atingir, assintoticamente, o limite de e ciência semiparamétrico. Entretanto, nas amostras freqüentemente disponíveis, o desempenho desses métodos nem sempre é satisfatório. O objetivo deste trabalho é estudar como a combinação das duas estratégias pode produzir estimadores com melhores propriedades em amostras pequenas. Para isto, consideramos duas formas de integrar essas abordagens, tendo como referencial teórico a literatura de estimação duplamente robusta desenvolvida por James Robins e co-autores. Analisamos suas propriedades e discutimos por que podem superar o uso isolado de cada uma das técnicas que os compõem. Finalmente, comparamos, num exercício de Monte Carlo, o desempenho desses estimadores com os de imputação e reponderação. Os resultados mostram que a combinação de estratégias pode reduzir o viés e a variância, mas isso depende da forma como é implementada. Concluímos que a escolha dos parâmetros de suavização é decisiva para o desempenho da estimação em amostras de tamanho moderado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tese é composta de três artigos sobre finanças. O primeiro tem o título "Nonparametric Option Pricing with Generalized Entropic Estimators " e estuda um método de apreçamento de derivativos em mercados incompletos. Este método está relacionado com membros da família de funções de Cressie-Read em que cada membro fornece uma medida neutra ao risco. Vários testes são feitos. Os resultados destes testes sugerem um modo de definir um intervalo robusto para preços de opções. Os outros dois artigos são sobre anúncios agendados em diferentes situações. O segundo se chama "Watching the News: Optimal Stopping Time and Scheduled Announcements" e estuda problemas de tempo de parada ótimo na presença de saltos numa data fixa em modelos de difusão com salto. Fornece resultados sobre a otimalidade do tempo de parada um pouco antes do anúncio. O artigo aplica os resultados ao tempo de exercício de Opções Americanas e ao tempo ótimo de venda de um ativo. Finalmente o terceiro artigo estuda um problema de carteira ótima na presença de custo fixo quando os preços podem saltar numa data fixa. Seu título é "Dynamic Portfolio Selection with Transactions Costs and Scheduled Announcement" e o resultado mais interessante é que o comportamento do investidor é consistente com estudos empíricos sobre volume de transações em momentos próximos de anúncios.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Objectivo: Proceder à validação da equação de Slaugther e col., (1988), na estimação da percentagem de massa gorda (%MG), em crianças com 9 anos de idade, tendo a DXA como método de referência. Metodologia: A avaliação da composição corporal foi realizada em 450 crianças, das quais 219 eram raparigas (idade: 9.74 ± 0.33 anos; altura: 136.88 ± 6.8 cm; peso: 33.77 ± 8.16 kg; índice de massa corporal (IMC): 17.85 ± 3.16 kg/m2) e 231 eram rapazes (idade: 9.75 ± 0.33 anos; altura: 137.17 ± 6.97cm; peso: 34.3 ± 8.09 kg; IMC: 18.09 ± 3.17 kg/m2), pela DXA (QDR – 1500: Hologic, Waltham, MA, pencil beam mode, software version 5.67 anhanced whole body analisis) e pelas pregas adiposas subcutâneas, cujo os valores das pregas adiposas tricipital e geminal foram utilizados na equação desenvolvida por Slaugther e col., (1988). Na análise estatística, foram utilizadas a comparação de médias, a regressão linear e a concordância entre os métodos. Resultados: A %MG obtida por ambos os métodos apresentou diferenças significativas (p<0.05) entre os géneros, sendo as raparigas as que apresentam, em média, maiores valores de gordura corporal. Tanto para os rapazes como para as raparigas a %MGDXA é superior à %MGSKF. Na predição dos valores de %MG, a equação de Slaugther e col., (1988) tem para ambos os sexos (raparigas: r=0.94; EPE=3.2 e rapazes: r=0.96; EPE=2.7) uma correlação elevada com reduzido erro padrão de estimação com a DXA. Na análise de concordância entre os métodos, os rapazes parecem apresentar uma maior concordância entre o método alternativo e o método de referência, com os limites de concordância a variarem entre -9.26 e 1.57, enquanto nas raparigas variam entre -11.19 e 3.16. Em ambos os sexos é visível a subestimação, em valor médio, do método de referência, com uma média da diferença a situar-se nos -3.8% e -4.0%, respectivamente para rapazes e raparigas. Discussão: A equação de Slaugther e col., (1988) explica, para as raparigas, 87.5% da variância do método de referência, enquanto nos rapazes, 91.3% da variância é explicada.A diferença entre os métodos alternativo e de referência está dependente do nível de adiposidade, sendo que o método alternativo tende a sobrestimar a %MG nas crianças mais magras e a subestimar nas mais gordas. A equação de Slaugther e col., (1988) apresentou uma validade aceitável na avaliação da composição corporal num grupo de crianças, constituindo uma alternativa rápida na estimação da composição corporal numa avaliação inicial em escolas, clubes e estudos de larga escala. Contudo a sua utilidade, para uma correcta intervenção na saúde da criança, pode apresentar uma validade limitada, pelo que pode ser justificada a utilização de um método mais válido em termos clínicos, como a DXA.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O principal objectivo desta dissertação é dar a conhecer as potencialidades da linguagem R pois ainda existem algumas reservas quanto à sua utilização. E nada melhor que a análise de sobrevivência, por ser um tema da estatística com grande impacto no mundo das doenças e novas curas, para mostrar como este programa apresenta grandes vantagens. Esta dissertação é então composta por quatro capítulos. No primeiro capítulo introduzimos alguns conceitos fundamentais da análise de sobrevivência, os quais servirão de suporte para o terceiro capítulo. Assim sendo, apresentamos um pouco da sua história, conceitos básicos, conceitos novos numa perspectiva de regressão diferente da que estamos habituados, tendo como objectivo a construção de modelos de regressão tendo sempre em conta métodos para averiguar se o modelo é o mais adequado ou não. No segundo capítulo apresentamos o R, o package R Commander (que já tem um interface mais amigável), o package survival (talvez o mais importante na análise de sobrevivência clássica), bem como outros packages que poderão ser úteis para quem quiser aprofundar o seu uso nesta área. O terceiro capítulo é o que aplica os conhecimentos dos dois anteriores e no qual pretendemos dar a conhecer algumas das muitas possibilidades de utilização deste software nesta área da Estatística. Este é dividido em três, ou seja, está dividido consoante as etapas que vamos precisando para trabalhar a nossa base de dados, começando pela análise descritiva, para conhecermos os dados que temos, depois a função de sobrevivência, por ser um conceito importante e por m, a construção de modelos de regressão, não paramétricos e paramétricos. Por último, apresentamos as nossas conclusões deste trabalho.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Embora tenha sido proposto que a vasculatura retínica apresenta estrutura fractal, nenhuma padronização do método de segmentação ou do método de cálculo das dimensões fractais foi realizada. Este estudo objetivou determinar se a estimação das dimensões fractais da vasculatura retínica é dependente dos métodos de segmentação vascular e dos métodos de cálculo de dimensão. Métodos: Dez imagens retinográficas foram segmentadas para extrair suas árvores vasculares por quatro métodos computacionais (“multithreshold”, “scale-space”, “pixel classification” e “ridge based detection”). Suas dimensões fractais de “informação”, de “massa-raio” e “por contagem de caixas” foram então calculadas e comparadas com as dimensões das mesmas árvores vasculares, quando obtidas pela segmentação manual (padrão áureo). Resultados: As médias das dimensões fractais variaram através dos grupos de diferentes métodos de segmentação, de 1,39 a 1,47 para a dimensão por contagem de caixas, de 1,47 a 1,52 para a dimensão de informação e de 1,48 a 1,57 para a dimensão de massa-raio. A utilização de diferentes métodos computacionais de segmentação vascular, bem como de diferentes métodos de cálculo de dimensão, introduziu diferença estatisticamente significativa nos valores das dimensões fractais das árvores vasculares. Conclusão: A estimação das dimensões fractais da vasculatura retínica foi dependente tanto dos métodos de segmentação vascular, quanto dos métodos de cálculo de dimensão utilizados

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This study aims to analize the Cariri Paraibano territory, as a product of relations of power that were being established along its historic process of territory formation. In this process, the fragmentation and the territory management are fundamental elements to socioterritorial reality comprehension. The theoretical-conceptual basis is based on notions of territory, region, power and territory management, which are articulated to the opinions and empiric confirmations origined from interviews made with several social actions. They also were made photographical records and researches on books, newspapers and magazines, as well on other information sources related to the object of studying. Obtained data confirm the pressuposement on which the relations of dominations and the used methods by the power s owners in the region created a little fruitful political practice and little adequate to the process of active participation of the local population on the territory management, even being on disagreement with the new political-institutional mechanisms, which take to political-administrative more democratic and participative in the country

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Based on climate data and occurrence records, ecological niche models (ENM) are an important opportunity to identify areas at risk or vulnerable to biological invasion. These models are based on the assumption that there is a match between the climatic characteristic of native and invaded regions predicting the potential distribution of exotic species. Using new methods to measure niche overlap, we chose two exotic species fairly common in semi-arid regions of South America, Prosopis juliflora (Sw.) D.C. and Prosopis pallida (H. ; B. ex. Willd) HBK, to test the climate matching hypothesis. Our results indicate that both species occur with little niche overlap in the native region while the inverse pattern is observed in the invaded region on South America, where both species occur with high climatic overlap. Maybe some non-climate factor act limiting the spread of P. pallida on the native range. We believe that a founder effect can explain these similarities between species niche in the invaded region once the seeds planted in Brazil came from a small region on the Native range (Piura in Peru), where both species occur sympatric. Our hypothesis of a founder effect may be evident when we look at the differences between the predictions of the models built in the native and invaded ranges. Furthermore, our results indicate that P. juliflora shows high levels of climate matching between native and invaded ranges. However, conclusions about climate matching of P. pallida should be taken with caution. Our models based on climatic variables provide multiple locations suitable for occurrence of both species in regions where they still don t have occurrence records, including places of high interest for conservation.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In recent decades, the search for quality care has been widely discussed by the institutions and health professionals. In this context, it is the nurse coordinator of the process of providing nursing staff, reflecting the commitment to quality of care. In this process, it is the appearance of Infections Related to health care and its potential association with the workload in nursing as a valuable indicator of quality of care. Thus, this research contributes to studies to characterize the demand of nursing work to promote a safe healthcare practice. This study aimed to identify the association of nursing workload with the number of cases of Ventilator-Associated Pneumonia, urinary tract infection and central venous catheter infection in the intensive care unit. This is a quantitative research approach, descriptive, cross-sectional and prospective, held at Unimed Hospital in Natal-RN. The study population consisted of all patients treated in the Intensive Care Unit, Hospital for a period of 90 consecutive days in 2011. The convenience sample was compostapelos patients admitted to the ICU during the period of data collection, a total sample of 286 patients. To perform the data analysis software were used: Statistica 6.0, SPPS (Statistical Package for Social Sciences) version 17.0 (2004) and Excel 2007. In the descriptive analysis, we used Measures of Central Tendency and Measures of Dispersion or Variability and the use of nonparametric tests. Of the 286 patients, 88 were from the ICU and 198 ICU II II. Males predominated in the ICU I (51.1%) and female ICU II (57.6%) patients in the ICU I were aged 61-80 years (39.8%) followed by greater than 80 years (39.8%). In the ICU II, most of the patients were aged 61-80 years (38.9%) and then from 41 to 60 years (24.2%). In relation to the class of TISS inlet predominant class II in the two ICUs (59.1%), followed by Class III also in the two units (34.6%). Most patients (70.6%) out of the ICUs belonging to class II TISS. In the ICU I, the average number of forms of the TISS 28 was 6, has in ICU II this value drops to 3.2 forms. The overall mean was 19.9 TISS points in ICU patients I and ICU II.the 17 points in the average hours required to provide adequate nursing care to patients in the ICU I found that is 10 , 7 hours, and the ICU II 9.2 hours. It was found that the time provided by the nursing staff were higher in ICU II, with an average of 19 hours available for nurses in this sector. In the ICU I, which showed higher need of available hours, it was found that the mean value of 12.7 available hours. It was found that only 2.4% of patients had these units Ventilator-Associated Pneumonia, 1.0% were infected central venous catheter and 1.4% of patients had urinary tract infection. Infection associated with health care occurs, on average, on the tenth day of hospitalization. In the ICU II, this average value extends to the twelfth day with an excess of 2.7 hours of nursing care while in ICU I value decays to the ninth day of hospitalization with a deficiency of 12-hour assistance. It is concluded that patients generally showed a need for classification of semi-intensive care and has been assisted in their need to load. As for his association with the Related Infections Health will assist this analysis could not be performed due to the small number of notifications in this period. It is suggested further study how other factors related to infections me a longer period of analysis