959 resultados para Métodos estatísticos
Resumo:
Os recentes avanços na tecnologia de sensores tem disponibilizado imagens em alta dimensionalidade para fins de sensoriamento Remoto. Análise e interpretação dos dados provenientes desta nova geração de sensores apresenta novas possibilidades e também novos desafios. Neste contexto,um dos maiores desafios consiste na estimação dos parâmetros em um classificador estatístico utilizando-se um número limitado de amostras de treinamento.Neste estudo,propõe-se uma nova metodologia de extração de feições para a redução da dimensionalidadedos dados em imagens hiperespectrais. Essa metodologia proposta é de fácil implementação e também eficiente do ponto de vista computacional.A hipótese básica consiste em assumir que a curva de resposta espectral do pixel, definida no espaço espectral, pelos contadores digitais (CD's) das bandas espectrais disponíveis, pode ser substituída por um número menor de estatísticas, descrevendo as principais característicasda resposta espectral dos pixels. Espera-se que este procedimento possa ser realizado sem uma perda significativa de informação. Os CD's em cada banda espectral são utilizados para o cálculo de um número reduzido de estatísticas que os substituirão no classificador. Propõe-se que toda a curva seja particionada em segmentos, cada segmento sendo então representado pela respectiva média e variância dos CD's. Propõem-se três algoritmos para segmentação da curva de resposta espectral dos pixels. O primeiro utiliza um procedimento muito simples. Utilizam-se segmentos de comprimento constante, isto é, não se faz nenhuma tentativa para ajustar o comprimento de cada segmento às características da curva espectral considerada. Os outros dois implementam um método que permite comprimentos variáveis para cada segmento,onde o comprimentodos segmentos ao longo da curva de resposta espectral é ajustado seqüencialmente.Um inconveniente neste procedimento está ligado ao fato de que uma vez selecionadauma partição, esta não pode ser alterada, tornando os algoritmos sub-ótimos. Realizam-se experimentos com um classificador paramétrico utilizando-se uma imagem do sensor AVIRIS. Obtiveram-se resultados animadores em termos de acurácia da classificação,sugerindo a eficácia dos algoritmos propostos.
Resumo:
A avaliação da solicitação produzida por explosões, assim como da resposta de estruturas, são temas de muito interesse na engenharia atualmente, tanto pela quantidade crescente de acidentes relacionados com explosões quanto pelas ações terroristas muitas vezes vinculadas a estes tipos de ações. Neste contexto, o presente trabalho tem por objetivo explorar técnicas de análise tanto na modelagem da excitação quanto na resposta de estruturas consideradas como alvos. Para isto, são utilizadas metodologias de diferentes tipos: implementações baseadas em sistema de elementos finitos comerciais como Ansys [2000] e LS-Dyna [2003] e técnicas simplificativas que permitem realizar uma avaliação preliminar. As aplicações consideradas são indicadas a seguir: • Análise da Resposta de Estruturas Laminares Submetidas à Ação de Cargas Explosivas: determina-se a pressão produzida por explosivos sólidos a certa distância do epicentro, através de métodos simplificados, determinando a resposta esperada em placas retangulares; • Efeito da Pressão Interna em Vasos de Pressão (Extintores de Incêndio): comparando resultados numéricos e experimentais verifica-se a influência da pressão interna nas propriedades dinâmicas do sistema; • Estudo de Um Vaso Esférico de GLP Sob Ação de Uma Carga Explosiva: aplica-se a ação de uma onda explosiva produzida por um gás inflamável pesado sobre uma estrutura de vaso de pressão esférico com fluido e gás em seu interior, determinando sua resposta, avaliando também a influência de diferentes quantidades de líquido e pressão interna na resposta da estrutura; • Modelamento de uma Camada de Solo / Propagação das Ondas: verifica-se o comportamento da propagação de ondas em um meio elástico, comparando valores encontrados em testes experimentais. Analisa-se numericamente o efeito da inserção de uma valeta na atenuação de tais ondas; • Simulação Numérica Completa de uma Explosão: modela-se um semi-espaço submetido à ação de um explosivo sólido sobre sua superfície, avaliando os campos de pressão gerados. Ao final de cada aplicação são apresentadas conclusões parciais obtidas e as possibilidades de trabalhos futuros vislumbrados. Finalmente, conclui-se que as técnicas empregadas para as simulações são extremamente eficientes, considerando conhecidos todos os parâmetros envolvidos em cada modelo. Neste ponto é fundamental o trabalho do engenheiro, utilizando-se de seus conhecimentos técnicos para transformação do evento real em um modelo numérico, considerando e selecionando as simplificações necessárias.
Resumo:
Este trabalho apresenta um conjunto de ferramentas que exploram as capacidades recentes das placas gráficas de computadores pessoais para prover a visualização e a interação com volumes de dados. O objetivo é oferecer ao usuário ferramentas que permitam a remoção interativa de partes não relevantes do volume. Assim, o usuário é capaz de selecionar um volume de interesse, o que pode tanto facilitar a compreensão da sua estrutura quanto a sua relação com os volumes circundantes. A técnica de visualização direta de volumes através do mapeamento de texturas é explorada para desenvolver estas ferramentas. O controle programável dos cálculos realizados pelo hardware gráfico para gerar a aparência de cada pixel na tela é usado para resolver a visibilidade de cada ponto do volume em tempo real. As ferramentas propostas permitem a modificação da visibilidade de cada ponto dentro do hardware gráfico, estendendo o benefício da visualização acelerada por hardware. Três ferramentas de interação são propostas: uma ferramenta de recorte planar que permite a seleção de um volume de interesse convexo; uma ferramenta do tipo “borracha”, para eliminar partes não relevantes da imagem; e uma ferramenta do tipo “escavadeira”, para remover camadas do volume Estas ferramentas exploram partes distintas do fluxo de visualização por texturas, onde é possível tomar a decisão sobre a visibilidade de cada ponto do volume. Cada ferramenta vem para resolver uma deficiência da ferramenta anterior. Com o recorte planar, o usuário aproxima grosseiramente o volume de interesse; com a borracha, ele refina o volume selecionado que, finalmente, é terminado com a escavadeira. Para aplicar as ferramentas propostas ao volume visualizado, são usadas técnicas de interação conhecidas, comuns nos sistemas de visualização 2D. Isto permite minimizar os esforços do usuário no treinamento do uso das ferramentas. Finalmente, são ilustradas as aplicações potenciais das ferramentas propostas para o estudo da anatomia do fígado humano. Nestas aplicações foi possível identificar algumas necessidades do usuário na visualização interativa de conjuntos de dados médicos. A partir destas observações, são propostas também novas ferramentas de interação, baseadas em modificações nas ferramentas propostas.
Resumo:
O experimento foi conduzido no município de Cachoeira do Sul de out/2001 a out/2002, objetivando avaliar a dinâmica vegetacional e o desempenho animal (31/05/02 a 16/09/02), em uma pastagem nativa submetida a diferentes métodos de controle de plantas indesejáveis. O local corresponde à região fisiográfica denominada Serra do Sudeste, com predominância das espécies Paspalum notatum (grama forquilha), Andropogon lateralis (capim caninha), além de Arachis burkartii e Desmodium incanum. Como plantas classificadas como indesejáveis encontram-se Baccharis trimera (carqueja), Vernonia nudiflora (alecrim) e Psidium luridum (araçá do campo). O delineamento experimental utilizado foi um fatorial em blocos (4 x 2), com duas repetições de campo. Os tratamentos foram os seguintes: testemunha (T); roçada de primavera (P); roçada de primavera + outono (O) e roçada de primavera + controle químico (Q), todos em duas ofertas de forragem, média (8%) e alta (14%). Os animais testes foram três novilhas por repetição, mantidas em pastejo contínuo com lotação variável. A massa de forragem foi obtida através de avaliações visuais usando padrões de referência, o acúmulo de forragem através do uso de gaiolas de exclusão e a composição botânica pelo método do ponto. Avaliaram-se os parâmetros de desempenho individual, carga animal, ganho de peso vivo por área e a dinâmica vegetacional. Os dados foram submetidos a análise de variância através do pacote estatístico SAS. O nível alto de oferta permitiu uma menor perda de peso vivo por área. Os tratamentos P e Q proporcionaram um melhor desempenho individual e menor perda de peso vivo por área, quando comparados a T. Os tratamentos P, O e Q foram eficientes no controle de Baccharis trimera. A. burkartii e Eriyngium horridum foram incrementados pela média intensidade de pastejo. Aristida laevis teve sua participação aumentada pela interação tratamento Q e baixa intensidade de pastejo.
Resumo:
O objetivo central desta pesquisa foi o de explorar, descrever e discutir de que forma e em que extensão as empresas se utilizam das informações contábeis tratadas por mecanismos que considerem os reflexos das variações no poder aquisitivo da moeda (Inflação) e das flutuações específicas de preços sobre os resultado e patrimônio empresarial, nos seus sistemas de controles internos e, consequentemente, em seus processos de tomada de decisão, avaliação de desempenho e fixação de tendências para o empreendimento. Em função dos objetivos propostos, a operacionalização desta pesquisa foi desenvolvida em duas etapas. A primeira fase, de caráter qualitativo, constituiu-se no levantamento dos dados básicos necessários ao atingimento dos objetivos desejados, através da aplicação de questionários em 12 (doze) empresas. Através dos dados levantados, foi possível inferir-se que o sistema contábil configura-se na base primária dos relatórios gerenciais das empresas pesquisadas. o modelo da Correção Integral teve sua validade conceitual confirmada, não obstante algumas simpliflcações metodológicas adotadas e o problema da lnadequacidade do padrão monetário utilizado principalmente em 1990. Em que pese ter havido consenso na indicação das distorções provocadas pelo problema do indexador, apenas duas empresas adotaram mecanismos tendentes a anular seus efeitos. Uma importante constatação também, foi o fato de que nas empresas em que se utilizavam sistemas contábeis baseados na metodologia da Lei Societária, como fonte primária, para geração de relatórios gerenciais, as suas adminlstrações não utilizavam tais relatórios como suporte aos seus processos de tomada de decisão, como por exemplo, no processo de estabelecimento de preços. Ressalte-se, também, que o pouco conhecimento da filosofia conceitual e vantagens informativas do modelo da Contabilidade a Custo Corrente Corrigido, tem impedido a sua implantação de forma mais ampla. Saliente-se que 60% das empresas da amostra já se utilizam de mecanismos de avaliação de ativos não monetários, com base em valores correntes (captaçao dos efeitos das flutuações especificas de preços), só que restritos aos itens circulantes (estoques) . Este é, certamente, o caminho para a aplicação plena do modelo, principalmente no âmbito gerencial. A segunda fase, cujo enfoque direcionou-se aos aspectos quantitativos, através do cálculo de indicadores econômicos-financeiros extraídos das demonstrações contábeis das empresas pesquisadas, relativos ao exercício de 1990, e elaborados em consonân ia com as metodologias da Correção Integral e da Lei Societária, buscou-se , mediante análise comparativa, avaliar as pricipais distorções encolvidas, que corroboram, de certa forma, os comentários feitos no parágrafo anterior. A natureza exploratória deste assunto, com deslocamento da ênfase da análise quantitativa, e com enfoque estritamente gerencial, é que o diferencia dos demais desenvolvidos em tempos recentes. Além disso, apresenta como caraterística acessória a busca por informações sugestivas para o desenvolvimento de pesquisas futuras.
Resumo:
O objetivo desta pesquisa foi a identificação de diferenças no desenvolvimento da capacidade criativa de crianças, de ambos os sexos e de diferentes níveis sócio-econômicos, alfabetizados pelos métodos analítico e sintético, nas primeiras series do 1º grau, nos Estabelecimentos de Ensino da Rede Oficial de Uberlândia. Os sujeitos foram sorteados entre os alunos matriculados na 1ª série do 1º grau, havendo apenas a condição de que ainda não houvessem sido alfabetizados. Os sujeitos foram divididos em dois grupos, segundo o método pelo qual seríam alfabetizados. A medida de criatividade utilizada foi o teste de Wallach & Kogan, aplicado em duas sessões: a primeira, quando da entrada dos sujeitos na escola e a segunda, ao final do semestre. A criatividade foi avaliada através das três dimensões: fluência, originalidade e flexibilidade das respostas. A análise estatística revelou diferenças significativas apenas no que se referia à dimensão "flexibilidade", cujo índice se mostrou mais elevado no grupo sintético, quando comparado com o do grupo analítico. Não foram encontradas diferenças entre os grupos feminino e masculino e, nem também, entre os grupos de diferentes níveis sócio-econômicos.
Resumo:
Introdução: O uso da pressão expiratória positiva na via aérea (EPAP) não é sugerido como técnica de desmame. O EPAP pode previnir o colapso das vias aéreas durante a expiração. Objetivo: O objetivo deste trabalho é verificar se a utilização da pressão expiratória positiva na via aérea (EPAP) apresenta benefícios na redução da hiperinsuflação dinâmica com redução do trabalho respiratório e melhora da oxigenação em pacientes submetidos ao processo de desmame da ventilação mecânica. Material e Métodos: Quarenta pacientes submetidos à ventilação mecânica por um período maior que 48 horas em 2 unidades de terapia intensiva foram avaliados prospectivamente em um estudo randomizado controlado cruzado. Todos os pacientes foram submetidos métodos de ventilação de pressão de suporte (PSV), tubo-t e EPAP, durante 30 minutos, com um período de descanso de 30 minutos entre cada método. Os pacientes foram monitorizados pelo VenTrack (Novametrix, EUA). As variáveis estudadas, mensuradas no minuto 1, 15 e 30, foram: PEEP intínseca (PEEPi), trabalho respiratório (WOBtotal), frequência respiratória (f), volume de ar corrente (Vt) e saturação periférica de oxigênio (SaO2). A amostra geral foi analisada e dividida em subgrupos DPOC (n= 14) e não-DPOC (n=26), traqueostomizados (n=15) e não-traqueostomizados (n=25). As comparações foram feitas pela Análise de Variância (ANOVA) e teste-t. O nível de significância foi de 95%. Resultados: PEEPi DPOC e não-DPOC minuto 1 (0,014 + 0,03 versus 0,17 + 0,38 cmH2O) e minuto 15 (0,042 + 0,13 versus 0,41 + 0,78 cmH2O) (p<0,05). No subgrupo não-traqueo, nos métodos de PSV15 (0,26 + 0,5 cm H2O) e EPAP15 (0,02 + 0,07 cm H2O), assim como PSV 30 (0,21 + 0,4 cm H2O) e EPAP 30 (0,02 + 0,1 cm H2O) (p<0,05). Para traqueo vs não-traqueo, no método EPAP minuto 1 (PEEPi traqueo 0,58 + 0,94 cm H2O; PEEPi não-traqueo 0,08 + 0,28 cmH2O) e minuto 15 (PEEPi traqueo 0,91 + 2,06 cm H2O; PEEPi não-traqueo 0,02 + 0,07 cmH2O) (p<0,05). Em relação ao WOBtotal houve um aumento significativo no método EPAP em relação ao tubo-t na análise geral da amostra (p<0,05). A f mostrou-se maior no método EPAP para o subgrupo não-DPOC e não-traqueo (minutos 1, 15 e 30). A SaO2 foi maior no subgrupo PSV quando comparada com tubo-t na análise geral da amostra, (p<0,05) Conclusões: A EPAP não demonstrou redução na PEEPi na análise geral da amostra, subgrupo DPOC, não-DPOC e traqueostomizados. Houve redução na PEEPi no grupo não-traqueostomizados. Houve aumento do WOBtotal com o uso da EPAP. Neste estudo a EPAP não demonstrou vantagens em relação aos outros métodos.
Resumo:
Este estudo analisou variações mensais na dinâmica populacional, biomassa aérea, taxas de crescimento e produção primária de Zizaniopsis bonariensis, uma macrófita aquática emergente, no Sistema Hidrológico do Taim, RS, durante o ano de 2004. Indivíduos fotossinteticamente ativos tiveram todas suas folhas etiquetadas, quantificações de incrementos em biomassa foram determinadas de modo não destrutivo através de quadros experimentais “in situ”. Variáveis alométricas foliares como comprimento de tecido clorofilado e senescente e diâmetro basal de centenas de indivíduos foram mensuradas em campo e convertidas em biomassa através da regressão da área da superfície foliar contra biomassa. Devido à emergência contínua de indivíduos de Z.bonariensis durante todo o ano, coortes mensais foram recrutadas e monitoradas. Variações na biomassa desta espécie também foram avaliadas de modo destrutivo através de blocos de colheita. Os dados obtidos foram utilizados para calcular a Produção Primária Aérea Anual (PPAA) com base em nove métodos de estimativa: Pico Anual de Biomassa; Pico Anual de Biomassa modificado; Milner & Hughes (IBP); Smalley; Valiela et al; Curva de Allen; Soma dos Máximos de Biomassa; Soma de Incrementos e Crescimento Instantâneo. A taxa media mensal de emergência de brotos foi de 11,7ind m-2, sem evidências de pulsos de emergência em função de mudanças sazonais. A densidade média foi de 48 ind m-2. A longevidade das coortes foi estimada em 10,5 meses, e taxa de mortalidade aumentou após o período reprodutivo, sugerindo preliminarmente influência da sazonalidade sobre estas variáveis A biomassa média das coortes aumentou durante o período reprodutivo, demonstrando alto investimento reprodutivo, sendo o maior valor registrado em outubro, 39,96 gPS m-2, pela coorte de janeiro. A taxa de crescimento relativo se mostrou maior durante o primeiro mês após emergência entre todas as coortes, 0,048 g PSm-2d-1. A biomassa clorofilada dos quadros experimentais decresceu no inverno, voltando a aumentar durante a primavera. A PPAA foi estimada em 2870 gPS m-2. Dos métodos utilizados, apenas o método de Milner & Hughes (não-destrutivo) se mostrou adequado, enquanto os baseados em dados de colheita (destrutivo) subestimaram a produção real de Z. bonariensis.
Resumo:
Neste trabalho apresentamos três métodos distintos provando que S(n) = +1 X k=−1 (4k + 1)−n é um múltiplo racional de n para todos os inteiros n = 1, 2, 3, . . . O primeiro utiliza a teoria das função analíticas e funções geradoras. No segundo reduzimos o problema, via mudança de variável devida a E. Calabi, ao cálculo do volume de certos politopos em Rn enquanto que no terceiro usamos a teoria dos operadores integrais compactos. Cada um dos métodos tem um interesse intrínsico e está sujeito a generalizações para aplicações em novas situações.
Resumo:
Neste trabalho analisamos o efeito da contratação de sistemas de ensino para métodos estruturados sobre a evolução e dispersão do desempenho dos alunos das escolas públicas municipais do estado de São Paulo. O objetivo da análise é avaliar se os métodos estruturados de ensino, além de aumentar o desempenho médio dos alunos nos municípios contratantes, também servem com meio para homogeneizar a nota dos alunos em um nível mais elevado. Para este fim utilizamos os dados dos exames de português e matemática dos anos de 2005, 2007 e 2009 da Prova Brasil e, pelo método de estimação de diferenças em diferenças com, efeito fixo por município, avaliamos o incremento no desempenho médio e no desvio padrão do desempenho dos municípios devido à posse de contrato para método estruturado em relação àqueles que não o possuem. Os resultados obtidos revelaram que os métodos estruturados de ensino contribuem para o aumento do desempenho médio dos municípios, e que não foi observado benefício diferenciado a alunos com maior ou menor desempenho inicial. Sobre o efeito da contratação de sistemas de ensino sobre o desvio padrão do desempenho, os resultados não apresentaram robustez suficiente que nos permitissem afirmar que os métodos contribuem para a homogeneização do desempenho.
Resumo:
O objetivo do presente trabalho é utilizar modelos econométricos de séries de tempo para previsão do comportamento da inadimplência agregada utilizando um conjunto amplo de informação, através dos métodos FAVAR (Factor-Augmented Vector Autoregressive) de Bernanke, Boivin e Eliasz (2005) e FAVECM (Factor-augmented Error Correction Models) de Baneerjee e Marcellino (2008). A partir disso, foram construídas previsões fora da amostra de modo a comparar a eficácia de projeção dos modelos contra modelos univariados mais simples - ARIMA - modelo auto-regressivo integrado de média móvel e SARIMA - modelo sazonal auto-regressivo integrado de média móvel. Para avaliação da eficácia preditiva foi utilizada a metodologia MCS (Model Confidence Set) de Hansen, Lunde e James (2011) Essa metodologia permite comparar a superioridade de modelos temporais vis-à-vis a outros modelos.
Alinhamento de expectativas e desempenho organizacional: um estudo sobre os métodos ágeis de gestão.
Resumo:
A adoção dos métodos ágeis de gestão do desenvolvimento de software tem sido uma tendência mundial, considerando-se as empresas do setor de tecnologia. Empresas brasileiras atuando neste mercado não estão apartadas deste quadro, uma vez que o objetivo desses métodos é endereçar um cenário comum a qualquer uma dessas organizações: lidar com a dificuldade de modelar adequadamente os problemas usualmente complexos que são objetivo da construção de um software e com a mudança constante de requisitos que esta situação representa, potencializada ainda mais pela dinâmica frenética da disseminação da informação no século XXI, além de modificar um quadro crônico de fracassos e falhas no setor, visando entregar produtos de qualidade aos seus clientes com o máximo de velocidade. Aspectos internos como o aumento de produtividade e a redução de retrabalho também fazem parte dos objetivos de adoção destas metodologias. O presente estudo visa avaliar os aspectos humanos e culturais envolvidos e identificar a convergência entre as expectativas da empresa e dos empregados quando da adoção de métodos ágeis de gestão, a partir de pesquisa de campo que capturou as reações de um grupo de entrevistados à implantação desses métodos na Módulo Security Solutions, empresa brasileira de tecnologia e serviços, após dois anos de uso interno abrangente. Os resultados apontam para o sucesso da implantação, com reação positiva dos empregados, a despeito da necessidade de endereçamento de aspectos humanos para ajuste do modelo e do impacto negativo da cultura local e organizacional terem sido amplamente percebidos.
Resumo:
Neste trabalho, comparamos algumas aplicações obtidas ao se utilizar os conhecimentos subjetivos do investidor para a obtenção de alocações de portfólio ótimas, de acordo com o modelo bayesiano de Black-Litterman e sua generalização feita por Pezier e Meucci. Utilizamos como medida de satisfação do investidor as funções utilidade correspondentes a um investidor disciplinado, isto é, que é puramente averso a risco, e outro que procura risco quando os resultados são favoráveis. Aplicamos o modelo a duas carteiras de ações que compõem o índice Ibovespa, uma que replica a composição do índice e outra composta por pares de posições long&short de ações ordinárias e preferenciais. Para efeito de validação, utilizamos uma análise com dados fora da amostra, dividindo os dados em períodos iguais e revezando o conjunto de treinamento. Como resultado, foi possível concluir que: i) o modelo de Black-Litterman não é suficiente para contornar as soluções de canto quando o investidor não é disciplinado, ao menos para o modelo utilizado; ii) para um investidor disciplinado, o P&L médio obtido pelos modelos de média-variância e de Black-Litterman é consideravelmente superior ao do benchmark para as duas carteiras; iii) o modelo de Black Litterman somente foi superior ao de média-variância quando a visão do investidor previu bem os resultados do mercado.