957 resultados para Markov, Campos aleatórios de
Resumo:
Brazilian Campos grasslands are rich in species and the maintenance of its diversity and physiognomy is dependent on disturbance (e.g. fire and grazing) Nevertheless, studies about fire intensity and severity are inexistent. The present paper describes fire parameters, using 14 experimental burn plots in southern Brazil (30 degrees 02` to 30 degrees 04`S, and 51 degrees 06` to 51 degrees 09`W. 311masl). Two sites under different fire histories were chosen: frequently burned and excluded since six years. Experimental burning was performed during summer (2006-2007), when most burning takes place in these grasslands. The following parameters were measured: air temperature and moisture, vegetation height, wind speed, fuel (fine, coarse), fuel moisture, fire temperatures (soil level and at 50cm), ash, residuals, flame freight, fire duration: burning efficiency and fire intensity were later calculated. Fuel load varied from 0.39 to 1.44kg.m(-2). and correlated positively with both fire temperature and fire intensity. Fire temperatures ranged 47 to 537.5 degrees C. being higher in the excluded site Fire intensity was low compared to grassland elsewhere (36 5-319.5kW.m(-1)), differing significantly between sties Fine fuel was the variable that best explained fire intensity. The results on fire intensity and severity in Campos grasslands can be considered a pilot study, since plots were very small. However the data provided can help other researchers to get permission for experimentation using larger plots The results provide support for further studies about the effects of fire on grassland vegetation and for studies involving fire models and fire risk prediction
Resumo:
We discuss the estimation of the expected value of the quality-adjusted survival, based on multistate models. We generalize an earlier work, considering the sojourn times in health states are not identically distributed, for a given vector of covariates. Approaches based on semiparametric and parametric (exponential and Weibull distributions) methodologies are considered. A simulation study is conducted to evaluate the performance of the proposed estimator and the jackknife resampling method is used to estimate the variance of such estimator. An application to a real data set is also included.
Resumo:
Before signing electronic contracts, a rational agent should estimate the expected utilities of these contracts and calculate the violation risks related to them. In order to perform such pre-signing procedures, this agent has to be capable of computing a policy taking into account the norms and sanctions in the contracts. In relation to this, the contribution of this work is threefold. First, we present the Normative Markov Decision Process, an extension of the Markov Decision Process for explicitly representing norms. In order to illustrate the usage of our framework, we model an example in a simulated aerospace aftermarket. Second, we specify an algorithm for identifying the states of the process which characterize the violation of norms. Finally, we show how to compute policies with our framework and how to calculate the risk of violating the norms in the contracts by adopting a particular policy.
Resumo:
Tese apresentada ao Programa de Doutorado em Administração da Universidade Municipal de São Caetano do Sul
Resumo:
Este artigo analisa a relação entre empreendedorismo, inovação e trajetórias de crescimento das empresas do cluster tecnológico de São José dos Campos, São Paulo. A pesquisa aplicada é do tipo exploratório-descritivo, apoiada por pesquisa documental e aplicação de questionários em uma amostra não probabilística. Os resultados evidenciam uma reorganização social relevante desde a implantação do Centro Tecnológico de Aeronáutica - CTA, e do Instituto Tecnológico de Aeronáutica – ITA, na década de 1950, coincidindo com o ingresso de empresas multinacionais, atraídas pela localização, oferta de mão-de-obra qualificada e de incentivos fiscais. Desde então, a cidade tem experimentado um fluxo migratório intenso de profissionais, professores, estudantes civis e militares. O CTA e o ITA têm gerado alto nível de transbordamento do conhecimento tecnológico para as empresas dos setores aeroespacial, automobilístico e petroquímico. Com isso, houve um consistente desenvolvimento social e econômico. Não obstante, as pequenas e médias empresas de base tecnológica são dependentes das empresas motrizes locais, resultando em estágios incipientes de internacionalização.
Resumo:
Apresentamos fotometria profunda (V ~ 25,5) nas bandas V e I obtidas com a Wide Field and Planetary Camera 2 a bordo do telesc opio espacial Hubble para 7 campos distantes ~5º do centro da Grande Nuvem de Magalhães. Ajustamos isócronas aos diagramas cor-magnitude a fim de identficar diferentes populaões estelares nestes campos. Uma população velha (τ > 10¹º anos) foi encontrada em todos os campos. Alguns eventos de elevada formação estelar, com idades entre 2 x 109 e 4 x 109 anos, foram também encontrados em alguns campos localizados na região N/NO. Funções de luminosidade de estrelas de baixa massa (m ≤ 1; 1msol) foram obtidas para todos os campos. Aparentemente não há diferenças na mistura de populações entre os campos como sugerido através do teste Kolmogorov-Smirnov aplicados as funções de luminosidade. Finalmente, derivamos perfis de densidade para estrelas velhas e de idade intermediária. O primeiro apresenta uma inclinação levemente maior quando comparado com o último.
Resumo:
No presente trabalho apresenta-se um estudo numérico do escoamento de ar em um ambiente interno tridimensional típico, sujeito a um sistema de ventilação por deslocamento. O estudo numérico consiste na obtenção dos campos de velocidade e temperatura presentes no interior deste ambiente. A determinação dos campos de velocidade e temperatura é necessária na avaliação precisa das condições de conforto térmico, produzidas por um determinado sistema de climatização. Este tipo de estudo não serve somente para determinar a viabilidade da aplicação de um determinado sistema de distribuição de ar, mas através dele também se pode determinar as condições ótimas de uso deste sistema. De forma crescente observa-se o interesse dos projetistas de ar condicionado em aperfeiçoar as suas técnicas de cálculo, de modo que a simulação numérica poderá tornar-se uma técnica usual em pouco tempo. Atualmente duas técnicas estão disponíveis para o estudo do escoamento de ar em ambientes internos: investigação experimental e simulação numérica. Em princípio, medidas diretas dão informações mais realísticas relativas ao escoamento do ar interno, contudo, medições experimentais são muito caras e consomem muito tempo, inviabilizando a sua aplicação caso a caso. Devido às limitações da investigação experimental e à disponibilidade de computadores cada vez mais rápidos, o uso da simulação numérica surge como uma opção considerável nos dias de hoje O método de solução numérica, utilizado no presente trabalho, baseia-se na resolução das equações de conservação de massa, de quantidade de movimento e de energia, em um domínio de cálculo discretizado com o uso do Método dos Volumes Finitos. Os efeitos da turbulência são levados em conta através da utilização do modelo de turbulência K- ε e de um modelo de turbulência simplificado. Resultados bem convergidos para o problema abordado somente são obtidos com a utilização do modelo de turbulência simplificado. As simulações numéricas apresentadas no presente trabalho foram realizadas com o uso do código Fluent. Com base na comparação dos resultados numéricos obtidos no presente trabalho e os resultados experimentais de Yuan et al., 1999a, pode-se concluir que o modelo simplificado é adequado, ao menos provisoriamente, para determinar a distribuição de velocidade e de temperatura no escoamento de ar em ambientes internos.
Resumo:
Este trabalho foi realizado dentro da área de reconhecimento automático de voz (RAV). Atualmente, a maioria dos sistemas de RAV é baseada nos modelos ocultos de Markov (HMMs) [GOM 99] [GOM 99b], quer utilizando-os exclusivamente, quer utilizando-os em conjunto com outras técnicas e constituindo sistemas híbridos. A abordagem estatística dos HMMs tem mostrado ser uma das mais poderosas ferramentas disponíveis para a modelagem acústica e temporal do sinal de voz. A melhora da taxa de reconhecimento exige algoritmos mais complexos [RAV 96]. O aumento do tamanho do vocabulário ou do número de locutores exige um processamento computacional adicional. Certas aplicações, como a verificação de locutor ou o reconhecimento de diálogo podem exigir processamento em tempo real [DOD 85] [MAM 96]. Outras aplicações tais como brinquedos ou máquinas portáveis ainda podem agregar o requisito de portabilidade, e de baixo consumo, além de um sistema fisicamente compacto. Tais necessidades exigem uma solução em hardware. O presente trabalho propõe a implementação de um sistema de RAV utilizando hardware baseado em FPGAs (Field Programmable Gate Arrays) e otimizando os algoritmos que se utilizam no RAV. Foi feito um estudo dos sistemas de RAV e das técnicas que a maioria dos sistemas utiliza em cada etapa que os conforma. Deu-se especial ênfase aos Modelos Ocultos de Markov, seus algoritmos de cálculo de probabilidades, de treinamento e de decodificação de estados, e sua aplicação nos sistemas de RAV. Foi realizado um estudo comparativo dos sistemas em hardware, produzidos por outros centros de pesquisa, identificando algumas das suas características mais relevantes. Foi implementado um modelo de software, descrito neste trabalho, utilizado para validar os algoritmos de RAV e auxiliar na especificação em hardware. Um conjunto de funções digitais implementadas em FPGA, necessárias para o desenvolvimento de sistemas de RAV é descrito. Foram realizadas algumas modificações nos algoritmos de RAV para facilitar a implementação digital dos mesmos. A conexão, entre as funções digitais projetadas, para a implementação de um sistema de reconhecimento de palavras isoladas é aqui apresentado. A implementação em FPGA da etapa de pré-processamento, que inclui a pré-ênfase, janelamento e extração de características, e a implementação da etapa de reconhecimento são apresentadas finalmente neste trabalho.
Resumo:
Nesta dissertação, procuro entender o funcionamento de uma disciplina científica-acadêmica, a qual denominei de Bioquímica Médica, no seu processo de diferenciação enquanto uma disciplina situada na conexão entre os campos de saber médico e bioquímico. Para essa discussão, procuro me ancorar em questões trazidas pelos Estudos Culturais e pelos Estudos da Ciência, em suas vertentes pósestruturalistas. Dentre essas questões, destaco que compreender a disciplina e o conhecimento como construções processadas na cultura, leva-me a problematizar a disposição naturalizada dos saberes e a pensar a disciplina como um conjunto de estratégias, regras e padrões que regulam a forma como os sujeitos produzem o seu conhecimento sobre o mundo. Discuto também como a disciplina Bioquímica Médica, ao se encontrar implicada em uma formação profissional, incorporava discursos e práticas que articulavam os campos de saber bioquímico e médico, adequando-se ao seu contexto institucional - a Faculdade de Medicina. Nesse processo de articulação, procuro ver como as especificidades dessa disciplina constituíram-se e atuavam enquanto estratégias que, ao atenderem aos interesses institucionais, legitimavam o lugar dessa disciplina nesse Curso. Para a realização desse estudo, utilizei algumas ferramentas da etnografia que me permitiram circular pela variedade de espaços e atividades da disciplina e interagir com as pessoas - estudantes, monitores/as, professores e palestrantes - que dela participavam. Assim, fui tecendo a rede de elementos - aulas teórico-práticas, encontros extra-classe entre os/as monitores/as e os/as estudantes, entrevistas de pacientes no hospital, atividades de informática, reuniões entre os professores e os/as monitores/as, procedimentos pedagógicos, regras e padrões institucionais - que constituíam a disciplina; e, dessa forma, fui (re)construindo e discutindo suas especificidades. Dentre essas especificidades que diferenciavam a Bioquímica Médica enquanto disciplina constituída na articulação dos campos médico e bioquímico, destacava-se a entrevista de pacientes diabéticos/as em um hospital, que incorporava uma prática médica instituída. Nesse processo de articulação, as especificidades da disciplina atuavam, ao mesmo tempo, demarcando um campo de possibilidade no qual determinados objetos - como a diabetes - eram configurados para os/as estudantes enquanto objetos de conhecimento médicobioquímico, e legitimando a disciplina de Bioquímica no Curso de Medicina.
Resumo:
A maior dificuldade na medição de escoamentos de líquidos é com campos em velocidades acima de 0,5 m/s. O processamento “PIV” (Velocimetria por processamento de Imagens de Partículas) com iluminação a Laser contínua (não pulsada), utilizando câmeras CCD possibilitou a análise de quadros em seqüências de imagens capturadas na velocidade convencional de 30 quadros/s, com bons resultados para deslocamentos lentos < 0,5 m/s. Para velocidades maiores esta técnica torna-se inviável. A imagem das partículas forma um rastro, não permitindo a identificação da partícula singela. Com a introdução recente de câmeras digitais rápidas com velocidade de obturação controlada tornou-se possível a medida de fluidos em deslocamentos rápidos. O presente trabalho apresenta duas técnicas “intraframe” (dentro do quadro de imagem) para análise de escoamentos, em velocidades na ordem 2 m/s, utilizando câmeras CCD-DV e gravação digital em fita DVT (digital video tape). A primeira programando a câmera no modo progressivo, imagens são capturadas em velocidades de obturação diferentes resultando num rastro caracterizado pelo deslocamento das partículas, proporcional ao vetor velocidade. A segunda programando a câmera no modo entrelaçado, a imagem é capturada em dois campos intercalados na velocidade de obturação desejada, obtendo-se uma imagem dupla capturada em tempos diferentes, montada pelo campo ímpar e o campo par, entrelaçado entre um e o outro A câmera captura e grava o evento na velocidade de obturação variável de 1/30 por segundo até 1/10000 por segundo, requerida para observar-se os deslocamentos entre os campos. Uma placa de aquisição digitaliza a imagem a ser processada. Um algoritmo baseado nas técnicas de processamento de imagens, determina os múltiplos deslocamentos das partículas apresentando o diagrama bidimensional com os vetores velocidade.
Resumo:
Market timing performance of mutual funds is usually evaluated with linear models with dummy variables which allow for the beta coefficient of CAPM to vary across two regimes: bullish and bearish market excess returns. Managers, however, use their predictions of the state of nature to deÞne whether to carry low or high beta portfolios instead of the observed ones. Our approach here is to take this into account and model market timing as a switching regime in a way similar to Hamilton s Markov-switching GNP model. We then build a measure of market timing success and apply it to simulated and real world data.
Resumo:
A proposta deste trabalho, consiste na elaboração de uma ferramenta computacional para a medição de campos de velocidades em escoamentos com baixas velocidades (< 0,5 m/s) utilizando o processamento digital de imagens. Ao longo dos anos, inúmeras técnicas foram desenvolvidas com este objetivo. Para cada tipo de aplicação, uma técnica se aplica com maior ou menor eficiência do que outras. Para o caso de estudos em fluídos transparentes, onde o escoamento pode ser visualizado, técnicas que utilizam processamento digital de imagens vêm ganhando um grande impulso tecnológico nos últimos anos. Este impulso, é devido a fatores como: câmaras vídeo filmadoras de última geração, dispositivos de aquisição de imagens e componentes de processamento e armazenamento de dados cada vez mais poderosos. Neste contexto, está a velocimetria por processamento de imagens de partículas cuja sigla é PIV (particle image velocimetry). Existem várias formas de se implementar um sistema do tipo PIV. As variantes dependem, basicamente, do equipamento utilizado. Para sua implementação é necessário, inicialmente, um sistema de iluminação que incide em partículas traçadoras adicionadas ao fluido em estudo. Após, as partículas em movimento são filmadas ou fotografadas e suas imagens adquiridas por um computador através de dispositivos de captura de imagens. As imagens das partículas são então processadas, para a obtenção dos vetores velocidade. Existem diferentes formas de processamento para a obtenção das velocidades. Para o trabalho em questão, devido às características dos equipamentos disponíveis, optou-se por uma metodologia de determinação da trajetória de partículas individuais, que, apesar de limitada em termos de módulo de velocidade, pode ser aplicada a muitos escoamentos reais sob condições controladas Para validar a ferramenta computacional desenvolvida, imagens ideais de partículas foram simuladas como se estivessem em escoamento, através do deslocamento conhecido de vários pixels. Seguindo o objetivo de validação, foi utilizada ainda uma imagem real de partículas, obtida com o auxílio de um plano de iluminação de luz coerente (LASER) e câmaras de vídeo tipo CCD. O programa desenvolvido foi aplicado em situações de escoamento real e os resultados obtidos foram satisfatórios dentro da escala de velocidades inicialmente presumida.