878 resultados para semi-Markov decision process
Resumo:
In (2 + 1) dimension, growth process of thin film on non-planar substrate in Kuramoto-Sivashinsky model is studied with numerical simulation approach. 15 x 15 semi-ellipsoids arranged orderly on the surface of substrate are used to represent initial rough surface. The results show that at the initial stage of growth process, the surface morphology of thin film appears to be grid-structure, and the interface width constantly decreases with the growth time, then reaches minimum. However, the grid-structure becomes ambiguous, and granules of different sizes distribute evenly on the surface of thin film with the increase of growth time. Thereafter, the average size of granules and the interface width gradually increase, and the surface morphology of thin film presents fractal properties. The numerical results of height-height correlation functions of thin film verify the surface morphology of thin film to be fractal for a longer growth time. By fitting of the height-height correlation functions of thin film with different growth times, the growth process is described quantitatively. (c) 2004 Elsevier B.V. All rights reserved.
Resumo:
O presente trabalho apresenta um estudo referente à aplicação da abordagem Bayesiana como técnica de solução do problema inverso de identificação de danos estruturais, onde a integridade da estrutura é continuamente descrita por um parâmetro estrutural denominado parâmetro de coesão. A estrutura escolhida para análise é uma viga simplesmente apoiada do tipo Euler-Bernoulli. A identificação de danos é baseada em alterações na resposta impulsiva da estrutura, provocadas pela presença dos mesmos. O problema direto é resolvido através do Método de Elementos Finitos (MEF), que, por sua vez, é parametrizado pelo parâmetro de coesão da estrutura. O problema de identificação de danos é formulado como um problema inverso, cuja solução, do ponto de vista Bayesiano, é uma distribuição de probabilidade a posteriori para cada parâmetro de coesão da estrutura, obtida utilizando-se a metodologia de amostragem de Monte Carlo com Cadeia de Markov. As incertezas inerentes aos dados medidos serão contempladas na função de verossimilhança. Três estratégias de solução são apresentadas. Na Estratégia 1, os parâmetros de coesão da estrutura são amostrados de funções densidade de probabilidade a posteriori que possuem o mesmo desvio padrão. Na Estratégia 2, após uma análise prévia do processo de identificação de danos, determina-se regiões da viga potencialmente danificadas e os parâmetros de coesão associados à essas regiões são amostrados a partir de funções de densidade de probabilidade a posteriori que possuem desvios diferenciados. Na Estratégia 3, após uma análise prévia do processo de identificação de danos, apenas os parâmetros associados às regiões identificadas como potencialmente danificadas são atualizados. Um conjunto de resultados numéricos é apresentado levando-se em consideração diferentes níveis de ruído para as três estratégias de solução apresentadas.
Resumo:
Trata-se de uma pesquisa qualitativa que buscou descrever e analisar a vivência do pai no trabalho de parto, parto e pós-parto de seu filho e discutir as repercussões advindas com essa vivência em sua vida conjugal e familiar. Foram entrevistados 24 homens-pais, aleatoriamente, dentre aqueles que estavam presentes no momento das consultas/atividades de puericultura de seus filhos, realizadas em quatro centros municipais de saúde do município do Rio de Janeiro e que participaram do processo de parturição de sua companheira. Para coleta de dados foi utilizada a entrevista semi-estruturada na qual se investigou condições sócio demográficas e aspectos relativos à sua vivência no parto. Para análise dos dados, foi utilizada a Análise Temática. Emergiram um tema (A vivência do pai no parto) e quatro subtemas: sentimentos, sensações e emoções paterna, a importância da presença paterna e as repercussões na vida do pai: conjugal e familiar. Os resultados revelaram que o parto foi para os pais um momento único com mistura de sentimentos. Outros se sentiram úteis por terem conseguido oferecer suporte emocional. Sua presença foi vista por eles mesmos como fundamental, seja por desejo da mulher, seja por decisão do casal. Mostraram ainda a existência de um novo modelo de pai, que se preocupa com o sustento de sua nova família e está à disposição para cooperar nas tarefas domésticas. Ressalta-se que a figura do pai provedor ainda se faz presente. Destaca-se a preocupação dos pais para não prejudicar a equipe e os procedimentos médicos no momento do parto. A vivência do pai no parto mudou o imaginário social da figura da mulher, mãe de seu filho, tornando-a mais corajosa, mais forte e até mais bonita aos olhos desse homem. Para outros, sua presença trouxe uma aproximação na relação conjugal, uma demonstração de que agora ele é um homem de confiança. Considera-se urgente uma reavaliação dos profissionais de saúde sobre a presença e preparação do pai durante todo o processo de nascimento. Na vida familiar, os resultados mostraram que os pais não souberam retratar como esta vivência afetou os membros, ditos por eles, como família. Principalmente aqueles que enumeraram pais, irmãos e enteados como integrantes. Nesse sentido, ressalta-se a importância de uma efetiva preparação dos pais para as transformações que uma vivência do parto repercute em todos os campos de sua vida.
Resumo:
A segmentação dos nomes nas suas partes constitutivas é uma etapa fundamental no processo de integração de bases de dados por meio das técnicas de vinculação de registros. Esta separação dos nomes pode ser realizada de diferentes maneiras. Este estudo teve como objetivo avaliar a utilização do Modelo Escondido de Markov (HMM) na segmentação nomes e endereços de pessoas e a eficiência desta segmentação no processo de vinculação de registros. Foram utilizadas as bases do Sistema de Informações sobre Mortalidade (SIM) e do Subsistema de Informação de Procedimentos de Alta Complexidade (APAC) do estado do Rio de Janeiro no período entre 1999 a 2004. Uma metodologia foi proposta para a segmentação de nome e endereço sendo composta por oito fases, utilizando rotinas implementadas em PL/SQL e a biblioteca JAHMM, implementação na linguagem Java de algoritmos de HMM. Uma amostra aleatória de 100 registros de cada base foi utilizada para verificar a correção do processo de segmentação por meio do modelo HMM.Para verificar o efeito da segmentação do nome por meio do HMM, três processos de vinculação foram aplicados sobre uma amostra das duas bases citadas acima, cada um deles utilizando diferentes estratégias de segmentação, a saber: 1) divisão dos nomes pela primeira parte, última parte e iniciais do nome do meio; 2) divisão do nome em cinco partes; (3) segmentação segundo o HMM. A aplicação do modelo HMM como mecanismo de segmentação obteve boa concordância quando comparado com o observador humano. As diferentes estratégias de segmentação geraram resultados bastante similares na vinculação de registros, tendo a estratégia 1 obtido um desempenho pouco melhor que as demais. Este estudo sugere que a segmentação de nomes brasileiros por meio do modelo escondido de Markov não é mais eficaz do que métodos tradicionais de segmentação.
Resumo:
Uma das tarefas mais desafiadoras do engenheiro na área da Geotecnia é a escolha dos valores de parâmetros geotécnicos obtidos de ensaios de campo ou laboratório e que serão utilizados nos modelos analíticos ou numéricos na fase de projeto de fundações. Diante das incertezas inerentes aos ensaios de SPT e da heterogeneidade de abordagens para a utilização dos valores de NSPT, é proposta neste estudo, a aplicação de um critério estatístico para obtenção de valores de NSPT, a partir da construção de intervalos de confiança de 95% de probabilidade em torno da reta ajustada de regressão linear simples entre a variável aleatória NSPT e a profundidade. Os valores obtidos de NSPT pelo critério aplicado foram utilizados na previsão da capacidade de carga de 19 estacas isoladas a partir da utilização de três métodos semi-empíricos: Aoki-Velloso (1975) com coeficientes alterados por Monteiro (1997), Décourt & Quaresma (1978) alterado pelo método de Décourt (1996) e Método de Alonso (1996). As cargas de ruptura dessas 19 estacas ensaiadas através de Provas de Carga Estática foram obtidas pelos métodos de extrapolação de Van Der Veen (1953) e Décourt (1996) e serviram para comparação e consequente validação do critério estatístico. Adicionalmente, com fulcro no item 6.2.1.2.1 da ABNT NBR 6122:2010 Resistência calculada por método semi-empírico, foram avaliados os fatores de segurança em relação às cargas de projeto, inclusive, também se utilizando da premissa de reconhecimento de regiões representativas, levando em conta o número de ensaios de SPT executados, fato que promove uma diminuição da incerteza dos parâmetros, apontando a um menor fator de segurança. A dissertação enfatiza as vantagens de um adequado tratamento estatístico dos parâmetros geotécnicos, a exemplo da recomendação já existente nas normas internacionais como Eurocódigo e outras. O critério construído permite e encoraja análises e decisões racionais no universo das partes interessadas consumidores, projetistas, fiscais de obras, contratantes e comunidade científica promovendo as discussões de forma mais objetiva e harmoniosa sobre o tema.
Resumo:
O presente trabalho tem como tema as disputas que ocorrem no interior de uma instituição (IFSul) da Rede Federal de Educação Profissional, Científica e Tecnológica a respeito da pertinência e da concepção dos cursos técnicos integrados. Para tanto, discute as transformações que ocorrem no mundo do trabalho e suas especificidades no Brasil, bem como as implicações das novas relações de produção sobre as necessidades de formação humana. Aproxima as propostas de Gramsci para a escola unitária da realidade educacional brasileira e da proposta que se constrói como travessia para uma educação integral ou omnilateral o ensino médio integrado , além de apontar os espaços de contradição existentes na instituição estudada e que permitem avanços em direção à politecnia ou educação tecnológica. Utilizou-se da ampla bibliografia já existente para as formulações referentes às transformações no mundo do trabalho; à situação social, política e econômica brasileira; às opções ontológico-históricas, filosóficas e epistemológicas que constroem a proposta de ensino médio integrado. Para as análises das disputas no interior do instituto, utilizou-se de entrevistas semi-estruturadas e de um método de análise inspirado na metodologia da análise textual discursiva. Foram entrevistados 20 professores/gestores de três campi do IFSul, escolhidos por terem sido criados em diferentes momentos históricos. Tais professores ocupam os cargos de responsáveis pelo ensino do campus ou de coordenadores de cursos técnicos integrados ou de áreas do conhecimento do ensino médio. Foram escolhidos por catalizarem as opiniões de seus pares nos processos decisórios que se referem à oferta e ao currículo dos cursos. Na execução da análise, este trabalho utilizou-se das ferramentas do materialismo histórico e dialético. Partiu da análise mais geral das disputas de rumos, baseadas em projetos societários diferenciados, no interior do IFSul. Ao mesmo tempo, procurou ambientar o leitor com a instituição e o processo investigativo percorrido pelo autor. Em um segundo momento buscou aprofundar a análise, estudando as mudanças que ocorrem no mundo a partir da crise que se inicia na década de 1970 e que trouxe grandes transformações nos processos produtivos, além da financeirização dos mercados. Seguindo este processo de ida às categorias mais abstratas que organizam o todo social, manifestou as dificuldades históricas do modelo desenvolvimentista que se aplica no Brasil e apresentou as novas necessidades formativas na visão hegemônica e na visão dos trabalhadores, ao propor reformas educacionais que apontem numa perspectiva revolucionária. Assim, voltando ao concreto pensado, aprofundou algumas discussões a respeito da concepção de ensino médio integrado. Mesmo partindo do pressuposto de que a debilidade da formulação burguesa para a educação que se articula com o trabalho dificulta a formulação de um discurso contra-hegemônico, por parte da classe trabalhadora, este trabalho verificou as potencialidades de rupturas existentes neste processo histórico que vivemos. A concepção de politecnia se caracteriza como uma possibilidade de superação da polivalência perseguida pelo discurso educacional hegemônico. Tal superação, tarefa nas mãos da classe trabalhadora, poderá contribuir para a superação do capitalismo dependente brasileiro, resultado insólito das limitações revolucionárias de nossa burguesia
Resumo:
Esta pesquisa teve como objeto de estudo a segurança do recém-nascido no processo de utilização do Cateter Central de Inserção Periférica (PICC) e, como objetivos: conhecer o significado de segurança para o enfermeiro no processo de utilização do PICC em recém-nascidos; descrever os cuidados prestados pelo enfermeiro no uso do PICC em recém-nascidos e analisar os nexos entre segurança e os princípios bioéticos no uso do PICC em recém-nascidos na prática assistencial dos enfermeiros. Trata-se de um estudo descritivo de abordagem qualitativa. O cenário foi a unidade de terapia intensiva neonatal de um Hospital Universitário localizado no município do Rio de Janeiro e os sujeitos, 11 enfermeiros plantonistas capacitados e que realizam a implantação do PICC em recém-nascidos. Para a coleta de dados realizou-se a entrevista semiestruturada, gravada em fita cassete, entre os meses de março e junho de 2012. Posteriormente estas foram transcritas e analisadas por meio da análise de conteúdo de Bardin, na modalidade temática e interpretada à luz dos princípios bioéticos e da segurança do paciente. Como resultados emergiram 04 categorias: Técnicas e Procedimentos, Cuidados com o recém-nascido, Aspectos relacionados à equipe e Aspectos relacionados à família. Para os enfermeiros, segurança no processo de utilização do PICC no recém-nascido, significa saber indicar o uso deste dispositivo de acordo com as peculiaridades de cada criança. Exercer cuidados antes, durante e após o uso do cateter, valorizar os cuidados técnicos relacionados ao procedimento, possuir conhecimento teórico-prático e ter disponibilidade de recursos materiais e humanos para desenvolver um cuidado seguro. Além de atentar para os registros e protocolos da unidade acerca desta prática assistencial. Para preservar a segurança do neonato, compreendem ser necessária a tomada de decisão em conjunto com o médico acerca do momento ideal para se implantar este dispositivo, bem como a escolha do tipo ideal de sedação para o mesmo, dentre outros aspectos. No processo de utilização do PICC, os enfermeiros entendem a manutenção da temperatura corporal, a realização de medidas de conforto perante a dor, a prevenção de infecções e o posicionamento adequado do recém-nascido durante o procedimento, como atitudes essenciais para a promoção de sua segurança. Buscam, também, esclarecer os pais quanto ao procedimento que será realizado com seu filho. Conclui-se que o enfermeiro, no que diz respeito à prática do PICC, atua de acordo com os princípios bioéticos de beneficência e não-maleficência, já que realiza sua assistência visando o bem-estar do neonato, procurando minimizar os desconfortos associados a esse procedimento. Apesar de esclarecerem os pais quanto ao procedimento que será realizado com seu filho, alguns enfermeiros, não os consultam previamente acerca da autorização para implantação deste dispositivo infringindo, assim, o princípio bioético da autonomia.
Resumo:
We introduce a new regression framework, Gaussian process regression networks (GPRN), which combines the structural properties of Bayesian neural networks with the non-parametric flexibility of Gaussian processes. This model accommodates input dependent signal and noise correlations between multiple response variables, input dependent length-scales and amplitudes, and heavy-tailed predictive distributions. We derive both efficient Markov chain Monte Carlo and variational Bayes inference procedures for this model. We apply GPRN as a multiple output regression and multivariate volatility model, demonstrating substantially improved performance over eight popular multiple output (multi-task) Gaussian process models and three multivariate volatility models on benchmark datasets, including a 1000 dimensional gene expression dataset.
Resumo:
We present the Gaussian Process Density Sampler (GPDS), an exchangeable generative model for use in nonparametric Bayesian density estimation. Samples drawn from the GPDS are consistent with exact, independent samples from a fixed density function that is a transformation of a function drawn from a Gaussian process prior. Our formulation allows us to infer an unknown density from data using Markov chain Monte Carlo, which gives samples from the posterior distribution over density functions and from the predictive distribution on data space. We can also infer the hyperparameters of the Gaussian process. We compare this density modeling technique to several existing techniques on a toy problem and a skullreconstruction task.
Resumo:
Introducing a "Cheaper, Faster, Better" product in today's highly competitive market is a challenging target. Therefore, for organizations to improve their performance in this area, they need to adopt methods such as process modelling, risk mitigation and lean principles. Recently, several industries and researchers focused efforts on transferring the value orientation concept to other phases of the Product Life Cycle (PLC) such as Product Development (PD), after its evident success in manufacturing. In PD, value maximization, which is the main objective of lean theory, has been of particular interest as an improvement concept that can enhance process flow logistics and support decision-making. This paper presents an ongoing study of the current understanding of value thinking in PD (VPD) with a focus on value dimensions and implementation benefits. The purpose of this study is to consider the current state of knowledge regarding value thinking in PD, and to propose a definition of value and a framework for analyzing value delivery. The framework-named the Value Cycle Map (VCM)- intends to facilitate understanding of value and its delivery mechanism in the context of the PLC. We suggest the VCM could be used as a foundation for future research in value modelling and measurement in PD.
Resumo:
Decisions about noisy stimuli require evidence integration over time. Traditionally, evidence integration and decision making are described as a one-stage process: a decision is made when evidence for the presence of a stimulus crosses a threshold. Here, we show that one-stage models cannot explain psychophysical experiments on feature fusion, where two visual stimuli are presented in rapid succession. Paradoxically, the second stimulus biases decisions more strongly than the first one, contrary to predictions of one-stage models and intuition. We present a two-stage model where sensory information is integrated and buffered before it is fed into a drift diffusion process. The model is tested in a series of psychophysical experiments and explains both accuracy and reaction time distributions. © 2012 Rüter et al.
Resumo:
In a typical experiment on decision making, one out of two possible stimuli is displayed and observers decide which one was presented. Recently, Stanford and colleagues (2010) introduced a new variant of this classical one-stimulus presentation paradigm to investigate the speed of decision making. They found evidence for "perceptual decision making in less than 30 ms". Here, we extended this one-stimulus compelled-response paradigm to a two-stimulus compelled-response paradigm in which a vernier was followed immediately by a second vernier with opposite offset direction. The two verniers and their offsets fuse. Only one vernier is perceived. When observers are asked to indicate the offset direction of the fused vernier, the offset of the second vernier dominates perception. Even for long vernier durations, the second vernier dominates decisions indicating that decision making can take substantial time. In accordance with previous studies, we suggest that our results are best explained with a two-stage model of decision making where a leaky evidence integration stage precedes a race-to-threshold process. © 2013 Rüter et al.
Resumo:
Conventional Hidden Markov models generally consist of a Markov chain observed through a linear map corrupted by additive noise. This general class of model has enjoyed a huge and diverse range of applications, for example, speech processing, biomedical signal processing and more recently quantitative finance. However, a lesser known extension of this general class of model is the so-called Factorial Hidden Markov Model (FHMM). FHMMs also have diverse applications, notably in machine learning, artificial intelligence and speech recognition [13, 17]. FHMMs extend the usual class of HMMs, by supposing the partially observed state process is a finite collection of distinct Markov chains, either statistically independent or dependent. There is also considerable current activity in applying collections of partially observed Markov chains to complex action recognition problems, see, for example, [6]. In this article we consider the Maximum Likelihood (ML) parameter estimation problem for FHMMs. Much of the extant literature concerning this problem presents parameter estimation schemes based on full data log-likelihood EM algorithms. This approach can be slow to converge and often imposes heavy demands on computer memory. The latter point is particularly relevant for the class of FHMMs where state space dimensions are relatively large. The contribution in this article is to develop new recursive formulae for a filter-based EM algorithm that can be implemented online. Our new formulae are equivalent ML estimators, however, these formulae are purely recursive and so, significantly reduce numerical complexity and memory requirements. A computer simulation is included to demonstrate the performance of our results. © Taylor & Francis Group, LLC.
Resumo:
The fundamental aim of clustering algorithms is to partition data points. We consider tasks where the discovered partition is allowed to vary with some covariate such as space or time. One approach would be to use fragmentation-coagulation processes, but these, being Markov processes, are restricted to linear or tree structured covariate spaces. We define a partition-valued process on an arbitrary covariate space using Gaussian processes. We use the process to construct a multitask clustering model which partitions datapoints in a similar way across multiple data sources, and a time series model of network data which allows cluster assignments to vary over time. We describe sampling algorithms for inference and apply our method to defining cancer subtypes based on different types of cellular characteristics, finding regulatory modules from gene expression data from multiple human populations, and discovering time varying community structure in a social network.