958 resultados para persistent navigation and mapping


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Paracoccidioides brasiliensis infections have been little studied in wild and/or domestic animals, which may represent an important indicator of the presence of the pathogen in nature. Road-killed wild animals have been used for surveillance of vectors of zoonotic pathogens and may offer new opportunities for eco-epidemiological studies of paracoccidiodomycosis (PCM). The presence of P. brasiliensis infection was evaluated by Nested-PCR in tissue samples collected from 19 road-killed animals; 3 Cavia aperea (guinea pig), 5 Cerdocyon thous (crab-eating-fox), 1 Dasypus novemcinctus (nine-banded armadillo), 1 Dasypus septemcinctus (seven-banded armadillo), 2 Didelphis albiventris (white-eared opossum), 1 Eira barbara (tayra), 2 Gallictis vittata (grison), 2 Procyon cancrivorus (raccoon) and 2 Sphiggurus spinosus (porcupine). Specific P. brasiliensis amplicons were detected in (a) several organs of the two armadillos and one guinea pig, (b) the lung and liver of the porcupine, and (c) the lungs of raccoons and grisons. P. brasiliensis infection in wild animals from endemic areas might be more common than initially postulated. Molecular techniques can be used for detecting new hosts and mapping `hot spot` areas of PCM.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

P>Strongyloides stercoralis is an intestinal nematode capable of chronic, persistent infection and hyperinfection of the host; this can lead to dissemination, mainly in immunosuppressive states, in which the infection can become severe and result in the death of the host. In this study, we investigated the immune response against Strongyloides venezuelensis infection in major histocompatibility complex (MHC) class I or class II deficient mice. We found that MHC II(-/-) animals were more susceptible to S. venezuelensis infection as a result of the presence of an elevated number of eggs in the faeces and a delay in the elimination of adult worms compared with wild-type (WT) and MHC I(-/-) mice. Histopathological analysis revealed that MHC II(-/-) mice had a mild inflammatory infiltration in the small intestine with a reduction in tissue eosinophilia. These mice also presented a significantly lower frequency of eosinophils and mononuclear cells in the blood, together with reduced T helper type 2 (Th2) cytokines in small intestine homogenates and sera compared with WT and MHC I(-/-) animals. Additionally, levels of parasite-specific immunoglobulin M (IgM), IgA, IgE, total IgG and IgG1 were also significantly reduced in the sera of MHC II(-/-) infected mice, while a non-significant increase in the level of IgG2a was found in comparison to WT or MHC I(-/-) infected mice. Together, these data demonstrate that expression of MHC class II but not class I molecules is required to induce a predominantly Th2 response and to achieve efficient control of S. venezuelensis infection in mice.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Predisposition to melanoma is genetically heterogeneous. Two high penetrance susceptibility genes, CDKN2A and CDK4, have so far been identified and mapping is ongoing to localize and identify others. With the advent of a catalogue of millions of potential DNA polymorphisms, attention is now also being focused on identification of genes that confer a more modest contribution to melanoma risk, such as those encoding proteins involved in pigmentation, DNA repair, cell growth and differentiation or detoxification of metabolites. One such pigmentation gene, MC1R, has not only been found to be a low penetrance melanoma gene but has also been shown to act as a genetic modifier of melanoma risk in individuals carrying CDKN2A mutations. Most recently, an environmental agent, ultraviolet radiation, has also been established as a modifier of melanoma risk in CDKN2A mutation carriers. Hence, melanoma is turning out to be an excellent paradigm for studying gene-gene and gene-environment interactions.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A gest??o por compet??ncias tem sido apontada como alternativa aos modelos gerenciais tradicionalmente utilizados pelas organiza????es. Prop??e-se a orientar esfor??os para planejar, captar, desenvolver e avaliar, nos diferentes n??veis da organiza????o, as compet??ncias necess??rias ?? consecu????o de seus objetivos. Uma das principais etapas desse processo constitui o denominado mapeamento de compet??ncias. Este artigo objetiva apresentar m??todos, t??cnicas e instrumentos utilizados para mapeamento de compet??ncias em organiza????es p??blicas e privadas. Para isso, fazem-se uma revis??o da literatura sobre o conceito de compet??ncia, o mapeamento de compet??ncias e a gest??o por compet??ncias, discutindo-se seus pressupostos e suas aplica????es. Ao final, s??o levantadas as implica????es desse modelo de gest??o para o setor p??blico e s??o apresentadas recomenda????es pr??ticas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

No âmbito da condução da política monetária, as funções de reação estimadas em estudos empíricos, tanto para a economia brasileira como para outras economias, têm mostrado uma boa aderência aos dados. Porém, os estudos mostram que o poder explicativo das estimativas aumenta consideravelmente quando se inclui um componente de suavização da taxa de juros, representado pela taxa de juros defasada. Segundo Clarida, et. al. (1998) o coeficiente da taxa de juros defasada (situado ente 0,0 e 1,0) representaria o grau de inércia da política monetária, e quanto maior esse coeficiente, menor e mais lenta é a resposta da taxa de juros ao conjunto de informações relevantes. Por outro lado, a literatura empírica internacional mostra que esse componente assume um peso expressivo nas funções de reação, o que revela que os BCs ajustam o instrumento de modo lento e parcimonioso. No entanto, o caso brasileiro é de particular interesse porque os trabalhos mais recentes têm evidenciado uma elevação no componente inercial, o que sugere que o BCB vem aumentando o grau de suavização da taxa de juros nos últimos anos. Nesse contexto, mais do que estimar uma função de reação forward looking para captar o comportamento global médio do Banco Central do Brasil no período de Janeiro de 2005 a Maio de 2013, o trabalho se propôs a procurar respostas para uma possível relação de causalidade dinâmica entre a trajetória do coeficiente de inércia e as variáveis macroeconômicas relevantes, usando como método a aplicação do filtro de Kalman para extrair a trajetória do coeficiente de inércia e a estimação de um modelo de Vetores Autorregressivos (VAR) que incluirá a trajetória do coeficiente de inércia e as variáveis macroeconômicas relevantes. De modo geral, pelas regressões e pelo filtro de Kalman, os resultados mostraram um coeficiente de inércia extremamente elevado em todo o período analisado, e coeficientes de resposta global muito pequenos, inconsistentes com o que é esperado pela teoria. Pelo método VAR, o resultado de maior interesse foi o de que choques positivos na variável de inércia foram responsáveis por desvios persistentes no hiato do produto e, consequentemente, sobre os desvios de inflação e de expectativas de inflação em relação à meta central.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mestrado em Engenharia Electrotécnica e de Computadores

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introdução: A artroplastia total do ombro é largamente aceite como tratamento para uma variedade de patologias do ombro com dor persistente e perda acentuada da funcionalidade. Em termos globais, os resultados obtidos após a intervenção cirúrgica são bastante bons, parecendo estar, no entanto, condicionados com a patologia subjacente e a qualidade da coifa dos rotadores. Objectivo: Pretende-se com este trabalho descrever e avaliar a eficácia de um plano de intervenção numa prótese total do ombro com integridade da coifa dos rotadores. Metodologia: Paciente sexo feminino, 61 anos, reformada, com dor acentuada no ombro esquerdo desde há três anos, submetida a uma cirurgia de colocação de prótese total do ombro. Apresentava limitação da amplitude articular, diminuição da força, alteração do ritmo escapulo-umeral e ligeira incapacidade funcional. Cinco semanas após a cirurgia, iniciou sessões diárias de fisioterapia durante 12 semanas. A intervenção incluiu a aplicação de modalidades anti-álgicas, mobilização articular, fortalecimento muscular e reeducação neuromuscular. Foi avaliada em quatro momentos: antes da intervenção (M1), 4 (M2), 7 (M3) e 12 (M4) semanas após. Resultados: A dor diminuiu de 4 para 0 (END) no final de 7 semanas e as amplitudes articulares passivas aproximaram-se dos valores definidos pelo protocolo com a flexão/elevação anterior a evoluir de 90º para 130º; a abdução/elevação lateral de 80º para 110º e a rotação medial de 35º para 70º. A força muscular inicial era de 3 nos grupos musculares flexores, extensores e rotadores do ombro atingindo no final grau 4. O ritmo escapulo-umeral demonstrou assincronia durante a elevação do ombro na primeira avaliação, ficando quase normalizado no final das sessões. Quanto à funcionalidade, antes da intervenção o score obtido foi de 30.8 atingindo um valor de 11.6 no final das sessões de tratamento. Conclusão: Após 12 semanas de tratamento, os objectivos delineados foram praticamente atingidos, uma vez que a utente já não refere dor no ombro e apresenta uma boa capacidade funcional, apesar de apresentar ligeiras diferenças nas amplitudes articulares e força muscular esperadas, apontando para o sucesso do protocolo de tratamento aplicado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Trabalho de Final de Mestrado para obtenção do grau de Mestre em Engenharia Informática e de Computadores

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A presente dissertação apresenta uma solução para o problema de modelização tridimensional de galerias subterrâneas. O trabalho desenvolvido emprega técnicas provenientes da área da robótica móvel para obtenção um sistema autónomo móvel de modelização, capaz de operar em ambientes não estruturados sem acesso a sistemas de posicionamento global, designadamente GPS. Um sistema de modelização móvel e autónomo pode ser bastante vantajoso, pois constitui um método rápido e simples de monitorização das estruturas e criação de representações virtuais das galerias com um elevado nível de detalhe. O sistema de modelização desloca-se no interior dos túneis para recolher informações sensoriais sobre a geometria da estrutura. A tarefa de organização destes dados com vista _a construção de um modelo coerente, exige um conhecimento exacto do percurso praticado pelo sistema, logo o problema de localização da plataforma sensorial tem que ser resolvido. A formulação de um sistema de localização autónoma tem que superar obstáculos que se manifestam vincadamente nos ambientes underground, tais como a monotonia estrutural e a já referida ausência de sistemas de posicionamento global. Neste contexto, foi abordado o conceito de SLAM (Simultaneous Loacalization and Mapping) para determinação da localização da plataforma sensorial em seis graus de liberdade. Seguindo a abordagem tradicional, o núcleo do algoritmo de SLAM consiste no filtro de Kalman estendido (EKF { Extended Kalman Filter ). O sistema proposto incorpora métodos avançados do estado da arte, designadamente a parametrização em profundidade inversa (Inverse Depth Parametrization) e o método de rejeição de outliers 1-Point RANSAC. A contribuição mais importante do método por nós proposto para o avanço do estado da arte foi a fusão da informação visual com a informação inercial. O algoritmo de localização foi testado com base em dados reais, adquiridos no interior de um túnel rodoviário. Os resultados obtidos permitem concluir que, ao fundir medidas inerciais com informações visuais, conseguimos evitar o fenómeno de degeneração do factor de escala, comum nas aplicações de localização através de sistemas puramente monoculares. Provámos simultaneamente que a correcção de um sistema de localização inercial através da consideração de informações visuais é eficaz, pois permite suprimir os desvios de trajectória que caracterizam os sistemas de dead reckoning. O algoritmo de modelização, com base na localização estimada, organiza no espaço tridimensional os dados geométricos adquiridos, resultando deste processo um modelo em nuvem de pontos, que posteriormente _e convertido numa malha triangular, atingindo-se assim uma representação mais realista do cenário original.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O intuito principal desta Tese é criar um interface de Dados entre uma fonte de informação e fornecimento de Rotas para turistas e disponibilizar essa informação através de um sistema móvel interactivo de navegação e visualização desses mesmos dados. O formato tecnológico será portátil e orientado à mobilidade (PDA) e deverá ser prático, intuitivo e multi-facetado, permitindo boa usabilidade a públicos de várias faixas etárias. Haverá uma componente de IA (Inteligência Artificial), que irá usar a informação fornecida para tomar decisões ponderadas tendo em conta uma diversidade de aspectos. O Sistema a desenvolver deverá ser, assim, capaz de lidar com imponderáveis (alterações de rota, gestão de horários, cancelamento de pontos de visita, novos pontos de visita) e, finalmente, deverá ajudar o turista a gerir o seu tempo entre Pontos de Interesse (POI – Points os Interest). Deverá também permitir seguir ou não um dado percurso pré-definido, havendo possibilidade de cenários de exploração de POIs, sugeridos a partir de sugestões in loco, similares a Locais incluídos no trajecto, que se enquadravam no perfil dos Utilizadores. O âmbito geográfico de teste deste projecto será a zona ribeirinha do porto, por ser um ex-líbris da cidade e, simultaneamente, uma zona com muitos desafios ao nível geográfico (com a inclinação) e ao nível do grande número de Eventos e Locais a visitar.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ainda antes da invenção da escrita, o desenho foi utilizado para descrever a realidade, tendo evoluído ao longo dos tempos, ganhando mais qualidade e pormenor e recorrendo a suportes cada vez mais evoluídos que permitissem a perpetuação dessa imagem: dessa informação. Desde as pinturas rupestres, nas paredes de grutas paleolíticas, passando pelos hieróglifos, nos templos egípcios, nas gravuras das escrituras antigas e nos quadros sobre tela, a intenção sempre foi a de transmitir a informação da forma mais directa e perceptível por qualquer indivíduo. Nos dias de hoje as novas tecnologias permitem aceder à informação com uma facilidade nunca antes vista ou imaginada, estando certamente ainda por descobrir outras formas de registar e perpetuar a informação para as gerações vindouras. A fotografia está na origem das grandes evoluções da imagem, permitindo capturar o momento, tornando-o “eterno”. Hoje em dia, na era da imagem digital, além de se mostrar a realidade, é possível incorporar na imagem informação adicional, de modo a enriquecer a experiência de visualização e a maximizar a aquisição do conhecimento. As possibilidades da visualização em três dimensões (3D) vieram dar o realismo que faltava ao formato de fotografia original. O 3D permite a imersão do espectador no ambiente que, a própria imagem retrata, à qual se pode ainda adicionar informação escrita ou até sensorial como, por exemplo, o som. Esta imersão num ambiente tridimensional permite ao utilizador interagir com a própria imagem através da navegação e exploração de detalhes, usando ferramentas como o zoom ou ligações incorporados na imagem. A internet é o local onde, hoje em dia, já se disponibilizam estes ambientes imersivos, tornando esta experiência muita mais acessível a qualquer pessoa. Há poucos anos ainda, esta prática só era possível mediante o recurso a dispositivos especificamente construídos para o efeito e que, por isso, apenas estavam disponíveis a grupos restritos de utilizadores. Esta dissertação visa identificar as características de um ambiente 3D imersivo e as técnicas existentes e possíveis de serem usadas para maximizar a experiência de visualização. Apresentar-se-ão algumas aplicações destes ambientes e sua utilidade no nosso dia-a-dia, antevendo as tendências futuras de evolução nesta área. Serão apresentados exemplos de ferramentas para a composição e produção destes ambientes e serão construídos alguns modelos ilustrativos destas técnicas, como forma de avaliar o esforço de desenvolvimento e o resultado obtido, comparativamente com formas mais convencionais de transmitir e armazenar a informação. Para uma avaliação mais objectiva, submeteram-se os modelos produzidos à apreciação de diversos utilizadores, a partir da qual foram elaboradas as conclusões finais deste trabalho relativamente às potencialidades de utilização de ambientes 3D imersivos e suas mais diversas aplicações.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Não existe uma definição única de processo de memória de longo prazo. Esse processo é geralmente definido como uma série que possui um correlograma decaindo lentamente ou um espectro infinito de frequência zero. Também se refere que uma série com tal propriedade é caracterizada pela dependência a longo prazo e por não periódicos ciclos longos, ou que essa característica descreve a estrutura de correlação de uma série de longos desfasamentos ou que é convencionalmente expressa em termos do declínio da lei-potência da função auto-covariância. O interesse crescente da investigação internacional no aprofundamento do tema é justificado pela procura de um melhor entendimento da natureza dinâmica das séries temporais dos preços dos ativos financeiros. Em primeiro lugar, a falta de consistência entre os resultados reclama novos estudos e a utilização de várias metodologias complementares. Em segundo lugar, a confirmação de processos de memória longa tem implicações relevantes ao nível da (1) modelação teórica e econométrica (i.e., dos modelos martingale de preços e das regras técnicas de negociação), (2) dos testes estatísticos aos modelos de equilíbrio e avaliação, (3) das decisões ótimas de consumo / poupança e de portefólio e (4) da medição de eficiência e racionalidade. Em terceiro lugar, ainda permanecem questões científicas empíricas sobre a identificação do modelo geral teórico de mercado mais adequado para modelar a difusão das séries. Em quarto lugar, aos reguladores e gestores de risco importa saber se existem mercados persistentes e, por isso, ineficientes, que, portanto, possam produzir retornos anormais. O objetivo do trabalho de investigação da dissertação é duplo. Por um lado, pretende proporcionar conhecimento adicional para o debate da memória de longo prazo, debruçando-se sobre o comportamento das séries diárias de retornos dos principais índices acionistas da EURONEXT. Por outro lado, pretende contribuir para o aperfeiçoamento do capital asset pricing model CAPM, considerando uma medida de risco alternativa capaz de ultrapassar os constrangimentos da hipótese de mercado eficiente EMH na presença de séries financeiras com processos sem incrementos independentes e identicamente distribuídos (i.i.d.). O estudo empírico indica a possibilidade de utilização alternativa das obrigações do tesouro (OT’s) com maturidade de longo prazo no cálculo dos retornos do mercado, dado que o seu comportamento nos mercados de dívida soberana reflete a confiança dos investidores nas condições financeiras dos Estados e mede a forma como avaliam as respetiva economias com base no desempenho da generalidade dos seus ativos. Embora o modelo de difusão de preços definido pelo movimento Browniano geométrico gBm alegue proporcionar um bom ajustamento das séries temporais financeiras, os seus pressupostos de normalidade, estacionariedade e independência das inovações residuais são adulterados pelos dados empíricos analisados. Por isso, na procura de evidências sobre a propriedade de memória longa nos mercados recorre-se à rescaled-range analysis R/S e à detrended fluctuation analysis DFA, sob abordagem do movimento Browniano fracionário fBm, para estimar o expoente Hurst H em relação às séries de dados completas e para calcular o expoente Hurst “local” H t em janelas móveis. Complementarmente, são realizados testes estatísticos de hipóteses através do rescaled-range tests R/S , do modified rescaled-range test M - R/S e do fractional differencing test GPH. Em termos de uma conclusão única a partir de todos os métodos sobre a natureza da dependência para o mercado acionista em geral, os resultados empíricos são inconclusivos. Isso quer dizer que o grau de memória de longo prazo e, assim, qualquer classificação, depende de cada mercado particular. No entanto, os resultados gerais maioritariamente positivos suportam a presença de memória longa, sob a forma de persistência, nos retornos acionistas da Bélgica, Holanda e Portugal. Isto sugere que estes mercados estão mais sujeitos a maior previsibilidade (“efeito José”), mas também a tendências que podem ser inesperadamente interrompidas por descontinuidades (“efeito Noé”), e, por isso, tendem a ser mais arriscados para negociar. Apesar da evidência de dinâmica fractal ter suporte estatístico fraco, em sintonia com a maior parte dos estudos internacionais, refuta a hipótese de passeio aleatório com incrementos i.i.d., que é a base da EMH na sua forma fraca. Atendendo a isso, propõem-se contributos para aperfeiçoamento do CAPM, através da proposta de uma nova fractal capital market line FCML e de uma nova fractal security market line FSML. A nova proposta sugere que o elemento de risco (para o mercado e para um ativo) seja dado pelo expoente H de Hurst para desfasamentos de longo prazo dos retornos acionistas. O expoente H mede o grau de memória de longo prazo nos índices acionistas, quer quando as séries de retornos seguem um processo i.i.d. não correlacionado, descrito pelo gBm(em que H = 0,5 , confirmando- se a EMH e adequando-se o CAPM), quer quando seguem um processo com dependência estatística, descrito pelo fBm(em que H é diferente de 0,5, rejeitando-se a EMH e desadequando-se o CAPM). A vantagem da FCML e da FSML é que a medida de memória de longo prazo, definida por H, é a referência adequada para traduzir o risco em modelos que possam ser aplicados a séries de dados que sigam processos i.i.d. e processos com dependência não linear. Então, estas formulações contemplam a EMH como um caso particular possível.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dissertação apresentada à Escola Superior de Comunicação Social como parte dos requisitos para obtenção de grau de mestre em Gestão Estratégica das Relações Públicas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

ABSTRACT OBJECTIVE To evaluate the association between recurrent wheezing and atopy, the Asthma Predictive Index, exposure to risk factors, and total serum IgE levels as potential factors to predict recurrent wheezing. METHODS A case-control study with infants aged 6-24 months treated at a specialized outpatient clinic from November 2011 to March 2013. Evaluations included sensitivity to inhalant and food antigens, positive Asthma Predictive Index, and other risk factors for recurrent wheezing (smoking during pregnancy, presence of indoor smoke, viral infections, and total serum IgE levels). RESULTS We evaluated 113 children: 65 infants with recurrent wheezing (63.0% male) with a mean age of 14.8 (SD = 5.2) months and 48 healthy infants (44.0% male) with a mean age of 15.2 (SD = 5.1) months. In the multiple analysis model, antigen sensitivity (OR = 12.45; 95%CI 1.28–19.11), positive Asthma Predictive Index (OR = 5.57; 95%CI 2.23–7.96), and exposure to environmental smoke (OR = 2.63; 95%CI 1.09–6.30) remained as risk factors for wheezing. Eosinophilia ≥ 4.0% e total IgE ≥ 100 UI/mL were more prevalent in the wheezing group, but failed to remain in the model. Smoking during pregnancy was identified in a small number of mothers, and secondhand smoke at home was higher in the control group. CONCLUSIONS Presence of atopy, positive Asthma Predictive Index and exposure to environmental smoke are associated to recurrent wheezing. Identifying these factors enables the adoption of preventive measures, especially for children susceptible to persistent wheezing and future asthma onset.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho visa contribuir para o desenvolvimento de um sistema de visão multi-câmara para determinação da localização, atitude e seguimento de múltiplos objectos, para ser utilizado na unidade de robótica do INESCTEC, e resulta da necessidade de ter informação externa exacta que sirva de referência no estudo, caracterização e desenvolvimento de algoritmos de localização, navegação e controlo de vários sistemas autónomos. Com base na caracterização dos veículos autónomos existentes na unidade de robótica do INESCTEC e na análise dos seus cenários de operação, foi efectuado o levantamento de requisitos para o sistema a desenvolver. Foram estudados os fundamentos teóricos, necessários ao desenvolvimento do sistema, em temas relacionados com visão computacional, métodos de estimação e associação de dados para problemas de seguimento de múltiplos objectos . Foi proposta uma arquitectura para o sistema global que endereça os vários requisitos identi cados, permitindo a utilização de múltiplas câmaras e suportando o seguimento de múltiplos objectos, com ou sem marcadores. Foram implementados e validados componentes da arquitectura proposta e integrados num sistema para validação, focando na localização e seguimento de múltiplos objectos com marcadores luminosos à base de Light-Emitting Diodes (LEDs). Nomeadamente, os módulos para a identi cação dos pontos de interesse na imagem, técnicas para agrupar os vários pontos de interesse de cada objecto e efectuar a correspondência das medidas obtidas pelas várias câmaras, método para a determinação da posição e atitude dos objectos, ltro para seguimento de múltiplos objectos. Foram realizados testes para validação e a nação do sistema implementado que demonstram que a solução encontrada vai de encontro aos requisitos, e foram identi cadas as linhas de trabalho para a continuação do desenvolvimento do sistema global.