976 resultados para sovereign default
Resumo:
Introdução – A análise da forma ou morfometria de estruturas anatómicas, como o trato vocal, pode ser efetuada a partir de imagens bidimensionais (2D) como de aquisições volumétricas (3D) de ressonância magnética (RM). Esta técnica de imagem tem vindo a ter uma utilização crescente no estudo da produção da fala. Objetivos – Demonstrar como pode ser efetuada a morfometria do trato vocal a partir da imagem por ressonância magnética e ainda apresentar padrões anatómicos normais durante a produção das vogais [i a u] e dois padrões articulatórios patológicos em contexto simulado. Métodos – As imagens consideradas foram recolhidas a partir de aquisições 2D (Turbo Spin-eco) e 3D (Flash Gradiente-Eco) de RM em quatro sujeitos durante a produção das vogais em estudo; adicionalmente procedeu-se à avaliação de duas perturbações articulatórias usando o mesmo protocolo de RM. A morfometria do trato vocal foi extraída com recurso a técnicas manuais (para extração de cinco medidas articulatórias) e automáticas (para determinação de volumes) de processamento e análise de imagem. Resultados – Foi possível analisar todo o trato vocal, incluindo a posição e a forma dos articuladores, tendo por base cinco medidas descritivas do posicionamento destes órgãos durante a produção das vogais. A determinação destas medições permitiu identificar quais as estratégias mais comummente adotadas na produção de cada som, nomeadamente a postura articulatória e a variação de cada medida para cada um dos sujeitos em estudo. No contexto de voz falada intersujeitos, foi notória a variabilidade nos volumes estimados do trato vocal para cada som e, em especial, o aumento do volume do trato vocal na perturbação articulatória de sigmatismo. Conclusão – A imagem por RM é, sem dúvida, uma técnica promissora no estudo da fala, inócua, não-invasiva e que fornece informação fiável da morfometria do trato vocal.
Resumo:
A ressonância magnética fetal é um método eficaz na avaliação pré-natal da morfologia normal do cérebro e no diagnóstico de patologias do sistema nervoso central, sendo um importante complemento clínico à ecografia. O cerebelo é uma das estruturas menos afetadas em casos de restrição de crescimento fetal, tornando-se um bom indicador na avaliação do desenvolvimento fetal e da idade gestacional. Deste modo, a avaliação biométrica fetal é fundamental no diagnóstico pré-natal do desenvolvimento cerebral. Objetivo – Avaliação do diâmetro transversal do cerebelo (estrutura anatómica de referência do sistema nervoso central) do feto e posterior comparação com um estudo internacional reconhecido nesta matéria. Material e métodos – A amostra foi constituída por 84 gestantes que realizaram ressonância magnética fetal numa clínica de imagiologia médica da região Centro. A medição considerada para a avaliação do desenvolvimento fetal foi o diâmetro transversal do cerebelo. Resultados – Os resultados obtidos para o diâmetro transversal do cerebelo por ressonância magnética fetal vieram a demonstrar a ausência de diferenças médias estatisticamente significativas (p>0,05) em função do número de semanas de gestação, face aos valores teóricos aferidos no estudo de Garel. Conclusão – Com base nos resultados obtidos, para o diâmetro transversal do cerebelo podemos concluir que o parâmetro analisado é coerente com a publicação de Catherine Garel – Le développement du cerveau foetal atlas IRM et biometrie.
Resumo:
Objetivos – Um dos principais objetivos da neurociência tem sido, desde sempre, compreender as funcionalidades do cérebro. A introdução da ressonância magnética funcional contribuiu em grande escala para o desenvolvimento do estudo cerebral. Assim, esta investigação tem como principal objetivo identificar e desenhar os diferentes perfis de localizações cerebrais, a nível do córtex motor, numa população jovem saudável, permitindo, assim, um maior conhecimento nesta área e dando um contributo à área da neurologia. Material e métodos – Foi realizado um estudo de ressonância magnética funcional em 30 indivíduos saudáveis numa clínica de imagiologia médica. Para tal recorreu-se a equipamento adequado para a recolha de dados. O paradigma motor utilizado foi o movimento dos dedos das mãos. Através das imagens obtidas foi medida a área de cada região ativa. Com o suporte do programa SPSS (versão 19) todos os valores foram tratados estatisticamente. Conclusão – Após todo este processo concluiu-se que a área do cérebro maioritariamente ativa, no momento do paradigma motor, encontra-se no hemisfério esquerdo.
Resumo:
OBJECTIVE: To describe the implantation and the effects of directly-observed treatment short course (DOTS) in primary health care units. METHODS: Interviews were held with the staff of nine municipal health care units (MHU) that provided DOTS in Rio de Janeiro City, Southeastern Brazil, in 2004-2005. A dataset with records of all tuberculosis treatments beginning in 2004 in all municipal health care units was collected. Bivariate analyses and a multinomial model were applied to identify associations between treatment outcomes and demographic and treatment process variables, including being in DOTS or self-administered therapy (SAT). RESULTS: From 4,598 tuberculosis cases treated in public health units administrated by the municipality, 1,118 (24.3%) were with DOTS and 3,480 (75.7%) with SAT. The odds of DOTS were higher among patients with age under 50 years, tuberculosis relapse and prior history of default or treatment failure. The odds of death were 52.0% higher among patients on DOTS as compared to SAT. DOTS modality including community health workers (CHWs) showed the highest treatment success rate. A reduction of 21.0% was observed in the odds of default (vs. cure) among patients on DOTS as compared to patients on SAT, and a reduction of 64.0% among patients on DOTS with CHWs as compared to those without CHWs. CONCLUSIONS: Patients with a "low compliance profile" were more likely to be included in DOTS. This strategy improves the quality of care provided to tuberculosis patients, although the proposed goals were not achieved.
Resumo:
Este é o segundo anuário da Escola Superior de Tecnologia de Saúde da Lisboa, que procurou compilar toda a produção científica dos seus docentes, não docentes e estudantes relativa ao ano de 2012. Desta vez com o dobro do número de páginas, resultante não só da inclusão das dissertações, relatórios de estágio ou projetos de mestrado concluídos, mas também das comunicações, orais ou em poster, que foram efetuadas este ano. Trata-se assim de um repositório da atividade científica da ESTeSL muito mais completo que o anterior e que reflete melhor a sua realidade. É, todavia, possível que existam dados ainda em falta, mas um dos objetivos desta publicação é também, ao tornar mais visível a sua produção científica, incentivar a comunidade académica a reportá-la, permitindo assim a sua inclusão neste documento histórico.
Resumo:
Introduction - European nuclear medicine technologist’s education is delivered by Higher Education Institutions and students obtain a grade of Bachelor of Sciences (BSc), during which they are initiated to research during their studies. Once BSc nuclear medicine technologists are in professional practice, they have very few opportunities to develop a real research experience and they rather become passive users than active contributors the growth of scientific knowledge in nuclear medicine. Aim - To describe and discuss an innovative educational and professional experience aimed in strengthen research knowledge, skills and competencies of former nuclear medicine technologists student in the context of an international mobility stay.
Resumo:
Com a evolução da tecnologia, os UAVs (unmanned aerial vehicles) são cada vez mais utilizados, não só em missões de risco para o ser Humano, mas também noutro tipo de missões, como é o caso de missões de inspeção, vigilância, busca e salvamento. Isto devese ao baixo custo das plataformas assim como à sua enorme fiabilidade e facilidade de operação. Esta dissertação surge da necessidade de aumentar a autonomia dos UAVs do projeto PITVANT (Projeto de Investigação e Tecnologia em Veículos Aéreos Não Tripulados), projeto de investigação colaborativa entre a AFA (Academia da Força Aérea) e a FEUP (Faculdade de Engenharia da Universidade do Porto), relativamente ao planeamento de trajetórias entre dois pontos no espaço, evitando os obstáculos que intersetem o caminho. Para executar o planeamento da trajetória mais curta entre dois pontos, foi implementado o algoritmo de pesquisa A*, por ser um algoritmo de pesquisa de soluções ótimas. A área de pesquisa é decomposta em células regulares e o centro das células são os nós de pesquisa do A*. O tamanho de cada célula é dependente da dinâmica de cada aeronave. Para que as aeronaves não colidam com os obstáculos, foi desenvolvido um método numérico baseado em relações trigonométricas para criar uma margem de segurança em torno de cada obstáculo. Estas margens de segurança são configuráveis, sendo o seu valor por defeito igual ao raio mínimo de curvatura da aeronave à velocidade de cruzeiro. De forma a avaliar a sua escalabilidade, o algoritmo foi avaliado com diferentes números de obstáculos. As métricas utilizadas para avaliação do algoritmo foram o tempo de computação do mesmo e o comprimento do trajeto obtido. Foi ainda comparado o desempenho do algoritmo desenvolvido com um algoritmo já implementado, do tipo fast marching.
Resumo:
In life cycle impact assessment (LCIA) models, the sorption of the ionic fraction of dissociating organic chemicals is not adequately modeled because conventional non-polar partitioning models are applied. Therefore, high uncertainties are expected when modeling the mobility, as well as the bioavailability for uptake by exposed biota and degradation, of dissociating organic chemicals. Alternative regressions that account for the ionized fraction of a molecule to estimate fate parameters were applied to the USEtox model. The most sensitive model parameters in the estimation of ecotoxicological characterization factors (CFs) of micropollutants were evaluated by Monte Carlo analysis in both the default USEtox model and the alternative approach. Negligible differences of CFs values and 95% confidence limits between the two approaches were estimated for direct emissions to the freshwater compartment; however the default USEtox model overestimates CFs and the 95% confidence limits of basic compounds up to three orders and four orders of magnitude, respectively, relatively to the alternative approach for emissions to the agricultural soil compartment. For three emission scenarios, LCIA results show that the default USEtox model overestimates freshwater ecotoxicity impacts for the emission scenarios to agricultural soil by one order of magnitude, and larger confidence limits were estimated, relatively to the alternative approach.
Resumo:
Coronary artery disease (CAD) is currently one of the most prevalent diseases in the world population and calcium deposits in coronary arteries are one direct risk factor. These can be assessed by the calcium score (CS) application, available via a computed tomography (CT) scan, which gives an accurate indication of the development of the disease. However, the ionising radiation applied to patients is high. This study aimed to optimise the protocol acquisition in order to reduce the radiation dose and explain the flow of procedures to quantify CAD. The main differences in the clinical results, when automated or semiautomated post-processing is used, will be shown, and the epidemiology, imaging, risk factors and prognosis of the disease described. The software steps and the values that allow the risk of developingCADto be predicted will be presented. A64-row multidetector CT scan with dual source and two phantoms (pig hearts) were used to demonstrate the advantages and disadvantages of the Agatston method. The tube energy was balanced. Two measurements were obtained in each of the three experimental protocols (64, 128, 256 mAs). Considerable changes appeared between the values of CS relating to the protocol variation. The predefined standard protocol provided the lowest dose of radiation (0.43 mGy). This study found that the variation in the radiation dose between protocols, taking into consideration the dose control systems attached to the CT equipment and image quality, was not sufficient to justify changing the default protocol provided by the manufacturer.
Resumo:
After a historical introduction, the bulk of the thesis concerns the study of a declarative semantics for logic programs. The main original contributions are: ² WFSX (Well–Founded Semantics with eXplicit negation), a new semantics for logic programs with explicit negation (i.e. extended logic programs), which compares favourably in its properties with other extant semantics. ² A generic characterization schema that facilitates comparisons among a diversity of semantics of extended logic programs, including WFSX. ² An autoepistemic and a default logic corresponding to WFSX, which solve existing problems of the classical approaches to autoepistemic and default logics, and clarify the meaning of explicit negation in logic programs. ² A framework for defining a spectrum of semantics of extended logic programs based on the abduction of negative hypotheses. This framework allows for the characterization of different levels of scepticism/credulity, consensuality, and argumentation. One of the semantics of abduction coincides with WFSX. ² O–semantics, a semantics that uniquely adds more CWA hypotheses to WFSX. The techniques used for doing so are applicable as well to the well–founded semantics of normal logic programs. ² By introducing explicit negation into logic programs contradiction may appear. I present two approaches for dealing with contradiction, and show their equivalence. One of the approaches consists in avoiding contradiction, and is based on restrictions in the adoption of abductive hypotheses. The other approach consists in removing contradiction, and is based in a transformation of contradictory programs into noncontradictory ones, guided by the reasons for contradiction.
Resumo:
This paper is about a hierarchical structure with an event-based supervisor in a higher level and a fractional-order proportional integral (FOPI) in a lower level applied to a wind turbine. The event-based supervisor analyzes the operation conditions to determine the state of the wind turbine. This controller operate in the full load region and the main objective is to capture maximum power generation while ensuring the performance and reliability required for a wind turbine to be integrated into an electric grid. The main contribution focus on the use of fractional-order proportional integral controller which benefits from the introduction of one more tuning parameter, the integral fractional-order, taking advantage over integer order proportional integral (PI) controller. Comparisons between fractional-order pitch control and a default proportional integral pitch controller applied to a wind turbine benchmark are given and simulation results by Matlab/Simulink are shown in order to prove the effectiveness of the proposed approach.
Resumo:
A edição do terceiro anuário da Escola Superior de Tecnologia da Saúde de Lisboa, onde se procurou compilar toda a produção científica dos seus docentes, não docentes e estudantes relativa ao ano de 2013, constitui uma prova de continuidade e estabilidade deste projeto. O anuário apresenta-se assim, cada vez mais, como a referência oficial da atividade científica da ESTeSL, aumentando o número de dados submetidos e compilados neste documento. De salientar, neste capítulo, a manutenção do número de livros publicados relativamente ao ano anterior – quatro – e o aumento, para cerca de quatro dezenas, de artigos publicados em revistas internacionais. Encontram-se ainda incluídas as comunicações orais e em forma de póster, embora ainda sem a inserção dos respetivos resumos, o que esperamos ser possível na próxima edição, pelo menos em parte. De salientar também, à semelhança da ultima edição, a inclusão do resumo das dissertações de mestrado efetuadas na ESTeSL, bem como a atividade efetuada pelos estudantes do 4º ano dos diferentes cursos de licenciatura na Unidade Curricular de Investigação Aplicada.
Resumo:
Não existe uma definição única de processo de memória de longo prazo. Esse processo é geralmente definido como uma série que possui um correlograma decaindo lentamente ou um espectro infinito de frequência zero. Também se refere que uma série com tal propriedade é caracterizada pela dependência a longo prazo e por não periódicos ciclos longos, ou que essa característica descreve a estrutura de correlação de uma série de longos desfasamentos ou que é convencionalmente expressa em termos do declínio da lei-potência da função auto-covariância. O interesse crescente da investigação internacional no aprofundamento do tema é justificado pela procura de um melhor entendimento da natureza dinâmica das séries temporais dos preços dos ativos financeiros. Em primeiro lugar, a falta de consistência entre os resultados reclama novos estudos e a utilização de várias metodologias complementares. Em segundo lugar, a confirmação de processos de memória longa tem implicações relevantes ao nível da (1) modelação teórica e econométrica (i.e., dos modelos martingale de preços e das regras técnicas de negociação), (2) dos testes estatísticos aos modelos de equilíbrio e avaliação, (3) das decisões ótimas de consumo / poupança e de portefólio e (4) da medição de eficiência e racionalidade. Em terceiro lugar, ainda permanecem questões científicas empíricas sobre a identificação do modelo geral teórico de mercado mais adequado para modelar a difusão das séries. Em quarto lugar, aos reguladores e gestores de risco importa saber se existem mercados persistentes e, por isso, ineficientes, que, portanto, possam produzir retornos anormais. O objetivo do trabalho de investigação da dissertação é duplo. Por um lado, pretende proporcionar conhecimento adicional para o debate da memória de longo prazo, debruçando-se sobre o comportamento das séries diárias de retornos dos principais índices acionistas da EURONEXT. Por outro lado, pretende contribuir para o aperfeiçoamento do capital asset pricing model CAPM, considerando uma medida de risco alternativa capaz de ultrapassar os constrangimentos da hipótese de mercado eficiente EMH na presença de séries financeiras com processos sem incrementos independentes e identicamente distribuídos (i.i.d.). O estudo empírico indica a possibilidade de utilização alternativa das obrigações do tesouro (OT’s) com maturidade de longo prazo no cálculo dos retornos do mercado, dado que o seu comportamento nos mercados de dívida soberana reflete a confiança dos investidores nas condições financeiras dos Estados e mede a forma como avaliam as respetiva economias com base no desempenho da generalidade dos seus ativos. Embora o modelo de difusão de preços definido pelo movimento Browniano geométrico gBm alegue proporcionar um bom ajustamento das séries temporais financeiras, os seus pressupostos de normalidade, estacionariedade e independência das inovações residuais são adulterados pelos dados empíricos analisados. Por isso, na procura de evidências sobre a propriedade de memória longa nos mercados recorre-se à rescaled-range analysis R/S e à detrended fluctuation analysis DFA, sob abordagem do movimento Browniano fracionário fBm, para estimar o expoente Hurst H em relação às séries de dados completas e para calcular o expoente Hurst “local” H t em janelas móveis. Complementarmente, são realizados testes estatísticos de hipóteses através do rescaled-range tests R/S , do modified rescaled-range test M - R/S e do fractional differencing test GPH. Em termos de uma conclusão única a partir de todos os métodos sobre a natureza da dependência para o mercado acionista em geral, os resultados empíricos são inconclusivos. Isso quer dizer que o grau de memória de longo prazo e, assim, qualquer classificação, depende de cada mercado particular. No entanto, os resultados gerais maioritariamente positivos suportam a presença de memória longa, sob a forma de persistência, nos retornos acionistas da Bélgica, Holanda e Portugal. Isto sugere que estes mercados estão mais sujeitos a maior previsibilidade (“efeito José”), mas também a tendências que podem ser inesperadamente interrompidas por descontinuidades (“efeito Noé”), e, por isso, tendem a ser mais arriscados para negociar. Apesar da evidência de dinâmica fractal ter suporte estatístico fraco, em sintonia com a maior parte dos estudos internacionais, refuta a hipótese de passeio aleatório com incrementos i.i.d., que é a base da EMH na sua forma fraca. Atendendo a isso, propõem-se contributos para aperfeiçoamento do CAPM, através da proposta de uma nova fractal capital market line FCML e de uma nova fractal security market line FSML. A nova proposta sugere que o elemento de risco (para o mercado e para um ativo) seja dado pelo expoente H de Hurst para desfasamentos de longo prazo dos retornos acionistas. O expoente H mede o grau de memória de longo prazo nos índices acionistas, quer quando as séries de retornos seguem um processo i.i.d. não correlacionado, descrito pelo gBm(em que H = 0,5 , confirmando- se a EMH e adequando-se o CAPM), quer quando seguem um processo com dependência estatística, descrito pelo fBm(em que H é diferente de 0,5, rejeitando-se a EMH e desadequando-se o CAPM). A vantagem da FCML e da FSML é que a medida de memória de longo prazo, definida por H, é a referência adequada para traduzir o risco em modelos que possam ser aplicados a séries de dados que sigam processos i.i.d. e processos com dependência não linear. Então, estas formulações contemplam a EMH como um caso particular possível.
Resumo:
Introdução e Objetivos – Os campos eletromagnéticos estão presentes naturalmente no Universo. Há alguns anos, os valores referentes a campos eletromagnéticos eram relativamente constantes. Com o desenvolvimento da tecnologia, a exposição a novas fontes de radiação eletromagnética aumentou. Desta forma, é normal que a preocupação pública, principalmente sobre os potenciais riscos para a saúde provenientes dos campos eletromagnéticos, tenha aumentado. O objetivo deste trabalho foi conhecer e analisar a preocupação e a perceção dos indivíduos sobre a radiação eletromagnética, tendo por base que um dos principais fatores para a adoção de medidas de precaução é o modo como o risco é percecionado pelo indivíduo. Metodologia – Trata-se de um estudo do tipo descritivo, de natureza quantitativa. A amostra, composta por 320 indivíduos, é de natureza não probabilística de conveniência. Resultados – Verificou-se que os inquiridos se manifestam “pouco preocupados” relativamente à exposição aos campos eletromagnéticos, desconhecem as fontes emissoras de radiação eletromagnética presentes no seu quotidiano e não tomam precauções relativamente à exposição a campos eletromagnéticos. Conclusões – Os indivíduos mostram imaturidade conscienciosa em relação à problemática da radiação eletromagnética, em parte justificada pela ausência de mecanismos sensoriais que a permitam detetar. A aposta na educação e sensibilização pode garantir um futuro com melhor qualidade de vida. É importante reunir esforços de várias entidades (saúde, meios de comunicação social e educação). A escola, através das crianças e jovens, constitui um meio privilegiado para a transmissão de informação.
Resumo:
Relatório de estágio apresentado à Escola Superior de Comunicação Social como parte dos requisitos para obtenção de grau de mestre em Gestão Estratégica das Relações Públicas.