859 resultados para robust hedging
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Química e Biológica
Resumo:
A depressão é uma das doenças de foro psiquiátrico que mais prevalece na nossa sociedade, subsistindo evidências epidemiológicas que indicam um aumento substancial da sua incidência nos últimos anos. Esta evidência é consubstanciada pelo aumento significativo do consumo de antidepressivos em Portugal. Este cenário pressupõe a necessidade de uma metodologia que permita analisar, com rigor e numa perspectiva de rotina, os antidepressivos que podem ser encontrados em amostras de sangue. No contexto do Serviço de Toxicologia Forense do Instituto Nacional de Medicina Legal, Delegação do Norte, torna-se necessário o desenvolvimento de uma metodologia analítica para a determinação simultânea de 15 antidepressivos em sangue total e a sua validação relativamente a vários parâmetros analíticos. Os antidepressivos considerados foram Amitriptilina, Citalopram, Clomipramina, N-Desmetilclomipramina, Dotiepina, Fluoxetina, Imipramina, Maprotilina, Mianserina, Mirtazapina, Nortriptilina, Paroxetina, Sertralina, Trimipramina e Venlafaxina. A técnica utilizada para este efeito foi o GC/MS/MS, aplicando um procedimento extractivo prévio apropriado, baseado em procedimentos convencionais de extracção em fase sólida. A escolha desta técnica teve por base a possibilidade de identificar inequivocamente os compostos presentes na amostra, independentemente da complexidade da matriz, e de originar metodologias com uma sensibilidade elevada e com limites de detecção muito baixos. Os parâmetros analíticos considerados para validação da metodologia estabelecida foram selectividade/especificidade e capacidade de identificação; limites de detecção e de quantificação; linearidade e gama de trabalho; eficiência de extracção; arrastamento; exactidão (precisão, veracidade e incerteza de medição) e robustez. Com excepção da exactidão, um parâmetro que carece ainda de estudos complementares, todos os parâmetros estudados foram validados de acordo com os requisitos internos do Serviço. De uma forma geral, os resultados obtidos com o método desenvolvido revelaram-se selectivos e apresentaram respostas analíticas tanto para concentrações de antidepressivos em níveis terapêuticos como para níveis letais destas drogas. Os procedimentos extractivos revelaram-se eficazes e não foram verificados fenómenos de arrastamento em concentrações mais elevadas. O método foi ainda considerado robusto.
Resumo:
Objectives - Review available guidance for quality assurance (QA) in mammography and discuss its contribution to harmonise practices worldwide. Methods - Literature search was performed on different sources to identify guidance documents for QA in mammography available worldwide in international bodies, healthcare providers, professional/scientific associations. The guidance documents identified were reviewed and a selection was compared for type of guidance (clinical/technical), technology and proposed QA methodologies focusing on dose and image quality (IQ) performance assessment. Results - Fourteen protocols (targeted at conventional and digital mammography) were reviewed. All included recommendations for testing acquisition, processing and display systems associated with mammographic equipment. All guidance reviewed highlighted the importance of dose assessment and testing the Automatic Exposure Control (AEC) system. Recommended tests for assessment of IQ showed variations in the proposed methodologies. Recommended testing focused on assessment of low-contrast detection, spatial resolution and noise. QC of image display is recommended following the American Association of Physicists in Medicine guidelines. Conclusions - The existing QA guidance for mammography is derived from key documents (American College of Radiology and European Union guidelines) and proposes similar tests despite the variations in detail and methodologies. Studies reported on QA data should provide detail on experimental technique to allow robust data comparison. Countries aiming to implement a mammography/QA program may select/prioritise the tests depending on available technology and resources.
Resumo:
A geração de trajectórias de robôs em tempo real é uma tarefa muito complexa, não
existindo ainda um algoritmo que a permita resolver de forma eficaz. De facto, há
controladores eficientes para trajectórias previamente definidas, todavia, a adaptação a
variações imprevisíveis, como sendo terrenos irregulares ou obstáculos, constitui ainda um
problema em aberto na geração de trajectórias em tempo real de robôs.
Neste trabalho apresentam-se modelos de geradores centrais de padrões de locomoção
(CPGs), inspirados na biologia, que geram os ritmos locomotores num robô quadrúpede.
Os CPGs são modelados matematicamente por sistemas acoplados de células (ou
neurónios), sendo a dinâmica de cada célula dada por um sistema de equações diferenciais
ordinárias não lineares. Assume-se que as trajectórias dos robôs são constituídas por esta
parte rítmica e por uma parte discreta. A parte discreta pode ser embebida na parte rítmica,
(a.1) como um offset ou (a.2) adicionada às expressões rítmicas, ou (b) pode ser calculada
independentemente e adicionada exactamente antes do envio dos sinais para as articulações
do robô. A parte discreta permite inserir no passo locomotor uma perturbação, que poderá
estar associada à locomoção em terrenos irregulares ou à existência de obstáculos na
trajectória do robô. Para se proceder á análise do sistema com parte discreta, será variado o
parâmetro g. O parâmetro g, presente nas equações da parte discreta, representa o offset do
sinal após a inclusão da parte discreta.
Revê-se a teoria de bifurcação e simetria que permite a classificação das soluções
periódicas produzidas pelos modelos de CPGs com passos locomotores quadrúpedes. Nas
simulações numéricas, usam-se as equações de Morris-Lecar e o oscilador de Hopf como
modelos da dinâmica interna de cada célula para a parte rítmica. A parte discreta é
modelada por um sistema inspirado no modelo VITE. Medem-se a amplitude e a
frequência de dois passos locomotores para variação do parâmetro g, no intervalo [-5;5].
Consideram-se duas formas distintas de incluir a parte discreta na parte rítmica: (a) como
um (a.1) offset ou (a.2) somada nas expressões que modelam a parte rítmica, e (b) somada
ao sinal da parte rítmica antes de ser enviado às articulações do robô. No caso (a.1),
considerando o oscilador de Hopf como dinâmica interna das células, verifica-se que a amplitude e frequência se mantêm constantes para -5
Resumo:
Mestrado em Contabilidade
Resumo:
Mestrado em Gestão e Avaliação de Tecnologias em Saúde.
Resumo:
A compreensão das interacções entre os oceanos, a linha de costa, a qualidade do ar e as florestas só será possível através do registo e análise de informação geo-temporalmente referenciada. Mas a monitorização de grandes áreas apresenta o problema da cobertura espacial e temporal, e os custos nela envolvidos pela impossibilidade de disseminar a quantidade de estações de monitorização necessários à compreensão do fenómeno. É necessário então definir metodologias de colocação de sensores e recolha de informação de forma robusta, económica e temporalmente útil. Nesta dissertação apresentamos uma estratégia de monitorização ambiental, para meios hídricos, (ou de grande dimensão) que baseada em sistemas móveis e alguns princípios da geoestatística, fornece uma ferramenta de monitorização mais económica, sem prejuízo da qualidade de informação. Os modelos usados na geoestatística assentam na ideia de que medidas mais próximas tendem a serem mais parecidas do que valores observados em locais distantes e fornece métodos para quantificar esta correlação espacial e incorporá-la na estimação. Os resultados obtidos sustentam a convicção do uso de veículos móveis em redes de sensores e que contribuímos para responder à seguinte questão “Qual a técnica que nos permite com poucos sensores monitorizar grandes áreas?”. A solução passará por modelos de estimação de grandezas utilizados na geoestatística associados a sistemas móveis.
Resumo:
Os sistemas de tempo real modernos geram, cada vez mais, cargas computacionais pesadas e dinâmicas, começando-se a tornar pouco expectável que sejam implementados em sistemas uniprocessador. Na verdade, a mudança de sistemas com um único processador para sistemas multi- processador pode ser vista, tanto no domínio geral, como no de sistemas embebidos, como uma forma eficiente, em termos energéticos, de melhorar a performance das aplicações. Simultaneamente, a proliferação das plataformas multi-processador transformaram a programação paralela num tópico de elevado interesse, levando o paralelismo dinâmico a ganhar rapidamente popularidade como um modelo de programação. A ideia, por detrás deste modelo, é encorajar os programadores a exporem todas as oportunidades de paralelismo através da simples indicação de potenciais regiões paralelas dentro das aplicações. Todas estas anotações são encaradas pelo sistema unicamente como sugestões, podendo estas serem ignoradas e substituídas, por construtores sequenciais equivalentes, pela própria linguagem. Assim, o modo como a computação é na realidade subdividida, e mapeada nos vários processadores, é da responsabilidade do compilador e do sistema computacional subjacente. Ao retirar este fardo do programador, a complexidade da programação é consideravelmente reduzida, o que normalmente se traduz num aumento de produtividade. Todavia, se o mecanismo de escalonamento subjacente não for simples e rápido, de modo a manter o overhead geral em níveis reduzidos, os benefícios da geração de um paralelismo com uma granularidade tão fina serão meramente hipotéticos. Nesta perspetiva de escalonamento, os algoritmos que empregam uma política de workstealing são cada vez mais populares, com uma eficiência comprovada em termos de tempo, espaço e necessidades de comunicação. Contudo, estes algoritmos não contemplam restrições temporais, nem outra qualquer forma de atribuição de prioridades às tarefas, o que impossibilita que sejam diretamente aplicados a sistemas de tempo real. Além disso, são tradicionalmente implementados no runtime da linguagem, criando assim um sistema de escalonamento com dois níveis, onde a previsibilidade, essencial a um sistema de tempo real, não pode ser assegurada. Nesta tese, é descrita a forma como a abordagem de work-stealing pode ser resenhada para cumprir os requisitos de tempo real, mantendo, ao mesmo tempo, os seus princípios fundamentais que tão bons resultados têm demonstrado. Muito resumidamente, a única fila de gestão de processos convencional (deque) é substituída por uma fila de deques, ordenada de forma crescente por prioridade das tarefas. De seguida, aplicamos por cima o conhecido algoritmo de escalonamento dinâmico G-EDF, misturamos as regras de ambos, e assim nasce a nossa proposta: o algoritmo de escalonamento RTWS. Tirando partido da modularidade oferecida pelo escalonador do Linux, o RTWS é adicionado como uma nova classe de escalonamento, de forma a avaliar na prática se o algoritmo proposto é viável, ou seja, se garante a eficiência e escalonabilidade desejadas. Modificar o núcleo do Linux é uma tarefa complicada, devido à complexidade das suas funções internas e às fortes interdependências entre os vários subsistemas. Não obstante, um dos objetivos desta tese era ter a certeza que o RTWS é mais do que um conceito interessante. Assim, uma parte significativa deste documento é dedicada à discussão sobre a implementação do RTWS e à exposição de situações problemáticas, muitas delas não consideradas em teoria, como é o caso do desfasamento entre vários mecanismo de sincronização. Os resultados experimentais mostram que o RTWS, em comparação com outro trabalho prático de escalonamento dinâmico de tarefas com restrições temporais, reduz significativamente o overhead de escalonamento através de um controlo de migrações, e mudanças de contexto, eficiente e escalável (pelo menos até 8 CPUs), ao mesmo tempo que alcança um bom balanceamento dinâmico da carga do sistema, até mesmo de uma forma não custosa. Contudo, durante a avaliação realizada foi detetada uma falha na implementação do RTWS, pela forma como facilmente desiste de roubar trabalho, o que origina períodos de inatividade, no CPU em questão, quando a utilização geral do sistema é baixa. Embora o trabalho realizado se tenha focado em manter o custo de escalonamento baixo e em alcançar boa localidade dos dados, a escalonabilidade do sistema nunca foi negligenciada. Na verdade, o algoritmo de escalonamento proposto provou ser bastante robusto, não falhando qualquer meta temporal nas experiências realizadas. Portanto, podemos afirmar que alguma inversão de prioridades, causada pela sub-política de roubo BAS, não compromete os objetivos de escalonabilidade, e até ajuda a reduzir a contenção nas estruturas de dados. Mesmo assim, o RTWS também suporta uma sub-política de roubo determinística: PAS. A avaliação experimental, porém, não ajudou a ter uma noção clara do impacto de uma e de outra. No entanto, de uma maneira geral, podemos concluir que o RTWS é uma solução promissora para um escalonamento eficiente de tarefas paralelas com restrições temporais.
Resumo:
Ascorbic acid is found in many food samples. Its clinical and technological importance demands an easyto- use, rapid, robust and inexpensive method of analysis. For this purpose, this work proposes a new flow procedure based on the oxidation of ascorbic acid by periodate. A new potentiometric periodate sensor was constructed to monitor this reaction. The selective membranes were of PVC with porphyrin-based sensing systems and a lipophilic cation as additive. The sensor displayed a near-Nernstian response for periodate over 1.0x10-2–6.0x10-6 M, with an anionic slope of 73.9 ± 0.9 mV decade-1. It was pH independent in acidic media and presented good selectivity features towards several inorganic anions. The flow set-up operated in double-channel, carrying a 5.0x10-4 M IO- 4 solution and a suitable buffer; these were mixed in a 50-cm reaction coil. The overall flow rate was 7 ml min-1 and the injection volume 70 µl. Under these conditions, a linear behaviour against concentration was observed for 17.7–194.0 µg ml-1, presenting slopes of 0.169 mV (mg/l)-1, a reproducibility of ±1.1 mV (n = 5), and a sampling rate of ~96 samples h-1. The proposed method was applied to the analysis of beverages and pharmaceuticals.
Resumo:
Mestrado em Contabilidade Internacional
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Mecânica
Resumo:
Dissertação para obtenção do grau de Mestre em Engenharia Electrotécnica
Resumo:
Mestrado em Tecnologia de Diagnóstico e Intervenção Cardiovascular - Ramo de especialização: Ultrassonografia Cardiovascular
Resumo:
Dissertação para obtenção do grau de Mestre em Engenharia Electrotécnica Ramo de Automação e Electrónica Industrial
Resumo:
Moving towards autonomous operation and management of increasingly complex open distributed real-time systems poses very significant challenges. This is particularly true when reaction to events must be done in a timely and predictable manner while guaranteeing Quality of Service (QoS) constraints imposed by users, the environment, or applications. In these scenarios, the system should be able to maintain a global feasible QoS level while allowing individual nodes to autonomously adapt under different constraints of resource availability and input quality. This paper shows how decentralised coordination of a group of autonomous interdependent nodes can emerge with little communication, based on the robust self-organising principles of feedback. Positive feedback is used to reinforce the selection of the new desired global service solution, while negative feedback discourages nodes to act in a greedy fashion as this adversely impacts on the provided service levels at neighbouring nodes. The proposed protocol is general enough to be used in a wide range of scenarios characterised by a high degree of openness and dynamism where coordination tasks need to be time dependent. As the reported results demonstrate, it requires less messages to be exchanged and it is faster to achieve a globally acceptable near-optimal solution than other available approaches.