66 resultados para Modelos de distribuição
Resumo:
Alterações nas taxas de juro podem afectar o resultado e a situação líquida das instituições financeiras. O resultado destas empresas é sensível a alterações se o custo dos fundos é mais (ou menos) sensível que os proveitos obtidos. A situação líquida é sensível a alterações se o valor dos activos é mais (ou menos) sensível que o valor dos passivos. Este risco da taxa de juro resultante das alterações das taxas pode ser controlado através de diversos modelos. Os modelos mais usuais baseiam-se nos diferenciais de fundos (GAP), diferenciais de duração e valor em risco (VaR) que são apresentados de forma sequencial neste trabalho.
Resumo:
Mestrado em Engenharia Informática. Sistemas Gráficos e Multimédia.
Resumo:
Introdução: O Acidente Vascular Encefálico (AVE) consiste numa das primeiras causas de mortalidade e morbilidade em Portugal. Esta lesão do Sistema Nervoso Central (SNC) desencadeia alterações ao nível do controlo postural (CP), que interferem com a recuperação funcional dos indivíduos. Objetivo: Deste modo, torna-se premente descrever as alterações do CP do tronco através da análise dos alinhamentos dos segmentos corporais do tronco no grupo de indivíduos selecionados, face à aplicação de um programa de intervenção baseado nos princípios do Conceito de Bobath. Metodologia: Estudo de série de casos, em seis indivíduos com alterações neuromotoras decorrentes de AVE, os quais foram avaliados antes e após o plano de intervenção segundo a abordagem baseada nos princípios do Conceito de Bobath, através do registo observacional, da Classificação Internacional de Funcionalidade Incapacidade e Saúde (CIF), da utilização do Software de Avaliação Postural (SAPO) e da Plataforma de Pressões da Emed (PPE), modelo AT. Os dados recolhidos foram trabalhados em função do valor médio através do software Excel. Resultados: A análise do SAPO, na posição ortostática observam-se mudanças quer na vista posterior quer nas laterais, indicando uma maior simetria entre hemitroncos, e mudanças nos alinhamentos verticais indicando uma maior aproximação dos 180º. Na PPE observam-se os valores da área plantar, da pressão plantar média e do centro de pressão, tendem globalmente a uma maior semelhança e simetria. Quanto à CIF também se verificou uma diminuição da restrição na participação e limitação na atividade. Conclusão: A intervenção baseada no processo de raciocínio clínico aparenta introduzir os estímulos necessários à reorganização funcional do SNC lesado, produzindo melhorias ao nível dos alinhamentos dos segmentos corporais e desta forma melhorar a atividade muscular.
Resumo:
O desenvolvimento de software orientado a modelos defende a utilização dos modelos como um artefacto que participa activamente no processo de desenvolvimento. O modelo ocupa uma posição que se encontra ao mesmo nível do código. Esta é uma abordagem importante que tem sido alvo de atenção crescente nos últimos tempos. O Object Management Group (OMG) é o responsável por uma das principais especificações utilizadas na definição da arquitectura dos sistemas cujo desenvolvimento é orientado a modelos: o Model Driven Architecture (MDA). Os projectos que têm surgido no âmbito da modelação e das linguagens específicas de domínio para a plataforma Eclipse são um bom exemplo da atenção dada a estas áreas. São projectos totalmente abertos à comunidade, que procuram respeitar os standards e que constituem uma excelente oportunidade para testar e por em prática novas ideias e abordagens. Nesta dissertação foram usadas ferramentas criadas no âmbito do Amalgamation Project, desenvolvido para a plataforma Eclipse. Explorando o UML e usando a linguagem QVT, desenvolveu-se um processo automático para extrair elementos da arquitectura do sistema a partir da definição de requisitos. Os requisitos são representados por modelos UML que são transformados de forma a obter elementos para uma aproximação inicial à arquitectura do sistema. No final, obtêm-se um modelo UML que agrega os componentes, interfaces e tipos de dados extraídos a partir dos modelos dos requisitos. É uma abordagem orientada a modelos que mostrou ser exequível, capaz de oferecer resultados práticos e promissora no que concerne a trabalho futuro.
Resumo:
A instalação de sistemas de videovigilância, no interior ou exterior, em locais como aeroportos, centros comerciais, escritórios, edifícios estatais, bases militares ou casas privadas tem o intuito de auxiliar na tarefa de monitorização do local contra eventuais intrusos. Com estes sistemas é possível realizar a detecção e o seguimento das pessoas que se encontram no ambiente local, tornando a monitorização mais eficiente. Neste contexto, as imagens típicas (imagem natural e imagem infravermelha) são utilizadas para extrair informação dos objectos detectados e que irão ser seguidos. Contudo, as imagens convencionais são afectadas por condições ambientais adversas como o nível de luminosidade existente no local (luzes muito fortes ou escuridão total), a presença de chuva, de nevoeiro ou de fumo que dificultam a tarefa de monitorização das pessoas. Deste modo, tornou‐se necessário realizar estudos e apresentar soluções que aumentem a eficácia dos sistemas de videovigilância quando sujeitos a condições ambientais adversas, ou seja, em ambientes não controlados, sendo uma das soluções a utilização de imagens termográficas nos sistemas de videovigilância. Neste documento são apresentadas algumas das características das câmaras e imagens termográficas, assim como uma caracterização de cenários de vigilância. Em seguida, são apresentados resultados provenientes de um algoritmo que permite realizar a segmentação de pessoas utilizando imagens termográficas. O maior foco desta dissertação foi na análise dos modelos de descrição (Histograma de Cor, HOG, SIFT, SURF) para determinar o desempenho dos modelos em três casos: distinguir entre uma pessoa e um carro; distinguir entre duas pessoas distintas e determinar que é a mesma pessoa ao longo de uma sequência. De uma forma sucinta pretendeu‐se, com este estudo, contribuir para uma melhoria dos algoritmos de detecção e seguimento de objectos em sequências de vídeo de imagens termográficas. No final, através de uma análise dos resultados provenientes dos modelos de descrição, serão retiradas conclusões que servirão de indicação sobre qual o modelo que melhor permite discriminar entre objectos nas imagens termográficas.
Resumo:
O aumento da utilização do mercúrio, Hg, tanto para fins industriais como na aplicação de compostos mercuriais na agricultura, originaram um aumento significativo da contaminação ambiental, especialmente das águas e dos alimentos. Foi aprofundado o estudo sobre o mercúrio, nomeadamente as suas principais fontes de emissão, a sua toxicidade, os principais efeitos nos seres humanos, algumas medidas preventivas, os limites máximos que a legislação permite, que no caso das águas analisadas é de 0,001mg/L, os métodos analíticos para a sua determinação e alguns métodos de amostragem, tanto para o mercúrio em águas como em sedimentos. Em Almadén (Espanha), existe uma mina que pode ser considerada como uma das maiores anomalias geoqímica de mercúrio na Terra. Com este trabalho pretendeu-se perceber a possível existência de mercúrio nas águas termais ao longo da zona de falha Penacova-Régua-Verin e avaliar a existência de uma relação entre os níveis de mercúrio e o seu contexto geológico. Neste trabalho, foi desenvolvido um método simples para a determinação dos níveis de mercúrio em águas, utilizando a espectrometria de absorção atómica de fonte contínua de alta resolução acoplado à técnica de vapor frio. O objectivo deste trabalho foi avaliar os níveis de mercúrio existente em algumas águas engarrafadas e termais. Os limites de detecção da técnica utilizada foram 0,0595 μg/L e os de quantificação foram 0,2100 μg/L. Depois de analisadas as amostras verificou-se que os níveis de mercúrio encontrados nas águas eram inferiores ao limite de quantificação da técnica e por isso, não foi possível extrapolar qualquer relação entre os níveis de mercúrio e as alterações do fundo geológico. Como o limite de quantificação é inferior ao limite máximo permitido por lei, pode então dizer-se que todas as águas se encontram abaixo do limite máximo permitido.
Resumo:
A educação é uma área bastante importante no desenvolvimento humano e tem vindo a adaptar-se às novas tecnologias. Tentam-se encontrar novas maneiras de ensinar de modo a obter um rendimento cada vez maior na aprendizagem das pessoas. Com o aparecimento de novas tecnologias como os computadores e a Internet, a concepção de aplicações digitais educativas cresceu e a necessidade de instruir cada vez melhor os alunos leva a que estas aplicações precisem de um interface que consiga leccionar de uma maneira rápida e eficiente. A combinação entre o ensino com o auxílio dessas novas tecnologias e a educação à distância deu origem ao e-Learning (ensino à distância). Através do ensino à distância, as possibilidades de aumento de conhecimento dos alunos aumentaram e a informação necessária tornou-se disponível a qualquer hora em qualquer lugar com acesso à Internet. Mas os cursos criados online tinham custos altos e levavam muito tempo a preparar o que gerou um problema para quem os criava. Para recuperar o investimento realizado decidiu-se dividir os conteúdos em módulos capazes de serem reaproveitados em diferentes contextos e diferentes tipos de utilizadores. Estes conteúdos modulares foram denominados Objectos de Aprendizagem. Nesta tese, é abordado o estudo dos Objectos de Aprendizagem e a sua evolução ao longo dos tempos em termos de interface com o utilizador. A concepção de um interface que seja natural e simples de utilizar nem sempre é fácil e independentemente do contexto em que se insere, requer algum conhecimento de regras que façam com que o utilizador que use determinada aplicação consiga trabalhar com um mínimo de desempenho. Na concepção de Objectos de Aprendizagem, áreas de complexidade elevada como a Medicina levam a que professores ou doutores sintam alguma dificuldade em criar um interface com conteúdos educativos capaz de ensinar com eficiência os alunos, devido ao facto de grande parte deles desconhecerem as técnicas e regras que levam ao desenvolvimento de um interface de uma aplicação. Através do estudo dessas regras e estilos de interacção torna-se mais fácil a criação de um bom interface e ao longo desta tese será estudado e proposto uma ferramenta que ajude tanto na criação de Objectos de Aprendizagem como na concepção do respectivo interface.
Resumo:
Nos tempos que correm assistimos a alguma volatilidade e incerteza quanto à evolução das taxas de juro. As alterações nas taxas de juro podem afectar o resultado e a situação líquida das empresas. O risco da taxa de juro pode ser controlado através de diversos modelos. Os modelos mais usuais de gestão do risco baseiam-se nos diferenciais de fundos (GAP), diferenciais de duração, valor em risco (VaR) e simulação estática e dinâmica que são apresentados de forma sequencial nesta obra. Modelos para a Determinação do Risco da Taxa de Juro é uma obra de grande utilidade para os profissionais e técnicos das instituições de crédito e sociedades financeiras para além dos gestores de empresa responsáveis pelos departamentos financeiros, consultores financeiros e para todos aqueles que se interessam por temas relacionados com teoria financeira. O autor, Eduardo Manuel Lopes de Sá e Silva é doutorado em Ciências Económicas e Empresariais, pela Universidade da Corunha, Espanha, licenciado e mestre em Economia pela Faculdade de Economia da Universidade do Porto. Exerce funções de docente no Instituto Superior de Contabilidade e Administração do Porto e é coordenador do Curso de Especialização em Contabilidade e Fiscalidade que conta com o apoio da Câmara dos Técnicos Oficiais de Contas. Igualmente exerce as funções de técnico oficial de contas, revisor oficial de contas e consultor financeiro numa Instituição de Crédito.
Resumo:
A evolução tecnológica a que se assistiu nas últimas décadas tem sido um dos principais fatores da necessidade de utilização de energia elétrica. Consequentemente, remodelações tanto a nível de equipamentos na rede de distribuição como da qualidade de serviço têm sido determinantes para fazer face a uma evolução crescente do consumo de energia elétrica por parte da sociedade. Esta evolução tem afetado significativamente o desempenho dos sistemas de proteção e automatismos associados, sendo estes cada vez mais fiáveis e proporcionando maior segurança tanto aos ativos da rede como a pessoas. No entanto, esta evolução tem tido também impacto nas linhas de distribuição em média tensão, estando estas a evoluir de rede aérea para linhas mistas de distribuição. As linhas mistas de distribuição têm diferentes desempenhos técnicos e económicos no que respeita aos sistemas de proteção e respetivos automatismos de religação automática. Neste trabalho são analisados alguns parâmetros que têm influência na atuação das proteções e respetivos automatismos de religação.
Resumo:
O entendimento da produção da fala tem sido ampla mente procurado, recorrendo à imagem por ressonância magnética (IRM), mas não é totalmente conhecido, particularmente no que diz respeito aos sons do Português Europeu (PE). O principal objectivo deste estudo foi a caracterização das vogais do PE. Com base na IRM recolheram-se conjuntos de imagens bidimensionais, em cinco posições articulatórias distintas, durante a produção sustentada do som. Após extracção de contornos do tracto vocal procedeu-se à reconstrução tridimensional, constatando-se que a IRM fornece in formação morfológica útil e com considerável precisão acerca da posição e forma dos diferentes articuladores da fala.
Resumo:
Nas últimas décadas, o estudo das séries temporais de contagem univariadas tem sido objecto de interesse crescente na literatura. Uma das classes de modelos mais populares é a dos modelos auto-regressivos e médias móveis de valor inteiro não-negativo, INARMA, obtida através da substituição da multiplicação por um operador aleatório, chamado thinning, nos modelos ARMA convencionais. Os modelos INAR para séries de contagem univariadas têm sido amplamente estudados na literatura no que diz respeito quer às suas propriedades probabilísticas quer à inferência estatística. Por outro lado, a classe alargada de modelos de médias móveis para séries de valor inteiro, INMA, em que as operações thinning em instantes diferentes são dependentes entre si, não tem sido objecto de tanta atenção. De facto os modelos INMA não são Markovianos pelo que a inferência estatística apresenta dificuldades adicionais. Actualmente o interesse na análise de séries temporais de contagem centra-se em modelos e métodos para séries multivariadas. Neste trabalho, consideram-se os modelos INMA bivariados propostos por Torres et al. (2012). Nesta classe alargada de modelos bivariados INMA, a estrutura de dependência entre as duas séries temporais é introduzia pela dependência entre os dois processos de chegada enquanto que a dependência em cada série é definida pela dependência de operações thinning em instantes diferentes. Consideram-se estimadores baseados em momentos: método dos momentos (MM), método dos momentos generalizados (GMM) e método dos momentos eficiente (EMM), assim como estimadores baseados na função geradora de probabilidades.
Resumo:
São apresentados os modelos cognitivos da tonalidade desenvolvidos por Shepard (1964; 1982a), Longuet- Higgins (1987), Lerdahl (1988; 2001), e Krumhansl (1983; 1990), com particular incidência no modelo de Lerdahl. Um breve exame comparativo evidencia as potencialidades deste último como instrumento de investigação no âmbito dos estudos de performance bem como na área da percepção. Palavras-chave: Percepção; Tonalidade; Lerdahl; Longuet-Higgins; Krumhansl; Shepard.
Resumo:
A existência do regime de neutro em subestações de distribuição de energia elétrica é essencial para o bom funcionamento de toda a rede. Existe um vasto leque de opções no que diz respeito aos regimes de neutro. Cada opção tem as suas vantagens e desvantagens, e cabe às empresas do setor elétrico a escolha do regime de neutro mais adequado em função das caraterísticas da rede. A escolha do regime de neutro tem influência direta no desempenho global de toda a rede de média tensão. O principal objetivo desta dissertação é o estudo e a análise das vantagens e inconvenientes dos vários regimes de neutro: neutro isolado, neutro impedante, ligado diretamente à terra, neutro ressonante, analisando as suas vantagens e inconvenientes. É feito um estudo aprofundado do regime de neutro ressonante, também designado por regime de neutro com a Bobine de Petersen. Este trabalho descreve, ainda, de forma sucinta a situação de Portugal relativamente aos regimes de neutro que utiliza e a sua perspetiva futura. Por fim é apresentado um caso de estudo, que diz respeito a uma rede de média tensão (30 kV) alimentada pela subestação de Serpa. Foram estudados os regimes de neutro como a bobine de Petersen, reatância de neutro e neutro isolado. Foi também estudada a influência na ocorrência de um defeito fase-terra e a influência na ocorrência de defeitos francos e resistivos em vários pontos da rede.
Resumo:
In almost all industrialized countries, the energy sector has suffered a severe restructuring that originated a greater complexity in market players’ interactions. The complexity that these changes brought made way for the creation of decision support tools that facilitate the study and understanding of these markets. MASCEM – “Multiagent Simulator for Competitive Electricity Markets” arose in this context providing a framework for evaluating new rules, new behaviour, and new participants in deregulated electricity markets. MASCEM uses game theory, machine learning techniques, scenario analysis and optimisation techniques to model market agents and to provide them with decision-support. ALBidS is a multiagent system created to provide decision support to market negotiating players. Fully integrated with MASCEM it considers several different methodologies based on very distinct approaches. The Six Thinking Hats is a powerful technique used to look at decisions from different perspectives. This tool’s goal is to force the thinker to move outside his habitual thinking style. It was developed to be used mainly at meetings in order to “run better meetings, make faster decisions”. This dissertation presents a study about the applicability of the Six Thinking Hats technique in Decision Support Systems, particularly with the multiagent paradigm like the MASCEM simulator. As such this work’s proposal is of a new agent, a meta-learner based on STH technique that organizes several different ALBidS’ strategies and combines the distinct answers into a single one that, expectedly, out-performs any of them.
Resumo:
Nos últimos anos começaram a ser vulgares os computadores dotados de multiprocessadores e multi-cores. De modo a aproveitar eficientemente as novas características desse hardware começaram a surgir ferramentas para facilitar o desenvolvimento de software paralelo, através de linguagens e frameworks, adaptadas a diferentes linguagens. Com a grande difusão de redes de alta velocidade, tal como Gigabit Ethernet e a última geração de redes Wi-Fi, abre-se a oportunidade de, além de paralelizar o processamento entre processadores e cores, poder em simultâneo paralelizá-lo entre máquinas diferentes. Ao modelo que permite paralelizar processamento localmente e em simultâneo distribuí-lo para máquinas que também têm capacidade de o paralelizar, chamou-se “modelo paralelo distribuído”. Nesta dissertação foram analisadas técnicas e ferramentas utilizadas para fazer programação paralela e o trabalho que está feito dentro da área de programação paralela e distribuída. Tendo estes dois factores em consideração foi proposta uma framework que tenta aplicar a simplicidade da programação paralela ao conceito paralelo distribuído. A proposta baseia-se na disponibilização de uma framework em Java com uma interface de programação simples, de fácil aprendizagem e legibilidade que, de forma transparente, é capaz de paralelizar e distribuir o processamento. Apesar de simples, existiu um esforço para a tornar configurável de forma a adaptar-se ao máximo de situações possível. Nesta dissertação serão exploradas especialmente as questões relativas à execução e distribuição de trabalho, e a forma como o código é enviado de forma automática pela rede, para outros nós cooperantes, evitando assim a instalação manual das aplicações em todos os nós da rede. Para confirmar a validade deste conceito e das ideias defendidas nesta dissertação foi implementada esta framework à qual se chamou DPF4j (Distributed Parallel Framework for JAVA) e foram feitos testes e retiradas métricas para verificar a existência de ganhos de performance em relação às soluções já existentes.