55 resultados para Modelo auto-regressivo de primeiro ordem (AR1)
Resumo:
O desenvolvimento actual de aplicações paralelas com processamento intensivo (HPC - High Performance Computing) para alojamento em computadores organizados em Cluster baseia-se muito no modelo de passagem de mensagens, do qual é de realçar os esforços de definição de standards, por exemplo, MPI - Message - Passing Interface. Por outro lado, com a generalização do paradigma de programação orientado aos objectos para ambientes distribuídos (Java RMI, .NET Remoting), existe a possibilidade de considerar que a execução de uma aplicação, de processamento paralelo e intensivo, pode ser decomposta em vários fluxos de execução paralela, em que cada fluxo é constituído por uma ou mais tarefas executadas no contexto de objectos distribuídos. Normalmente, em ambientes baseados em objectos distribuídos, a especificação, controlo e sincronização dos vários fluxos de execução paralela, é realizada de forma explicita e codificada num programa principal (hard-coded), dificultando possíveis e necessárias modificações posteriores. No entanto, existem, neste contexto, trabalhos que propõem uma abordagem de decomposição, seguindo o paradigma de workflow com interacções entre as tarefas por, entre outras, data-flow, control-flow, finite - state - machine. Este trabalho consistiu em propor e explorar um modelo de execução, sincronização e controlo de múltiplas tarefas, que permita de forma flexível desenhar aplicações de processamento intensivo, tirando partido da execução paralela de tarefas em diferentes máquinas. O modelo proposto e consequente implementação, num protótipo experimental, permite: especificar aplicações usando fluxos de execução; submeter fluxos para execução e controlar e monitorizar a execução desses fluxos. As tarefas envolvidas nos fluxos de execução podem executar-se num conjunto de recursos distribuídos. As principais características a realçar no modelo proposto, são a expansibilidade e o desacoplamento entre as diferentes componentes envolvidas na execução dos fluxos de execução. São ainda descritos casos de teste que permitiram validar o modelo e o protótipo implementado. Tendo consciência da necessidade de continuar no futuro esta linha de investigação, este trabalho é um contributo para demonstrar que o paradigma de workflow é adequado para expressar e executar, de forma paralela e distribuída, aplicações complexas de processamento intensivo.
Resumo:
Utilizando um método de medida dinâmico, determinou-se experimentalmente a solubilidade de corantes têxteis em CO2 supercrítico, para pressões entre 120 bar (12MPa) a 400 bar (40 MPa) e temperaturas de 60°C (333.2K) a 120°C (393.2K). O equipamento utilizado consiste em 3 secções distintas: zona de compressão, zona de equilíbrio e zona de expansão. Dos resultados obtidos para as isotérmicas, verificou-se que a solubilidade aumenta com o incremento da pressão. Em relação à influência da temperatura, constatou-se que as pressões mais baixas os corantes apresentam uma diminuição na solubilidade em CO2 supercrítico com o incremento da temperatura, no entanto, a partir de uma determinada pressão (cerca de 225bar), quanto maior a temperatura de estudo, maior a solubilidade dos compostos. Obtiveram-se valores de solubilidade na ordem dos 2,9x10-6 a 2,9x10-4 para o Quinizarina com uma reprodutibilidade média de ±3,3%, de 1,4x10-6 a 3,2x10-4 para o Red 9 com uma reprodutibilidade média de ±2,5% de 7,8x10-8 a 2,2x10-5 para o Blue 14 com uma reprodutibilidade média de ±3,0% e finalmente de 6,63x10-8 a 4,9x10-7 para o Blue 1, com uma reprodutibilidade média de ±4,5%. A comparação com os resultados experimentais da bibliografia permitiu verificar a actual discrepância de valores existentes para estes corantes e a importância de novos resultados e mais rigorosos, com o objectivo de analisar os métodos de determinação de solubilidade em fluidos supercríticos. Após a análise dos resultados obtidos, foi efectuada a modelação dos mesmos recorrendo a modelos semi-empíricos, verificando-se que o modelo mais adequado ao corante Quinizarina é o modelo de Bartle et al, para o qual se obteve um desvio relativo médio percentual (AARD) de 2,94%. Relativamente ao corante Red 9 e Blue 14, o modelo que melhor define o comportamento de Chrastil, obtendo-se um AARD de 0,870% e o 1,47% respectivamente, enquanto que para o Blue 1 é o modelo de Kummar e Jonhson, com um AARD de 0,218%. Além da modelação efectuada, foram ainda determinados os valores de entalpias de vaporização e solvatação para os diferentes compostos.
Resumo:
Este trabalho é um contributo para o desenvolvimento de sistemas de conversão de energia eólica em energia eléctrica em equipamentos comercialmente disponíveis. Com base na recolha de dados meteorológicos, foi caracterizada a disponibilidade da energia eólica num local de instalação de um sistema de geração de energia eléctrica. A exploração dos recursos eólicos pode ser caracterizada por intermédio de geradores eléctricos accionados por turbinas de eixo vertical ou de eixo horizontal. O sistema de geração projectado utiliza como gerador eléctrico a máquina assíncrona de rotor em curto-circuito accionada por uma turbina de eixo vertical do tipo Savonius. No que respeita a conversão electromecânica de energia, para realizar a excitação do gerador de indução e o controlo da potência entregue à rede, foi utilizado um conversor electrónico industrial do tipo regenerativo dedicado a accionamentos de velocidade variável. A estratégia de controlo utilizada, nos modelos desenvolvidos para simulação do sistema de geração proposto, utiliza a técnica de controlo vectorial de orientação de campo para realizar o controlo do binário do gerador de indução, colocando-o em modo de frenagem, através do qual é recolhida energia eléctrica. Tendo em vista a comprovação experimental do desempenho do sistema proposto, foi realizado em laboratório um protótipo. Neste protótipo a turbina Savonius é simulada por um accionamento mecânico constituído por um conjunto variador de velocidade - máquina síncrona de magnetos permanentes. O controlo do sistema é feito por intermédio de um processador digital de sinal (DSP). O DSP impõe a dinâmica desejada para turbina ao seu simulador electromecânico, faz o tratamento dos dados adquiridos no sistema gerador, implementa o seu controlo e estabelece a interface humano-máquina. O modelo teórico proposto para o sistema de geração e a estratégia de controlo adoptada são validados por comparação entre resultados de simulação numérica e os correspondentes resultados experimentais.
Resumo:
A motivação para este trabalho vem da necessidade que o autor tem em poder registar as notas tocadas na guitarra durante o processo de improviso. Quando o músico está a improvisar na guitarra, muitas vezes não se recorda das notas tocadas no momento, este trabalho trata o desenvolvimento de uma aplicação para guitarristas, que permita registar as notas tocadas na guitarra eléctrica ou clássica. O sinal é adquirido a partir da guitarra e processado com requisitos de tempo real na captura do sinal. As notas produzidas pela guitarra eléctrica, ligada ao computador, são representadas no formato de tablatura e/ou partitura. Para este efeito a aplicação capta o sinal proveniente da guitarra eléctrica a partir da placa de som do computador e utiliza algoritmos de detecção de frequência e algoritmos de estimação de duração de cada sinal para construir o registo das notas tocadas. A aplicação é desenvolvida numa perspectiva multi-plataforma, podendo ser executada em diferentes sistemas operativos Windows e Linux, usando ferramentas e bibliotecas de domínio público. Os resultados obtidos mostram a possibilidade de afinar a guitarra com valores de erro na ordem de 2 Hz em relação às frequências de afinação standard. A escrita da tablatura apresenta resultados satisfatórios, mas que podem ser melhorados. Para tal será necessário melhorar a implementação de técnicas de processamento do sinal bem como a comunicação entre processos para resolver os problemas encontrados nos testes efectuados.
Resumo:
Num mundo em que as redes de telecomunicações estão em constante evolução e crescimento, o consumo energético destas também aumenta. Com a evolução tanto por parte das redes como dos seus equipamentos, o custo de implementação de uma rede tem-se reduzido até ao ponto em que o maior obstáculo para o crescimento das redes é já o seu custo de manutenção e funcionamento. Nas últimas décadas têm sido criados esforços para tornar as redes cada fez mais eficientes ao nível energético, reduzindo-se assim os seus custos operacionais, como também a redução dos problemas relacionados com as fontes de energia que alimentam estas redes. Neste sentido, este trabalho tem como objectivo principal o estudo do consumo energético de redes IP sobre WDM, designadamente o estudo de métodos de encaminhamento que sejam eficientes do ponto de vista energético. Neste trabalho formalizámos um modelo de optimização que foi avaliado usando diferentes topologias de rede. O resultado da análise mostrou que na maioria dos casos é possível obter uma redução do consumo na ordem dos 25%.
Resumo:
O objectivo deste trabalho consiste em avaliar os benefícios das Self Organizing Networks (SON), no que concerne ao planeamento e optimização de redes Long Term Evolution (LTE), não só através do seu estudo, como também através do desenvolvimento e teste de algoritmos, que permitem avaliar o funcionamento de algumas das suas principais funções. O estudo efectuado sobre as SON permitiu identificar um conjunto de funções, tais como a atribuição automática de Physical Cell Id (PCI), o Automatic Neighbour Relation (ANR) e a optimização automática de parâmetros de handover, que permitem facilitar ou mesmo substituir algumas das tarefas mais comuns em planeamento e optimização de redes móveis celulares, em particular, redes LTE. Recorrendo a um simulador LTE destinado à investigação académica, em código aberto e desenvolvido em Matlab®, foi desenvolvido um conjunto de algoritmos que permitiram a implementação das funções em questão. Para além das funções implementadas, foram também introduzidas alterações que conferem a este simulador a capacidade de representar e simular redes reais, permitindo uma análise mais coerente dos algoritmos desenvolvidos. Os resultados obtidos, para além de evidenciarem claramente o benefício dos algoritmos desenvolvidos, foram ainda comparados com os obtidos pela ferramenta profissional de planeamento e optimização Atoll®, tendo-se verificado a franca proximidade de desempenho em algumas das funções. Finalmente, foi desenvolvida uma interface gráfica que permite o desenho, configuração e simulação de cenários, bem como a análise de resultados.
Análise dos métodos de medição dos parâmetros geométricos de via e correlação entre os dados obtidos
Resumo:
A razão atribuída à escolha do tema do T.F.M. em Caminhos-de-ferro, tem a ver com o facto de ser uma via de comunicação específica. Contrariamente ao que acontece na execução de auto-estradas, no caminho-de-ferro, a gestora da infra-estrutura responsabiliza-se pela execução, exploração (sinalização e controlo de circulação), abastecimento de energia fornecida às vias que dispõem de catenária (tracção eléctrica), manutenção e conservação da via. O processo de análise e inspecção de geometria de via, é usado quando e necessário preservar a infra-estrutura. Este processo iniciou-se nos caminhos-de-ferro portugueses, há muitos anos, depois da inauguração do primeiro troco de linha férrea. A primeira viagem ocorre em Outubro de 1856, sendo o início do processo em 1968, com a dresina “Matisa PV-6”. Em 1991 a C.P. adquiriu outro veículo de inspecção de via, tendo sido escolhido o VIV02 EM 120 da marca Plasser & Theurer, para substituir “Matisa PV-6”. O tema Análise dos Métodos de Medição dos Parâmetros Geométricos de Via e Correlação entre os Dados Obtidos está directamente relacionado com a manutenção e conservação de via. Na Unidade Operacional Sul (hoje ROS – Região Operacional Sul), local onde desenvolvi o T.F.M., não existem obras de construção de caminhos-de-ferro que pudesse acompanhar e constituir tema para o meu trabalho. Na realidade, com a falta de investimento que se perspectiva no futuro próximo, a manutenção da infra-estrutura passa a ser a actividade principal desenvolvida pela REFER, de modo a assegurar a comodidade, segurança e rapidez na deslocação de cargas e pessoas. A Analise Geométrica de Via e actualmente uma das principais actividades no âmbito da manutenção, que é feita por diagnóstico, contrariamente ao que acontecia no passado em que a conservação metódica era realizada num determinado ano num troço seleccionado independentemente da necessidade ou não da mesma. Uma ajuda preciosa, no que se refere à decisão de se realizar um determinado trabalho de conservação, e a do veículo VIV02 EM 120 que faz inspeções ao longo de toda a rede ferroviária e permite recolher dados e classificar através do desvio padrão, troços com extensão de 200 metros, obtendo os dados relevantes sobre a necessidade de intervenção. Para além do referido veículo existem também equipamentos ligeiros de inspecção dos parâmetros geométricos de via. Um desses equipamentos designa-se por Trólei, não sendo motorizado, pois o mesmo é movido manualmente por um operador. Obviamente que este equipamento não faz a inspecção a toda a rede pois a operação de medição é morosa, sendo contudo utilizado para análise de defeitos geométricos em pequenos trocos, tornando-se assim uma mais-valia, evitando o deslocar de um equipamento “pesado” como o VIV 02 EM 120. Para atingir os objectivos deste trabalho realizaram-se testes de medição com ambos (veiculo e equipamento ligeiro), no mesmo espaço temporal e com as mesmas características físicas, como a temperatura, humidade etc. Os resultados, de acordo com os objectivos, são a comparação entre as medições de ambos, com vista a comprovar a sua utilidade e necessidade, de acordo com os vários tipos de superstruturas constituintes da rede ferroviária nacional.
Resumo:
O crescimento da utilização de accionamentos electromecânicos de velocidade variável entre outros dispositivos que necessitam de tensões elevadas, na ordem dos kV e com elevados níveis de qualidade, despertou o interesse pelos conversores multinível. Este tipo de conversor consegue alcançar elevadas tensões de funcionamento e simultaneamente melhorar a qualidade das formas de onda de tensão e corrente nas respectivas fases. Esta dissertação de mestrado tem por objectivo apresentar um estudo sobre o conversor multinível com díodos de ligação ao neutro (NPC – neutral point clamped), de cinco níveis utilizado como ondulador de tensão ligado à rede. O trabalho começa por desenvolver o modelo matemático do conversor multinível com díodos de ligação ao neutro de cinco níveis e a respectiva interligação com a rede eléctrica. Com base no modelo do conversor são realizadas simulações numéricas desenvolvidas em Matlab-Simulink. Para controlo do trânsito de energia no conversor é utilizando controlo por modo de deslizamento aplicado às correntes nas fases. As simulações efectuadas são comparadas com resultados de simulação obtidos para um ondulador clássico de dois níveis. Resultados de simulação do conversor multinível são posteriormente comparados com resultados experimentais para diferentes valores de potências activa e reactiva. Foi desenvolvido um protótipo experimental de um conversor multinível com díodos de ligação ao neutro de cinco níveis e a respectiva electrónica associada para comando e disparo dos semicondutores de potência.
Resumo:
A teoria económica contemporânea assenta grande parte do seu raciocínio na ideia de que é possível compreender o comportamento dos agentes económicos e a complexidade das relações que entre eles se estabelecem reduzindo esse comportamento às escolhas de um agente representativo. Este agente procura maximizar a utilidade do consumo perante determinada restrição de recursos que ele, ou o sistema económico como um todo, enfrenta. Apesar de esta ideia não estar isenta de possível crítica e de o caminho da modelização ser cada vez mais o de considerar agentes heterogéneos em interação, a verdade é que se trata de um conceito poderoso, que permite compreender mecanismos lógicos relevantes, num contexto que é frequentemente assumido como dinâmico e intertemporal. Neste capítulo, caracterizam-se os pilares fundamentais do modelo de agente representativo.
Resumo:
O âmbito desta dissertação centra-se na temática de estudos de durabilidade do betão auto-compactavel (BAC), cujo cálculo dos constituintes foi feito pelo método de Nepomuceno. Sobre amostras de 40, 55 e 70 MPa, produzidas segundo o método atrás identificado, foram feitos estudos químicos e morfológicos, de propriedades de transporte de mecanismos de degradação e de propriedades indirectas. Os três provetes em estudo de 40, 55 e 70 MPa, apresentam características satisfatórias a nível da microestrutura, propriedades de transporte, carbonatação, penetração de cloretos e análise de ultra-sons. Numa análise comparativa entre as três resistências mecânicas em estudo, verifica-se que as propriedades de durabilidade vão melhorando a medida que a resistência mecânica também aumenta, ou seja, os provete com 70 MPa apresentam as melhores características a nível de durabilidade e os de 40 as piores; os de 55 apresentam propriedades intermédias.
Resumo:
Mestrado em Tecnologia de Diagnóstico e Intervenção Cardiovascular. Área de especialização: Intervenção Cardiovascular.
Resumo:
O presente relatório de estágio, correspondente ao 2º Ciclo do Ensino Superior – Mestrado em Engenharia Civil, do Instituto Superior de Engenharia de Lisboa, incide sobre a análise e acompanhamento da construção de obras de arte de pequeno e médio vão, numa empreitada realizada pela empresa OPWAY-Engenharia. Pretende-se ilustrar a grande especificidade deste tipo de obras, bem como as principais problemáticas que lhes estão associadas. O principal objectivo deste trabalho foi, através da abordagem destas questões, contribuir para a clarificação de determinados aspectos; de ordem construtiva, na óptica de esclarecer e entender através de uma observação directa, as obras de arte, o comportamento dos materiais e a situação estrutural. Os casos de estudo que serviram como base de trabalho para este relatório foram seis Obras de Arte integradas na empreitada da construção da auto-estrada A16, mais concretamente: PS4A, PI1A, PA6, PSCF, PS0A e PS0B. Cada uma destas obras tem um processo construtivo distinto. Destacam-se aqui, as Passagens Superiores que se intersectam no nó de alta velocidade sobre a CREL, a PS0A e PS0B. O relatório resulta da experiência adquirida através da análise ao nível do projecto, destas obras e suas alterações, mas sobretudo na vivência da sua execução, muito particularmente no que diz respeito à elaboração e acompanhamento dos respectivos planos de execução, entendendo os diferentes processos construtivos numa vertente operacional. Para a realização desse estudo, executou-se pesquisa bibliográfica de forma a obter um melhor conhecimento sobre o assunto. O presente trabalho teve como base o registo das soluções para elaboração dos processos construtivos de cada uma das obras.
Resumo:
Neste artigo descreve-se e analisa-se, numa perspectiva crítica, o modelo de solvência actualmente em vigor na União Europeia, particularizando para o caso português. Este modelo, ao basear-se em rácios, apresenta algumas debilidades uma vez que, para modificar o resultado obtido, as empresas de seguros podem baixar o nível de solvência exigida com base na alteração do numerador ou denominador de fracção. Centramo-nos na manipulação do denominador, designadamente através de processos de sub-provisionamento. Esta comunicação discute, do ponto de vista teórico e prático, a utilização deste pressuposto, com base na conta "provisão para sinistros", que pode colocar em risco a principal função das garantias financeiras: a protecção dos tomadores de seguro.
Resumo:
A contabilidade financeira tradicional está perdendo relevância frente a nova economia. O valor contábil das empresas se distanciam cada vez mais do seu valor de mercado, principalmente nas organizações de alta tecnologia e serviços. Perante essa conjuntura, surge a polêmica, defendida por alguns pesquisadores, de que as demonstrações contábeis não estão mais retratando o verdadeiro valor da empresa, uma vez que o valor dos livros das empresas estão muito aquém do seu corresponente valor de mercado (Lev, 2003, p. 21-24). Esta diferença vem sendo explicada, por uma infinidade de autores como: Capital Intelectual o Ativo Intangível. Diante do que foi exposto, inegavelmente os intangíveis, nos últimos anos, ganharam mais importância para as organizações. O desafio, portanto, consiste em identificar, medir, gerir e informar o capital intelectual. Este artigo tem a finalidade de verificar, através do estudo empírico, qual a relação existente entre os modelos de capital intelectual propostos na literatura, e analisados neste trabalho, com os informes divulgados pelos bancos espanhóis. Para isto, em primeiro lugar tratamos de definir o termo Capital Intelectual (CI); em seguida apresentaremos algumas agrupações existentes de modelos de CI, para assim podermos selecionar os mais apropriados para a informação externa (reporting). Em um terceiro momento analisamos a divulgação de informes das Contas Anuais destas instituições. Por fim evidenciamos as conclusões a que chegamos, onde podemos observar que há um distanciamento entre os modelos utilizados na prática pelos bancos e os modelos teóricos.
Resumo:
Nesta comunicação pretende-se apresentar alguns resultados de uma investigação realizada, entre 2006 e 2007, em duas escolas do 1º Ciclo de um agrupamento de escolas que fez parte do primeiro grupo de escolas que celebrou o contrato de autonomia com o Ministério da Educação. Com este estudo pretendemos conhecer as mudanças originadas pelo modelo de gestão (Decreto-Lei nº115-A/98), nas estruturas organizacionais, nas culturas profissionais e nas práticas pedagógicas dos docentes do 1º Ciclo. Para a recolha de dados foram realizadas entrevistas, análise de conteúdo dos principais documentos da instituição e observações formais (reuniões) e informais do quotidiano das escolas.