999 resultados para 1995_03201051 TM-22 4500902


Relevância:

20.00% 20.00%

Publicador:

Resumo:

As plataformas com múltiplos núcleos tornaram a programação paralela/concorrente num tópico de interesse geral. Diversos modelos de programação têm vindo a ser propostos, facilitando aos programadores a identificação de regiões de código potencialmente paralelizáveis, deixando ao sistema operativo a tarefa de as escalonar dinamicamente em tempo de execução, explorando o maior grau possível de paralelismo. O Java não foge a esta tendência, disponibilizando ao programador um número crescente de bibliotecas de mecanismos de sincronização e paralelização de código. Neste contexto, esta tese apresenta e discute um conjunto de resultados obtidos através de testes intensivos à eficiência de algoritmos de ordenação implementados com recurso aos mecanismos de concorrência da API do Java 8 (Threads, Threadpools, ExecutorService, CountdownLach, ExecutorCompletionService e ForkJoinPools) em sistemas com um número de núcleos variável. Para cada um dos mecanismos, são apresentadas conclusões sobre o seu funcionamento e discutidos os cenários em que o seu uso pode ser rentabilizado de modo a serem obtidos melhores tempos de execução.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Hard‐rock watersheds commonly exhibit complex geological bedrock and morphological features. Hydromineral resources have relevant economic value for the thermal spas industry. The present study aims to develop a groundwater vulnerability approach in Caldas da Cavaca hydromineral system (Aguiar da Beira, Central Portugal) which has a thermal tradition that dates back to the late 19th century, and contribute to a better understanding of the hydrogeological conceptual site model. In this work different layers were overlaid, generating several thematic maps to arrive at an integrated framework of several key‐sectors in Caldas da Cavaca site. Thus, to accomplish a comprehensive analysis and conceptualization of the site, a multi‐technical approach was used, such as, field and laboratory techniques, where several data was collected, like geotectonics, hydrology and hydrogeology, hydrogeomorphology, hydrogeophysical and hydrogeomechanical zoning aiming the application of the so‐called DISCO method. All these techniques were successfully performed and a groundwater vulnerability to contamination assessment, based on GOD‐S, DRASTIC‐Fm, SINTACS, SI and DISCO indexes methodology, was delineated. Geographical Information Systems (GIS) technology was on the basis to organise and integrate the geodatabases and to produce all the thematic maps. This multi‐technical approach highlights the importance of groundwater vulnerability to contamination mapping as a tool to support hydrogeological conceptualisation, contributing to better decision‐making of water resources management and sustainability.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A crescente tendencia no acesso móvel tem sido potenciada pela tecnologia IEEE 802.11. Contudo, estas redes têm alcance rádio limitado. Para a extensão da sua cobertura é possível recorrer a redes emalhadas sem fios baseadas na tecnologia IEEE 802.11, com vantagem do ponto de vista do custo e da flexibilidade de instalação, face a soluções cabladas. Redes emalhadas sem fios constituídas por nós com apenas uma interface têm escalabilidade reduzida. A principal razão dessa limitação deve-se ao uso do mecanismo de acesso ao meio partilhado Carrier Sense Multiple Access with Collision Avoidance (CSMA/CA) em topologias multi-hop. Especificamente, o CSMA/CA não evita o problema do nó escondido levando ao aumento do número de colisões e correspondente degradação de desempenho com impacto direto no throughput e na latência. Com a redução da tecnologia rádio torna-se viável a utilização de múltiplos rádios por nó, sem com isso aumentar significativamente o custo da solução final de comunicações. A utilização de mais do que um rádio por nó de comuniações permite superar os problemas de desempenho inerentes ás redes formadas por nós com apenas um rádio. O objetivo desta tese, passa por desenvolver uma nova solução para redes emalhadas multi-cana, duar-radio, utilizando para isso novos mecanismos que complementam os mecanismos definidos no IEEE 802.11 para o estabelecimento de um Basic Service Set (BSS). A solução é baseada na solução WiFIX, um protocolo de routing para redes emalhadas de interface única e reutiliza os mecanismos já implementados nas redes IEEE 802.11 para difundir métricas que permitam à rede escalar de forma eficaz minimizando o impacto na performance. A rede multi-hop é formada por nós equipados com duas interfaces, organizados numa topologia hierárquica sobre múltiplas relações Access Point (AP) – Station (STA). Os resultados experimentais obtidos mostram a eficácia e o bom desempenho da solução proposta face à solução WiFIX original.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo desta dissertação foi estudar um conjunto de empresas cotadas na bolsa de valores de Lisboa, para identificar aquelas que têm um comportamento semelhante ao longo do tempo. Para isso utilizamos algoritmos de Clustering tais como K-Means, PAM, Modelos hierárquicos, Funny e C-Means tanto com a distância euclidiana como com a distância de Manhattan. Para selecionar o melhor número de clusters identificado por cada um dos algoritmos testados, recorremos a alguns índices de avaliação/validação de clusters como o Davies Bouldin e Calinski-Harabasz entre outros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A liberalização dos mercados de energia elétrica e a crescente integração dos recursos energéticos distribuídos nas redes de distribuição, nomeadamente as unidades de produção distribuída, os sistemas de controlo de cargas através dos programas de demand response, os sistemas de armazenamento e os veículos elétricos, representaram uma evolução no paradigma de operação e gestão dos sistemas elétricos. Este novo paradigma de operação impõe o desenvolvimento de novas metodologias de gestão e controlo que permitam a integração de todas as novas tecnologias de forma eficiente e sustentável. O principal contributo deste trabalho reside no desenvolvimento de metodologias para a gestão de recursos energéticos no contexto de redes inteligentes, que contemplam três horizontes temporais distintos (24 horas, 1 hora e 5 minutos). As metodologias consideram os escalonamentos anteriores assim como as previsões atualizadas de forma a melhorar o desempenho total do sistema e consequentemente aumentar a rentabilidade dos agentes agregadores. As metodologias propostas foram integradas numa ferramenta de simulação, que servirá de apoio à decisão de uma entidade agregadora designada por virtual power player. Ao nível das metodologias desenvolvidas são propostos três algoritmos de gestão distintos, nomeadamente para a segunda (1 hora) e terceira fase (5 minutos) da ferramenta de gestão, diferenciados pela influência que os períodos antecedentes e seguintes têm no período em escalonamento. Outro aspeto relevante apresentado neste documento é o teste e a validação dos modelos propostos numa plataforma de simulação comercial. Para além das metodologias propostas, a aplicação permitiu validar os modelos dos equipamentos considerados, nomeadamente, ao nível das redes de distribuição e dos recursos energéticos distribuidos. Nesta dissertação são apresentados três casos de estudos, cada um com diferentes cenários referentes a cenários de operação futuros. Estes casos de estudos são importantes para verificar a viabilidade da implementação das metodologias e algoritmos propostos. Adicionalmente são apresentadas comparações das metodologias propostas relativamente aos resultados obtidos, complexidade de gestão em ambiente de simulação para as diferentes fases da ferramenta proposta e os benefícios e inconvenientes no uso da ferramenta proposta.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A crescente necessidade de reduzir a dependência energética e a emissão de gases de efeito de estufa levou à adoção de uma série de políticas a nível europeu com vista a aumentar a eficiência energética e nível de controlo de equipamentos, reduzir o consumo e aumentar a percentagem de energia produzida a partir de fontes renováveis. Estas medidas levaram ao desenvolvimento de duas situações críticas para o setor elétrico: a substituição das cargas lineares tradicionais, pouco eficientes, por cargas não-lineares mais eficientes e o aparecimento da produção distribuída de energia a partir de fontes renováveis. Embora apresentem vantagens bem documentadas, ambas as situações podem afetar negativamente a qualidade de energia elétrica na rede de distribuição, principalmente na rede de baixa tensão onde é feita a ligação com a maior parte dos clientes e onde se encontram as cargas não-lineares e a ligação às fontes de energia descentralizadas. Isto significa que a monitorização da qualidade de energia tem, atualmente, uma importância acrescida devido aos custos relacionados com perdas inerentes à falta de qualidade de energia elétrica na rede e à necessidade de verificar que determinados parâmetros relacionados com a qualidade de energia elétrica se encontram dentro dos limites previstos nas normas e nos contratos com clientes de forma a evitar disputas ou reclamações. Neste sentido, a rede de distribuição tem vindo a sofrer alterações a nível das subestações e dos postos de transformação que visam aumentar a visibilidade da qualidade de energia na rede em tempo real. No entanto, estas medidas só permitem monitorizar a qualidade de energia até aos postos de transformação de média para baixa tensão, não revelando o estado real da qualidade de energia nos pontos de entrega ao cliente. A monitorização nestes pontos é feita periodicamente e não em tempo real, ficando aquém do necessário para assegurar a deteção correta de problemas de qualidade de energia no lado do consumidor. De facto, a metodologia de monitorização utilizada atualmente envolve o envio de técnicos ao local onde surgiu uma reclamação ou a um ponto de medição previsto para instalar um analisador de energia que permanece na instalação durante um determinado período de tempo. Este tipo de monitorização à posteriori impossibilita desde logo a deteção do problema de qualidade de energia que levou à reclamação, caso não se trate de um problema contínuo. Na melhor situação, o aparelho poderá detetar uma réplica do evento, mas a larga percentagem anomalias ficam fora deste processo por serem extemporâneas. De facto, para detetar o evento que deu origem ao problema é necessário monitorizar permanentemente a qualidade de energia. No entanto este método de monitorização implica a instalação permanente de equipamentos e não é viável do ponto de vista das empresas de distribuição de energia já que os equipamentos têm custos demasiado elevados e implicam a necessidade de espaços maiores nos pontos de entrega para conter os equipamentos e o contador elétrico. Uma alternativa possível que pode tornar viável a monitorização permanente da qualidade de energia consiste na introdução de uma funcionalidade de monitorização nos contadores de energia de determinados pontos da rede de distribuição. Os contadores são obrigatórios em todas as instalações ligadas à rede, para efeitos de faturação. Tradicionalmente estes contadores são eletromecânicos e recentemente começaram a ser substituídos por contadores inteligentes (smart meters), de natureza eletrónica, que para além de fazer a contagem de energia permitem a recolha de informação sobre outros parâmetros e aplicação de uma serie de funcionalidades pelo operador de rede de distribuição devido às suas capacidades de comunicação. A reutilização deste equipamento com finalidade de analisar a qualidade da energia junto dos pontos de entrega surge assim como uma forma privilegiada dado que se trata essencialmente de explorar algumas das suas características adicionais. Este trabalho tem como objetivo analisar a possibilidade descrita de monitorizar a qualidade de energia elétrica de forma permanente no ponto de entrega ao cliente através da utilização do contador elétrico do mesmo e elaborar um conjunto de requisitos para o contador tendo em conta a normalização aplicável, as características dos equipamentos utilizados atualmente pelo operador de rede e as necessidades do sistema elétrico relativamente à monitorização de qualidade de energia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Sociedade Europeia de Pesquisa do Sono realizou muito recentemente um estudo, onde mostrou que a prevalência média de adormecimento ao volante nos últimos 2 anos foi de 17%. Além disto, tem sido provado por todo o mundo que a sonolência durante a condução é uma das principais causas de acidentes de trânsito. Torna-se assim conveniente, o desenvolvimento de sistemas que analisem a suscetibilidade de um determinado condutor para adormecer no trânsito, bem como de ferramentas que monitorem em tempo real o estado físico e mental do condutor, para alertarem nos momentos críticos. Apesar do estudo do sono se ter iniciado há vários anos, a maioria das investigações focaram-se no ciclo normal do sono, estudando os indivíduos de forma relaxada e de olhos fechados. Só mais recentemente, têm surgido os estudos que se focam nas situações de sonolência em atividade, como _e o caso da condução. Uma grande parte Dos estudos da sonolência em condução têm utilizado a eletroencefalografia (EEG), de forma a perceber se existem alterações nas diferentes bandas de frequência desta, que possam indicar o estado de sonolência do condutor. Além disso, a evolução da sonolência a partir de alterações no piscar dos olhos (que podem ser vistas nos sinais EEG) também tem sido alvo de grande pesquisa, tendo vindo a revelar resultados bastante promissores. Neste contexto e em parceria com a empresa HealthyRoad, esta tese está integrada no projeto HealthyDrive, que visa o desenvolvimento de um sistema de alerta e deteção de sinais de fadiga e sonolência nos condutores de veículos automóveis. A contribuição desta tese no projeto prendeu-se com o estudo da sonolência dos indivíduos em condução a partir de sinais EEG, para desta forma investigar possíveis indicadores dos diferentes níveis desta que possam ser utilizados pela empresa no projeto. Foram recolhidos e analisados 17 sinais EEG de indivíduos em simulação de condução. Além disso foram desenvolvidos dois métodos de análise destes sinais: O primeiro para a deteção e análise dos piscar de olhos a partir de EEG, o segundo para análise do espetro de potência. Ambos os métodos foram utilizados para analisar os sinais recolhidos e investigar que tipo de relação existe entre a sonolência do condutor e as alterações nos piscares dos olhos, bem como as alterações do espetro do EEG. Os resultados mostraram uma correlação entre a duração do piscar de olhos e a sonolência do condutor. Com o aumento da sonolência velicou-se um aumento da duração do piscar, desencadeado principalmente pelo aumento na duração de fecho, que chegou aos 51.2%. Em relação ao espectro de potência, os resultados sugerem que a potência relativa de todas as bandas analisadas fornecem informações relevantes sobre a sonolência do condutor. Além disso, o parâmetro (_+_)/_ demostrou estar relacionado com variações da sonolência, diminuindo com o seu avanço e aumentando significativamente (111%) no instante em que os condutores adormeceram.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O Cancro da mama é uma doença cuja incidência tem vindo a aumentar de ano para ano e além disso é responsável por um grande número de mortes em todo mundo. De modo a combater esta doença têm sido propostos e utilizados biomarcadores tumorais que permitem o diagnóstico precoce, o acompanhamento do tratamento e/ou a orientação do tipo tratamento a adotar. Atualmente, os biomarcadores circulantes no sangue periférico recomendados pela Associação Americana de Oncologia Clinica (ASCO) para monitorizar os pacientes durante o tratamento são o cancer antigen 15-3 (CA 15-3), o cancer antigen 27.29 (CA 27.29) e o cancer embryobic antigen (CEA). Neste trabalho foi desenvolvido um sensor eletroquímico (voltamétrico) para monitorizar o cancro da mama através da análise do biomarcador CA 15-3. Inicialmente realizou-se o estudo da adsorção da proteína na superfície do elétrodo para compreender o comportamento do sensor para diferentes concentrações. De seguida, estudaram-se três polímeros (poliaminofenol, polifenol e polifenilenodiamina) e selecionou-se o poliaminofenol como o polímero a utilizar, pois possuía a melhor percentagem de alteração de sinal. Após a seleção do polímero, este foi depositado na superfície do elétrodo por eletropolimerização, formando um filme polimérico molecularmente impresso (MIP) à volta da proteína (molde). Posteriormente, foram analisados cinco solventes (água, mistura de dodecil sulfato de sódio e ácido acético, ácido oxálico, guanidina e proteinase K) e o ácido oxálico revelou ser mais eficaz na extração da proteína. Por último, procedeu-se à caraterização do sensor e analisou-se a resposta analítica para diferentes concentrações de CA 15-3 revelando diferenças claras entre o NIP (polímero não impresso) e o MIP.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A tecnologia está em constante evolução e os benefícios, em diversas áreas, que ela nos traz são imensos. Uma das áreas que tem vindo a usufruir desta evolução é a medicina. Os avanços na tecnologia médica têm permitido aos médicos diagnosticar e tratar melhor os seus pacientes. O seu objetivo não é substituir o médico mas sim aconselhá-los e ajudá-los a tomar a melhor decisão face ao caso clínico que possam ter em mãos. Os sistemas de informação estão já tão “entrelaçados” com as práticas médicas que a ideia de uma instituição de prestação de cuidados médicos não os possuir é impensável. Isto porque a informação que estes sistemas processam diariamente é imensa e variadíssima (indo desde relatórios clínicos, a exames efetuados entre outros) para cada utente. As doenças orais fazem parte do grupo de patologias que afetam o maior número de pessoas no mundo. As ações preventivas para estes sintomas devem fazer parte da higiene diária dos indivíduos logo desde os primeiros anos de vida. Assim a aplicação apresentada nesta tese teve como objetivo a sensibilização para uma prática de higiene oral cuidada e constante. Teve também como objetivo a implementação de funcionalidades para gestão de dados dos pacientes da clínica, nomeadamente para o histórico clínico, ficando este armazenado numa anamnese. Para a implementação do presente projeto procedeu-se a um estudo prévio do estado da arte e ao levantamento de requisitos. Estes foram definidos através de reuniões de trabalho onde se analisou as necessidades da clínica com o objetivo de encontrar as soluções que melhor se enquadravam a cada caso. Para garantir que as metas propostas foram alcançadas, foram realizados inquéritos verificando assim o sucesso da aplicação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O decréscimo das reservas de petróleo e as consequências ambientais resultantes do recurso a combustíveis fósseis nos motores a diesel têm levado à procura de combustíveis alternativos. Esta pesquisa alicerçada nas fontes de energia renovável tornou-se essencial, face à crescente procura de energia e ao limitado fornecimento de combustíveis fósseis . Resíduos de óleo de cozinha, gordura animal, entre outros resíduos de origem biológica, tais como a borra de café, são exemplos de matérias-primas para a produção de biodiesel. A sua valorização tem interesse quer pela perspetiva ambiental, quer pela económica, pois aumenta não só a flexibilidade e diversificação das matérias-primas, mas também contribui para uma estabilidade de custos e alteração nas políticas agrícolas e de uso do solo. É neste contexto que se enquadra o biodiesel e a borra de café, pretendendo-se aqui efetuar o estudo da produção, à escala laboratorial, de biodiesel a partir da borra de café, por transesterificação enzimática, visando a procura das melhores condições reacionais. Iniciando-se com a caracterização da borra de café, foram avaliados antes e após a extração do óleo da borra de café, diversos parâmetros, de entre os quais se destacam: o teor de humidade (16,97% e 6,79%), teor de cinzas (1,91 e 1,57%), teor de azoto (1,71 e 2,30%), teor de proteínas (10,7 e 14,4%), teor de carbono (70,2 e 71,7%), teor de celulose bruta (14,77 e 18,48%), teor de lenhina (31,03% e 30,97%) e poder calorifico superior (19,5 MJ/kg e 19,9 MJ/kg). Sumariamente, constatou-se que os valores da maioria dos parâmetros não difere substancialmente dos valores encontrados na literatura, tendo sido evidenciado o potencial da utilização desta biomassa, como fonte calorifica para queima e geração de energia. Sendo a caracterização do óleo extraído da borra de café um dos objetivos antecedentes à produção do biodiesel, pretendeu-se avaliar os diferentes parâmetros mais significativos. No que diz respeito à caracterização do óleo extraído, distingue-se a sua viscosidade cinemática (38,04 mm2/s), densidade 0,9032 g/cm3, poder calorífico de 37,9 kcal/kg, índice de iodo igual a 63,0 gI2/ 100 g óleo, o teor de água do óleo foi de 0,15 %, o índice de acidez igual a 44,8 mg KOH/g óleo, ponto de inflamação superior a 120 ºC e teor em ácidos gordos de 82,8%. Inicialmente foram efetuados ensaios preliminares, a fim de selecionar a lipase (Lipase RMIM, TL 100L e CALB L) e álcool (metanol ou etanol puros) mais adequados à produção de biodiesel, pelo que o rendimento de 83,5% foi obtido através da transesterificação mediada pela lipase RMIM, utilizando como álcool o etanol. Sendo outro dos objetivos a otimização do processo de transesterificação enzimática, através de um desenho composto central a três variáveis (razão molar etanol: óleo, concentração de enzima e temperatura), recorrendo ao software JMP 8.0, determinou-se como melhores condições, uma razão molar etanol: óleo 5:1, adição de 4,5% (m/m) de enzima e uma temperatura de 45 ºC, que conduziram a um rendimento experimental equivalente a 96,7 % e teor de ésteres 87,6%. Nestas condições, o rendimento teórico foi de 99,98%. Procurou-se ainda estudar o efeito da adição de água ao etanol, isto é, o efeito da variação da concentração do etanol pela adição de água, para teores de etanol de 92%, 85% e 75%. Verificou-se que até 92% decorreu um aumento da transesterificação (97,2%) para um teor de ésteres de (92,2%), pelo que para teores superiores de água adicionada (75% e 85%) ocorreu um decréscimo no teor final em ésteres (77,2% e 89,9%) e no rendimento da reação (84,3% e 91,9%). Isto indica a ocorrência da reação de hidrólise em maior extensão, que leva ao desvio do equilíbrio no sentido contrário à reação de formação dos produtos, isto é, dos ésteres. Finalmente, relativamente aos custos associados ao processo de produção de biodiesel, foram estimados para o conjunto de 27 ensaios realizados neste trabalho, e que corresponderam a 767,4 g de biodiesel produzido, sendo o custo dos reagentes superior ao custo energético, de 156,16 € e 126,02 €, respetivamente. Naturalmente que não esperamos que, a nível industrial os custos sejam desta ordem de grandeza, tanto mais que há economia de escala e que as enzimas utilizadas no processo deveriam ser reutilizadas diversas vezes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este relatório de estágio aborda o tema da reabilitação, referindo-se a uma intervenção da especialidade e também construção de raíz, de um Hotel situado na rua do Heroísmo no Porto. Portugal possui um edificado que tem vindo a degradar-se ao longo dos últimos anos, devido essencialmente à falta de operações periódicas de manutenção, conservação e reabilitação. Esta degradação resulta não só do mau estado de conservação generalizado dos edifícios, mas também da inexistência de infra-estruturas urbanísticas em devido funcionamento. Tal conjunto de situações, leva a um movimento migratório dos habitantes das cidades para as respetivas periferias. A cidade do Porto não é uma exceção, estando a necessitar de um forte esforço de reabilitação para inverter esta situação. Ao longo dos últimos anos têm vindo a ser criados diversos apoios financeiros, nacionais e europeus, com o objetivo de ajudar as operações de reabilitação. Mais recentemente foi possibilitada a criação de Sociedades de Reabilitação Urbana (SRU), cujo objetivo é o de promover e orientar todo o processo de reabilitação, de forma a regula-lo nos centros das cidades. No entanto a intervenção de reabilitação de um edifício é uma operação complexa, com diversas especificidades e com inúmeras condicionantes devido às pré-existências próprias de cada edifício.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As centrais termoelétricas convencionais convertem apenas parte do combustível consumido na produção de energia elétrica, sendo que outra parte resulta em perdas sob a forma de calor. Neste sentido, surgiram as unidades de cogeração, ou Combined Heat and Power (CHP), que permitem reaproveitar a energia dissipada sob a forma de energia térmica e disponibilizá-la, em conjunto com a energia elétrica gerada, para consumo doméstico ou industrial, tornando-as mais eficientes que as unidades convencionais Os custos de produção de energia elétrica e de calor das unidades CHP são representados por uma função não-linear e apresentam uma região de operação admissível que pode ser convexa ou não-convexa, dependendo das caraterísticas de cada unidade. Por estas razões, a modelação de unidades CHP no âmbito do escalonamento de geradores elétricos (na literatura inglesa Unit Commitment Problem (UCP)) tem especial relevância para as empresas que possuem, também, este tipo de unidades. Estas empresas têm como objetivo definir, entre as unidades CHP e as unidades que apenas geram energia elétrica ou calor, quais devem ser ligadas e os respetivos níveis de produção para satisfazer a procura de energia elétrica e de calor a um custo mínimo. Neste documento são propostos dois modelos de programação inteira mista para o UCP com inclusão de unidades de cogeração: um modelo não-linear que inclui a função real de custo de produção das unidades CHP e um modelo que propõe uma linearização da referida função baseada na combinação convexa de um número pré-definido de pontos extremos. Em ambos os modelos a região de operação admissível não-convexa é modelada através da divisão desta àrea em duas àreas convexas distintas. Testes computacionais efetuados com ambos os modelos para várias instâncias permitiram verificar a eficiência do modelo linear proposto. Este modelo permitiu obter as soluções ótimas do modelo não-linear com tempos computationais significativamente menores. Para além disso, ambos os modelos foram testados com e sem a inclusão de restrições de tomada e deslastre de carga, permitindo concluir que este tipo de restrições aumenta a complexidade do problema sendo que o tempo computacional exigido para a resolução do mesmo cresce significativamente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os mercados financeiros têm um papel fundamental na dinamização das economias modernas. Às empresas cotadas oferece o capital necessário para impulsionar o seu crescimento e aos investidores individuais proporciona a diversificação das suas carteiras, usufruindo desta forma do crescimento e da vitalidade da economia mundial. A gestão de carteiras de ativos financeiros constitui uma área que procura apresentar mecanismos para a obtenção de uma relação ótima entre retorno e risco. Neste sentido, inúmeros estudos têm contribuído de forma significativa para a eficiência e para a prática desta técnica. Esta dissertação pretende analisar a metodologia desenvolvida por Elton-Gruber para a construção de carteiras otimizadas e aplicar as técnicas subjacentes ao mercado acionista português. Para o efeito, serão realizadas pesquisas em fontes bibliográficas da especialidade e serão consultadas bases de dados de cotações históricas das ações e do índice de mercado nacional. A aplicação incidiu sobre ações cotadas no índice PSI-20 durante o período compreendido entre 2010 e 2014. No intuito de melhorar a compreensão das séries de retornos das amostras, o estudo de caráter quantitativo também recorreu à análise estatística. As evidências mostram que a carteira otimizada, no período em análise, contém apenas as ações da empresa Portucel. Este resultado estará condicionado pelos efeitos da crise financeira que iniciou em 2008.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As Redes Sem Fios Enterradas (Wireless Underground Networks - WUN) são formadas por nós que comunicam entre si através de ligações sem fios e têm como meio de propagação o solo. Os sistemas de localização mais utilizados atualmente têm desvantagens ao nível da precisão e o custo. Nesta tese é proposta uma solução de localização de precisão que recorre à utilização de redes sem fios enterradas e um algoritmo de posicionamento baseados em Wi-Fi. O objetivo é estimar a localização de objetos, utilizando dispositivos Wi-Fi de baixo custo. Os resultados experimentais obtidos demonstram que o erro de localização é inferior a 0,40 m, e que esta solução é viável para, por exemplo, localizar jogadores num campo de futebol ou localizar um objeto num campo agrícola.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste documento, são investigados vários métodos usados na inteligência artificial, com o objetivo de obter previsões precisas da evolução dos mercados financeiros. O uso de ferramentas lineares como os modelos AR, MA, ARMA e GARCH têm muitas limitações, pois torna-se muito difícil adaptá-los às não linearidades dos fenómenos que ocorrem nos mercados. Pelas razões anteriormente referidas, os algoritmos como as redes neuronais dinâmicas (TDNN, NARX e ESN), mostram uma maior capacidade de adaptação a estas não linearidades, pois não fazem qualquer pressuposto sobre as distribuições de probabilidade que caracterizam estes mercados. O facto destas redes neuronais serem dinâmicas, faz com que estas exibam um desempenho superior em relação às redes neuronais estáticas, ou outros algoritmos que não possuem qualquer tipo de memória. Apesar das vantagens reveladas pelas redes neuronais, estas são um sistema do tipo black box, o que torna muito difícil extrair informação dos pesos da rede. Isto significa que estes algoritmos devem ser usados com precaução, pois podem tornar-se instáveis.