985 resultados para Razão ótima de hedging


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durante as últimas décadas, os materiais compósitos têm substituído com sucesso os materiais tradicionais em muitas aplicações de engenharia, muito devido às excelentes propriedades que se conseguem obter com a combinação de materiais diferentes. Nos compósitos reforçados com fibras longas ou contínuas tem-se verificado, ao longo dos últimos anos, um aumento do uso de matrizes termoplásticas, fruto de várias vantagens associadas, como o facto de serem bastante mais ecológicas, comparativamente às termoendurecíveis. No entanto, este aumento está muito dependente do desenvolvimento de novas tecnologias de processamento, pois a elevada viscosidade dos termoplásticos, comparativamente aos termoendurecíveis, dificulta significativamente o processo. Muitos equipamentos de produção de termoplásticos são resultado de adaptações de equipamentos de produção de termoendurecíveis, onde normalmente é necessário adicionar fornos de pré-aquecimento. Neste trabalho, pretendeu-se produzir pré-impregnados de fibras contínuas com matriz termoplástica, por deposição a seco de polímero em pó sobre fibras de reforço (denominados por towpreg) para, posteriormente, serem transformados por pultrusão e caracterizados. As matérias-primas utilizadas foram: Polipropileno (PP) como matriz termoplástica e fibra de carbono como reforço. Por forma a melhorar as propriedades finais do compósito, foram otimizadas as condições de processamento na produção dos towpregs, estudando-se a influência da variação dos parâmetros de processamento no teor de polímero presente nestes, tendo como objetivo teores mássicos de polímero superiores a 30%. A condição ótima e a influência dos parâmetros de processamento foram obtidas com o auxílio do Método de Taguchi. Os perfis produzidos por pultrusão foram sujeitos a ensaios de flexão, de forma a obter as suas propriedades quando sujeitos a esse tipo de esforço. Foram também realizados ensaios de calcinação de forma a obter as frações mássicas de fibra e polímero presentes no compósito final. Sabidas as frações mássicas, converteramse em frações volúmicas e obtiveram-se as propriedades teoricamente esperadas através da Lei das Misturas e compararam-se com as obtidas experimentalmente. As propriedades obtidas foram também comparadas com as de outros compósitos pultrudidos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho foi realizado com o apoio, e em colaboração da empresa Flexcrane, que constrói e comercializa soluções flexíveis de pontes rolantes para cargas ligeiras. Com cargas máximas de 2 toneladas estas pontes e seus caminhos de rolamento são construídas essencialmente enformados a frio. O objetivo deste trabalho é a verificação numérica e experimental das cargas que este tipo de estrutura suporta, nas suas diferentes configurações. Numa aproximação por engenharia inversa, com a realização deste trabalho, foi possível determinar a carga admissível das vigas compostas utilizadas, assim como o seu comportamento quando em carga. Para obtenção destes resultados foram realizadas simulações computacionais recorrendo ao método de elementos finitos, utilizando para isso o software Ansys Workbench e ainda ensaios experimentais que permitiram validar os resultados obtidos numericamente e consolidar o conhecimento sobre o comportamento desta solução comercial. Por ser de construção modular, são possíveis diferentes combinações para o produto final, por esta razão foram estudados numericamente diferentes configurações possíveis, com e sem reforços. Foi realizada a validação experimental para a configuração mais usual, fazendo recurso a um dispositivo para ensaio de estruturas e componentes, pertencente ao Isep. Foi ainda utilizada a técnica extensométrica para avaliar as tensões em pontos selecionados e compara-los com os obtidos numericamente. Concluiu-se pelo ótimo desempenho dos produtos Flexcrane.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A indústria de componentes para automóveis necessita de constante inovação, no sentido de manter a elevada competitividade, imprescindível à sobrevivência de qualquer empresa neste sector. A automação e robótica são vias incontornáveis para a prossecução dos objetivos de produtividade desejados. Mesmo dentro da automação, a evolução é constante. Para além disso, a crescente inovação nos produtos fabricados, exige também novas soluções em termos de processos de fabrico. Isto leva a que, soluções válidas até uma determinada altura, passem facilmente a obsoletas, com necessidade premente de se implementarem novos sistemas que correspondam às necessidades atuais. Este trabalho teve por base uma necessidade detetada numa empresa fabricante de acessórios para a indústria automóvel: estruturas para estofo de assento automóvel, entre muitos outros. Atualmente, a estrutura do estofo automóvel assenta numa grelha constituída por um conjunto de arames, que é agregado por uma série de tiras de plástico injetadas em seu redor. As máquinas de injeção responsáveis por este processo têm superfície de apartação horizontal, e necessitam de mão-de-obra adjacente para a colocação dos arames no molde e descarga do conjunto, na razão de uma pessoa para duas máquinas, dependendo do tempo de ciclo da injeção. O trabalho consistiu no desenvolvimento de um sistema automático de alimentação e descarga da máquina de injeção, que tivesse por base um sistema já existente, mas que passasse a comportar outras funções até agora não desempenhadas pelos sistemas antigos, ou seja, que fossem capazes de ultrapassar os problemas colocados pela complexidade atual dos produtos em fabricação. O projeto foi concluído com sucesso, tendo sido validado pela empresa FicoCables, através da construção, teste e colocação em funcionamento de vários protótipos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos dias de hoje, os sistemas de tempo real crescem em importância e complexidade. Mediante a passagem do ambiente uniprocessador para multiprocessador, o trabalho realizado no primeiro não é completamente aplicável no segundo, dado que o nível de complexidade difere, principalmente devido à existência de múltiplos processadores no sistema. Cedo percebeu-se, que a complexidade do problema não cresce linearmente com a adição destes. Na verdade, esta complexidade apresenta-se como uma barreira ao avanço científico nesta área que, para já, se mantém desconhecida, e isto testemunha-se, essencialmente no caso de escalonamento de tarefas. A passagem para este novo ambiente, quer se trate de sistemas de tempo real ou não, promete gerar a oportunidade de realizar trabalho que no primeiro caso nunca seria possível, criando assim, novas garantias de desempenho, menos gastos monetários e menores consumos de energia. Este último fator, apresentou-se desde cedo, como, talvez, a maior barreira de desenvolvimento de novos processadores na área uniprocessador, dado que, à medida que novos eram lançados para o mercado, ao mesmo tempo que ofereciam maior performance, foram levando ao conhecimento de um limite de geração de calor que obrigou ao surgimento da área multiprocessador. No futuro, espera-se que o número de processadores num determinado chip venha a aumentar, e como é óbvio, novas técnicas de exploração das suas inerentes vantagens têm de ser desenvolvidas, e a área relacionada com os algoritmos de escalonamento não é exceção. Ao longo dos anos, diferentes categorias de algoritmos multiprocessador para dar resposta a este problema têm vindo a ser desenvolvidos, destacando-se principalmente estes: globais, particionados e semi-particionados. A perspectiva global, supõe a existência de uma fila global que é acessível por todos os processadores disponíveis. Este fato torna disponível a migração de tarefas, isto é, é possível parar a execução de uma tarefa e resumir a sua execução num processador distinto. Num dado instante, num grupo de tarefas, m, as tarefas de maior prioridade são selecionadas para execução. Este tipo promete limites de utilização altos, a custo elevado de preempções/migrações de tarefas. Em contraste, os algoritmos particionados, colocam as tarefas em partições, e estas, são atribuídas a um dos processadores disponíveis, isto é, para cada processador, é atribuída uma partição. Por essa razão, a migração de tarefas não é possível, acabando por fazer com que o limite de utilização não seja tão alto quando comparado com o caso anterior, mas o número de preempções de tarefas decresce significativamente. O esquema semi-particionado, é uma resposta de caráter hibrido entre os casos anteriores, pois existem tarefas que são particionadas, para serem executadas exclusivamente por um grupo de processadores, e outras que são atribuídas a apenas um processador. Com isto, resulta uma solução que é capaz de distribuir o trabalho a ser realizado de uma forma mais eficiente e balanceada. Infelizmente, para todos estes casos, existe uma discrepância entre a teoria e a prática, pois acaba-se por se assumir conceitos que não são aplicáveis na vida real. Para dar resposta a este problema, é necessário implementar estes algoritmos de escalonamento em sistemas operativos reais e averiguar a sua aplicabilidade, para caso isso não aconteça, as alterações necessárias sejam feitas, quer a nível teórico quer a nível prá

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia do Ambiente – Perfil Engenharia Sanitária

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trabalho de natureza profissional para a atribuição do Título de Especialista do Instituto Politécnico do Porto, na área de Hotelaria e Restauração, defendido a 22-04-2016.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Energia e Bioenergia

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJECTIVE: Despite the apparent familial tendency toward abdominal aortic aneurysm (AAA) formation, the genetic causes and underlying molecular mechanisms are still undefined. In this study, we investigated the association between familial AAA (fAAA) and atherosclerosis. METHODS: Data were collected from a prospective database including AAA patients between 2004 and 2012 in the Erasmus University Medical Center, Rotterdam, The Netherlands. Family history was obtained by written questionnaire (93.1% response rate). Patients were classified as fAAA when at least one affected first-degree relative with an aortic aneurysm was reported. Patients without an affected first-degree relative were classified as sporadic AAA (spAAA). A standardized ultrasound measurement of the common carotid intima-media thickness (CIMT), a marker for generalized atherosclerosis, was routinely performed and patients' clinical characteristics (demographics, aneurysm characteristics, cardiovascular comorbidities and risk factors, and medication use) were recorded. Multivariable linear regression analyses were used to assess the mean adjusted difference in CIMT and multivariable logistic regression analysis was used to calculate associations of increased CIMT and clinical characteristics between fAAA and spAAA. RESULTS: A total of 461 AAA patients (85% men, mean age, 70 years) were included in the study; 103 patients (22.3%) were classified as fAAA and 358 patients (77.7%) as spAAA. The mean (standard deviation) CIMT in patients with fAAA was 0.89 (0.24) mm and 1.00 (0.29) mm in patients with spAAA (P = .001). Adjustment for clinical characteristics showed a mean difference in CIMT of 0.09 mm (95% confidence interval, 0.02-0.15; P = .011) between both groups. Increased CIMT, smoking, hypertension, and diabetes mellitus were all less associated with fAAA compared with spAAA. CONCLUSIONS: The current study shows a lower atherosclerotic burden, as reflected by a lower CIMT, in patients with fAAA compared with patients with spAAA, independent of common atherosclerotic risk factors. These results support the hypothesis that although atherosclerosis is a common underlying feature in patients with aneurysms, atherosclerosis is not the primary driving factor in the development of fAAA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The hypoxia inducible factor 1 alpha (HIF1a) is a key regulator of tumour cell response to hypoxia, orchestrating mechanisms known to be involved in cancer aggressiveness and metastatic behaviour. In this study we sought to evaluate the association of a functional genetic polymorphism in HIF1A with overall and metastatic prostate cancer (PCa) risk and with response to androgen deprivation therapy (ADT). The HIF1A +1772 C>T (rs11549465) polymorphism was genotyped, using DNA isolated from peripheral blood, in 1490 male subjects (754 with prostate cancer and 736 controls cancer-free) through Real-Time PCR. A nested group of cancer patients who were eligible for androgen deprivation therapy was followed up. Univariate and multivariate models were used to analyse the response to hormonal treatment and the risk for developing distant metastasis. Age-adjusted odds ratios were calculated to evaluate prostate cancer risk. Our results showed that patients under ADT carrying the HIF1A +1772 T-allele have increased risk for developing distant metastasis (OR, 2.0; 95%CI, 1.1-3.9) and an independent 6-fold increased risk for resistance to ADT after multivariate analysis (OR, 6.0; 95%CI, 2.2-16.8). This polymorphism was not associated with increased risk for being diagnosed with prostate cancer (OR, 0.9; 95%CI, 0.7-1.2). The HIF1A +1772 genetic polymorphism predicts a more aggressive prostate cancer behaviour, supporting the involvement of HIF1a in prostate cancer biological progression and ADT resistance. Molecular profiles using hypoxia markers may help predict clinically relevant prostate cancer and response to ADT.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação apresentada para cumprimento dos requisitos necessários à obtenção do grau de Mestre em Comunicação, Media e Justiça