984 resultados para Efficiency models


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A liberalização dos mercados de energia elétrica e a crescente integração dos recursos energéticos distribuídos nas redes de distribuição, nomeadamente as unidades de produção distribuída, os sistemas de controlo de cargas através dos programas de demand response, os sistemas de armazenamento e os veículos elétricos, representaram uma evolução no paradigma de operação e gestão dos sistemas elétricos. Este novo paradigma de operação impõe o desenvolvimento de novas metodologias de gestão e controlo que permitam a integração de todas as novas tecnologias de forma eficiente e sustentável. O principal contributo deste trabalho reside no desenvolvimento de metodologias para a gestão de recursos energéticos no contexto de redes inteligentes, que contemplam três horizontes temporais distintos (24 horas, 1 hora e 5 minutos). As metodologias consideram os escalonamentos anteriores assim como as previsões atualizadas de forma a melhorar o desempenho total do sistema e consequentemente aumentar a rentabilidade dos agentes agregadores. As metodologias propostas foram integradas numa ferramenta de simulação, que servirá de apoio à decisão de uma entidade agregadora designada por virtual power player. Ao nível das metodologias desenvolvidas são propostos três algoritmos de gestão distintos, nomeadamente para a segunda (1 hora) e terceira fase (5 minutos) da ferramenta de gestão, diferenciados pela influência que os períodos antecedentes e seguintes têm no período em escalonamento. Outro aspeto relevante apresentado neste documento é o teste e a validação dos modelos propostos numa plataforma de simulação comercial. Para além das metodologias propostas, a aplicação permitiu validar os modelos dos equipamentos considerados, nomeadamente, ao nível das redes de distribuição e dos recursos energéticos distribuidos. Nesta dissertação são apresentados três casos de estudos, cada um com diferentes cenários referentes a cenários de operação futuros. Estes casos de estudos são importantes para verificar a viabilidade da implementação das metodologias e algoritmos propostos. Adicionalmente são apresentadas comparações das metodologias propostas relativamente aos resultados obtidos, complexidade de gestão em ambiente de simulação para as diferentes fases da ferramenta proposta e os benefícios e inconvenientes no uso da ferramenta proposta.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertation submitted in partial fulfillment of the requirements for the Degree of Master of Science in Geospatial Technologies.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertation submitted in partial fulfillment of the requirements for the Degree of Master of Science in Geospatial Technologies.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os componentes obtidos através da conformação plástica de chapas têm uma grande importância, tanto na etapa de concepção do produto como na etapa de produção na indústria automóvel. Isto comprova-se pelo facto de, em média, cada automóvel integrar cerca de 500 componentes estampados para construir o chassis e a carroçaria [Alves 2003]. Deste total de componentes, 50 são de grandes dimensões (portas, tejadilho, painéis inferior e laterais, entre outros) e necessitam, em média, de cinco ferramentas para o seu fabrico, sendo o custo estimado para cada ferramenta de 230 000 € [Col 2000, Alves 2003]. Para além da indústria automóvel, a conformação plástica de chapas metálicas é um processo tecnológico presente nas indústrias relativas à aeroespacial, petrolífera, decoração, alimentar, entre outras. Do ponto de vista do enquadramento económico, cerca de 20% do custo total de um automóvel novo é devido à incorporação de componentes metálicos estampados. [Alves 2003]. A pressão do “Mercado Global” faz com que os custos relativos à matéria-prima, energia e mão-de-obra sejam uma constante em termos de redução do seu impacte no orçamento das empresas fornecedoras destes produtos. É neste contexto que surge a necessidade da realização deste estudo de Benchmark de Softwares, tornando-se bastante importante, quer ao nível da competitividade industrial, quer ao nível da inovação para novos produtos. A análise por elementos finitos desempenha um papel primordial no tryout virtual e otimização das ferramentas e processos de conformação plástica. Os objetivos principais deste estudo de simulação numérica são a identificação e comparação dos resultados obtidos pelo AUTOFORM e pelo PAMSTAMP, para cada uma das variáveis identificadas como as mais influentes na robustez dos processos de estampagem de chapa metálica. Estas variáveis identificadas são: consumo de material (Draw-in) após conformação; forças de conformação; valores de variação de espessura e dos valores de extensão e resultados de Springback. Os resultados obtidos são comparados com os resultados experimentais e, desta forma, avalia-se a capacidade inovadora e a eficácia de cada um dos softwares, obtendo-se assim, uma orientação mais real para o software mais indicado aos objetivos impostos pela indústria automóvel. Para este efeito, a indústria automóvel, como maior impulsionador e motor da investigação na área da simulação numérica aplicada aos processos de estampagem, tem aderido em peso ao Benchmarking. Um exemplo disto, é o que acontece nas conferências Numisheet. O Benchmark #2 da conferência Numisheet 2008 é analisado pormenorizadamente e os resultados numéricos e experimentais são comparados e apresentados. Dois materiais distintos (aço HC260LAD e liga de alumínio AC170), assim como três modelos com geometrias diferentes (com e sem freios) são apresentados neste relatório. Com vista à redução dos ciclos tentativa-erro, tem-se adotado ciclos virtuais ou numéricos e tem-se incrementado a interatividade entre as fases de concepção e projeto, num conceito muito próprio, mas cada vez mais abrangente, denominado “produção virtual”. É nesta filosofia que se insere a simulação numérica dos processos de conformação de chapa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Biomédica

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Face à estagnação da tecnologia uniprocessador registada na passada década, aos principais fabricantes de microprocessadores encontraram na tecnologia multi-core a resposta `as crescentes necessidades de processamento do mercado. Durante anos, os desenvolvedores de software viram as suas aplicações acompanhar os ganhos de performance conferidos por cada nova geração de processadores sequenciais, mas `a medida que a capacidade de processamento escala em função do número de processadores, a computação sequencial tem de ser decomposta em várias partes concorrentes que possam executar em paralelo, para que possam utilizar as unidades de processamento adicionais e completar mais rapidamente. A programação paralela implica um paradigma completamente distinto da programação sequencial. Ao contrário dos computadores sequenciais tipificados no modelo de Von Neumann, a heterogeneidade de arquiteturas paralelas requer modelos de programação paralela que abstraiam os programadores dos detalhes da arquitectura e simplifiquem o desenvolvimento de aplicações concorrentes. Os modelos de programação paralela mais populares incitam os programadores a identificar instruções concorrentes na sua lógica de programação, e a especificá-las sob a forma de tarefas que possam ser atribuídas a processadores distintos para executarem em simultâneo. Estas tarefas são tipicamente lançadas durante a execução, e atribuídas aos processadores pelo motor de execução subjacente. Como os requisitos de processamento costumam ser variáveis, e não são conhecidos a priori, o mapeamento de tarefas para processadores tem de ser determinado dinamicamente, em resposta a alterações imprevisíveis dos requisitos de execução. `A medida que o volume da computação cresce, torna-se cada vez menos viável garantir as suas restrições temporais em plataformas uniprocessador. Enquanto os sistemas de tempo real se começam a adaptar ao paradigma de computação paralela, há uma crescente aposta em integrar execuções de tempo real com aplicações interativas no mesmo hardware, num mundo em que a tecnologia se torna cada vez mais pequena, leve, ubíqua, e portável. Esta integração requer soluções de escalonamento que simultaneamente garantam os requisitos temporais das tarefas de tempo real e mantenham um nível aceitável de QoS para as restantes execuções. Para tal, torna-se imperativo que as aplicações de tempo real paralelizem, de forma a minimizar os seus tempos de resposta e maximizar a utilização dos recursos de processamento. Isto introduz uma nova dimensão ao problema do escalonamento, que tem de responder de forma correcta a novos requisitos de execução imprevisíveis e rapidamente conjeturar o mapeamento de tarefas que melhor beneficie os critérios de performance do sistema. A técnica de escalonamento baseado em servidores permite reservar uma fração da capacidade de processamento para a execução de tarefas de tempo real, e assegurar que os efeitos de latência na sua execução não afectam as reservas estipuladas para outras execuções. No caso de tarefas escalonadas pelo tempo de execução máximo, ou tarefas com tempos de execução variáveis, torna-se provável que a largura de banda estipulada não seja consumida por completo. Para melhorar a utilização do sistema, os algoritmos de partilha de largura de banda (capacity-sharing) doam a capacidade não utilizada para a execução de outras tarefas, mantendo as garantias de isolamento entre servidores. Com eficiência comprovada em termos de espaço, tempo, e comunicação, o mecanismo de work-stealing tem vindo a ganhar popularidade como metodologia para o escalonamento de tarefas com paralelismo dinâmico e irregular. O algoritmo p-CSWS combina escalonamento baseado em servidores com capacity-sharing e work-stealing para cobrir as necessidades de escalonamento dos sistemas abertos de tempo real. Enquanto o escalonamento em servidores permite partilhar os recursos de processamento sem interferências a nível dos atrasos, uma nova política de work-stealing que opera sobre o mecanismo de capacity-sharing aplica uma exploração de paralelismo que melhora os tempos de resposta das aplicações e melhora a utilização do sistema. Esta tese propõe uma implementação do algoritmo p-CSWS para o Linux. Em concordância com a estrutura modular do escalonador do Linux, ´e definida uma nova classe de escalonamento que visa avaliar a aplicabilidade da heurística p-CSWS em circunstâncias reais. Ultrapassados os obstáculos intrínsecos `a programação da kernel do Linux, os extensos testes experimentais provam que o p-CSWS ´e mais do que um conceito teórico atrativo, e que a exploração heurística de paralelismo proposta pelo algoritmo beneficia os tempos de resposta das aplicações de tempo real, bem como a performance e eficiência da plataforma multiprocessador.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Relatório EPE - Relatório de estágio em Educação Pré-Escolar: O trabalho realizado no relatório de estágio tem como propósito a reflexão e análise crítica de todo o processo desenvolvido no contexto de educação pré-escolar, no âmbito da Unidade Curricular (UC) de Prática Pedagógica Supervisionada, Ao longo do presente relatório será mobilizado o quadro teórico e conceptual da formanda que sustentou e orientou as práticas desenvolvidas no decorrer do período de estágio, evocando autores conceituados como Piaget, Vygotsky, Oliveira-Formosinho, Zabalza, Roldão, entre muitos outros. Deste modo, será mencionado o papel da criança bem como a natureza do seu processo de desenvolvimento e de construção, evidenciando o seu papel ativo, participativo e construtivo. Também, será referida a importância do papel do Educador de infância, bem como os princípios deontológicos que o orientam na sua construção profissional e pessoal. Torna-se, também, fundamental referir os referenciais legais que norteiam a Educação Pré-Escolar referindo a sua importância no desenvolvimento das crianças, assim como os modelos curriculares e pedagógicos que orientam a práxis pedagógica, permitindo a construção de práticas fundamentadas e conscientes. Para isso é, também, imprescindível adotar uma atitude indagadora de caráter investigativo, crítico e reflexivo, permitindo responder de forma adequada às necessidades individuais de cada criança, numa perspetiva diferenciada e individualizada, mas também global. Neste sentido, ao longo de todo o período de estágio, foi adotada, a metodologia de investigação-ação, denotando a importância dos momentos de observação, planificação, ação e reflexão. Só desta forma foi possível compreender a realidade, de modo a transformá-la com o intuito de melhorar a qualidade da Educação

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Doutor em Engenharia Electrotécnica e de Computadores

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Informática

Relevância:

20.00% 20.00%

Publicador:

Resumo:

ABSTRACT: Financing is a critical factor in ensuring the optimal development and delivery of a mental health system. The primary method of financing worldwide is tax-based. However many low income countries depend on out-of-pocket payments. There is a report on Irish Health Care funding but none that deals exclusively with mental health care. This paper analyses the various financial models that exist globally with respect to financing the mental health sector, examines the impact of various models on service users, especially in terms of relative ‘financial burden’ and provides a more detailed examination of the current mental health funding situation in Ireland After extensive internet and hardcopy research on the above topics, the findings were analysed and a number of recommendations were reached. Mental health service should be free at the point of delivery to achieve universal coverage. Government tax-based funding or mandatory social insurance with government top-ups, as required, appears the optimal option, although there is no one funding system applicable everywhere. Out-of-pocket funding can create a crippling financial burden for service users. It is important to employ improved revenue collection systems, eliminate waste, provide equitable resource distribution, ring fence mental health funding and cap the number of visits, where necessary. Political, economic, social and cultural factors play a role in funding decisions and this can be clearly seen in the context of the current economic recession in Ireland. Only 33% of the Irish population has access to free public health care and the number health insurance policy holders has dramatically declined, resulting in increased out-of-pocket payments. This approach risks negatively impacting on the social determinants of health, increasing health inequalities and negatively affecting economic productivity. It is therefore important the Irish government examines other options to provide funding for mental health services.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Doutor em Engenharia Mecânica

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação submetida para obtenção do grau de Doutor em Saúde Pública Especialidade de Economia da Saúde

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RESUMO: O uso de ratinhos transgénicos em neurociências aumentou consideravelmente nos últimos anos devido ao crescente interesse em compreender o cérebro e a necessidade de solucionar situações clínicas do foro neurológico e psiquiátrico. Para esse efeito, diferentes métodos de produção de animais transgénicos têm sido testados. O objectivo desta tese foi comparar métodos de integração aleatória de um transgene no genoma de ratinhos em termos de eficiência, estabilidade da integração do transgene, número de animais e de horas de trabalho necessárias para cada método. Assim, foi comparado o método mais utilizado - microinjecção pronuclear (PNMI) - com duas outras técnicas cujo desempenho foi considerado promissor – a transferência génica através dos testículos por electroporação e transfecção por lentivírus in vivo. As três técnicas foram realizadas usando um gene repórter sob o controlo de um promotor constitutivo, e depois reproduzidas usando um gene de interesse de modo a permitir obtenção de um animal capaz de ser usado em experimentação laboratorial. O transgene de interesse utilizado codifica uma proteína de fusão correspondendo a uma variante da rodopsina (channelrhodopsin) fundida à proteína enhanced yellow fluorescente protein ((EYFP) resultando num produto designado ChR2-EYFP. Este animal transgénico apresentaria expressão deste canal iónico apenas em células dopaminergicas, o que, com manipulação optogenética, tornaria possivel a activação especifica deste grupo de neurónios e, simultaneamente, a observação do impacto desta manipulação no comportamento num animal em livre movimento. Estas ferramentas são importantes na investigação básica em neurociências pois ajudam a esclarecer o papel de grupos específicos de neurónios e compreender doenças como a doença de Parkinson ou a esquizofrenia onde a função de certos tipos de neurónios de encontra alterada. Quando comparados os três métodos realizados verifica-se que usando um gene repórter PMNI resulta em 31,3% de, a de animais transgénicos obtidos, a electroporação de testículos em 0% e a injecção de lentivírus em 0%. Quando usado o gene de interesse, os resultados obtidos são, respectivamente, 18,8%, 63,9% e 0%.--------------ABSTRACT: The use of transgenic mice is increasing in all fields of research, particularly in neuroscience, due to the widespread need of animal models to solve neurological and psychiatric medical conditions. Different methodologies have been tested in the last decades in order to produce such transgenic animals. The ultimate goal of this thesis is to compare different methods of random integration of a transgene in the genome of mice in terms of efficiency, stability of the transgene integration, number of animals required and the labour intensity of each technique. We compared the most used method – pronuclear microinjection (PNMI) – with two other promising techniques – Testis Mediated Gene Transfer (TMGT) by electroporation and in vivo lentiviral transfection. The three techniques were performed using a reporter gene – green fluorescent protein (GFP), whose transcription was driven by the constitutive cytomegalovirus (CMV) promoter. These three techniques were later reproduced using the tyrosine hydroxylase promoter (TH) and the neuronal manipulator, channelrhodopsin-2 fused to the enhanced yellow fluorescent reporter protein (ChR2-EYFP). The transgenic animal we sough to produce would express the light driven channel only in dopaminergic cells, making possible to specifically activate this group of neurons, while simultaneously observe the behaviour in a freely moving animal. This is a very important tool in basic neuroscience research since it helps to clarify the role of specific groups of neurons, map circuits in the brain, and consequently understand neurological diseases such as Parkinson’s disease or schizophrenia, where the function of certain types of neurons is affected. When comparing the three methods, it was verified that using a reporter gene PNMI resulted in 31.3% of transgenic mice obtained, testis electroporation in 0% and lentiviral injection in 0%. When using the gene of interest, the results obtained were, respectively, 18.8%, 63.9% and 0%.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertation submitted in partial fulfillment of the requirements for the Degree of Master of Science in Geospatial Technologies.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A dissertation submitted to Departamento de Engenharia Electrotécnica of Faculdade de Ciências e Tecnologia of Universidade Nova de Lisboa in partial fulfilment of the requirements for the degree of Doctor of Philosophy in Engenharia Electrotécnica e de Computadores