220 resultados para 10061110 TM-22
Resumo:
A Sociedade Europeia de Pesquisa do Sono realizou muito recentemente um estudo, onde mostrou que a prevalência média de adormecimento ao volante nos últimos 2 anos foi de 17%. Além disto, tem sido provado por todo o mundo que a sonolência durante a condução é uma das principais causas de acidentes de trânsito. Torna-se assim conveniente, o desenvolvimento de sistemas que analisem a suscetibilidade de um determinado condutor para adormecer no trânsito, bem como de ferramentas que monitorem em tempo real o estado físico e mental do condutor, para alertarem nos momentos críticos. Apesar do estudo do sono se ter iniciado há vários anos, a maioria das investigações focaram-se no ciclo normal do sono, estudando os indivíduos de forma relaxada e de olhos fechados. Só mais recentemente, têm surgido os estudos que se focam nas situações de sonolência em atividade, como _e o caso da condução. Uma grande parte Dos estudos da sonolência em condução têm utilizado a eletroencefalografia (EEG), de forma a perceber se existem alterações nas diferentes bandas de frequência desta, que possam indicar o estado de sonolência do condutor. Além disso, a evolução da sonolência a partir de alterações no piscar dos olhos (que podem ser vistas nos sinais EEG) também tem sido alvo de grande pesquisa, tendo vindo a revelar resultados bastante promissores. Neste contexto e em parceria com a empresa HealthyRoad, esta tese está integrada no projeto HealthyDrive, que visa o desenvolvimento de um sistema de alerta e deteção de sinais de fadiga e sonolência nos condutores de veículos automóveis. A contribuição desta tese no projeto prendeu-se com o estudo da sonolência dos indivíduos em condução a partir de sinais EEG, para desta forma investigar possíveis indicadores dos diferentes níveis desta que possam ser utilizados pela empresa no projeto. Foram recolhidos e analisados 17 sinais EEG de indivíduos em simulação de condução. Além disso foram desenvolvidos dois métodos de análise destes sinais: O primeiro para a deteção e análise dos piscar de olhos a partir de EEG, o segundo para análise do espetro de potência. Ambos os métodos foram utilizados para analisar os sinais recolhidos e investigar que tipo de relação existe entre a sonolência do condutor e as alterações nos piscares dos olhos, bem como as alterações do espetro do EEG. Os resultados mostraram uma correlação entre a duração do piscar de olhos e a sonolência do condutor. Com o aumento da sonolência velicou-se um aumento da duração do piscar, desencadeado principalmente pelo aumento na duração de fecho, que chegou aos 51.2%. Em relação ao espectro de potência, os resultados sugerem que a potência relativa de todas as bandas analisadas fornecem informações relevantes sobre a sonolência do condutor. Além disso, o parâmetro (_+_)/_ demostrou estar relacionado com variações da sonolência, diminuindo com o seu avanço e aumentando significativamente (111%) no instante em que os condutores adormeceram.
Resumo:
O Cancro da mama é uma doença cuja incidência tem vindo a aumentar de ano para ano e além disso é responsável por um grande número de mortes em todo mundo. De modo a combater esta doença têm sido propostos e utilizados biomarcadores tumorais que permitem o diagnóstico precoce, o acompanhamento do tratamento e/ou a orientação do tipo tratamento a adotar. Atualmente, os biomarcadores circulantes no sangue periférico recomendados pela Associação Americana de Oncologia Clinica (ASCO) para monitorizar os pacientes durante o tratamento são o cancer antigen 15-3 (CA 15-3), o cancer antigen 27.29 (CA 27.29) e o cancer embryobic antigen (CEA). Neste trabalho foi desenvolvido um sensor eletroquímico (voltamétrico) para monitorizar o cancro da mama através da análise do biomarcador CA 15-3. Inicialmente realizou-se o estudo da adsorção da proteína na superfície do elétrodo para compreender o comportamento do sensor para diferentes concentrações. De seguida, estudaram-se três polímeros (poliaminofenol, polifenol e polifenilenodiamina) e selecionou-se o poliaminofenol como o polímero a utilizar, pois possuía a melhor percentagem de alteração de sinal. Após a seleção do polímero, este foi depositado na superfície do elétrodo por eletropolimerização, formando um filme polimérico molecularmente impresso (MIP) à volta da proteína (molde). Posteriormente, foram analisados cinco solventes (água, mistura de dodecil sulfato de sódio e ácido acético, ácido oxálico, guanidina e proteinase K) e o ácido oxálico revelou ser mais eficaz na extração da proteína. Por último, procedeu-se à caraterização do sensor e analisou-se a resposta analítica para diferentes concentrações de CA 15-3 revelando diferenças claras entre o NIP (polímero não impresso) e o MIP.
Resumo:
A tecnologia está em constante evolução e os benefícios, em diversas áreas, que ela nos traz são imensos. Uma das áreas que tem vindo a usufruir desta evolução é a medicina. Os avanços na tecnologia médica têm permitido aos médicos diagnosticar e tratar melhor os seus pacientes. O seu objetivo não é substituir o médico mas sim aconselhá-los e ajudá-los a tomar a melhor decisão face ao caso clínico que possam ter em mãos. Os sistemas de informação estão já tão “entrelaçados” com as práticas médicas que a ideia de uma instituição de prestação de cuidados médicos não os possuir é impensável. Isto porque a informação que estes sistemas processam diariamente é imensa e variadíssima (indo desde relatórios clínicos, a exames efetuados entre outros) para cada utente. As doenças orais fazem parte do grupo de patologias que afetam o maior número de pessoas no mundo. As ações preventivas para estes sintomas devem fazer parte da higiene diária dos indivíduos logo desde os primeiros anos de vida. Assim a aplicação apresentada nesta tese teve como objetivo a sensibilização para uma prática de higiene oral cuidada e constante. Teve também como objetivo a implementação de funcionalidades para gestão de dados dos pacientes da clínica, nomeadamente para o histórico clínico, ficando este armazenado numa anamnese. Para a implementação do presente projeto procedeu-se a um estudo prévio do estado da arte e ao levantamento de requisitos. Estes foram definidos através de reuniões de trabalho onde se analisou as necessidades da clínica com o objetivo de encontrar as soluções que melhor se enquadravam a cada caso. Para garantir que as metas propostas foram alcançadas, foram realizados inquéritos verificando assim o sucesso da aplicação.
Resumo:
O decréscimo das reservas de petróleo e as consequências ambientais resultantes do recurso a combustíveis fósseis nos motores a diesel têm levado à procura de combustíveis alternativos. Esta pesquisa alicerçada nas fontes de energia renovável tornou-se essencial, face à crescente procura de energia e ao limitado fornecimento de combustíveis fósseis . Resíduos de óleo de cozinha, gordura animal, entre outros resíduos de origem biológica, tais como a borra de café, são exemplos de matérias-primas para a produção de biodiesel. A sua valorização tem interesse quer pela perspetiva ambiental, quer pela económica, pois aumenta não só a flexibilidade e diversificação das matérias-primas, mas também contribui para uma estabilidade de custos e alteração nas políticas agrícolas e de uso do solo. É neste contexto que se enquadra o biodiesel e a borra de café, pretendendo-se aqui efetuar o estudo da produção, à escala laboratorial, de biodiesel a partir da borra de café, por transesterificação enzimática, visando a procura das melhores condições reacionais. Iniciando-se com a caracterização da borra de café, foram avaliados antes e após a extração do óleo da borra de café, diversos parâmetros, de entre os quais se destacam: o teor de humidade (16,97% e 6,79%), teor de cinzas (1,91 e 1,57%), teor de azoto (1,71 e 2,30%), teor de proteínas (10,7 e 14,4%), teor de carbono (70,2 e 71,7%), teor de celulose bruta (14,77 e 18,48%), teor de lenhina (31,03% e 30,97%) e poder calorifico superior (19,5 MJ/kg e 19,9 MJ/kg). Sumariamente, constatou-se que os valores da maioria dos parâmetros não difere substancialmente dos valores encontrados na literatura, tendo sido evidenciado o potencial da utilização desta biomassa, como fonte calorifica para queima e geração de energia. Sendo a caracterização do óleo extraído da borra de café um dos objetivos antecedentes à produção do biodiesel, pretendeu-se avaliar os diferentes parâmetros mais significativos. No que diz respeito à caracterização do óleo extraído, distingue-se a sua viscosidade cinemática (38,04 mm2/s), densidade 0,9032 g/cm3, poder calorífico de 37,9 kcal/kg, índice de iodo igual a 63,0 gI2/ 100 g óleo, o teor de água do óleo foi de 0,15 %, o índice de acidez igual a 44,8 mg KOH/g óleo, ponto de inflamação superior a 120 ºC e teor em ácidos gordos de 82,8%. Inicialmente foram efetuados ensaios preliminares, a fim de selecionar a lipase (Lipase RMIM, TL 100L e CALB L) e álcool (metanol ou etanol puros) mais adequados à produção de biodiesel, pelo que o rendimento de 83,5% foi obtido através da transesterificação mediada pela lipase RMIM, utilizando como álcool o etanol. Sendo outro dos objetivos a otimização do processo de transesterificação enzimática, através de um desenho composto central a três variáveis (razão molar etanol: óleo, concentração de enzima e temperatura), recorrendo ao software JMP 8.0, determinou-se como melhores condições, uma razão molar etanol: óleo 5:1, adição de 4,5% (m/m) de enzima e uma temperatura de 45 ºC, que conduziram a um rendimento experimental equivalente a 96,7 % e teor de ésteres 87,6%. Nestas condições, o rendimento teórico foi de 99,98%. Procurou-se ainda estudar o efeito da adição de água ao etanol, isto é, o efeito da variação da concentração do etanol pela adição de água, para teores de etanol de 92%, 85% e 75%. Verificou-se que até 92% decorreu um aumento da transesterificação (97,2%) para um teor de ésteres de (92,2%), pelo que para teores superiores de água adicionada (75% e 85%) ocorreu um decréscimo no teor final em ésteres (77,2% e 89,9%) e no rendimento da reação (84,3% e 91,9%). Isto indica a ocorrência da reação de hidrólise em maior extensão, que leva ao desvio do equilíbrio no sentido contrário à reação de formação dos produtos, isto é, dos ésteres. Finalmente, relativamente aos custos associados ao processo de produção de biodiesel, foram estimados para o conjunto de 27 ensaios realizados neste trabalho, e que corresponderam a 767,4 g de biodiesel produzido, sendo o custo dos reagentes superior ao custo energético, de 156,16 € e 126,02 €, respetivamente. Naturalmente que não esperamos que, a nível industrial os custos sejam desta ordem de grandeza, tanto mais que há economia de escala e que as enzimas utilizadas no processo deveriam ser reutilizadas diversas vezes.
Resumo:
Este relatório de estágio aborda o tema da reabilitação, referindo-se a uma intervenção da especialidade e também construção de raíz, de um Hotel situado na rua do Heroísmo no Porto. Portugal possui um edificado que tem vindo a degradar-se ao longo dos últimos anos, devido essencialmente à falta de operações periódicas de manutenção, conservação e reabilitação. Esta degradação resulta não só do mau estado de conservação generalizado dos edifícios, mas também da inexistência de infra-estruturas urbanísticas em devido funcionamento. Tal conjunto de situações, leva a um movimento migratório dos habitantes das cidades para as respetivas periferias. A cidade do Porto não é uma exceção, estando a necessitar de um forte esforço de reabilitação para inverter esta situação. Ao longo dos últimos anos têm vindo a ser criados diversos apoios financeiros, nacionais e europeus, com o objetivo de ajudar as operações de reabilitação. Mais recentemente foi possibilitada a criação de Sociedades de Reabilitação Urbana (SRU), cujo objetivo é o de promover e orientar todo o processo de reabilitação, de forma a regula-lo nos centros das cidades. No entanto a intervenção de reabilitação de um edifício é uma operação complexa, com diversas especificidades e com inúmeras condicionantes devido às pré-existências próprias de cada edifício.
Resumo:
As centrais termoelétricas convencionais convertem apenas parte do combustível consumido na produção de energia elétrica, sendo que outra parte resulta em perdas sob a forma de calor. Neste sentido, surgiram as unidades de cogeração, ou Combined Heat and Power (CHP), que permitem reaproveitar a energia dissipada sob a forma de energia térmica e disponibilizá-la, em conjunto com a energia elétrica gerada, para consumo doméstico ou industrial, tornando-as mais eficientes que as unidades convencionais Os custos de produção de energia elétrica e de calor das unidades CHP são representados por uma função não-linear e apresentam uma região de operação admissível que pode ser convexa ou não-convexa, dependendo das caraterísticas de cada unidade. Por estas razões, a modelação de unidades CHP no âmbito do escalonamento de geradores elétricos (na literatura inglesa Unit Commitment Problem (UCP)) tem especial relevância para as empresas que possuem, também, este tipo de unidades. Estas empresas têm como objetivo definir, entre as unidades CHP e as unidades que apenas geram energia elétrica ou calor, quais devem ser ligadas e os respetivos níveis de produção para satisfazer a procura de energia elétrica e de calor a um custo mínimo. Neste documento são propostos dois modelos de programação inteira mista para o UCP com inclusão de unidades de cogeração: um modelo não-linear que inclui a função real de custo de produção das unidades CHP e um modelo que propõe uma linearização da referida função baseada na combinação convexa de um número pré-definido de pontos extremos. Em ambos os modelos a região de operação admissível não-convexa é modelada através da divisão desta àrea em duas àreas convexas distintas. Testes computacionais efetuados com ambos os modelos para várias instâncias permitiram verificar a eficiência do modelo linear proposto. Este modelo permitiu obter as soluções ótimas do modelo não-linear com tempos computationais significativamente menores. Para além disso, ambos os modelos foram testados com e sem a inclusão de restrições de tomada e deslastre de carga, permitindo concluir que este tipo de restrições aumenta a complexidade do problema sendo que o tempo computacional exigido para a resolução do mesmo cresce significativamente.
Resumo:
Os mercados financeiros têm um papel fundamental na dinamização das economias modernas. Às empresas cotadas oferece o capital necessário para impulsionar o seu crescimento e aos investidores individuais proporciona a diversificação das suas carteiras, usufruindo desta forma do crescimento e da vitalidade da economia mundial. A gestão de carteiras de ativos financeiros constitui uma área que procura apresentar mecanismos para a obtenção de uma relação ótima entre retorno e risco. Neste sentido, inúmeros estudos têm contribuído de forma significativa para a eficiência e para a prática desta técnica. Esta dissertação pretende analisar a metodologia desenvolvida por Elton-Gruber para a construção de carteiras otimizadas e aplicar as técnicas subjacentes ao mercado acionista português. Para o efeito, serão realizadas pesquisas em fontes bibliográficas da especialidade e serão consultadas bases de dados de cotações históricas das ações e do índice de mercado nacional. A aplicação incidiu sobre ações cotadas no índice PSI-20 durante o período compreendido entre 2010 e 2014. No intuito de melhorar a compreensão das séries de retornos das amostras, o estudo de caráter quantitativo também recorreu à análise estatística. As evidências mostram que a carteira otimizada, no período em análise, contém apenas as ações da empresa Portucel. Este resultado estará condicionado pelos efeitos da crise financeira que iniciou em 2008.
Resumo:
As Redes Sem Fios Enterradas (Wireless Underground Networks - WUN) são formadas por nós que comunicam entre si através de ligações sem fios e têm como meio de propagação o solo. Os sistemas de localização mais utilizados atualmente têm desvantagens ao nível da precisão e o custo. Nesta tese é proposta uma solução de localização de precisão que recorre à utilização de redes sem fios enterradas e um algoritmo de posicionamento baseados em Wi-Fi. O objetivo é estimar a localização de objetos, utilizando dispositivos Wi-Fi de baixo custo. Os resultados experimentais obtidos demonstram que o erro de localização é inferior a 0,40 m, e que esta solução é viável para, por exemplo, localizar jogadores num campo de futebol ou localizar um objeto num campo agrícola.
Resumo:
Neste documento, são investigados vários métodos usados na inteligência artificial, com o objetivo de obter previsões precisas da evolução dos mercados financeiros. O uso de ferramentas lineares como os modelos AR, MA, ARMA e GARCH têm muitas limitações, pois torna-se muito difícil adaptá-los às não linearidades dos fenómenos que ocorrem nos mercados. Pelas razões anteriormente referidas, os algoritmos como as redes neuronais dinâmicas (TDNN, NARX e ESN), mostram uma maior capacidade de adaptação a estas não linearidades, pois não fazem qualquer pressuposto sobre as distribuições de probabilidade que caracterizam estes mercados. O facto destas redes neuronais serem dinâmicas, faz com que estas exibam um desempenho superior em relação às redes neuronais estáticas, ou outros algoritmos que não possuem qualquer tipo de memória. Apesar das vantagens reveladas pelas redes neuronais, estas são um sistema do tipo black box, o que torna muito difícil extrair informação dos pesos da rede. Isto significa que estes algoritmos devem ser usados com precaução, pois podem tornar-se instáveis.
Resumo:
Nos últimos anos, tem-se assistido a uma maior preocupação com o meio ambiente, a atual conjuntura mundial está cada vez mais direcionada para a eficiência energética e para a utilização de fontes de energias renováveis. Os principais governos mundiais, incluindo o português, já perceberam a necessidade de enveredar por esse caminho e nesse sentido aplicam medidas que direcionam e consciencializam a população para a eficiência energética e para as energias renováveis. Em Portugal, o setor das energias renováveis assume atualmente uma posição de extrema importância, resultante da expressão que governo português tem vindo a implementar no panorama energético nacional, da qual resulta uma importante contribuição para o desenvolvimento económico, na criação de riqueza e geração de emprego. Neste contexto, e no caso particular da energia fotovoltaica têm sido implementadas medidas que incentivam a aposta nesta tecnologia, prova disso é o Decreto-Lei n.º 153/2014 aprovado em conselho de ministros em Setembro de 2014, que promove essencialmente o autoconsumo. O autoconsumo consiste na utilização de painéis fotovoltaicos para produção de energia elétrica para consumo próprio com ou sem recurso a equipamentos de acumulação. Em termos práticos, este sistema permite que os consumidores produzam a sua própria energia através de uma fonte renovável ao invés de adquirir essa energia na rede elétrica de serviço público. As políticas de incentivo ao autoconsumo proporcionam uma oportunidade para os consumidores interessados em investir na produção da própria energia elétrica, neste sentido e de forma a ajudar no dimensionamento de unidades de produção de autoconsumo foi desenvolvida, no âmbito desta tese, uma ferramenta de apoio ao dimensionamento de sistemas de autoconsumo fotovoltaico sem acumulação em ambiente doméstico, com o objetivo de estimar as necessidades de potência fotovoltaica a instalar em habitações de baixa tensão normal. Na base da construção desta ferramenta estiveram essencialmente os perfis de consumo, aprovados pela Entidade Reguladora dos Serviços Energéticos, de todos os clientes finais que não dispõem de equipamento de medição com registo de consumos e também a estimativa de produção fotovoltaica desenvolvida pelo Centro Comum de Investigação da Comissão Europeia. A aplicação desenvolvida tem como principal funcionalidade proporcionar ao utilizador o dimensionamento de unidades de produção de autoconsumo fotovoltaico, mediante a introdução de alguns dados tais como o distrito, a potência contratada, a tarifa e o consumo energético anual. Esta aplicação apresenta resultados relativos ao dimensionamento do sistema, como é o caso da potência a instalar e da estimativa de produção fotovoltaica anual, e resultados relativos à análise económica do sistema como é o caso do valor atual líquido, da taxa interna de rentabilidade e do payback do investimento.
Resumo:
This Thesis has the main target to make a research about FPAA/dpASPs devices and technologies applied to control systems. These devices provide easy way to emulate analog circuits that can be reconfigurable by programming tools from manufactures and in case of dpASPs are able to be dynamically reconfigurable on the fly. It is described different kinds of technologies commercially available and also academic projects from researcher groups. These technologies are very recent and are in ramp up development to achieve a level of flexibility and integration to penetrate more easily the market. As occurs with CPLD/FPGAs, the FPAA/dpASPs technologies have the target to increase the productivity, reducing the development time and make easier future hardware reconfigurations reducing the costs. FPAA/dpAsps still have some limitations comparing with the classic analog circuits due to lower working frequencies and emulation of complex circuits that require more components inside the integrated circuit. However, they have great advantages in sensor signal condition, filter circuits and control systems. This thesis focuses practical implementations of these technologies to control system PID controllers. The result of the experiments confirms the efficacy of FPAA/dpASPs on signal condition and control systems.
Resumo:
Perante o elevado consumo de materiais naturais no processo e produtos na área da construção civil, o reaproveitamento de resíduos é uma das soluções a ser estudada. As cinzas agroindustriais têm lugar de destaque entre estes resíduos, pois têm a possibilidade de aplicação em materiais cimentícios, reduzindo assim o consumo de cimento de Portland. O presente estudo debruça-se sobre a substituição parcial (1,5% e 5%) de cimento de Portland por cinzas de casca de amêndoa. Realizaram-se provetes com diferentes tipos de argamassas: (i) uma de controlo sem substituição de cimento (ARF); (ii) uma com 1,5% de substituição parcial de cimento por cinzas de casca de amêndoa (CCA 1,5%); (iii) e uma com 5% de substituição parcial de cimento por cinza de casca de amêndoa (CCA 5%). Executaram-se ensaios para resistências mecânicas aos 3, 7, 14, 28 e 41 dias de idade. A nível químico pode-se concluir que esta cinza de casca de amêndoa não apresentou qualquer potencial pozolânico. A trabalhabilidade na generalidade diminui ligeiramente, contendo cinza de casca de amêndoa, mas ainda assim considerando-se de fácil manuseamento. Em relação às resistências mecânicas, pode-se concluir que o ideal é a substituição parcial de cimento com 1,5%, pois as resistências diminuem com o uso de uma maior percentagem de substituição, ou seja, o ideal é substituir em pequenas percentagens. Com os dados obtidos, conclui-se que as cinzas testadas não apresentam características necessárias para serem consideradas pozolanas e se será viável a sua utilização mesmo como filer.
Resumo:
Hoje em dia, e com os avanços tecnológicos a surgirem de forma constante, existem novas áreas que têm de ser consideradas com um foco importante por parte de todas as organizações, sendo uma delas a robótica industrial. Motivada em aumentar o seu output, as condições de trabalho para os seus colaboradores, bem como todas as condições de organização da logística interna, a Grohe Portugal, mais especificamente o departamento da montagem, achou relevante fazer um estudo de métodos e tempos, calculando os ganhos potenciais de aumento de output com introdução de robótica nas linhas dos cartuchos. Os objetivos principais seriam então, fazer uma restruturação de todo o layout dessas linhas, tendo como foco automatizar alguma(s) operação(ões), conseguindo assim uma melhoria significativa do output dessas linhas com o menor payback possível. Posto isto, esta dissertação pretende apresentar o trabalho desenvolvido junto da Grohe Portugal, que teve como objetivo fazer os estudos e a automatização de linhas de montagem de cartuchos, bem como melhorar algumas linhas de montagem tendo em conta fatores ergonómicos. Relativamente à automatização da linha dos cartuchos, foi importante estudar todos os seguintes aspetos: utilização de unidades robóticas; ergonomia; ganhos de produtividade; automatizar ou semi-automatizar operações; simplificar processos de montagem; simplificar setups; solicitar orçamentos; elaborar caderno de encargos. Para a realização deste projeto, o trabalho desenvolvido foi decomposto em várias etapas, entre as quais se destacam: análise e estudo dos métodos e sequências de montagem; levantamento de todos os componentes e operações de montagem até à obtenção do cartucho final; estudo de tempos de todas essas operações de montagem; caraterização de um novo layout para as linhas com a introdução de unidades robóticas, tanto quanto possível, mais adequadas; elaboração de caderno de encargos para ser enviado a empresas, para estas poderem apresentar uma orçamentação, bem como indicar as unidades robóticas mais adequadas para as tarefas pretendidas; automatização da linha dos cartuchos. Relativamente ao projeto de novas linhas de montagem tendo em conta fatores ergonómicos, de forma a melhorar os sistemas de abastecimento e as condições de trabalho por parte dos operadores, foram postos em prática diferentes passos, nomeadamente: identificação de todos os processos de montagem realizados pelos operadores na linha a melhorar; estudo e definição da disposição dos componentes na nova linha, bem como a sua forma de abastecimento; projeto da nova linha de montagem em 3D com recurso ao software SolidWorks; realização prática da linha, acompanhando e ajudando a equipa da ferramentaria. O balanço final do trabalho foi bastante positivo, tanto na automatização das linhas de montagem dos cartuchos, em que todo o seu estudo foi alcançado com sucesso, como no melhoramento ergonómico das linhas de montagem, tendo-se alcançado melhorias em alguns índices de qualidade, tempos de abastecimento, organização das linhas, e nas condições de iluminação, resultando essas melhorias numa avaliação positiva por parte dos colaboradores que nelas trabalham todos os dias.
Resumo:
Os componentes obtidos através da conformação plástica de chapas têm uma grande importância, tanto na etapa de concepção do produto como na etapa de produção na indústria automóvel. Isto comprova-se pelo facto de, em média, cada automóvel integrar cerca de 500 componentes estampados para construir o chassis e a carroçaria [Alves 2003]. Deste total de componentes, 50 são de grandes dimensões (portas, tejadilho, painéis inferior e laterais, entre outros) e necessitam, em média, de cinco ferramentas para o seu fabrico, sendo o custo estimado para cada ferramenta de 230 000 € [Col 2000, Alves 2003]. Para além da indústria automóvel, a conformação plástica de chapas metálicas é um processo tecnológico presente nas indústrias relativas à aeroespacial, petrolífera, decoração, alimentar, entre outras. Do ponto de vista do enquadramento económico, cerca de 20% do custo total de um automóvel novo é devido à incorporação de componentes metálicos estampados. [Alves 2003]. A pressão do “Mercado Global” faz com que os custos relativos à matéria-prima, energia e mão-de-obra sejam uma constante em termos de redução do seu impacte no orçamento das empresas fornecedoras destes produtos. É neste contexto que surge a necessidade da realização deste estudo de Benchmark de Softwares, tornando-se bastante importante, quer ao nível da competitividade industrial, quer ao nível da inovação para novos produtos. A análise por elementos finitos desempenha um papel primordial no tryout virtual e otimização das ferramentas e processos de conformação plástica. Os objetivos principais deste estudo de simulação numérica são a identificação e comparação dos resultados obtidos pelo AUTOFORM e pelo PAMSTAMP, para cada uma das variáveis identificadas como as mais influentes na robustez dos processos de estampagem de chapa metálica. Estas variáveis identificadas são: consumo de material (Draw-in) após conformação; forças de conformação; valores de variação de espessura e dos valores de extensão e resultados de Springback. Os resultados obtidos são comparados com os resultados experimentais e, desta forma, avalia-se a capacidade inovadora e a eficácia de cada um dos softwares, obtendo-se assim, uma orientação mais real para o software mais indicado aos objetivos impostos pela indústria automóvel. Para este efeito, a indústria automóvel, como maior impulsionador e motor da investigação na área da simulação numérica aplicada aos processos de estampagem, tem aderido em peso ao Benchmarking. Um exemplo disto, é o que acontece nas conferências Numisheet. O Benchmark #2 da conferência Numisheet 2008 é analisado pormenorizadamente e os resultados numéricos e experimentais são comparados e apresentados. Dois materiais distintos (aço HC260LAD e liga de alumínio AC170), assim como três modelos com geometrias diferentes (com e sem freios) são apresentados neste relatório. Com vista à redução dos ciclos tentativa-erro, tem-se adotado ciclos virtuais ou numéricos e tem-se incrementado a interatividade entre as fases de concepção e projeto, num conceito muito próprio, mas cada vez mais abrangente, denominado “produção virtual”. É nesta filosofia que se insere a simulação numérica dos processos de conformação de chapa.
Resumo:
Computação gráfica um campo que tem vindo a crescer bastante nos últimos anos, desde áreas como cinematográficas, dos videojogos, da animação, o avanço tem sido tão grande que a semelhança com a realidade é cada vez maior. Praticamente hoje em dia todos os filmes têm efeitos gerados através de computação gráfica, até simples anúncios de televisão para não falar do realismo dos videojogos de hoje. Este estudo tem como objectivo mostrar duas alternativas no mundo da computação gráfica, como tal, vão ser usados dois programas, Blender e Unreal Engine. O cenário em questão será todo modelado de raiz e será o mesmo nos dois programas. Serão feitos vários renders ao cenário, em ambos os programas usando diferentes materiais, diferentes tipos de iluminação, em tempo real e não de forma a mostrar as várias alternativas possíveis.