22 resultados para esoscheletro, stereofotogrammetria, dinamica, inversa, AFO
em Repositório Científico do Instituto Politécnico de Lisboa - Portugal
Resumo:
Mestrado em Fiscalidade
Resumo:
Esta tese apresenta o desenvolvimento de um simulador de voo, através da aplicação de um modelo dinâmico de uma aeronave e de sistemas de realidade virtual a uma plataforma electromecânica de Gough-Stewart. Para o efeito, utiliza-se o modelo da aeronave Cessna-172. Neste sentido, apresenta-se o estudo e a análise do sistema de realidade virtual utilizado, confirma-se o funcionamento do modelo matemático da aeronave em ferramenta de cálculo e apresenta-se o modelo da cinemática inversa da plataforma, cuja validação é realizada recorrendo-se a um sensor inercial. Desenvolve-se programação específica para a comunicação entre o software de cálculo numérico e a plataforma electromecânica de Gough-Stewart.
Resumo:
Os ensaios acelerados de vida são testes que se realizam com o objectivo de estimar determinados parâmetros fiabilísticos, referentes a um dado bem, provocando-lhe a ocorrência de um dado modo de falha específico num espaço de tempo mais curto do que aquele em que normalmente este evento ocorreria. É através dos ensaios acelerados, e de modelos analíticos específicos, que se torna então possível prever as falhas antes de estas ocorrerem, potenciando atempadamente possíveis alterações de projecto ou concepção, antes do bem entrar no mercado. Este tipo de ensaios possibilita, por exemplo ao fabricante, uma economia de tempo na determinação da informação de dados de vida (considerados relevantes) que deverá acompanhar o produto na sua comercialização. Para uma melhor compreensão da temática, abordam-se no trabalho duas áreas essenciais, nomeadamente: O conceito de Fiabilidade e o conceito de Ensaios Acelerados de Vida. Ao longo do documento podem-se analisar os modelos mais utilizados em Ensaios Acelerados, como o Modelo de Arrhenius, o Modelo de Eyring, o Modelo de Potência Inversa e o Modelo de Temperatura e Humidade. Também são apresentadas algumas distribuições importantes relacionadas com esses modelos, como a Distribuição Normal, a Distribuição Lognormal, a Distribuição Exponencial e a Distribuição de Weibull. Para verificação da metodologia, realizou-se uma aplicação experimental, tendo por base a normalização existente e os parâmetros seguidos pelo fabricante do componente estudado. Para tratamento dos dados resultantes dos ensaios acelerados utiliza-se o programa ALTA 7.0 PRO, que de uma forma expedita permite extrapolar das condições de ensaio para uma utilização normal, e assim determinar os parâmetros fiabilísticos correspondentes ao bem. De salientar que este ‘’software’’ pode trabalhar com um ou mais níveis de aceleração, como por exemplo conjugar a influência da temperatura com a humidade. O conhecimento dos modelos usados nesta área permite compreender a metodologia de ensaios acelerados e o comportamento dos componentes. Os dados demonstram uma alta precisão dos resultados, num período de tempo reduzido.
Resumo:
Este trabalho teve como objectivo o desenvolvimento em computador de uma prótese transfemural para amputados acima do joelho. A prótese desenvolvida replica a geometria conhecida do movimento de rotação no joelho, possui também um cilindro de amortecimento hidráulico, de modo a proporcionar um movimento mais próximo do fisiológico natural. Deste modo garante-se mais estabilidade nas fases de apoio, e maior segurança e conforto aos amputados durante a sua marcha no dia-a-dia. Para desenvolver a prótese realizou-se a modelação computacional da prótese transfemural no SolidWorks 2008. Para obtenção do movimento humano utilizou-se valores de deslocamentos lineares e angulares dos membros inferiores obtidos no Laboratório da biomecânica “MovLab” da Universidade Lusófona de Humanidades e Tecnologias. Para captura do movimento utilizou-se o sistema Vicon de captura de imagem e processamento da cinemática do movimento. Foram registados os valores da força de contacto na passada, através do uso de uma plataforma de forças. Com base no modelo desenvolvido foram realizadas várias simulações de dinâmica inversa, sendo criado dois modelos biomecânico correspondentes a uma pessoa com e sem amputação. Utilizando o movimento capturado por vídeo de uma pessoa a Andar Normal, a Correr e a Saltar, comparou-se os resultados obtidos nas simulações com os valores medidos em laboratório. Para as diferentes simulações os valores obtidos de picos máximos das forças tiveram magnitudes bastantes próximas dos valores obtidos em laboratório, o que indica que a metodologia desenvolvida durante este trabalho representa um bom modelo para estudo e desenvolvimento de próteses.
Resumo:
As energias renováveis são no mundo de hoje incontornáveis, não só pela necessidade permanente de diminuir as emissões de CO2, pois devido ao aumento do preço dos combustíveis fosseis torna-se cada vez mais rentável recorrer a energias alternativas. Este facto conduz a uma procura incessante de processos alternativos de produção de energia renovável e limpa do ponto de vista ambiental, com o objectivo de tornar estes processos competitivos e economicamente viáveis. Na década de setenta, Sidney Loeb propôs um processo de produção de energia com recurso a membranas designado por osmose directa sob pressão contrária (Pressure Retarded Osmosis - PRO) baseado na diferença de pressão osmótica que pode ocorrer na foz dos rios e de forma geral nas zonas de encontro entre a água doce e água salgada. Este processo de produção de energia deu origem a um projecto designado de “Salinity Power”. Este foi o primeiro grande projecto de investigação no mundo, sobre o desenvolvimento da tecnologia para a produção de “energia de salinidade” ou “energia azul”. Para ser economicamente viável, este processo requer o uso de membranas com características específicas. São utilizadas membranas de osmose inversa, para gerar energia a partir da diferença osmótica entre a água doce e a água salgada. Este projecto resultou em significativos progressos no desempenho da membrana, o componente chave para a produção de energia renovável por este método. O trabalho aqui apresentado visa o estudo de obtenção de diaminas, a partir de matérias-primas renováveis, para posterior polimerização em poliamidas. A partir destes novos polímeros, é necessário o desenvolvimento de novas membranas compostas para utilização em sistemas de produção de energia eléctrica baseados em PRO. Um dos factores inovadores, é a obtenção de diaminas, a partir da D-xilose. Sendo a D-xilose uma hidrato de carbono natural, consegue-se então um processo sem recorrer a produtos derivados do petróleo. No presente trabalho foi investigado o potencial de o<-aminoácidos derivados de anéis oxetano para a construção de novos de compostos. Para aminoácidos de hidratos de carbono com anéis de cinco e seis membros, o estado da arte é bastante vasto. No entanto, não existem na literatura referências baseadas em anéis de quatro membros. Os oxetanos exibem grande estabilidade conformacional devido à sua rigidez, o que faz com que anéis oxetano sejam moléculas-base para derivatização, com vectores de orientação bem definidos. Os anéis oxetano estão presentes em alguns produtos naturais que exibem uma actividade biológica importante. Foram sintetizados no trabalho apresentado o<-aminoácidos derivados de oxetano usando hidrato e carbonos como compostos de partida, de forma a obter uma estereoquímica bem definida. A metodologia utilizada envolve a síntese de triflatos de 1,4-lactonas de 5 membros, que estão submetidas a tratamento com carbonato de potássio em metanol, dando origem à contracção do anel e á formação de oxetanos com configurações D-lyxo, e D-xylo, dependendo da configuração da lactona inicial. Numa das vias de síntese levadas a cabo para a obtenção de o<-aminoácidos derivados de oxetano, procedeu-se à oxidação da D-xilose com bromo seguida do tratamento com benzaldeído de forma a obter a já conhecida 3,5-O-benzilideno-D-xilono-1,4-lactona. A derivatização de o<-aminoácidos derivados de oxetano foi feita com base na introdução de novas membranas de elevado interesse energético e ecológico. Este trabalho experimental ficou marcado por a não obtenção da diamina desejada, para posterior polimerização. No entanto, conseguiu-se trabalhar alguns aspectos da síntese, o que foi bastante positivo para o sucesso desta contribuição. Outro aspecto importante, foi o curo espaço de tempo para realização deste trabalho. Sendo um trabalho de investigação, este requer tempo para analisar todas as condições assim como optimizar os resultados obtidos. Futuramente, serão realizados estudos de optimizações do procedimento, para obtenção da diamina pretendida. Foram realizados dois procedimentos diferentes para a obtenção do oxetano. A síntese inicial foi inconclusiva para este trabalho, devido aos maus resultados, provenientes de condições que são desconhecidas. Conclui-se que a oxidação com o brometo, não foi conseguida devido às condições do brometo, assim como ao controlo das condições necessárias para a adição deste. Devido a estes motivos, foi realizado um novo processo de síntese para a obtenção do composto desejado. Foi feita nova pesquisa e iniciou-se um novo método. O passo reaccional da oxidação, com bromo, foi novamente determinante. É um passo reaccional de difícil controlo, devido ás características do bromo, e às exigências desta síntese, quando este é necessário para oxidação. Esta nova síntese, apresenta uma grande vantagem relativamente à anterior, uma vez que o material de partida é a xilose, sendo mais económica que o 1,2-Isopropilideno-α-Xilofuranose. Este trabalho está enquadrado num projecto, designado de OPEN, e encontra-se descrito mais pormenorizadamente no Anexo I.
Resumo:
Este trabalho utiliza uma estrutura pin empilhada, baseada numa liga de siliceto de carbono amorfo hidrogenado (a-Si:H e/ou a-SiC:H), que funciona como filtro óptico na zona visível do espectro electromagnético. Pretende-se utilizar este dispositivo para realizar a demultiplexagem de sinais ópticos e desenvolver um algoritmo que permita fazer o reconhecimento autónomo do sinal transmitido em cada canal. O objectivo desta tese visa implementar um algoritmo que permita o reconhecimento autónomo da informação transmitida por cada canal através da leitura da fotocorrente fornecida pelo dispositivo. O tema deste trabalho resulta das conclusões de trabalhos anteriores, em que este dispositivo e outros de configuração idêntica foram analisados, de forma a explorar a sua utilização na implementação da tecnologia WDM. Neste trabalho foram utilizados três canais de transmissão (Azul – 470 nm, Verde – 525 nm e Vermelho – 626 nm) e vários tipos de radiação de fundo. Foram realizadas medidas da resposta espectral e da resposta temporal da fotocorrente do dispositivo, em diferentes condições experimentais. Variou-se o comprimento de onda do canal e o comprimento de onda do fundo aplicado, mantendo-se constante a intensidade do canal e a frequência de transmissão. Os resultados obtidos permitiram aferir sobre a influência da presença da radiação de fundo e da tensão aplicada ao dispositivo, usando diferentes sequências de dados transmitidos nos vários canais. Verificou-se, que sob polarização inversa, a radiação de fundo vermelho amplifica os valores de fotocorrente do canal azul e a radiação de fundo azul amplifica o canal vermelho e verde. Para polarização directa, apenas a radiação de fundo azul amplifica os valores de fotocorrente do canal vermelho. Enquanto para ambas as polarizações, a radiação de fundo verde, não tem uma grande influência nos restantes canais. Foram implementados dois algoritmos para proceder ao reconhecimento da informação de cada canal. Na primeira abordagem usou-se a informação contida nas medidas de fotocorrente geradas pelo dispositivo sob polarização inversa e directa. Pela comparação das duas medidas desenvolveu-se e testou-se um algoritmo que permite o reconhecimento dos canais individuais. Numa segunda abordagem procedeu-se ao reconhecimento da informação de cada canal mas com aplicação de radiação de fundo, tendo-se usado a informação contida nas medidas de fotocorrente geradas pelo dispositivo sob polarização inversa sem aplicação de radiação de fundo com a informação contida nas medidas de fotocorrente geradas pelo dispositivo sob polarização inversa com aplicação de radiação de fundo. Pela comparação destas duas medidas desenvolveu-se e testou-se o segundo algoritmo que permite o reconhecimento dos canais individuais com base na aplicação de radiação de fundo.
Resumo:
O presente trabalho consiste na implementação em hardware de unidades funcionais dedicadas e optimizadas, para a realização das operações de codificação e descodificação, definidas na norma de codificação com perda Joint Photographic Experts Group (JPEG), ITU-T T.81 ISO/IEC 10918-1. Realiza-se um estudo sobre esta norma de forma a caracterizar os seus principais blocos funcionais. A finalidade deste estudo foca-se na pesquisa e na proposta de optimizações, de forma a minimizar o hardware necessário para a realização de cada bloco, de modo a que o sistema realizado obtenha taxas de compressão elevadas, minimizando a distorção obtida. A redução de hardware de cada sistema, codificador e descodificador, é conseguida à custa da manipulação das equações dos blocos Forward Discrete Cosine Transform (FDCT) e Quantificação (Q) e dos blocos Forward Discrete Cosine Transform (IDCT) e Quantificação Inversa (IQ). Com as conclusões retiradas do estudo e através da análise de estruturas conhecidas, descreveu-se cada bloco em Very-High-Speed Integrated Circuits (VHSIC) Hardware Description Language (VHDL) e fez-se a sua síntese em Field Programmable Gate Array (FPGA). Cada sistema implementado recorre à execução de cada bloco em paralelo de forma a optimizar a codificação/descodificação. Assim, para o sistema codificador, será realizada a operação da FDCT e Quantificação sobre duas matrizes diferentes e em simultâneo. O mesmo sucede para o sistema descodificador, composto pelos blocos Quantificação Inversa e IDCT. A validação de cada bloco sintetizado é executada com recurso a vectores de teste obtidos através do estudo efectuado. Após a integração de cada bloco, verificou-se que, para imagens greyscale de referência com resolução de 256 linhas por 256 colunas, é necessário 820,5 μs para a codificação de uma imagem e 830,5 μs para a descodificação da mesma. Considerando uma frequência de trabalho de 100 MHz, processam-se aproximadamente 1200 imagens por segundo.
Resumo:
Introdução – A diabetes é uma das maiores epidemias do último século. Mais de 250 milhões de pessoas, em todo o mundo, sofrem de diabetes. Das complicações derivadas da diabetes são as principais causas de cegueira, de insuficiência renal e de amputação de membros inferiores, derivando estes, predominantemente, da disfunção vascular. Quando surge perda de pericitos na parede vascular ocorrem uma série de alterações da microcirculação que levam ao aparecimento de microaneurismas e outras alterações vasculares que possibilitam a passagem de componentes sanguíneos para o tecido retiniano adjacente que, em situação de normalidade, não ocorreriam, sendo esta uma das causas do edema macular exsudativo diabético. A perimetria de hiperacuidade preferencial (PHP) é um teste psicofísico que pretende detetar metamorfopsias na Degenerescência Macular ligada à Idade (DMI). Uma vez que o edema macular diabético (EMD) se destaca como uma das principais causas de deficiência visual e baixa visão, pretende-se verificar a eficácia do PHP no estudo do edema macular diabético, respondendo à seguinte questão: “Qual a capacidade do perímetro de hiperacuidade preferencial em detetar metamorfopsias em pacientes com edema macular diabético?“ Metodologia – Estudo quantitativo, do tipo descritivo e correlacional. Selecionou-se uma amostra de 33 pacientes, onde se analisou um total de 60 olhos. Resultados – A sensibilidade do PHP na deteção de metamorfopsias associadas ao EMD na tomografia de coerência ótica (OCT) foi de 70,6%, a especificidade foi de 11,5% e a eficiência global do teste de 45%. Comparando os resultados encontrados no PHP e no OCT, constatou-se a existência de uma correlação inversa fraca (Phi = -0,215). Conclusões – Este novo método de diagnóstico revela-se sensível, contudo pouco específico e eficaz na deteção de metamorfopsias consequentes da existência de EMD. - ABSTRACT - Introduction – Preferential hyperacuity perimeter (PHP) is a new psychophysical test, which principle is based on the detection of metamorphopsia in age-related macular degeneration (AMD). It is intended to verify its effectiveness in the study of diabetic macular edema (DME). When there is loss of pericytes in the vascular wall occur a number of microcirculatory changes that lead to the appearance of microaneurysms and other vascular changes that allow the passage of blood components to the surrounding retinal tissue than in normal situation does not occur, this being one of the causes exudative diabetic macular edema. Methodology – It was performed a quantitative study, using descriptive and correlational analysis. A sample of 33 patients was selected, and 60 eyes were analyzed. Results – The sensitivity of PHP on the detection of metamorphopsia associated to EMD was 70.6%, the specificity was 11.5% and the global efficiency of the test was 45%. It was found a weak negative correlation (Phi= -0.215) between the PHP and optical coherence tomography (OCT). Conclusions – This new method of diagnosis was sensitive, but not very specific and effective on the detection of metamorphopsia, due to the DME.
Resumo:
A geração de energia elétrica a partir de fontes renováveis, tal como as centrais eólicas, apresenta diferente disponibilidade ao longo do tempo. Por esse motivo, a crescente integração da energia eólica no sistema elétrico levanta questões operacionais importantes, tal como o equilíbrio entre a potência da geração e a potência do consumo, podendo em certos períodos, ocorrer fenómenos de excesso de geração. Atualmente, as centrais hídricas reversíveis (CHR) têm sido vistas como uma solução para absorver esse excesso de geração, evitando-se assim, a necessidade de corte da geração eólica. Num contexto de mercado liberalizado, considerando-se que as CHR são tomadoras de preço, nos períodos de baixo consumo e elevada disponibilidade de vento, o baixo preço da energia elétrica dará incentivo para as CHR realizem bombagem, promovendo a integração da energia eólica. No entanto, se uma CHR apresentar poder de mercado, a sua estratégia de maximização do lucro pode levar a um perfil de bombagem e geração diferente, desviando-se do objetivo de maximizar a integração da energia eólica. Neste sentido, o presente trabalho tem como objetivo estudar a influência do poder de mercado na operação de uma CHR inserida no mercado diário do mercado ibérico de eletricidade (MIBEL). Para tal, é desenvolvido um modelo de despacho em ambiente de mercado, sendo o poder de mercado da CHR modelado através de uma curva de procura residual inversa com elasticidade variável. Os resultados obtidos evidenciam que o aumento do poder de mercado da CHR corresponde a uma diminuição do nível de energia armazenada e, portanto, a capacidade de integrar energia eólica pode ser consideravelmente reduzida. No entanto, quando a CHR pertence a uma empresa de geração que para além desta, possui também uma central de tecnologia diferente, tal como uma central térmica ou eólica, o seu comportamento pode inverter-se.
Resumo:
Os testes acelerados de vida são realizados com o objectivo de estimar determinados parâmetros fiabilísticos, referentes a um determinado tipo de bem, despoletando a ocorrência de um dado modo de falha específico, num período de tempo mais reduzido do que aquele em que, em condições de normal operação se verificaria. Torna-se assim possível, através da utilização dos testes acelerados de vida e dos modelos matemáticos de extrapolação de dados, prever a ocorrência de falhas e dos seus modos, permitindo assim realizar alterações aos projectos em estudo, antes mesmo de estes serem disponibilizados no mercado. O emprego deste tipo de metodologia possibilita às organizações uma economia de tempo na determinação dos dados de vida dos bens, o que se reflecte numa grande vantagem face aos testes realizados para normais condições de operação. No presente documento é feita uma abordagem muito objectiva dos conceitos de fiabilidade de modo a poder perceber os conceitos teóricos em que assentam as metodologias relacionadas com os testes acelerados de vida, bem como o estudo e análise das teorias que servem por base aos testes acelerados. No presente documento são analisados os modelos matemáticos de extrapolação de dados dos testes acelerados de vida, tais como o modelo de Arrhenius, o modelo de Eyring, o modelo da Lei da Potência Inversa e o modelo de Bazovsky. Para uma melhor compreensão dos conceitos é feita uma análise às distribuições mais utilizadas em fiabilidade, caso da distribuição de Weibull, da distribuição Normal e da distribuição Lognormal. Para implementar os conceitos e metodologias estudadas, obtiveram-se dados referentes a testes acelerados de vida de um óleo isolante de um transformador eléctrico, implementou-se a metodologia relacionada com o modelo da Lei da Potência Inversa através do software ALTA 8 e determinaram-se os parâmetros fiabilísticos correspondentes. De outro modo, foi ainda utilizado um método detalhado de resolução, utilizando o software Weibull++ 8, para posterior comparação de resultados.
Resumo:
Ao longo deste trabalho é apresentada a caracterização optoelectrónica de uma estrutura semicondutora empilhada de fotodíodos PIN (Positive-Intrinsic-Negative), baseados em silício amorfo hidrogenado (a-Si:H - Hydrogenated Amorphous Silicon) e siliceto de carbono amorfo hi-drogenado (a-SiC:H - Hydrogenated Amorphous Silicon Carbide), em que ambos funcionam como filtros ópticos na zona visível do espectro electromagnético e cuja sensibilidade espectral na região do visível é modulada pelo sinal de tensão eléctrico aplicado e pela presença de polarização óptica adicional (radiação de fundo). Pretende-se utilizar a característica de sensor de cor destes dispositivos semicondutores para realizar a demultiplexagem de sinais ópticos e desenvolver um algoritmo que permita fazer o reco-nhecimento autónomo do sinal transmitido em cada canal, tendo em vista a utilização de vários ca-nais para a transmissão de sinais a curta distância. A transmissão destes sinais deverá ser suportada no meio de transmissão fibra óptica, que constituirá uma importante mais-valia na optimização do sistema WDM (Wavelength Division Mul-tiplexing), permitindo optimizar a transmissão de sinais. Pelas suas capacidades intrínsecas, as fi-bras ópticas de plástico (POF - Plastic Optical Fibers) são uma solução adequada para a transmis-são de sinais no domínio visível do espectro electromagnético a curtas distâncias. Foi realizada uma sucinta caracterização optoelectrónica da estrutura semicondutora sob diferentes condições de iluminação, variando o comprimento de onda e a iluminação de fundo que influencia a resposta espectral do dispositivo semicondutor, variando as cores dos fundos inciden-tes, variando o lado incidente do fundo sobre a estrutura semicondutora, variando a intensidade des-ses mesmos fundos incidentes e também variando a frequência do sinal de dados. Para a transmissão dos sinais de dados foram utilizados três dispositivos LED (Light-Emitting Diode) com as cores vermelho (626nm), verde (525nm) e azul (470nm) a emitir os respec-tivos sinais de dados sobre a estrutura semicondutora e onde foram aplicadas diversas configurações de radiação de fundo incidente, variando as cores dos fundos incidentes, variando o lado incidente do fundo sobre a estrutura semicondutora e variando também a intensidade desses mesmos fundos incidentes. Com base nos resultados obtidos ao longo deste trabalho, foi possível aferir sobre a influên-cia da presença da radiação de fundo aplicada ao dispositivo, usando diferentes sequências de dados transmitidos nos vários canais. Sob polarização inversa, e com a aplicação de um fundo incidente no lado frontal da estrutura semicondutora os valores de fotocorrente gerada são amplificados face aos valores no escuro, sendo que os valores mais altos foram encontrados com a aplicação do fundo de cor violeta, contribuindo para tal, o facto do sinal do canal vermelho e canal verde serem bastan-te amplificados com a aplicação deste fundo. Por outro lado, com a aplicação dos fundos incidentes no lado posterior da estrutura semi-condutora, o sinal gerado não é amplificado com nenhuma cor, no entanto, a aplicação do fundo de cor azul proporciona a distinção do sinal proveniente do canal azul e do canal vermelho, sendo que quando está presente um sinal do canal vermelho, o sinal é fortemente atenuado e com a presença do sinal do canal azul o sinal gerado aproxima-se mais do valor de fotocorrente gerada com a estru-tura no escuro. O algoritmo implementado ao longo deste trabalho, permite efectuar o reconhecimento au-tónomo da informação transmitida por cada canal através da leitura do sinal da fotocorrente forne-cida pelo dispositivo quando sujeito a uma radiação de fundo incidente violeta no lado frontal e uma radiação de fundo incidente azul no lado posterior. Este algoritmo para a descodificação dos sinais WDM utiliza uma aplicação gráfica desenvolvida em Matlab que com base em cálculos e compara-ções de sinal permite determinar a sequência de sinal dos três canais ópticos incidentes. O trabalho proposto nesta tese é um módulo que se enquadra no desenvolvimento de um sistema integrado de comunicação óptica a curta distância, que tem sido alvo de estudo e que resulta das conclusões de trabalhos anteriores, em que este dispositivo e outros de configuração idêntica foram analisados, de forma a explorar a sua utilização na implementação da tecnologia WDM den-tro do domínio do espectro visível e utilizando as POF como meio de transmissão.
Resumo:
Neste trabalho aborda-se o desenvolvimento da carroçaria do Veículo Eléctrico Ecológico – VEECO recorrendo a tecnologias assistidas por computador. Devido à impossibilidade de abranger toda a temática das tecnologias assistidas por computador, associadas ao desenvolvimento de uma carroçaria automóvel, o foco deste trabalho assenta no processo de obtenção de um modelo digital válido e no estudo do desempenho aerodinâmico da carroçaria. A existência de um modelo digital válido é a base de qualquer processo de desenvolvimento associado a tecnologias assistidas por computador. Neste sentido, numa primeira etapa, foram aplicadas e desenvolvidas técnicas e metodologias que permitem o desenvolvimento de uma carroçaria desde a sua fase de “design” até à obtenção de um modelo digital CAD. Estas abrangem a conversão e importação de dados, a realização de engenharia inversa, a construção/reconstrução CAD em CATIA V5 e a preparação/correcção de modelos CAD para a análise numérica. Numa segunda etapa realizou-se o estudo da aerodinâmica exterior da carroçaria, recorrendo à ferramenta de análise computacional de fluidos (CFD) Flow Simulation da CosmosFloworks integrado no programa SolidWorks 2010. Associado à temática do estudo aerodinâmico e devido à elevada importância da validação dos resultados numéricos por meio de dados experimentais, foi realizado o estudo de análise dimensional que permite a realização de ensaios experimentais à escala, bem como a análise dos resultados experimentais obtidos.
Resumo:
Mestrado em Contabilidade
Resumo:
Mestrado em Contabilidade
Resumo:
Mestrado em Contabilidade e Gestão das Instituições Financeiras