38 resultados para Equação característica
em Repositório Científico do Instituto Politécnico de Lisboa - Portugal
Resumo:
A inovação e o desenvolvimento tecnológico obrigam os fabricantes a uma intensa competição global, face a uma redução no ciclo de desenvolvimento dos produtos e a rigorosos constrangimentos de custos, ao mesmo tempo que enfrentam consumidores mais exigentes, que procuram produtos de Qualidade. A Fiabilidade do bem é um aspecto marcante dessa Qualidade. Tradicionalmente o acesso a essa fiabilidade é baseado em testes de vida, normalmente acelerados. Todavia, para produtos altamente fiáveis, pouca informação a respeito da sua fiabilidade é fornecida por via dos testes de vida, nos quais poucas ou nenhumas falhas são observadas. Perante este cenário, a análise de degradação surge como uma técnica alternativa atractiva aos clássicos métodos de estudo da fiabilidade, apresentando como grande vantagem o facto de não ser necessário que nenhuma falha ocorra para se obter informação sobre a fiabilidade do bem, beneficiando ainda de uma redução no tempo de duração dos testes. Este trabalho começa por abordar os fundamentos da teoria da fiabilidade, e sua aplicação ao ciclo de vida dos componentes, fazendo alusão aos modelos de fiabilidade, ou distribuições de vida que mais usualmente se ajustam as várias fases de vida de um bem, nomeadamente a distribuição Exponencial, Normal e com particular destaque à versátil distribuição de Weibull. De seguida é feita a abordagem à análise de degradação dos componentes como uma técnica útil para estimar a fiabilidade de um bem, e neste contexto é feita a abordagem de uma metodologia de análise da degradação com base na monitorização da condição dos componentes. Quando um bem está sujeito a um processo de degradação, onde se pode fixar um valor limite para a característica que está a ser medida, pode-se recolher uma série de dados relativos ao processo em causa, servindo estes para ajustar um modelo matemático de degradação, que por extrapolação da curva de degradação permitem estimar o tempo até à falha, e por consequência o tempo de vida útil restante.O trabalho enquadra ainda a análise da degradação dos componentes numa perspectiva de apoio à estratégia de manutenção, no domínio da manutenção condicionada, e em particular no quadro da manutenção preditiva, tendo por objectivo fazer a optimização do programa de manutenção a aplicar, de forma a minimizar os custos globais da função manutenção. Nesta vertente são também considerados os intervalos P-F para monitorizar a evolução do estado de falha, em que é necessário definir o valor do parâmetro analisado para o qual se considere o início do processo de falha e o correspondente valor de falha efectiva. É apresentado um estudo prático com a colaboração duma prestigiada empresa de comercialização e distribuição de veículos pesados, focalizado num modelo de camião específico comercializado por essa marca. O estudo está direccionado para o sistema de travagem do veículo, mais concretamente a um dos seus componentes mecânicos, as pastilhas de travão. Este componente tem associado o mecanismo de degradação conhecido por desgaste. A medição do parâmetro de desgaste será feita por meio da técnica de simulação de valores, tendo no entanto em consideração, uma base de dados restrita de valores reais. O estudo de fiabilidade deste componente tem por objectivo fundamental estimar o tempo de Vida Útil Restante (“Residual Useful Life, RUL”) para as pastilhas, ou seja, até que se atinja o valor limite admissível (considerado como falha). Para os cálculos foi utilizado o programa informático denominado Weibull ++7. O caso de estudo permitiu determinar para situações particulares a relação entre o desgaste e a distância percorrida, estimando-se desta forma a vida restante (em distância), até ao momento em que o componente atinge o limite de desgaste considerado admissível. O grande potencial de estudo futuro passa pela elaboração de um modelo (com base em dados reais de exploração), que contemple os principais factores de influência, e que duma forma expedita permita a gestores de frota, fabricantes ou responsáveis da marca fazer a análise da fiabilidade do componente, tendo em conta uma situação específica de exploração. O conhecimento da fiabilidade das pastilhas pode levar à optimização da exploração do veiculo, por meio de um planeamento estratégico da sua manutenção,nomeadamente ao nível do aprovisionamento, na programação das intervenções, e em particular quanto à vida útil restante para as pastilhas.
Resumo:
A integração de informação geográfica disponível em diferentes formatos levanta a necessidade de criar mecanismos de resolução de incompatibilidades, tendo em vista facilitar a partilha e reutilização de informação. No âmbito desta dissertação, propõe-se uma arquitectura que efectue a integração de informação geográfica. A arquitectura processa diferentes fontes de informação geográfica com diferentes formatos. A informação geográfica apresentada nas entradas é transformada atendendo a um formato de representação interno e, após ser realizada a sua integração, é disponibilizada em múltiplos formatos de saída. A arquitectura proposta é modular e inclui o módulo de leitura das entradas, o módulo que associa as fontes de informação aos respectivos formatos, o módulo de conversão dos dados de entrada no formato de representação interno e o módulo de integração que gera os dados nos diferentes formatos de saída. Com o objectivo de avaliar experimentalmente a arquitectura, foi desenvolvido um protótipo. Foram processados exemplos de informação geográfica relativos a cenários de integração que cobrem as funcionalidades da arquitectura, nomeadamente a inclusão de novos formatos de informação geográfica e a integração de fontes de informação homogéneas ou heterogéneas. Os resultados obtidos confirmam que a arquitectura proposta é adequada à integração de fontes de informação geográfica e que é uma contribuição válida para a resolução de problemas de interoperabilidade em sistemas de informação geográfica.
Resumo:
A ideia de que a família é um elemento crucial na equação descritiva e explicativa dos processos de saúde e doença de cada pessoa é hoje bastante consensual. A família, como determinante fundamental dos processos de desenvolvimento, adaptação e perturbação do sujeito, é chamada a explicar a aquisição de hábitos e estilos de vida saudáveis e de risco, a exposição a comportamentos de risco e as estratégias de confronto com esses riscos, os processos de adoecer, de aceitação do diagnóstico e adaptação à doença crónica ou prolongada, de adesão aos tratamentos e de vivência da doença terminal. Mas a saúde e doença de cada pessoa também são chamadas a explicar os processos de adaptação e perturbação da família que constituem, ou de cada um dos seus membros. Finalmente a família é, ela mesma, enquanto entidade dinâmica, possível de caracterizar como mais ou menos saudável, sendo que a saúde da família afecta, necessariamente, a saúde actual e futura dos seus membros. Assim é quase unanimemente aceite que a família é um determinante importante dos processos de saúde e doença quer o sujeito ocupe as posições de filho, irmão ou pai/mãe, sendo que a família mais alargada tem sido, enquanto tal, pouco estudada. O conceito de família, na literatura da psicologia da saúde, não é alvo de grande discussão, sendo reconhecidas as múltiplas formas da mesma, e valorizada a sua importância nas diferentes fases da vida. A família é definida como um grupo composto por membros com obrigações mútuas que fornecem uns aos outros uma gama alargada de formas de apoio emocional e material. Caracteriza-se por ter uma estrutura, funções e papéis definidos, formas de interacção, recursos partilhados, um ciclo de vida, uma história comum, mas também um conjunto de indivíduos com histórias, experiências e expectativas individuais e únicas.
Resumo:
O tema deste trabalho visa abordar a Construção de Edifícios Residenciais de características singulares no mercado da Construção / Imobiliário, nomeadamente no que diz respeito à garantia das características a eles implícitas. Assim, abordam-se conseitos como a diferenciação e customização na construção, a especialização da equipa de trabalho e a classificação de empreendimentos, aqui designados como Super Prime. Um empreendimento Super Prime deve permitir alcançar um modo de vida bastante particular, movido pelo gosto, pela ostentação e pelo prazer. Um produto com estas características deve ser definido pela sua qualidade, exclusividade, criatividade, marca, emoção, autenticidade, prestígio e glamour. Num sector em constante mudança, cada vez mais exigente e competitivo e altamente dependente do mercado económico, facilmente se compreende a necessidade de diferenciação na construção de imóveis e da consciencialização do consumidor para a qualidade dos produtos. No entanto, não existe nenhuma metodologia, quer a nível nacional, quer a nível internacional, que garanta este conceito de classificação de edifícios residenciais. Este facto levou à proposta de uma Metodologia de Classificação de Empreendimentos Super Prime, que se designou por MCESP, e que tem como objectivo principal a verificação do cumprimento dos requisitos técnicos implícitos a estes empreendimentos, possibilitando a sua classificação dentro desse segmento. Desta forma, identificaram-se esses requisitos técnicos, definiu-se uma hierarquia lógica de exigências a cumprir, procedeu-se à distinção qualitativa de cada característica apresentada e obteve-se uma avaliação numérica, gráfica e justificativa. De uma forma geral, a proposta deste método de classificação surge como um critério de diferenciação e de notoriedade para empreiteiros, donos de obra e promotores, aumentando a rentabilidade e competitividade de uma empresa. A sua adopção possibilita a optimização de soluções, o aumento do nível de confiança dos clientes e o aumento de prestígio das suas empresas. Procurou-se igualmente, contribuir para o avanço do conhecimento no campo da tecnologia de construção residencial Super Prime, apoiando a inovação, o desenvolvimento e a personalização, contribuindo para um melhor produto final.
Resumo:
Actualmente tem-se observado um aumento do volume de sinais de fala em diversas aplicações, que reforçam a necessidade de um processamento automático dos ficheiros. No campo do processamento automático destacam-se as aplicações de “diarização de orador”, que permitem catalogar os ficheiros de fala com a identidade de oradores e limites temporais de fala de cada um, através de um processo de segmentação e agrupamento. No contexto de agrupamento, este trabalho visa dar continuidade ao trabalho intitulado “Detecção do Orador”, com o desenvolvimento de um algoritmo de “agrupamento multi-orador” capaz de identificar e agrupar correctamente os oradores, sem conhecimento prévio do número ou da identidade dos oradores presentes no ficheiro de fala. O sistema utiliza os coeficientes “Mel Line Spectrum Frequencies” (MLSF) como característica acústica de fala, uma segmentação de fala baseada na energia e uma estrutura do tipo “Universal Background Model - Gaussian Mixture Model” (UBM-GMM) adaptado com o classificador “Support Vector Machine” (SVM). No trabalho foram analisadas três métricas de discriminação dos modelos SVM e a avaliação dos resultados foi feita através da taxa de erro “Speaker Error Rate” (SER), que quantifica percentualmente o número de segmentos “fala” mal classificados. O algoritmo implementado foi ajustado às características da língua portuguesa através de um corpus com 14 ficheiros de treino e 30 ficheiros de teste. Os ficheiros de treino dos modelos e classificação final, enquanto os ficheiros de foram utilizados para avaliar o desempenho do algoritmo. A interacção com o algoritmo foi dinamizada com a criação de uma interface gráfica que permite receber o ficheiro de teste, processá-lo, listar os resultados ou gerar um vídeo para o utilizador confrontar o sinal de fala com os resultados de classificação.
Resumo:
A introdução desta tese começa por realizar um enquadramento do projecto em mão, apresentando a central de energia das ondas em que se encontram os componentes em fibra de vidro a projectar. Esta central usa o princípio de variação de coluna de água, e encontra-se localizada na ilha do Pico, Açores. São de seguida apresentados os objectivos deste trabalho, que consistem na selecção de materiais de fabrico dos componentes, desenvolvimento de uma metodologia para projectar juntas aparafusadas em materiais compósitos, dimensionamento e comparação de duas juntas concorrentes em materiais compósitos: junta solicitada à tracção e junta solicitada ao corte, validação da análise e estudo das causas dos vários tipos de falha destas juntas. A parte I deste trabalho é o resultado da pesquisa bibliográfica efectuada para levar a cabo os objectivos definidos. Assim, começa por se fazer uma descrição dos materiais e processos de fabrico que mais se adequam ao presente projecto, nomeadamente fibra de vidro, resinas, tecidos, impregnação manual, RTM e infusão por vácuo. Daqui resultou que os materiais mais adequados para esta aplicação são fibra de vidro do tipo E e resina polyester devido ao seu baixo custo e larga utilização em aplicações estruturais marinhas. O processo de fabrico mais eficiente é a infusão por vácuo devido á sua vocação para pequenas séries de produção, a poupança que permite em termos de mão-de-obra, a complacência com normas de emissão de voláteis e as boas propriedades das partes produzidas. No capítulo II da parte I são discutidos os tópicos relacionados com juntas em materiais compósitos. Da pesquisa levada a cabo conclui-se que as grandes vantagens das juntas aparafusadas são a sua facilidade de montagem e desmontagem, facilidade de inspecção e capacidade de ligar quaisquer tipos de materiais. Quanto à furação de compósitos é importante referir a necessidade de utilizar ferramentas resistentes e parâmetros de maquinação que minimizem o dano infligido aos laminados. Isto é possível através da selecção de ferramentas com passos baixos que reduzam igualmente a dimensão do seu centro estático responsável pela força axial exercida sobre o laminado - principal factor causador de dano. Devem-se igualmente utilizar baixas velocidades de avanço e elevadas velocidades de rotação. É importante salientar a importância da realização de pré-furação, de utilização de um prato de suporte na superfície de saída do laminado e a existência de ferramentas especialmente concebidas para a furação de compósitos. Para detectar e quantificar o dano existente num furo destacam-se os métodos de inspecção ultrasónica e a radiografia. Quanto aos parâmetros que influenciaram o comportamento de juntas aparafusadas destacam-se os rácios largura/diâmetro, distância ao bordo/diâmetro, espessura/diâmetro, pré-tensão, fricção, sequência de empilhamento e respectivas proporções, dimensão das anilhas e folga entre o parafuso e o furo. A pesquisa efectuada visando metodologias de projecto fiáveis ditou a necessidade de utilizar métodos que permitiram determinar o parafuso mais carregado de uma junta, efectuar o cálculo de tensões no mesmo, e ainda métodos que permitam determinar a primeira falha que ocorre no laminado bem como a falha final no mesmo. O capítulo III da primeira parte descreve os métodos de análise de tensões necessários para as metodologias de projecto utilizadas. Aqui é apresentada a teoria clássica da laminação, um método para determinação do parafuso mais carregado, um método analítico baseado na teoria da elasticidade anisotrópica de um corpo e o método dos elementos finitos. O método para determinar o parafuso mais carregado - análise global - consiste num modelo bidimensional de elementos finitos em que 2 laminados coincidentes são modelados com elementos lineares de casca com 4 nós, sendo a extremidade de um laminado restringida em todos os graus de liberdade e a extremidade oposta do segundo laminado carregada com a carga pretendida. Os laminados são ligados através de elementos mola que simulam os parafusos, sendo a sua constante de rigidez previamente calculada para este fim. O método analítico modela o contacto assumindo uma distribuição de pressão cosinoidal ao longo de metade do furo, e é válido para laminados simétricos e quasi-isotrópicos. O método dos elementos finitos é o que mais factores permite ter em conta, sendo os modelos tridimensionais com um elemento por camada os que melhor modelam o estado de tensões experienciado por uma junta aparafusada em materiais compósitos. O tópico de análise de falha é abordado no capítulo 4 da primeira parte. Aqui são apresentados os resultados do world wide failure exercice que compara vários critérios de falha existentes até 2004, fazendo-se referência a desenvolvimentos recentes que têm ocorrido nesta área. O critério de Puck surge como aquele que permite previsões de falha mais exactas. O critério de falha de Hashin 3D foi o escolhido para o presente trabalho, devido à sua facilidade de implementação num modelo de elementos finitos, à sua capacidade para detectar modos de falha subcríticos e à sua utilização em trabalhos anteriores que apresentaram previsões de falha muito próximas dos dados experimentais. Também neste capítulo se apresentaram os vários tipos de falha de uma junta aparafusada em materiais compósitos, apresentando as causas de cada uma. Por fim, na última secção, apresenta-se o método de dano progressivo que se desenvolveu para prever a primeira falha final do laminado. Este é muito interessante tendo permitido previsões de falha muito próximas dos resultados experimentais em trabalhos anteriores. Este método é iterativo e encontra-se dividido em 3 passos: Análise de tensões, análise de falha utilizando o critério de Hashin 3D e degradação de propriedades, de acordo com o tipo de falha detectada. Para além dos passos referidos, existe ainda um quarto responsável pelo fim da análise que consiste na aferição da existência ou não de falha final e respectivo tipo de falha (por pressão de contacto, por tensão ou por esforços de corte). No capítulo V da primeira parte é apresentado o resultado de uma pesquisa das normas de teste necessárias para obter as propriedades dos materiais requeridas para a aplicação dos métodos descritos neste trabalho. A parte II deste trabalho consiste na aplicação dos métodos apresentados na parte I ao caso concreto em estudo. Os softwares Microsoft Excel, Matlab e ANSYS foram utilizados para este fim. A junta começa por ser dimensionada estimando a espessura necessária do componente e o número e características dos parafusos. De seguida foi feita uma análise global à flange em estudo determinando a força suportada pelo parafuso mais carregado. Após esta análise desenvolveu-se um modelo tridimensional de elementos finitos da zona em que se encontra o parafuso mais carregado, utilizando elementos sólidos lineares e isoparamétricos de 8 nós e uma malha gerada pelo método directo. Aplicou-se a este modelo o algoritmo de dano progressivo descrito na primeira parte. Começou por se incluir explicitamente o parafuso, anilhas, pré-tensão e a modelação dos vários contactos com fricção posteriormente simplificado o modelo restringindo radialmente os nós da porção carregada do furo, excluindo os factores mencionados inicialmente. Procurou-se validar o modelo utilizando o método de cálculo de tensões descrito na primeira parte, desenvolvendo um programa em Matlab para o efeito. Tal não foi possível tendo-se incluído a tentativa realizada em anexo. Para efeitos de dimensionamento, desenvolveu-se um modelo de elementos finitos de duas dimensões da junta em causa, utilizando elementos de casca lineares de quatro nós isoparamétricos com uma espessura unitária. Através da análise de tensões efectuada com este modelo, e utilizando um método combinado programado em linguagem paramétrica, foi possível dimensionar as duas juntas concorrentes pretendidas. Este método combinado consistiu no cálculo de tensões em pontos localizados sobre uma curva característica e utilização de um critério de falha quadrático para cálculo da espessura necessária para a junta. O dimensionamento ditou que a junta solicitada à tensão necessita de pelo menos 127% das camadas e do custo de uma junta solicitada ao corte equivalente.
Resumo:
As vias de comunicação são indispensáveis para o desenvolvimento de uma nação, económica e socialmente. Num mundo globalizado, onde tudo deve chegar ao seu destino no menor espaço de tempo, as vias de comunicação assumem um papel vital. Assim, torna-se essencial construir e manter uma rede de transportes eficiente. Apesar de não ser o método mais eficiente, o transporte rodoviário é muitas vezes o mais económico e possibilita o transporte porta-a-porta, sendo em muitos casos o único meio de transporte possível. Por estas razões, o modo rodoviário tem uma quota significativa no mercado dos transportes, seja de passageiros ou mercadorias, tornando-o extremamente importante na rede de transportes de um país. Os países europeus fizeram um grande investimento na criação de extensas redes de estradas, cobrindo quase todo o seu território. Neste momento, começa-se a atingir o ponto onde a principal preocu+ação das entidades gestoras de estradas deixa de ser a construção de novas vias, passando a focar-se na necessidade de manutenção e conservação das vias existentes. Os pavimentos rodoviários, como todas as outras construções, requerem manutenção de forma a garantir bons níveis de serviço com qualidade, conforto e segurança. Devido aos custos inerentes às operações de manutenção de pavimentos, estas devem rigorosamente e com base em critérios científicos bem definidos. Assim, pretende-se evitar intervenções desnecessárias, mas também impedir que os danos se tornem irreparáveis e economicamente prejudiciais, com repercussões na segurança dos utilizadores. Para se estimar a vida útil de um pavimento é essencial realizar primeiro a caracterização estrutural do mesmo. Para isso, torna-se necessário conhecer o tipo de estrutura de um pavimento, nomeadamente a espessura e o módulo de elasticidade constituintes. A utilização de métodos de ensaio não destrutivos é cada vez mais reconhecida como uma forma eficaz para obter informações sobre o comportamento estrutural de pavimentos. Para efectuar estes ensaios, existem vários equipamentos. No entanto, dois deles, o Deflectómetro de Impacto e o Radar de Prospecção, têm demonstrado ser particularmente eficientes para avaliação da capacidade de carga de um pavimento, sendo estes equipamentos utilizados no âmbito deste estudo. Assim, para realização de ensaios de carga em pavimentos, o equipamento Deflectómetro de Impacto tem sido utilizado com sucesso para medir as deflexões à superfície de um pavimento em pontos pré-determinados quando sujeito a uma carga normalizada de forma a simular o efeito da passagem da roda de um camião. Complementarmente, para a obtenção de informações contínuas sobre a estrutura de um pavimento, o equipamento Radar de Prospecção permite conhecer o número de camadas e as suas espessuras através da utilização de ondas electromagnéticas. Os dados proporcionam, quando usados em conjunto com a realização de sondagens à rotação e poços em alguns locais, permitem uma caracterização mais precisa da condição estrutural de um pavimento e o estabelecimento de modelos de resposta, no caso de pavimentos existentes. Por outro lado, o processamento dos dados obtidos durante os ensaios “in situ” revela-se uma tarefa morosa e complexa. Actualmente, utilizando as espessuras das camadas do pavimento, os módulos de elasticidade das camadas são calculados através da “retro-análise” da bacia de deflexões medida nos ensaios de carga. Este método é iterativo, sendo que um engenheiro experiente testa várias estruturas diferentes de pavimento, até se obter uma estrutura cuja resposta seja o mais próximo possível da obtida durante os ensaios “in Situ”. Esta tarefa revela-se muito dependente da experiência do engenheiro, uma vez que as estruturas de pavimento a serem testadas maioritariamente do seu raciocínio. Outra desvantagem deste método é o facto de apresentar soluções múltiplas, dado que diferentes estruturas podem apresentar modelos de resposta iguais. A solução aceite é, muitas vezes, a que se julga mais provável, baseando-se novamente no raciocínio e experiência do engenheiro. A solução para o problema da enorme quantidade de dados a processar e das múltiplas soluções possíveis poderá ser a utilização de Redes Neuronais Artificiais (RNA) para auxiliar esta tarefa. As redes neuronais são elementos computacionais virtuais, cujo funcionamento é inspirado na forma como os sistemas nervosos biológicos, como o cérebro, processam a informação. Estes elementos são compostos por uma série de camadas, que por sua vez são compostas por neurónios. Durante a transmissão da informação entre neurónios, esta é modificada pela aplicação de um coeficiente, denominado “peso”. As redes neuronais apresentam uma habilidade muito útil, uma vez que são capazes de mapear uma função sem conhecer a sua fórmula matemática. Esta habilidade é utilizada em vários campos científicos como o reconhecimento de padrões, classificação ou compactação de dados. De forma a possibilitar o uso desta característica, a rede deverá ser devidamente “treinada” antes, processo realizado através da introdução de dois conjuntos de dados: os valores de entrada e os valores de saída pretendidos. Através de um processo cíclico de propagação da informação através das ligações entre neurónios, as redes ajustam-se gradualmente, apresentando melhores resultados. Apesar de existirem vários tipos de redes, as que aparentam ser as mais aptas para esta tarefa são as redes de retro-propagação. Estas possuem uma característica importante, nomeadamente o treino denominado “treino supervisionado”. Devido a este método de treino, as redes funcionam dentro da gama de variação dos dados fornecidos para o “treino” e, consequentemente, os resultados calculados também se encontram dentro da mesma gama, impedindo o aparecimento de soluções matemáticas com impossibilidade prática. De forma a tornar esta tarefa ainda mais simples, foi desenvolvido um programa de computador, NNPav, utilizando as RNA como parte integrante do seu processo de cálculo. O objectivo é tornar o processo de “retro-análise” totalmente automático e prevenir erros induzidos pela falta de experiência do utilizador. De forma a expandir ainda mais as funcionalidades do programa, foi implementado um processo de cálculo que realiza uma estimativa da capacidade de carga e da vida útil restante do pavimento, recorrendo a dois critérios de ruína. Estes critérios são normalmente utilizados no dimensionamento de pavimentos, de forma a prevenir o fendilhamento por fadiga e as deformações permanentes. Desta forma, o programa criado permite a estimativa da vida útil restante de um pavimento de forma eficiente, directamente a partir das deflexões e espessuras das camadas, medidas nos ensaios “in situ”. Todos os passos da caracterização estrutural do pavimento são efectuados pelo NNPav, seja recorrendo à utilização de redes neuronais ou a processos de cálculo matemático, incluindo a correcção do módulo de elasticidade da camada de misturas betuminosas para a temperatura de projecto e considerando as características de tráfego e taxas de crescimento do mesmo. Os testes efectuados às redes neuronais revelaram que foram alcançados resultados satisfatórios. Os níveis de erros na utilização de redes neuronais são semelhantes aos obtidos usando modelos de camadas linear-elásticas, excepto para o cálculo da vida útil com base num dos critérios, onde os erros obtidos foram mais altos. No entanto, este processo revela-se bastante mais rápido e possibilita o processamento dos dados por pessoal com menos experiência. Ao mesmo tempo, foi assegurado que nos ficheiros de resultados é possível analisar todos os dados calculados pelo programa, em várias fases de processamento de forma a permitir a análise detalhada dos mesmos. A possibilidade de estimar a capacidade de carga e a vida útil restante de um pavimento, contempladas no programa desenvolvido, representam também ferramentas importantes. Basicamente, o NNPav permite uma análise estrutural completa de um pavimento, estimando a sua vida útil com base nos ensaios de campo realizados pelo Deflectómetro de Impacto e pelo Radar de Prospecção, num único passo. Complementarmente, foi ainda desenvolvido e implementado no NNPav um módulo destinado ao dimensionamento de pavimentos novos. Este módulo permite que, dado um conjunto de estruturas de pavimento possíveis, seja estimada a capacidade de carga e a vida útil daquele pavimento. Este facto permite a análise de uma grande quantidade de estruturas de pavimento, e a fácil comparação dos resultados no ficheiro exportado. Apesar dos resultados obtidos neste trabalho serem bastante satisfatórios, os desenvolvimentos futuros na aplicação de Redes Neuronais na avaliação de pavimentos são ainda mais promissores. Uma vez que este trabalho foi limitado a uma moldura temporal inerente a um trabalho académico, a possibilidade de melhorar ainda mais a resposta das RNA fica em aberto. Apesar dos vários testes realizados às redes, de forma a obter as arquitecturas que apresentassem melhores resultados, as arquitecturas possíveis são virtualmente ilimitadas e pode ser uma área a aprofundar. As funcionalidades implementadas no programa foram as possíveis, dentro da moldura temporal referida, mas existem muitas funcionalidades a serem adicinadas ou expandidas, aumentando a funcionalidade do programa e a sua produtividade. Uma vez que esta é uma ferramenta que pode ser aplicada ao nível de gestão de redes rodoviárias, seria necessário estudar e desenvolver redes similares de forma a avaliar outros tipos de estruturas de pavimentos. Como conclusão final, apesar dos vários aspectos que podem, e devem ser melhorados, o programa desenvolvido provou ser uma ferramenta bastante útil e eficiente na avaliação estrutural de pavimentos com base em métodos de ensaio não destrutivos.
Resumo:
A necessidade que as indústrias têm, hoje em dia, de lidar com processos cada vez mais complexos, onde a quantidade de variáveis a controlar e restrições processuais a impor aumentou exponencialmente nas últimas décadas. Uma maior competitividade e eficiência, lado-a-lado com a redução de custos, proporcionou à comunidade científica e industrial explorar mais profundamente o controlo de processos, com vista à construção de técnicas avançadas para fazer face a estas exigências. O controlo preditivo baseado em modelos - MPC- engloba diversas classes de controladores que utilizam algoritmos de predição/previsão e modelos matemáticos representativos do sistema, que juntamente com restrições processuais permitem operar junto de referências e tornar o controlo mais eficiente e seguro. O sucesso do MPC nos sistemas lineares com restrições deve-se, sobretudo, ao facto de reduzir o problema de optimização a um problema de programação quadrática, de fácil implementação e resolução. Além do mais, trata-se de um tipo de controlo bastante flexível e, ao mesmo tempo, mais robusto que o controlo clássico ou convencional, já que pode lidar com processos multivariáveis sem precisar de alterações significativas na sua construção. Neste trabalho aplicam-se técnicas de controlo preditivo a processos não lineares multivariáveis. Estuda-se, ainda, o desempenho desta classe de controladores comparando-a com técnicas de controlo convencional. Nomeadamente, estuda-se um sistema de três tanques em que o caudal é manipulado através de válvulas com característica não linear. O processo é modelado através de princípios de conservação e é validado por um conjunto real de ensaios que permitiu, ainda, obter experimentalmente a característica das válvulas. O modelo validado permitiu desenvolver um controlador preditivo multivariável para controlar os níveis da instalação. Demonstra-se que os controladores preditivos apresentam grandes vantagens em relação ao controlo clássico com malhas independentes.
Resumo:
A evolução tecnológica e das sociedades permitiu que, hoje em dia, uma boa parte da população tenha acesso a dispositivos móveis com funcionalidades avançadas. Com este tipo de dispositivos, temos acesso a inúmeras fontes de informação em tempo-real, mas esta característica ainda não é, hoje em dia, aproveitada na sua totalidade. Este projecto tenta tirar partido desta realidade para, utilizando os diversos dispositivos móveis, criar uma rede de troca de informações de trânsito. O utilizador apenas necessita de servir-se do seu dispositivo móvel para, automaticamente, obter as mais recentes informações de trânsito enquanto, paralelamente, partilha com os outros utilizadores a sua informação. Apesar de existirem outras alternativas no mercado, com soluções que permitem usufruir do mesmo tipo de funcionalidades, nenhuma utiliza este tipo de dispositivos (GPS’s convencionais, por exemplo). Um dos requisitos necessário na implementação deste projecto é uma solução de geocoding. Após terem sido testadas várias soluções, nenhuma cumpria, na totalidade, os requisitos deste projecto, o que originou o desenvolvimento de uma nova solução que cumpre esses requisitos. A solução é, toda ela, muito modular, formada por vários componentes, cada um com responsabilidades bem identificadas. A arquitectura desta solução baseia-se nos padrões de desenvolvimento de uma Service Oriented Architecture. Todos os componentes disponibilizam as suas operações através de web services, e a sua descoberta recorre ao protocolo WS-Discovery. Estes vários componentes podem ser divididos em duas categorias: os do núcleo, responsáveis por criar e oferecer as funcionalidades requisitadas neste projecto e os módulos externos, nos quais se incluem as aplicações que apresentam as funcionalidades ao utilizador. Foram criadas duas formas de consumir a informação oferecida pelo serviço SIAT: a aplicação móvel e um website. No âmbito dos dispositivos móveis, foi desenvolvida uma aplicação para o sistema operativo Windows Phone 7.
Resumo:
Esta tese tem como principal objectivo a investigação teórica e experimental do desempenho de um sensor polarimétrico baseado num cristal líquido para medição da concentração de glicose. Recentemente uma série de sensores polarimétricos baseados em cristais líquidos foram propostos na literatura e receberam considerável interesse devido as suas características únicas. De facto, em comparação com outros moduladores electro-ópticos, o cristal líquido funciona com tensões mais baixas, tem baixo consumo de energia e maior ângulo de rotação. Além disso, este tipo de polarímetro pode ter pequenas dimensões que é uma característica interessante para dispositivos portáteis e compactos. Existem por outro lado algumas desvantagens, nomeadamente o facto do desempenho do polarímetro ser fortemente dependente do tipo de cristal líquido e da tensão a ele aplicada o que coloca desafios na escolha dos parâmetros óptimos de operação. Esta tese descreve o desenvolvimento do sensor polarimétrico, incluindo a integração dos componentes de óptica e electrónica, os algoritmos de processamento de sinal e um interface gráfico que facilita a programação de diversos parâmetros de operação e a calibração do sensor. Após a optimização dos parâmetros de operação verificou-se que o dispositivo mede a concentração da glicose em amostras com uma concentração de 8 mg/ml, com uma percentagem de erro inferior a 6% e um desvio padrão de 0,008o. Os resultados foram obtidos para uma amostra com percurso óptico de apenas 1 cm.
Resumo:
O estudo desenvolvido no presente documento teve como alvo um edifício antigo construído entre 1930 e 1940 no concelho de Coruche, com construção característica da sua época. Numa fase inicial analisou-se de que forma se comporta o edifício em termos térmicos e energéticos, com base nas metodologias de cálculo apresentadas pelo regulamento térmico em vigor (RCCTE, 2006), e de seguida foram analisadas várias soluções existentes para a reabilitação térmica e energética do edifício que poderá ser concretizada, essencialmente devido às soluções para isolamento térmico das paredes, pavimentos e cobertura, assim como devido às soluções para vidros e caixilharia dos vãos envidraçados. Numa fase posterior, foi estudada a aplicação isolada das várias soluções de reabilitação consideradas, tendo sido simulada a aplicação de várias espessuras de isolante para as soluções da envolvente opaca e vários tipos de vidro duplo e caixilharia para as soluções da envolvente envidraçada, de forma a perceber-se a implicação que cada uma tem quanto à variação das necessidades energéticas do edifício. Por fim, foram calculados os custos de aplicação das várias soluções estudadas, com auxílio de um software de orçamentação, de forma que estas possam ser comparadas em termos da relação custo/benefício, em que, o benefício de cada solução será a variação provocada nas necessidades energéticas do edifício com aplicação da mesma. Assim, procurará encontrar-se para o edifício em estudo não só as soluções mais vantajosas em termos energéticos mas também as mais rentáveis, e procurará perceber-se se um investimento numa intervenção de reabilitação deste género conduzirá a um período de retorno do investimento reduzido, que possa ser considerado aceitável.
Resumo:
Nesta dissertação pretende-se simular o comportamento dinâmico de uma laje de betão armado aplicando o Método de Elementos Finitos através da sua implementação no programa FreeFEM++. Este programa permite-nos a análise do modelo matemático tridimensional da Teoria da Elasticidade Linear, englobando a Equação de Equilíbrio, Equação de Compatibilidade e Relações Constitutivas. Tratando-se de um problema dinâmico é necessário recorrer a métodos numéricos de Integração Directa de modo a obter a resposta em termos de deslocamento ao longo do tempo. Para este trabalho escolhemos o Método de Newmark e o Método de Euler para a discretização temporal, um pela sua popularidade e o outro pela sua simplicidade de implementação. Os resultados obtidos pelo FreeFEM++ são validados através da comparação com resultados adquiridos a partir do SAP2000 e de Soluções Teóricas, quando possível.
Resumo:
O RoF (Radio over Fiber) é uma tecnologia que permite a transmissão de sinais rádio de elevada largura de banda, fornecida pela fibra óptica, e simultaneamente mantêm a característica de mobilidade das redes de comunicação móvel. Esta dissertação de mestrado tem como objectivo estudar, simular e comparar sistemas RoF com modulação directa e com modulação externa, utilizando um sinal WiMAX, por ser uma tecnologia recente e com potencial de utilização futura. Desta forma foram avaliados três tipos de moduladores externos, sendo que o modulador EA (Electro-Absorption) é o que permite obter melhores valores de EVM e de SNR devido ao facto deste ter menores perdas de inserção na fibra. Da comparação entre o esquema com modulação directa e o esquema com modulação externa, é possível concluir que para larguras de banda mais baixas a utilização de modulação directa é mais eficiente que a modulação externa, mas à medida que a largura de banda aumenta a modulação externa apresenta claramente melhor desempenho. Isto deve-se ao facto de a modulação directa produzir mais chirp que a modulação externa, sendo que o chirp limita a largura de banda e o comprimento da fibra. De forma a melhorar o desempenho do sistema com modulação directa foi introduzido uma fibra com compensação de dispersão. Foi possível concluir que a utilização de fibra com compensação de dispersão é uma boa solução quando se pretende transmitir sinais de elevada largura de banda em esquemas com modulação directa.
Resumo:
Um dos maiores desafios tecnológicos no presente é o de se conseguir gerar e manter, de uma maneira eficiente e consistente, uma base de dados de objectos multimédia, em particular, de imagens. A necessidade de desenvolver métodos de pesquisa automáticos baseados no conteúdo semântico das imagens tornou-se de máxima importância. MPEG-7 é um standard que descreve o contudo dos dados multimédia que suportam estes requisitos operacionais. Adiciona um conjunto de descritores audiovisuais de baixo nível. O histograma é a característica mais utilizada para representar as características globais de uma imagem. Neste trabalho é usado o “Edge Histogram Descriptor” (EHD), que resulta numa representação de baixo nível que permite a computação da similaridade entre imagens. Neste trabalho, é obtida uma caracterização semântica da imagem baseada neste descritor usando dois métodos da classificação: o algoritmo k Nearest Neighbors (k-NN) e uma Rede Neuronal (RN) de retro propagação. No algoritmo k-NN é usada a distância Euclidiana entre os descritores de duas imagens para calcular a similaridade entre imagens diferentes. A RN requer um processo de aprendizagem prévia, que inclui responder correctamente às amostras do treino e às amostras de teste. No fim deste trabalho, será apresentado um estudo sobre os resultados dos dois métodos da classificação.
Resumo:
Este projecto pretende criar uma plataforma do tipo framework, para desenvolvimento de software que permita a implementação de sistemas biométricos de identificação e autenticação pessoal, usando sinais electrofisiológicos. O sinal electrocardiograma (ECG) é uma característica biométrica em ascensão, existindo fortes indícios de que contém informação suficiente para discriminar um indivíduo de um conjunto vasto de população. Usa-se a framework desenvolvida para criar aplicações que permitam avaliar o desempenho de várias abordagens do estado da arte do reconhecimento biométrico, baseadas no ECG. A arquitectura típica destes sistemas biométricos inclui blocos de aquisição, préprocessamento, extracção de características e classificação de sinais ECG, utilizando tipicamente duas abordagens distintas. Uma das abordagens (fiducial) assenta em pormenores dos diferentes segmentos da forma de onda do sinal ECG, enquanto que a outra abordagem (nonfiducial) tem a vantagem de não depender criticamente desses pormenores. Neste projecto ainda será explorada uma nova variante numa abordagem (non-fiducial) baseada em compressão de dados. Finalmente, pretende-se ainda estudar o desempenho destas abordagens em sinais ECG adquiridos nas mãos, o que constitui um desafio, dado não existirem actualmente estudos sistemáticos usando este tipo de sinais.