998 resultados para Ferramentas de estampagem
Resumo:
Dissertação apresentada à Escola Superior de Comunicação Social para obtenção de grau de mestre em Publicidade e Marketing
Resumo:
A introdução desta tese começa por realizar um enquadramento do projecto em mão, apresentando a central de energia das ondas em que se encontram os componentes em fibra de vidro a projectar. Esta central usa o princípio de variação de coluna de água, e encontra-se localizada na ilha do Pico, Açores. São de seguida apresentados os objectivos deste trabalho, que consistem na selecção de materiais de fabrico dos componentes, desenvolvimento de uma metodologia para projectar juntas aparafusadas em materiais compósitos, dimensionamento e comparação de duas juntas concorrentes em materiais compósitos: junta solicitada à tracção e junta solicitada ao corte, validação da análise e estudo das causas dos vários tipos de falha destas juntas. A parte I deste trabalho é o resultado da pesquisa bibliográfica efectuada para levar a cabo os objectivos definidos. Assim, começa por se fazer uma descrição dos materiais e processos de fabrico que mais se adequam ao presente projecto, nomeadamente fibra de vidro, resinas, tecidos, impregnação manual, RTM e infusão por vácuo. Daqui resultou que os materiais mais adequados para esta aplicação são fibra de vidro do tipo E e resina polyester devido ao seu baixo custo e larga utilização em aplicações estruturais marinhas. O processo de fabrico mais eficiente é a infusão por vácuo devido á sua vocação para pequenas séries de produção, a poupança que permite em termos de mão-de-obra, a complacência com normas de emissão de voláteis e as boas propriedades das partes produzidas. No capítulo II da parte I são discutidos os tópicos relacionados com juntas em materiais compósitos. Da pesquisa levada a cabo conclui-se que as grandes vantagens das juntas aparafusadas são a sua facilidade de montagem e desmontagem, facilidade de inspecção e capacidade de ligar quaisquer tipos de materiais. Quanto à furação de compósitos é importante referir a necessidade de utilizar ferramentas resistentes e parâmetros de maquinação que minimizem o dano infligido aos laminados. Isto é possível através da selecção de ferramentas com passos baixos que reduzam igualmente a dimensão do seu centro estático responsável pela força axial exercida sobre o laminado - principal factor causador de dano. Devem-se igualmente utilizar baixas velocidades de avanço e elevadas velocidades de rotação. É importante salientar a importância da realização de pré-furação, de utilização de um prato de suporte na superfície de saída do laminado e a existência de ferramentas especialmente concebidas para a furação de compósitos. Para detectar e quantificar o dano existente num furo destacam-se os métodos de inspecção ultrasónica e a radiografia. Quanto aos parâmetros que influenciaram o comportamento de juntas aparafusadas destacam-se os rácios largura/diâmetro, distância ao bordo/diâmetro, espessura/diâmetro, pré-tensão, fricção, sequência de empilhamento e respectivas proporções, dimensão das anilhas e folga entre o parafuso e o furo. A pesquisa efectuada visando metodologias de projecto fiáveis ditou a necessidade de utilizar métodos que permitiram determinar o parafuso mais carregado de uma junta, efectuar o cálculo de tensões no mesmo, e ainda métodos que permitam determinar a primeira falha que ocorre no laminado bem como a falha final no mesmo. O capítulo III da primeira parte descreve os métodos de análise de tensões necessários para as metodologias de projecto utilizadas. Aqui é apresentada a teoria clássica da laminação, um método para determinação do parafuso mais carregado, um método analítico baseado na teoria da elasticidade anisotrópica de um corpo e o método dos elementos finitos. O método para determinar o parafuso mais carregado - análise global - consiste num modelo bidimensional de elementos finitos em que 2 laminados coincidentes são modelados com elementos lineares de casca com 4 nós, sendo a extremidade de um laminado restringida em todos os graus de liberdade e a extremidade oposta do segundo laminado carregada com a carga pretendida. Os laminados são ligados através de elementos mola que simulam os parafusos, sendo a sua constante de rigidez previamente calculada para este fim. O método analítico modela o contacto assumindo uma distribuição de pressão cosinoidal ao longo de metade do furo, e é válido para laminados simétricos e quasi-isotrópicos. O método dos elementos finitos é o que mais factores permite ter em conta, sendo os modelos tridimensionais com um elemento por camada os que melhor modelam o estado de tensões experienciado por uma junta aparafusada em materiais compósitos. O tópico de análise de falha é abordado no capítulo 4 da primeira parte. Aqui são apresentados os resultados do world wide failure exercice que compara vários critérios de falha existentes até 2004, fazendo-se referência a desenvolvimentos recentes que têm ocorrido nesta área. O critério de Puck surge como aquele que permite previsões de falha mais exactas. O critério de falha de Hashin 3D foi o escolhido para o presente trabalho, devido à sua facilidade de implementação num modelo de elementos finitos, à sua capacidade para detectar modos de falha subcríticos e à sua utilização em trabalhos anteriores que apresentaram previsões de falha muito próximas dos dados experimentais. Também neste capítulo se apresentaram os vários tipos de falha de uma junta aparafusada em materiais compósitos, apresentando as causas de cada uma. Por fim, na última secção, apresenta-se o método de dano progressivo que se desenvolveu para prever a primeira falha final do laminado. Este é muito interessante tendo permitido previsões de falha muito próximas dos resultados experimentais em trabalhos anteriores. Este método é iterativo e encontra-se dividido em 3 passos: Análise de tensões, análise de falha utilizando o critério de Hashin 3D e degradação de propriedades, de acordo com o tipo de falha detectada. Para além dos passos referidos, existe ainda um quarto responsável pelo fim da análise que consiste na aferição da existência ou não de falha final e respectivo tipo de falha (por pressão de contacto, por tensão ou por esforços de corte). No capítulo V da primeira parte é apresentado o resultado de uma pesquisa das normas de teste necessárias para obter as propriedades dos materiais requeridas para a aplicação dos métodos descritos neste trabalho. A parte II deste trabalho consiste na aplicação dos métodos apresentados na parte I ao caso concreto em estudo. Os softwares Microsoft Excel, Matlab e ANSYS foram utilizados para este fim. A junta começa por ser dimensionada estimando a espessura necessária do componente e o número e características dos parafusos. De seguida foi feita uma análise global à flange em estudo determinando a força suportada pelo parafuso mais carregado. Após esta análise desenvolveu-se um modelo tridimensional de elementos finitos da zona em que se encontra o parafuso mais carregado, utilizando elementos sólidos lineares e isoparamétricos de 8 nós e uma malha gerada pelo método directo. Aplicou-se a este modelo o algoritmo de dano progressivo descrito na primeira parte. Começou por se incluir explicitamente o parafuso, anilhas, pré-tensão e a modelação dos vários contactos com fricção posteriormente simplificado o modelo restringindo radialmente os nós da porção carregada do furo, excluindo os factores mencionados inicialmente. Procurou-se validar o modelo utilizando o método de cálculo de tensões descrito na primeira parte, desenvolvendo um programa em Matlab para o efeito. Tal não foi possível tendo-se incluído a tentativa realizada em anexo. Para efeitos de dimensionamento, desenvolveu-se um modelo de elementos finitos de duas dimensões da junta em causa, utilizando elementos de casca lineares de quatro nós isoparamétricos com uma espessura unitária. Através da análise de tensões efectuada com este modelo, e utilizando um método combinado programado em linguagem paramétrica, foi possível dimensionar as duas juntas concorrentes pretendidas. Este método combinado consistiu no cálculo de tensões em pontos localizados sobre uma curva característica e utilização de um critério de falha quadrático para cálculo da espessura necessária para a junta. O dimensionamento ditou que a junta solicitada à tensão necessita de pelo menos 127% das camadas e do custo de uma junta solicitada ao corte equivalente.
Resumo:
As vias de comunicação são indispensáveis para o desenvolvimento de uma nação, económica e socialmente. Num mundo globalizado, onde tudo deve chegar ao seu destino no menor espaço de tempo, as vias de comunicação assumem um papel vital. Assim, torna-se essencial construir e manter uma rede de transportes eficiente. Apesar de não ser o método mais eficiente, o transporte rodoviário é muitas vezes o mais económico e possibilita o transporte porta-a-porta, sendo em muitos casos o único meio de transporte possível. Por estas razões, o modo rodoviário tem uma quota significativa no mercado dos transportes, seja de passageiros ou mercadorias, tornando-o extremamente importante na rede de transportes de um país. Os países europeus fizeram um grande investimento na criação de extensas redes de estradas, cobrindo quase todo o seu território. Neste momento, começa-se a atingir o ponto onde a principal preocu+ação das entidades gestoras de estradas deixa de ser a construção de novas vias, passando a focar-se na necessidade de manutenção e conservação das vias existentes. Os pavimentos rodoviários, como todas as outras construções, requerem manutenção de forma a garantir bons níveis de serviço com qualidade, conforto e segurança. Devido aos custos inerentes às operações de manutenção de pavimentos, estas devem rigorosamente e com base em critérios científicos bem definidos. Assim, pretende-se evitar intervenções desnecessárias, mas também impedir que os danos se tornem irreparáveis e economicamente prejudiciais, com repercussões na segurança dos utilizadores. Para se estimar a vida útil de um pavimento é essencial realizar primeiro a caracterização estrutural do mesmo. Para isso, torna-se necessário conhecer o tipo de estrutura de um pavimento, nomeadamente a espessura e o módulo de elasticidade constituintes. A utilização de métodos de ensaio não destrutivos é cada vez mais reconhecida como uma forma eficaz para obter informações sobre o comportamento estrutural de pavimentos. Para efectuar estes ensaios, existem vários equipamentos. No entanto, dois deles, o Deflectómetro de Impacto e o Radar de Prospecção, têm demonstrado ser particularmente eficientes para avaliação da capacidade de carga de um pavimento, sendo estes equipamentos utilizados no âmbito deste estudo. Assim, para realização de ensaios de carga em pavimentos, o equipamento Deflectómetro de Impacto tem sido utilizado com sucesso para medir as deflexões à superfície de um pavimento em pontos pré-determinados quando sujeito a uma carga normalizada de forma a simular o efeito da passagem da roda de um camião. Complementarmente, para a obtenção de informações contínuas sobre a estrutura de um pavimento, o equipamento Radar de Prospecção permite conhecer o número de camadas e as suas espessuras através da utilização de ondas electromagnéticas. Os dados proporcionam, quando usados em conjunto com a realização de sondagens à rotação e poços em alguns locais, permitem uma caracterização mais precisa da condição estrutural de um pavimento e o estabelecimento de modelos de resposta, no caso de pavimentos existentes. Por outro lado, o processamento dos dados obtidos durante os ensaios “in situ” revela-se uma tarefa morosa e complexa. Actualmente, utilizando as espessuras das camadas do pavimento, os módulos de elasticidade das camadas são calculados através da “retro-análise” da bacia de deflexões medida nos ensaios de carga. Este método é iterativo, sendo que um engenheiro experiente testa várias estruturas diferentes de pavimento, até se obter uma estrutura cuja resposta seja o mais próximo possível da obtida durante os ensaios “in Situ”. Esta tarefa revela-se muito dependente da experiência do engenheiro, uma vez que as estruturas de pavimento a serem testadas maioritariamente do seu raciocínio. Outra desvantagem deste método é o facto de apresentar soluções múltiplas, dado que diferentes estruturas podem apresentar modelos de resposta iguais. A solução aceite é, muitas vezes, a que se julga mais provável, baseando-se novamente no raciocínio e experiência do engenheiro. A solução para o problema da enorme quantidade de dados a processar e das múltiplas soluções possíveis poderá ser a utilização de Redes Neuronais Artificiais (RNA) para auxiliar esta tarefa. As redes neuronais são elementos computacionais virtuais, cujo funcionamento é inspirado na forma como os sistemas nervosos biológicos, como o cérebro, processam a informação. Estes elementos são compostos por uma série de camadas, que por sua vez são compostas por neurónios. Durante a transmissão da informação entre neurónios, esta é modificada pela aplicação de um coeficiente, denominado “peso”. As redes neuronais apresentam uma habilidade muito útil, uma vez que são capazes de mapear uma função sem conhecer a sua fórmula matemática. Esta habilidade é utilizada em vários campos científicos como o reconhecimento de padrões, classificação ou compactação de dados. De forma a possibilitar o uso desta característica, a rede deverá ser devidamente “treinada” antes, processo realizado através da introdução de dois conjuntos de dados: os valores de entrada e os valores de saída pretendidos. Através de um processo cíclico de propagação da informação através das ligações entre neurónios, as redes ajustam-se gradualmente, apresentando melhores resultados. Apesar de existirem vários tipos de redes, as que aparentam ser as mais aptas para esta tarefa são as redes de retro-propagação. Estas possuem uma característica importante, nomeadamente o treino denominado “treino supervisionado”. Devido a este método de treino, as redes funcionam dentro da gama de variação dos dados fornecidos para o “treino” e, consequentemente, os resultados calculados também se encontram dentro da mesma gama, impedindo o aparecimento de soluções matemáticas com impossibilidade prática. De forma a tornar esta tarefa ainda mais simples, foi desenvolvido um programa de computador, NNPav, utilizando as RNA como parte integrante do seu processo de cálculo. O objectivo é tornar o processo de “retro-análise” totalmente automático e prevenir erros induzidos pela falta de experiência do utilizador. De forma a expandir ainda mais as funcionalidades do programa, foi implementado um processo de cálculo que realiza uma estimativa da capacidade de carga e da vida útil restante do pavimento, recorrendo a dois critérios de ruína. Estes critérios são normalmente utilizados no dimensionamento de pavimentos, de forma a prevenir o fendilhamento por fadiga e as deformações permanentes. Desta forma, o programa criado permite a estimativa da vida útil restante de um pavimento de forma eficiente, directamente a partir das deflexões e espessuras das camadas, medidas nos ensaios “in situ”. Todos os passos da caracterização estrutural do pavimento são efectuados pelo NNPav, seja recorrendo à utilização de redes neuronais ou a processos de cálculo matemático, incluindo a correcção do módulo de elasticidade da camada de misturas betuminosas para a temperatura de projecto e considerando as características de tráfego e taxas de crescimento do mesmo. Os testes efectuados às redes neuronais revelaram que foram alcançados resultados satisfatórios. Os níveis de erros na utilização de redes neuronais são semelhantes aos obtidos usando modelos de camadas linear-elásticas, excepto para o cálculo da vida útil com base num dos critérios, onde os erros obtidos foram mais altos. No entanto, este processo revela-se bastante mais rápido e possibilita o processamento dos dados por pessoal com menos experiência. Ao mesmo tempo, foi assegurado que nos ficheiros de resultados é possível analisar todos os dados calculados pelo programa, em várias fases de processamento de forma a permitir a análise detalhada dos mesmos. A possibilidade de estimar a capacidade de carga e a vida útil restante de um pavimento, contempladas no programa desenvolvido, representam também ferramentas importantes. Basicamente, o NNPav permite uma análise estrutural completa de um pavimento, estimando a sua vida útil com base nos ensaios de campo realizados pelo Deflectómetro de Impacto e pelo Radar de Prospecção, num único passo. Complementarmente, foi ainda desenvolvido e implementado no NNPav um módulo destinado ao dimensionamento de pavimentos novos. Este módulo permite que, dado um conjunto de estruturas de pavimento possíveis, seja estimada a capacidade de carga e a vida útil daquele pavimento. Este facto permite a análise de uma grande quantidade de estruturas de pavimento, e a fácil comparação dos resultados no ficheiro exportado. Apesar dos resultados obtidos neste trabalho serem bastante satisfatórios, os desenvolvimentos futuros na aplicação de Redes Neuronais na avaliação de pavimentos são ainda mais promissores. Uma vez que este trabalho foi limitado a uma moldura temporal inerente a um trabalho académico, a possibilidade de melhorar ainda mais a resposta das RNA fica em aberto. Apesar dos vários testes realizados às redes, de forma a obter as arquitecturas que apresentassem melhores resultados, as arquitecturas possíveis são virtualmente ilimitadas e pode ser uma área a aprofundar. As funcionalidades implementadas no programa foram as possíveis, dentro da moldura temporal referida, mas existem muitas funcionalidades a serem adicinadas ou expandidas, aumentando a funcionalidade do programa e a sua produtividade. Uma vez que esta é uma ferramenta que pode ser aplicada ao nível de gestão de redes rodoviárias, seria necessário estudar e desenvolver redes similares de forma a avaliar outros tipos de estruturas de pavimentos. Como conclusão final, apesar dos vários aspectos que podem, e devem ser melhorados, o programa desenvolvido provou ser uma ferramenta bastante útil e eficiente na avaliação estrutural de pavimentos com base em métodos de ensaio não destrutivos.
Resumo:
As ameaças à segurança da informação, (INFOSEC) atentam contra a perda da respectiva confidencialidade, integridade e disponibilidade, pelo que as organizações são impelidas a implementar políticas de segurança, quer ao nível físico quer ao nível lógico, utilizando mecanismos específicos de defesa. O projecto Network Air Gap Controller (NAGC) foi concebido no sentido de contribuir para as questões da segurança, designadamente daquelas que se relacionam directamente com a transferência de informação entre redes de classificação de segurança diferenciadas ou de sensibilidades distintas, sem requisitos de comunicação em tempo real, e que mereçam um maior empenho nas condições de robustez, de disponibilidade e de controlo. Os organismos que, em razão das atribuições e competências cometidas, necessitam de fazer fluir informação entre este tipo de redes, são por vezes obrigados a realizar a transferência de dados com recurso a um processo manual, efectuado pelo homem e não pela máquina, que envolve dispositivos amovivéis, como sejam o CD, DVD, PEN, discos externos ou switches manuais. Neste processo, vulgarmente designado por Network Air Gap (NAG), o responsável pela transferência de dados deverá assumir de forma infalível, como atribuições intrínsecas e inalienáveis da função exercida, as garantias do cumprimento de um vasto conjunto de normas regulamentares. As regras estabelecidas desdobram-se em ferramentas e procedimentos que se destinam, por exemplo, à guarda em arquivo de todas as transferências efectuadas; à utilização de ferramentas de segurança (ex: antivírus) antes da colocação da informação na rede de classificação mais elevada; ao não consentimento de transferência de determinados tipos de ficheiro (ex: executáveis) e à garantia de que, em consonância com a autonomia que normalmente é delegada no elemento responsável pela operação das comunicações, apenas se efectuam transferências de informação no sentido da rede de classificação inferior para a rede de classificação mais elevada. Face ao valor da informação e do impacto na imagem deste tipo de organizações, o operador de comunicações que não cumpra escrupulosamente o determinado é inexoravelmente afastado dessas funções, sendo que o processo de apuramento de responsabilidades nem sempre poderá determinar de forma inequívoca se as razões apontam para um acto deliberado ou para factores não intencionais, como a inépcia, o descuido ou a fadiga. Na realidade, as actividades periódicas e rotineiras, tornam o homem propenso à falha e poderão ser incontornavelmente asseguradas, sem qualquer tipo de constrangimentos ou diminuição de garantias, por soluções tecnológicas, desde que devidamente parametrizadas, adaptadas, testadas e amadurecidas, libertando os recursos humanos para tarefas de manutenção, gestão, controlo e inspecção. Acresce que, para este tipo de organizações, onde se multiplicam o número de redes de entrada de informação, com diferentes classificações e actores distintos, e com destinatários específicos, a utilização deste tipo de mecanismos assume uma importância capital. Devido a este factor multiplicativo, impõe-se que o NAGC represente uma opção válida em termos de oferta tecnológica, designadamente para uma gama de produtos de baixíssimo custo e que possa desenvolver-se por camadas de contributo complementar, em função das reais necessidades de cada cenário.
Resumo:
A motivação para este trabalho vem da necessidade que o autor tem em poder registar as notas tocadas na guitarra durante o processo de improviso. Quando o músico está a improvisar na guitarra, muitas vezes não se recorda das notas tocadas no momento, este trabalho trata o desenvolvimento de uma aplicação para guitarristas, que permita registar as notas tocadas na guitarra eléctrica ou clássica. O sinal é adquirido a partir da guitarra e processado com requisitos de tempo real na captura do sinal. As notas produzidas pela guitarra eléctrica, ligada ao computador, são representadas no formato de tablatura e/ou partitura. Para este efeito a aplicação capta o sinal proveniente da guitarra eléctrica a partir da placa de som do computador e utiliza algoritmos de detecção de frequência e algoritmos de estimação de duração de cada sinal para construir o registo das notas tocadas. A aplicação é desenvolvida numa perspectiva multi-plataforma, podendo ser executada em diferentes sistemas operativos Windows e Linux, usando ferramentas e bibliotecas de domínio público. Os resultados obtidos mostram a possibilidade de afinar a guitarra com valores de erro na ordem de 2 Hz em relação às frequências de afinação standard. A escrita da tablatura apresenta resultados satisfatórios, mas que podem ser melhorados. Para tal será necessário melhorar a implementação de técnicas de processamento do sinal bem como a comunicação entre processos para resolver os problemas encontrados nos testes efectuados.
Resumo:
Os sistemas de armas da Força Aérea Portuguesa (FAP) têm por missão a defesa militar de Portugal, através de operações aéreas e da defesa do espaço aéreo nacional, sendo o F-16 o principal avião de ataque em uso nesta organização. Neste sentido, e tendo em conta o actual contexto económico mundial, as organizações devem rentabilizar todos os recursos disponíveis, custos associados e optimizar processos de trabalho. Tendo por base os pressupostos anteriores, o presente estudo pretende analisar a implementação de lean na FAP, uma vez que esta filosofia assenta na eliminação de desperdícios com vista a uma melhoria da qualidade e diminuição de tempos e custos. Posto isto, a análise deste trabalho vai recair sobre a área de manutenção do F-16, em concreto na Inspeção de Fase (IF), um tipo de manutenção que esta aeronave realiza a cada trezentas horas de voo. O estudo de caso vai incidir em dois momentos da IF: o primeiro ponto relaciona-se com o processamento da recolha de dados para a reunião preliminar onde são definidas, para as áreas de trabalho executantes, as ações de manutenção a realizar com a paragem da aeronave. Deste modo, pretende-se averiguar as causas inerentes aos atrasos verificados para a realização desta reunião. O segundo ponto em observação compreende a informação obtida através da aplicação informática SIAGFA, em uso na FAP, para o processamento de dados de manutenção das quatro aeronaves que inauguraram a IF com a filosofia lean. Esta análise permitiu perceber o número de horas de trabalho dispendidas (em média pelas quatro aeronaves) por cada uma das cartas de trabalho, verificando-se que as cartas adicionais comportam mais horas; foi possível compreender quais as áreas de trabalho consideradas críticas; foram identificados os dias de trabalho realizado e tempos de paragem sem qualquer tipo de intervenção. Foi ainda avaliado, por aeronave, o número de horas de trabalho realizadas na IF e quais os constrangimentos que se verificaram nas aeronaves, que não realizaram a IF no tempo definido para tal.
Resumo:
O presente trabalho teve como principal objectivo o desenvolvimento de um analisador de vibrações de dois canais baseado em computador, para a realização de diagnóstico no âmbito do controlo de condição de máquinas. Foi desenvolvida uma aplicação num computador comum, no software LabVIEW, que através de transdutores de aceleração do tipo MEMS conectados via USB, faz a recolha de dados de vibração e procede ao seu processamento e apresentação ao utilizador. As ferramentas utilizadas para o processamento de dados são ferramentas comuns encontradas em vários analisadores de vibrações disponíveis no mercado. Estas podem ser: gráficos de espectro de frequência, sinal no tempo, cascata ou valores de nível global de vibração, entre outras. Apesar do analisador desenvolvido não apresentar inovação nas ferramentas de análise adoptadas, este pretende ser distinguido pelo baixo custo, simplicidade e carácter didáctico. Este trabalho vem evidenciar as vantagens, desvantagens e potencialidades de um analisador desta natureza. São tiradas algumas conclusões quanto à sua capacidade de diagnóstico de avarias, capacidades como ferramenta didáctica, sensores utilizados e linguagem de programação escolhida. Como conclusões principais, o trabalho revela que os sensores escolhidos não são os indicados para efectuar o diagnóstico de avarias em ambiente industrial, contudo são ideais para tornar este analisador numa boa ferramenta didáctica e de treino.
Resumo:
Este trabalho sugere uma solução de integração de dados em tempo real no contexto dos transportes públicos. Com o aumento das alternativas oferecidas aos utilizadores dos transportes públicos é importante que estes conheçam todas as alternativas com base em informação em tempo real para que realizem a escolha que melhor se enquadre às suas necessidades. Por outro lado, os operadores de transportes públicos deverão ser capazes de disponibilizar toda a informação pretendida com o mínimo de esforço ou de alterações ao sistema que têm implementado. Neste trabalho serão utilizadas ferramentas que permitem fornecer uma visão homogénea das várias fontes de dados heterogéneas, sendo essa homogeneidade o ponto de integração de todas as fontes de dados com as aplicações cliente.
Resumo:
Nos tempos actuais os equipamentos para Aquecimento Ventilação e Ar Condicionado (AVAC) ocupam um lugar de grande importância na concepção, desenvolvimento e manutenção de qualquer edifício por mais pequeno que este seja. Assim, surge a necessidade premente de racionalizar os consumos energéticos optimizando-os. A alta fiabilidade desejada nestes sistemas obriga-nos cada vez mais a descobrir formas de tornar a sua manutenção mais eficiente, pelo que é necessário prevenir de uma forma proactiva todas as falhas que possam prejudicar o bom desempenho destas instalações. Como tal, torna-se necessário detectar estas falhas/anomalias, sendo imprescíndivel que nos antecipemos a estes eventos prevendo o seu acontecimento num horizonte temporal pré-definido, permitindo actuar o mais cedo possível. É neste domínio que a presente dissertação tenta encontrar soluções para que a manutenção destes equipamentos aconteça de uma forma proactiva e o mais eficazmente possível. A ideia estruturante é a de tentar intervir ainda numa fase incipiente do problema, alterando o comportamento dos equipamentos monitorizados, de uma forma automática, com recursos a agentes inteligentes de diagnóstico de falhas. No caso em estudo tenta-se adaptar de forma automática o funcionamento de uma Unidade de Tratamento de Ar (UTA) aos desvios/anomalias detectadas, promovendo a paragem integral do sistema apenas como último recurso. A arquitectura aplicada baseia-se na utilização de técnicas de inteligência artificial, nomeadamente dos sistemas multiagente. O algoritmo utilizado e testado foi construído em Labview®, utilizando um kit de ferramentas de controlo inteligente para Labview®. O sistema proposto é validado através de um simulador com o qual se conseguem reproduzir as condições reais de funcionamento de uma UTA.
Resumo:
Este relatório de estágio, que se realizou no Edifício Atrium Saldanha em Lisboa, tem por finalidade demonstrar as aptidões adquiridas no decorrer do Mestrado e que tornaram possíveis a participação num estágio que envolveu várias áreas da Engenharia Mecânica. Nos últimos anos, tem-se assistido a um crescente aumento do consumo e do custo da energia eléctrica. De acordo com análises realizadas pela União Europeia, uma percentagem significativa deste aumento de consumo está relacionado com edifícios e habitações. A manutenção preventiva das instalações técnicas é, entre outros aspectos, uma das ferramentas essenciais na redução desta factura energética. A questão que se coloca relaciona-se com a metodologia a aplicar para esse efeito. De que forma podem ou devem os planos de manutenção ser elaborados, qual a periodicidade das intervenções a considerar de modo a aumentar a eficiência energética dos edifícios, reduzir as emissões de dióxido de carbono e garantir uma maior protecção do utilizador? Numa fase inicial do estágio foi feita uma caracterização geral das principais instalações técnicas do edifício de modo a se analisarem, posteriormente, os procedimentos de manutenção adoptados pelas equipas de manutenção. Foram ainda sugeridas algumas periodicidades para os procedimentos de manutenção já existentes e algumas intervenções que não estavam incluídas no plano de manutenção do edifício e que podem contribuir para aumentar a fiabilidade dos equipamentos e consequentemente a eficiência energética e a qualidade do ar interior dos edifícios.
Resumo:
O Programa Nacional de Avaliação Externa da Qualidade (PNAEQ) foi criado em 1978 como sendo uma das atribuições do Instituto Nacional de Saúde Doutor Ricardo Jorge (INSA). A sua missão é promover, organizar e coordenar programas de avaliação externa da qualidade (AEQ) para laboratórios que exerçam atividade no setor da saúde. O primeiro programa de AEQ do PNAEQ para avaliação da Fase Pré-Analítica foi distribuído em 2007. Os ensaios são pluridisciplinares, podendo incluir o envio de amostras para avaliação das condições para processamento (aceitação ou rejeição, preparação, acondicionamento), a simulação de requisições médicas, a resposta a questionários, a interpretação de casos-estudo, o levantamento de dados (auditorias ou monitorização de indicadores) ou a realização de chamadas anónimas (“cliente mistério”). O PNAEQ disponibiliza ainda 4 programas em colaboração com a Labquality (Flebotomia e POCT, Química Clínica, Microbiologia e Gases no Sangue) e 1 programa com a ECAT (Hemostase). Em 2015 e 2016, o objetivo dos programas da Fase Pré-Analítica do PNAEQ foi proporcionar o envolvimento do laboratório no processo de avaliação e monitorização da fase pré-analítica, conferindo-lhe ferramentas que lhe permitam realizar a sua autoavaliação. A fase pré-analítica é a que absorve o maior número de erros na análise de amostras biológicas, representando 40% a 70% de todas as falhas ocorridas no processamento analítico (Codagnone et al, 2014). A principal razão está na dificuldade em controlar as variáveis pré-analíticas , uma vez que esta fase envolve inúmeras atividades não automatizadas como a colheita, o manuseamento, o transporte e a preparação das amostras.
Resumo:
As redes de telecomunicações nos últimos anos têm sofrido um grande desenvolvimento a nível tecnológico. A prova disso é a revolução das redes sem fios, iniciada com a tecnologia GSM (Global System Mobile) nos anos 90, na qual eram apenas disponibilizados serviços de voz. Esta tendência continuou com o GPRS (General Packet Radio Service) onde se iniciaram os serviços de dados surgindo assim mais tarde, a tecnologia UMTS (Universal Mobile Telecommunications System). Com o aparecimento da nova tecnologia LTE (Long-Term Evolution), surgiu um novo paradigma consumista no mercado, facto que gerou um conflicto directo com as redes de banda larga (ADSL - Asymmetric Digital Subscriber Line) fornecidas anteriormente apenas pela rede fixa. A partir deste momento, estas duas tecnologias passaram a oferecer altos débitos de dados, eliminando assim esta diferenciação existente até então entre ambas. Esta foi a plataforma que despoletou o meu interesse em explorar a tecnologia LTE, mais precisamente, o planeamento de rádio em ambientes Indoor e Outdoor. Este planeamento requeria uma comparação prática e teórica, de forma a observar que a tecnologia reflectia os valores estipulados na norma LTE. Como método de comparação foi utilizada uma ferramenta de planeamento de redes móveis, gentilmente disponibilizada pela Alcatel-Lucent para o tipo de ambiente outdoor em estudo, para o indoor não foi efectuado simulação, por indisponibilidade da ferramenta. Após a configuração do sistema de rádio foi efectuada a recolha de dados no terreno através de drive-testes. Findo esta fase, procedeu-se ao pós-processamento e análise dos dados recolhidos, por forma a ser possível estabelecer a comparação entre o planeamento teórico efectuado através da ferramenta de planeamento e os dados capturados no terreno. Os resultados obtidos demonstram que a cobertura preconizada no caso Outdoor estavam de acordo com o planeamento efectuado, uma vez que os dados medidos no terreno coincidiram com os valores simulados, apenas com um desvio mínimo dentro da margem de tolerância. No que respeita ao indoor verificou-se que as medidas estavam de acordo com o estipulado na norma. Como conclusão, confirmou-se a validade das ferramentas e da metodologia utilizada.
Resumo:
A energia eléctrica é um bem essencial para a maioria das sociedades. O seu fornecimento tem sido encarado como um serviço público, da responsabilidade dos governos, através de empresas monopolistas, públicas e privadas. O Mercado Ibérico de Electricidade (MIBEL) surge com o objectivo da integração e cooperação do sector eléctrico Português e Espanhol, no qual é possível negociar preços e volumes de energia. Actualmente, as entidades podem negociar através de um mercado bolsista ou num mercado de contratos bilaterais. Uma análise dos mercados de electricidade existentes mostra que estes estão longe de estarem liberalizados. As tarifas não reflectem o efeito da competitividade. Além disso, o recurso a contratos bilaterais limita frequentemente os clientes a um único fornecedor de energia eléctrica. Nos últimos anos, têm surgido uma série de ferramentas computacionais que permitem simular, parte ou a totalidade, dos mercados de electricidade. Contudo, apesar das suas potencialidades, muitos simuladores carecem de flexibilidade e generalidade. Nesta perspectiva, esta dissertação tem como principal objectivo o desenvolvimento de um simulador de mercados de energia eléctrica que possibilite lidar com as dificuldades inerentes a este novo modelo de mercado, recorrendo a agentes computacionais autónomos. A dissertação descreve o desenho e a implementação de um simulador simplificado para negociação de contratos bilaterais em mercados de energia, com particular incidência para o desenho das estratégias a utilizar pelas partes negociais. Além disso, efectua-se a descrição de um caso prático, com dados do MIBEL. Descrevem-se também várias simulações computacionais, envolvendo retalhistas e consumidores de energia eléctrica, que utilizam diferentes estratégias negociais. Efectua-se a análise detalhada dos resultados obtidos. De forma sucinta, os resultados permitem concluir que as melhores estratégias para cada entidade, no caso prático estudado, são: a estratégia de concessões fixas, para o retalhista, e a estratégia de concessões baseada no volume de energia, para o consumidor.
Resumo:
A liberalização do sector eléctrico, e a consequente criação de mercados de energia eléctrica regulados e liberalizados, mudou a forma de comercialização da electricidade. Em particular, permitiu a entrada de empresas nas actividades de produção e comercialização, aumentando a competitividade e assegurando a liberdade de escolha dos consumidores, para decidir o fornecedor de electricidade que pretenderem. A competitividade no sector eléctrico aumentou a necessidade das empresas que o integram a proporem preços mais aliciantes (do que os preços propostos pelos concorrentes), e contribuiu para o desenvolvimento de estratégias de mercado que atraiam mais clientes e aumentem a eficiência energética e económica. A comercialização de electricidade pode ser realizada em mercados organizados ou através de contratação directa entre comercializadores e consumidores, utilizando os contratos bilaterais físicos. Estes contratos permitem a negociação dos preços de electricidade entre os comercializadores e os consumidores. Actualmente, existem várias ferramentas computacionais para fazer a simulação de mercados de energia eléctrica. Os simuladores existentes permitem simulações de transacções em bolsas de energia, negociação de preços através de contratos bilaterais, e análises técnicas a redes de energia. No entanto, devido à complexidade dos sistemas eléctricos, esses simuladores apresentam algumas limitações. Esta dissertação apresenta um simulador de contratos bilaterais em mercados de energia eléctrica, sendo dando ênfase a um protocolo de ofertas alternadas, desenvolvido através da tecnologia multi-agente. Em termos sucintos, um protocolo de ofertas alternadas é um protocolo de interacção que define as regras da negociação entre um agente vendedor (por exemplo um retalhista) e um agente comprador (por exemplo um consumidor final). Aplicou-se o simulador na resolução de um caso prático, baseado em dados reais. Os resultados obtidos permitem concluir que o simulador, apesar de simplificado, pode ser uma ferramenta importante na ajuda à tomada de decisões inerentes à negociação de contratos bilaterais em mercados de electricidade.
Resumo:
Nesta dissertação descreve-se uma metodologia de dimensionamento do sistema de tracção para equipar um veículo eléctrico ecológico (VEECO) com inclusão de um sistema de travagem regenerativa. Apresenta-se uma perspectiva geral de diversas topologias de sistemas de tracção utilizadas nos veículos eléctricos e realiza-se a sua comparação através do estudo e análise dos acionamentos electromecânicos que podem ser utilizados nesses sistemas de tracção eléctrica. Utilizando ferramentas de simulação numérica, estuda-se o modelo matemático de um veículo eléctrico com travagem regenerativa. A partir deste modelo matemático é adoptado uma possível configuração para o seu sistema de tracção eléctrica e são obtidas características teóricas de desempenho do veículo eléctrico, através da análise de testes padrão ao veículo. Em banco de ensaios, constrói-se um sistema de tracção eléctrica que permite a validação experimental do modelo matemático do veículo eléctrico. Para a construção deste banco de ensaios foram concebidos os sistemas de tracção eléctrica, de carga mecânica e de controlo e monitorização do banco de ensaios. A validação experimental realiza-se através dos mesmos testes padrão ao veículo eléctrico, como o teste NEDC (New European Driving Cycle), o teste de aceleração entre 0 e 100km/h e o teste de gradeabilidade. Desenvolve-se o dimensionamento do sistema de tracção eléctrica a equipar o VEECO, através da componente de modelação paramétrica do modelo matemático do veículo eléctrico. Com esta metodologia é adoptado um conjunto de variáveis paramétricas relacionadas com os elementos que constituem o sistema de tracção eléctrica do VEECO. Estuda-se a influência destas variáveis paramétricas nas características de desempenho pretendidas para o VEECO. Como resultado da análise de modelação paramétrica é apresentada uma solução para o sistema de tracção eléctrica do VEECO que cumpre a execução do NEDC, apresenta um tempo de aceleração entre 0 e 100km/h inferior a 10 segundos, supera uma gradeabilidade de 10% e uma autonomia de 200 km. O sistema de tracção do VEECO também permite realizar a travagem regenerativa com rendimento até 33%. Possui controlo de tracção e anti bloqueio da roda motora, através de uma unidade de controlo que permite reduzir a potência transmitida ao veio, quando a velocidade da roda de tracção difere do valor de referência da velocidade do veículo. Os conhecimentos adquiridos através do processo de investigação e desenvolvimento, para a realização da presente dissertação permitem apresentar perspectivas de desenvolvimento futuro com aplicação nos sistemas de tracção de veículos eléctricos rodoviários.