82 resultados para Algoritmo de Colisão de Partículas


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação aborda a procura distribuída de soluções baseando-se em cenários cuja informação não esteja totalmente disponível, por não ser possível ou mesmo porque não é desejável. Os dois tipos de problemas abordados neste trabalho são: i) o problema de atribuição de tarefas, e ii) o problema de agendamento de eventos. O problema de atribuição de tarefas é ilustrado num cenário de catástrofe (atribuição de incêndios a bombeiros) cujos agentes tentam encontrar a melhor solução global de acordo com as capacidades de cada um. O problema do agendamento de eventos com múltiplos recursos, ocorre numa organiza- ção que pretende maximizar o valor do tempo dos seus empregados, enquanto preserva o valor individual (privacidade) atribuído ao evento (valor da importância relativa do evento). Estes problemas são explorados para confrontar os dois tipos de abordagem na sua resolução: centralizada e distribuída. Os problemas são formulados para resolução de maneira distribuída e centralizada, de modo a evidenciar as suas características e as situações em que fará mais sentido a utilização de cada abordagem. O desempenho a nível de tempo de execução e consumo de memória, bem como o conceito de privacidade são os pontos considerados no comparativo das abordagens centralizada e distribuída. Para analisar o problema de atribuição de tarefas e o problema de agendamento de eventos, é proposto um modelo que integra dois tipos de formulação de problemas distribuídos, e que utiliza um algoritmo distribuído para a resolução dos mesmos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As características dos vídeos recolhidos num sistema de videovigilância são bastante diferentes dos vídeos recolhidos para filmes. Cada sistema de videovigilância é único. Este trabalho trata a implementação, e especialização, de um algoritmo de codificação dedeo para um sistema particular de videovigilância composto por três câmaras fixas. O algoritmo desenvolvido tira partido do facto de se conhecer previamente as características físicas e de utilização do local. Utilizando uma codificação inteligente, a codificação das imagens recolhidas depende do dia da semana, hora, câmara e da detecção de alterações na área que se encontra sob vigilância. A especialização é realizada através da configuração do codificador, tendo em conta critérios pré-definidos, de modo a obter uma relação adequada entre a qualidade de imagem e a compressão dos dados. As imagens são independentemente codificadas pela seguinte ordem de operações: transformada discreta do co-seno, quantização, run-length e codificação de Huffman. São armazenadas todas as imagens onde for detectado movimento, não a totalidade da imagem, mas apenas as regiões onde foi detectado movimento sendo utilizado uma decomposição em árvore quaternária. Foi implementado um protótipo de modo a avaliar o desempenho do algoritmo de codificação. O algoritmo, quando comparado com a técnica de codificação usada no sistema de videovigilância, apresenta uma maior taxa de compressão As imagens descodificadas apresentam qualidade suficiente para identificar as pessoas em pontos críticos e seguir os seus movimentos ao longo do corredor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As comunicações electrónicas são cada vez mais o meio de eleição para negócios entre entidades e para as relações entre os cidadãos e o Estado (e-government). Esta diversidade de transacções envolve, muitas vezes, informação sensível e com possível valor legal. Neste contexto, as assinaturas electrónicas são uma importante base de confiança, fornecendo garantias de integridade e autenticação entre os intervenientes. A produção de uma assinatura digital resulta não só no valor da assinatura propriamente dita, mas também num conjunto de informação adicional acerca da mesma, como o algoritmo de assinatura, o certificado de validação ou a hora e local de produção. Num cenário heterogéneo como o descrito anteriormente, torna-se necessária uma forma flexível e interoperável de descrever esse tipo de informação. A linguagem XML é uma forma adequada de representar uma assinatura neste contexto, não só pela sua natureza estruturada, mas principalmente por ser baseada em texto e ter suporte generalizado. A recomendação XML Signature Syntax and Processing (ou apenas XML Signature) foi o primeiro passo na representação de assinaturas em XML. Nela são definidas sintaxe e regras de processamento para criar, representar e validar assinaturas digitais. As assinaturas XML podem ser aplicadas a qualquer tipo de conteúdos digitais identificáveis por um URI, tanto no mesmo documento XML que a assinatura, como noutra qualquer localização. Além disso, a mesma assinatura XML pode englobar vários recursos, mesmo de tipos diferentes (texto livre, imagens, XML, etc.). À medida que as assinaturas electrónicas foram ganhando relevância tornou-se evidente que a especificação XML Signature não era suficiente, nomeadamente por não dar garantias de validade a longo prazo nem de não repudiação. Esta situação foi agravada pelo facto da especificação não cumprir os requisitos da directiva 1999/93/EC da União Europeia, onde é estabelecido um quadro legal para as assinaturas electrónicas a nível comunitário. No seguimento desta directiva da União Europeia foi desenvolvida a especificação XML Advanced Electronic Signatures que define formatos XML e regras de processamento para assinaturas electrónicas não repudiáveis e com validade verificável durante períodos de tempo extensos, em conformidade com a directiva. Esta especificação estende a recomendação XML Signature, definindo novos elementos que contêm informação adicional acerca da assinatura e dos recursos assinados (propriedades qualificadoras). A plataforma Java inclui, desde a versão 1.6, uma API de alto nível para serviços de assinaturas digitais em XML, de acordo com a recomendação XML Signature. Contudo, não existe suporte para assinaturas avançadas. Com este projecto pretende-se desenvolver uma biblioteca Java para a criação e validação de assinaturas XAdES, preenchendo assim a lacuna existente na plataforma. A biblioteca desenvolvida disponibiliza uma interface com alto nível de abstracção, não tendo o programador que lidar directamente com a estrutura XML da assinatura nem com os detalhes do conteúdo das propriedades qualificadoras. São definidos tipos que representam os principais conceitos da assinatura, nomeadamente as propriedades qualificadoras e os recursos assinados, sendo os aspectos estruturais resolvidos internamente. Neste trabalho, a informação que compõe uma assinatura XAdES é dividia em dois grupos: o primeiro é formado por características do signatário e da assinatura, tais como a chave e as propriedades qualificadoras da assinatura. O segundo grupo é composto pelos recursos assinados e as correspondentes propriedades qualificadoras. Quando um signatário produz várias assinaturas em determinado contexto, o primeiro grupo de características será semelhante entre elas. Definiu-se o conjunto invariante de características da assinatura e do signatário como perfil de assinatura. O conceito é estendido à verificação de assinaturas englobando, neste caso, a informação a usar nesse processo, como por exemplo os certificados raiz em que o verificador confia. Numa outra perspectiva, um perfil constitui uma configuração do serviço de assinatura correspondente. O desenho e implementação da biblioteca estão também baseados no conceito de fornecedor de serviços. Um fornecedor de serviços é uma entidade que disponibiliza determinada informação ou serviço necessários à produção e verificação de assinaturas, nomeadamente: selecção de chave/certificado de assinatura, validação de certificados, interacção com servidores de time-stamp e geração de XML. Em vez de depender directamente da informação em causa, um perfil — e, consequentemente, a operação correspondente — é configurado com fornecedores de serviços que são invocados quando necessário. Para cada tipo de fornecedor de serviços é definida um interface, podendo as correspondentes implementações ser configuradas de forma independente. A biblioteca inclui implementações de todos os fornecedores de serviços, sendo algumas delas usadas for omissão na produção e verificação de assinaturas. Uma vez que o foco do projecto é a especificação XAdES, o processamento e estrutura relativos ao formato básico são delegados internamente na biblioteca Apache XML Security, que disponibiliza uma implementação da recomendação XML Signature. Para validar o funcionamento da biblioteca, nomeadamente em termos de interoperabilidade, procede-se, entre outros, à verificação de um conjunto de assinaturas produzidas por Estados Membros da União Europeia, bem como por outra implementação da especificação XAdES.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A monitorização de processos ambientais conduz à obtenção de resultados cuja aferição da qualidade é um requisito raramente cumprido. No entanto, importantes decisões de gestão ambiental, sociais e políticas com impacto directo nas populações são tomadas suportadas nestes resultados. A validação de uma medição, como suporte à decisão, é impossível sem o conhecimento da incerteza associada ao próprio resultado. É a incerteza que define a qualidade do resultado. Com este trabalho pretendeu-se contribuir para o aperfeiçoamento do Controlo da Poluição na Refinaria da Galp Energia, em Sines, através do estabelecimento de um projecto de cálculo das incertezas associadas aos teores de poluentes medidos. Foram alvo deste estudo os valores medidos de dióxido de enxofre, óxidos de azoto e partículas monitorizadas. O conhecimento do valor de incerteza associada aos resultados permitirá actuar preventivamente e tomar acções correctivas de modo a garantir o cumprimento pleno da licença ambiental. Para avaliar a incerteza usou-se o procedimento preconizado pela norma ISO em que os passos envolvidos são a especificação do processo de medida, identificação das fontes de incerteza, cálculo da incerteza combinada e cálculo da incerteza expandida. Após a caracterização da actividade da empresa, do enquadramento legislativo, do desempenho no triénio 2005-2007 e da caracterização dos aparelhos de medida, foi feito um estudo estatístico aos valores medidos por estes três analisadores durante diversos períodos do ano de 2007 e foi determinado o modelo de cálculo do valor de incerteza associado a cada uma das medidas. Os valores, associados à respectiva incerteza, foram comparados com os limites impostos pela licença ambiental, verificando-se o cumprimento desta. A determinação da incerteza associada aos resultados de monitorização dos efluentes gasosos desta instalação reforça a credibilidade dos valores medidos, o compromisso da melhoria contínua da qualidade dos processos, produtos e serviços, do desempenho ambiental e da segurança das pessoas e bens, como contributo para um desenvolvimento sustentável desta companhia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Equipamentos rotativos podem ser encarados como vigas em apoios elásticos suportando um número finito de elementos concentrados ao longo do seu comprimento. Em operação, este tipo de equipamento pode ser exposto a solicitações dinâmicas severas. Com a finalidade de evitar regimes críticos, os autores propõem um algoritmo baseado no Quociente de Rayleigh, utilizando ateoria das vigas de Bernoulli-Euler. Este algoritmo permite a determinação das soluções próprias de vigas contínuas, considerando diversas condições de fronteira e o efeito da massa concentrada e inércia de rotação dos elementos suportados. Tentando reproduzir as configurações de sistemasreais são usadas diferentes condições de fronteira na formulação da teoria das vigas de Bernoulli- Euler. Salienta-se o facto dos dados analíticos serem experimentalmente verificados através de ensaios de impacto, sendo por sua vez utilizados como entradas do algoritmo de modelação, para a identificação da rigidez torsional dos apoios. Os resultados são discutidos e comparados,sempre que apropriado, com resultados já publicados. Finalmente, o trabalho futuro é delineado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No presente trabalho simulou-se o comportamento térmico de sistemas solares do tipo pré-fabricado (factory made systems, norma EN 12976-2:2006), utilizando os parâmetros obtidos nos relatórios necessários à sua certificação, com o objectivo de conseguir introduzir estes sistemas na base de dados do programa SolTerm. Estes sistemas podem ser ensaiados segundo dois métodos de ensaio distintos que se encontram descritos nas normas ISO 9459-2:1995 (ensaio CSTG) e na norma ISO 9459-5:2007 (ensaio DST), contudo, devido ao facto do método DST estar baseado num software em código fechado, não é possível fazer a simulação no SolTerm, fazendo com que apenas se possa introduzir sistemas cujo ensaio tenha sido realizado segundo a norma ISO 9459-2 (ensaio CSTG). Este trabalho incidiu neste ponto, tendo sido elaborado um método de cálculo que permite inserir qualquer sistema no SolTerm, independentemente do ensaio que o caracterizou. Para isso foi necessário utilizar o modelo de cálculo do DST (programa em código fechado) simulando a metodologia de ensaio do CSTG, para que se consiga fazer a aproximação entre ambos. Após determinados os coeficientes, é feita uma verificação aos dois cálculoa a fim de corroborar os resultados anteriormente determinados. Desta forma, foi possível criar um algoritmo de cálculo que permite qualquer sistema térmico do tipo pré-fabricado, ser introduzido na base de dados do SolTerm, com um erro associado inferior a 3%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho teve como principal objectivo caracterizar a exposição de crianças a partículas atmosféricas e aos elementos químicos que as constituem. Pretendeu-se também determinar as fontes e processos que afectam os níveis e composição das partículas em suspensão no ar ambiente e no interior de salas de aula de escolas do 1º ciclo localizadas no centro de Lisboa. Os efeitos das partículas atmosféricas na saúde humana manifestam-se sobretudo ao nível do aparelho respiratório, dependendo da sua composição química, e principalmente da sua dimensão. As partículas inaláveis (PM10) podem depositar-se nas unidades funcionais do sistema respiratório. O PM2,5 podem atingir os alvéolos pulmonares e penetrar no sistema circulatório. As crianças são um dos principais grupos de risco, visto que os seus órgãos e tecidos ainda estão em desenvolvimento, ficando mais susceptíveis à exposição de partículas. A recolha de material particulado foi realizada no ar ambiente recorrendo a um colector PARTISOL e no interior e exterior das escolas usando amostradores GENT. A concentração total de partículas em suspensão foi determinada por gravimetria. A caracterização química da matéria particulada foi efectuada por Análise por Activação com Neutrões (INAA) para a determinação da concentração dos elementos e por Cromatografia Iónica para a quantificação de iões solúveis em água. Em 2007, a concentração média anual de PM2,5 no Centro de Lisboa foi de 18µg/m3. Através da Análise de Componentes Principais e Regressão Multilinear verificou-se que a massa das partículas da fracção fina resulta essencialmente da produção de aerossóis secundários (35%) de uma fonte de cálcio (28%) e da emissão de poluentes por veículos motorizados (23%). No interior das escolas verificou-se que as concentrações de partículas são mais elevadas comparativamente com o ambiente exterior, principalmente no PM2,5-10 (74µg/m3). A ressuspensão de partículas causada pelas actividades desempenhadas no interior das salas e a suspensão de poeiras do solo transportada pelas crianças, são as principais causas apontadas. O Ca é o elemento maioritário no interior das escolas. Os resultados obtidos neste trabalho não excederam os limites estabelecidos pela Legislação Portuguesa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A qualidade de vida do ser humano é grandemente influenciada pelo ar que respiram. Grande parte da população passa a maior parte do seu tempo em ambientes interiores, pelo que a qualidade do ar presente nesses ambientes é de extrema importância para a saúde da população. Os elevados níveis de concentração das partículas suspensas em atmosferas interiores constituem um risco na saúde da população exposta. O presente trabalho consistiu em avaliar os níveis de concentração de partículas suspensas em atmosferas interiores, numa escola do ensino básico e num laboratório de ortoprotesia, utilizando o método automático que consiste em medir amostras de ar através do equipamento Handheld 3016 IAQ, obtendo-se directamente os valores de concentração e o número de partículas suspensas no ar interior, e concluir, de acordo com as normas ISO 7730:2005, NP 1796:2007 e com Decreto –Lei nº 79/2006 de 4 de Abril sobre a qualidade do ar presente no interior dos locais analisados. Os resultados obtidos permitiram concluir que os níveis de concentração de partículas suspensas nas atmosferas interiores da escola se encontram dentro dos valores limite estabelecidos pelas normas, e que para o laboratório de ortoprotesia, os níveis de concentração de partículas não se encontram dentro dos valores estabelecidos pelo SCE, embora cumpram os requisitos da norma NP 1796:2007.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Actualmente tem-se observado um aumento do volume de sinais de fala em diversas aplicações, que reforçam a necessidade de um processamento automático dos ficheiros. No campo do processamento automático destacam-se as aplicações de “diarização de orador”, que permitem catalogar os ficheiros de fala com a identidade de oradores e limites temporais de fala de cada um, através de um processo de segmentação e agrupamento. No contexto de agrupamento, este trabalho visa dar continuidade ao trabalho intitulado “Detecção do Orador”, com o desenvolvimento de um algoritmo de “agrupamento multi-orador” capaz de identificar e agrupar correctamente os oradores, sem conhecimento prévio do número ou da identidade dos oradores presentes no ficheiro de fala. O sistema utiliza os coeficientes “Mel Line Spectrum Frequencies” (MLSF) como característica acústica de fala, uma segmentação de fala baseada na energia e uma estrutura do tipo “Universal Background Model - Gaussian Mixture Model” (UBM-GMM) adaptado com o classificador “Support Vector Machine” (SVM). No trabalho foram analisadas três métricas de discriminação dos modelos SVM e a avaliação dos resultados foi feita através da taxa de erro “Speaker Error Rate” (SER), que quantifica percentualmente o número de segmentos “fala” mal classificados. O algoritmo implementado foi ajustado às características da língua portuguesa através de um corpus com 14 ficheiros de treino e 30 ficheiros de teste. Os ficheiros de treino dos modelos e classificação final, enquanto os ficheiros de foram utilizados para avaliar o desempenho do algoritmo. A interacção com o algoritmo foi dinamizada com a criação de uma interface gráfica que permite receber o ficheiro de teste, processá-lo, listar os resultados ou gerar um vídeo para o utilizador confrontar o sinal de fala com os resultados de classificação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho teve como objectivos estudar a relação entre os teores de aerossóis medidos na cidade de Lisboa e as condições meteorológicas registadas. O período de amostragem decorreu entre 20 de Janeiro e 19 de Fevereiro de 2009, a designada “Campanha de Inverno” do Projecto de Investigação “Contaminação da atmosfera urbana de Lisboa por Hidrocarbonetos Aromáticos Policíclico (PAHLis)”. Foram seleccionados dois locais da cidade de Lisboa com diferentes níveis de poluição: Olivais e Avenida da Liberdade. Nestes locais existem também estações da Rede da Qualidade do Ar cujos dados foram usados para completar e validar os dados por nós recolhidos. O étodo usado para a determinação da concentração de PM foi o método de referência (método gravimétrico) referido pelas normas EN 12341:1998 e EN 14907:2005. Em cada local, foram recolhidas partículas em suspensão no ar através de amostradores Gent e High-Vol. O Gent é um amostrador de baixo volume (cerca de 12 L de ar por minuto) que possui duas unidades de filtros de policarbonato de dois tamanhos de poro sendo assim possível a recolha de partículas PM2.5 e PM10-2.5 separadamente. O High-Vol é um equipamento de amostragem de alto volume (cerca de 1 m3 de ar por minuto) e onde foram usados dois filtros de quartzo em cascata para a recolha de partículas PM2.5 e PM10-2.5. Verificou-se que os amostradores não foram totalmente eficazes na separação das partículas, segundo os diâmetros aerodinâmicos pretendidos. Os dados apresentaram alguma discrepância face aos dados obtidos pelos High-Vol e também face aos dados obtidos pelos medidores das estações. Optou-se assim pela utilização dos dados obtidos com o amostrador High-Vol. Verifica-se que a Avenida da Liberdade é dos locais de estudo o mais poluído e que a concentração da fracção fina é mais elevada. Tal facto deve-se provavelmente à intensa circulação automóvel, principal fonte poluidora no local. Para o período em estudo e neste local, foi obtida uma média de 16.5 µg/m3 de PM 10-2.5 e 21.9 µg/m3 de PM 2.5. No mesmo período registou-se nos Olivais uma média de 9.0 µg/m3 para a fracção grosseira e 12.3 µg/m3 para a fracção fina. Os dados meteorológicos foram fornecidos pelas estações meteorológicas localizadas nas imediações dos locais em estudo: estação MeteoPortela e estação do Instituto Dom Luiz. Foram recolhidos e tratados dados de temperatura, precipitação, humidade, velocidade e direcção do vento. Com recurso à análise de componentes principais (PCA) foi possível verificar a relação e influência das condições meteorológicas sobre os teores de partículas. Foi possível a redução das variáveis iniciais tendo-se concluído que a humidade, a percipitação e a velocidade do vento são as condições que maior influência têm sobre as partículas. Um aumento destas variáveis provoca uma diminuição global do teor das partículas. Para uma clara definição de um modelo PCA para estes dados, os estudos deverão se prolongados no tempo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação incide na aplicação de uma metodologia para a localização e dimensionamento de dispositivos, que permitem reconfigurações de redes de distribuição (órgãos de corte de rede), tendo por objectivo a minimização de perdas e aumento da fiabilidade incorporando não só aspectos técnicos como também económicos. Para efectuar a avaliação técnica foram utilizados métodos de redução de perdas e de aumento da fiabilidade. Para elaborar a avaliação económica, foram utilizados os rácios B/C, VAL e a TIR para cada reconfiguração de rede identificada. Na redução de perdas, foi aplicado um algoritmo que para diferentes níveis de carga identificada a melhor configuração da rede que minimiza as perdas. Para cada configuração da rede identificada anteriormente foi avaliada a correspondente fiabilidade, tendo por base os indicadores da qualidade de serviço aprovados e definidos por entidades reguladoras. As configurações escolhidas foram avaliadas com base nos ganhos obtidos na redução de perdas e no aumento de fiabilidade. Estes métodos foram aplicados a uma rede de distribuição real, e a escolha incidiu na rede eléctrica de São Vicente em Cabo Verde. No final foi elaborada uma avaliação económica que serviu de suporte à decisão técnica. A aplicação dos métodos permitiu evidenciar que com a colocação de órgãos de telecomando da rede em 6 locais, obtém-se uma redução de perdas de cerca 5,3% e energia não distribuída de 41,1% em cada ano. Analisando o investimento para o período de vida útil dos órgãos de corte de rede (15 anos), apresenta um rácio B / C = 3,50, VAL = 511k€ e uma TIR = 69,4%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A introdução desta tese começa por realizar um enquadramento do projecto em mão, apresentando a central de energia das ondas em que se encontram os componentes em fibra de vidro a projectar. Esta central usa o princípio de variação de coluna de água, e encontra-se localizada na ilha do Pico, Açores. São de seguida apresentados os objectivos deste trabalho, que consistem na selecção de materiais de fabrico dos componentes, desenvolvimento de uma metodologia para projectar juntas aparafusadas em materiais compósitos, dimensionamento e comparação de duas juntas concorrentes em materiais compósitos: junta solicitada à tracção e junta solicitada ao corte, validação da análise e estudo das causas dos vários tipos de falha destas juntas. A parte I deste trabalho é o resultado da pesquisa bibliográfica efectuada para levar a cabo os objectivos definidos. Assim, começa por se fazer uma descrição dos materiais e processos de fabrico que mais se adequam ao presente projecto, nomeadamente fibra de vidro, resinas, tecidos, impregnação manual, RTM e infusão por vácuo. Daqui resultou que os materiais mais adequados para esta aplicação são fibra de vidro do tipo E e resina polyester devido ao seu baixo custo e larga utilização em aplicações estruturais marinhas. O processo de fabrico mais eficiente é a infusão por vácuo devido á sua vocação para pequenas séries de produção, a poupança que permite em termos de mão-de-obra, a complacência com normas de emissão de voláteis e as boas propriedades das partes produzidas. No capítulo II da parte I são discutidos os tópicos relacionados com juntas em materiais compósitos. Da pesquisa levada a cabo conclui-se que as grandes vantagens das juntas aparafusadas são a sua facilidade de montagem e desmontagem, facilidade de inspecção e capacidade de ligar quaisquer tipos de materiais. Quanto à furação de compósitos é importante referir a necessidade de utilizar ferramentas resistentes e parâmetros de maquinação que minimizem o dano infligido aos laminados. Isto é possível através da selecção de ferramentas com passos baixos que reduzam igualmente a dimensão do seu centro estático responsável pela força axial exercida sobre o laminado - principal factor causador de dano. Devem-se igualmente utilizar baixas velocidades de avanço e elevadas velocidades de rotação. É importante salientar a importância da realização de pré-furação, de utilização de um prato de suporte na superfície de saída do laminado e a existência de ferramentas especialmente concebidas para a furação de compósitos. Para detectar e quantificar o dano existente num furo destacam-se os métodos de inspecção ultrasónica e a radiografia. Quanto aos parâmetros que influenciaram o comportamento de juntas aparafusadas destacam-se os rácios largura/diâmetro, distância ao bordo/diâmetro, espessura/diâmetro, pré-tensão, fricção, sequência de empilhamento e respectivas proporções, dimensão das anilhas e folga entre o parafuso e o furo. A pesquisa efectuada visando metodologias de projecto fiáveis ditou a necessidade de utilizar métodos que permitiram determinar o parafuso mais carregado de uma junta, efectuar o cálculo de tensões no mesmo, e ainda métodos que permitam determinar a primeira falha que ocorre no laminado bem como a falha final no mesmo. O capítulo III da primeira parte descreve os métodos de análise de tensões necessários para as metodologias de projecto utilizadas. Aqui é apresentada a teoria clássica da laminação, um método para determinação do parafuso mais carregado, um método analítico baseado na teoria da elasticidade anisotrópica de um corpo e o método dos elementos finitos. O método para determinar o parafuso mais carregado - análise global - consiste num modelo bidimensional de elementos finitos em que 2 laminados coincidentes são modelados com elementos lineares de casca com 4 nós, sendo a extremidade de um laminado restringida em todos os graus de liberdade e a extremidade oposta do segundo laminado carregada com a carga pretendida. Os laminados são ligados através de elementos mola que simulam os parafusos, sendo a sua constante de rigidez previamente calculada para este fim. O método analítico modela o contacto assumindo uma distribuição de pressão cosinoidal ao longo de metade do furo, e é válido para laminados simétricos e quasi-isotrópicos. O método dos elementos finitos é o que mais factores permite ter em conta, sendo os modelos tridimensionais com um elemento por camada os que melhor modelam o estado de tensões experienciado por uma junta aparafusada em materiais compósitos. O tópico de análise de falha é abordado no capítulo 4 da primeira parte. Aqui são apresentados os resultados do world wide failure exercice que compara vários critérios de falha existentes até 2004, fazendo-se referência a desenvolvimentos recentes que têm ocorrido nesta área. O critério de Puck surge como aquele que permite previsões de falha mais exactas. O critério de falha de Hashin 3D foi o escolhido para o presente trabalho, devido à sua facilidade de implementação num modelo de elementos finitos, à sua capacidade para detectar modos de falha subcríticos e à sua utilização em trabalhos anteriores que apresentaram previsões de falha muito próximas dos dados experimentais. Também neste capítulo se apresentaram os vários tipos de falha de uma junta aparafusada em materiais compósitos, apresentando as causas de cada uma. Por fim, na última secção, apresenta-se o método de dano progressivo que se desenvolveu para prever a primeira falha final do laminado. Este é muito interessante tendo permitido previsões de falha muito próximas dos resultados experimentais em trabalhos anteriores. Este método é iterativo e encontra-se dividido em 3 passos: Análise de tensões, análise de falha utilizando o critério de Hashin 3D e degradação de propriedades, de acordo com o tipo de falha detectada. Para além dos passos referidos, existe ainda um quarto responsável pelo fim da análise que consiste na aferição da existência ou não de falha final e respectivo tipo de falha (por pressão de contacto, por tensão ou por esforços de corte). No capítulo V da primeira parte é apresentado o resultado de uma pesquisa das normas de teste necessárias para obter as propriedades dos materiais requeridas para a aplicação dos métodos descritos neste trabalho. A parte II deste trabalho consiste na aplicação dos métodos apresentados na parte I ao caso concreto em estudo. Os softwares Microsoft Excel, Matlab e ANSYS foram utilizados para este fim. A junta começa por ser dimensionada estimando a espessura necessária do componente e o número e características dos parafusos. De seguida foi feita uma análise global à flange em estudo determinando a força suportada pelo parafuso mais carregado. Após esta análise desenvolveu-se um modelo tridimensional de elementos finitos da zona em que se encontra o parafuso mais carregado, utilizando elementos sólidos lineares e isoparamétricos de 8 nós e uma malha gerada pelo método directo. Aplicou-se a este modelo o algoritmo de dano progressivo descrito na primeira parte. Começou por se incluir explicitamente o parafuso, anilhas, pré-tensão e a modelação dos vários contactos com fricção posteriormente simplificado o modelo restringindo radialmente os nós da porção carregada do furo, excluindo os factores mencionados inicialmente. Procurou-se validar o modelo utilizando o método de cálculo de tensões descrito na primeira parte, desenvolvendo um programa em Matlab para o efeito. Tal não foi possível tendo-se incluído a tentativa realizada em anexo. Para efeitos de dimensionamento, desenvolveu-se um modelo de elementos finitos de duas dimensões da junta em causa, utilizando elementos de casca lineares de quatro nós isoparamétricos com uma espessura unitária. Através da análise de tensões efectuada com este modelo, e utilizando um método combinado programado em linguagem paramétrica, foi possível dimensionar as duas juntas concorrentes pretendidas. Este método combinado consistiu no cálculo de tensões em pontos localizados sobre uma curva característica e utilização de um critério de falha quadrático para cálculo da espessura necessária para a junta. O dimensionamento ditou que a junta solicitada à tensão necessita de pelo menos 127% das camadas e do custo de uma junta solicitada ao corte equivalente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A motivação para este trabalho vem da necessidade que o autor tem em poder registar as notas tocadas na guitarra durante o processo de improviso. Quando o músico está a improvisar na guitarra, muitas vezes não se recorda das notas tocadas no momento, este trabalho trata o desenvolvimento de uma aplicação para guitarristas, que permita registar as notas tocadas na guitarra eléctrica ou clássica. O sinal é adquirido a partir da guitarra e processado com requisitos de tempo real na captura do sinal. As notas produzidas pela guitarra eléctrica, ligada ao computador, são representadas no formato de tablatura e/ou partitura. Para este efeito a aplicação capta o sinal proveniente da guitarra eléctrica a partir da placa de som do computador e utiliza algoritmos de detecção de frequência e algoritmos de estimação de duração de cada sinal para construir o registo das notas tocadas. A aplicação é desenvolvida numa perspectiva multi-plataforma, podendo ser executada em diferentes sistemas operativos Windows e Linux, usando ferramentas e bibliotecas de domínio público. Os resultados obtidos mostram a possibilidade de afinar a guitarra com valores de erro na ordem de 2 Hz em relação às frequências de afinação standard. A escrita da tablatura apresenta resultados satisfatórios, mas que podem ser melhorados. Para tal será necessário melhorar a implementação de técnicas de processamento do sinal bem como a comunicação entre processos para resolver os problemas encontrados nos testes efectuados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho apresentado nesta dissertação refere-se à concepção, projecto e realização experimental de um conversor estático de potência tolerante a falhas. Foram analisados trabalhos de investigação sobre modos de falha de conversores electrónicos de potência, topologias de conversores tolerantes a falhas, métodos de detecção de falhas, entre outros. Com vista à concepção de uma solução, foram nomeados e analisados os principais modos de falhas para três soluções propostas de conversores com topologias tolerantes a falhas onde existem elementos redundantes em modo de espera. Foram analisados os vários aspectos de natureza técnica dos circuitos de potência e guiamento de sinais onde se salientam a necessidade de tempos mortos entre os sinais de disparo de IGBT do mesmo ramo, o isolamento galvânico entre os vários andares de disparo, a necessidade de minimizar as auto-induções entre o condensador DC e os braços do conversor de potência. Com vista a melhorar a fiabilidade e segurança de funcionamento do conversor estático de potência tolerante a falhas, foi concebido um circuito electrónico permitindo a aceleração da actuação normal de contactores e outro circuito responsável pelo encaminhamento e inibição dos sinais de disparo. Para a aplicação do conversor estático de potência tolerante a falhas desenvolvido num accionamento com um motor de corrente contínua, foi implementado um algoritmo de controlo numa placa de processamento digital de sinais (DSP), sendo a supervisão e actuação do sistema realizados em tempo-real, para a detecção de falhas e actuação de contactores e controlo de corrente e velocidade do motor utilizando uma estratégia de comando PWM. Foram realizados ensaios que, mediante uma detecção adequada de falhas, realiza a comutação entre blocos de conversores de potência. São apresentados e discutidos resultados experimentais, obtidos usando o protótipo laboratorial.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos tempos actuais os equipamentos para Aquecimento Ventilação e Ar Condicionado (AVAC) ocupam um lugar de grande importância na concepção, desenvolvimento e manutenção de qualquer edifício por mais pequeno que este seja. Assim, surge a necessidade premente de racionalizar os consumos energéticos optimizando-os. A alta fiabilidade desejada nestes sistemas obriga-nos cada vez mais a descobrir formas de tornar a sua manutenção mais eficiente, pelo que é necessário prevenir de uma forma proactiva todas as falhas que possam prejudicar o bom desempenho destas instalações. Como tal, torna-se necessário detectar estas falhas/anomalias, sendo imprescíndivel que nos antecipemos a estes eventos prevendo o seu acontecimento num horizonte temporal pré-definido, permitindo actuar o mais cedo possível. É neste domínio que a presente dissertação tenta encontrar soluções para que a manutenção destes equipamentos aconteça de uma forma proactiva e o mais eficazmente possível. A ideia estruturante é a de tentar intervir ainda numa fase incipiente do problema, alterando o comportamento dos equipamentos monitorizados, de uma forma automática, com recursos a agentes inteligentes de diagnóstico de falhas. No caso em estudo tenta-se adaptar de forma automática o funcionamento de uma Unidade de Tratamento de Ar (UTA) aos desvios/anomalias detectadas, promovendo a paragem integral do sistema apenas como último recurso. A arquitectura aplicada baseia-se na utilização de técnicas de inteligência artificial, nomeadamente dos sistemas multiagente. O algoritmo utilizado e testado foi construído em Labview®, utilizando um kit de ferramentas de controlo inteligente para Labview®. O sistema proposto é validado através de um simulador com o qual se conseguem reproduzir as condições reais de funcionamento de uma UTA.