911 resultados para Processamento de pescado


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pretende-se realizar uma revisão sobre as estruturas neuroanatómicas e os processos de neurotransmissão e de modulação neuronal envolvidos na memória. A memória é vista como um processo activo, baseado na reunião de variados aspectos dos padrões de activação neuronal, num processo dependente da experiência. Descreve-se a importância das regiões límbicas e sua inter-relação no processamento da memória, desde a codificação até à consolidação que implica uma reestruturação neuronal. Procede-se à caracterização dos tipos de memória (implícita e explícita) e suas características,a relação com as diferentes fases do desenvolvimento, tocando alguns aspectos mais descritivos de diferentes componentes da memória. Numa perspectiva contextual são também focadas as áreas da amnésia infantil, a lembrança, o esquecimento e o trauma. O esquecimento é parte essencial da memória explícita. Vários estudos apontam para um efeito de curva em U invertida, em relação com o impacto emocional. Eventos com intensidade moderada a elevada parecem ser etiquetados como importantes (envolvimento de estruturas do sistema límbico como a amígdala e o córtex orbito-frontal) e são mais facilmente recordadas no futuro. Se os eventos são muitos intensos o processamento no hipocampo da codificação memoria explícita e subsequentemente a recordação são inibidos,há também um bloqueio da consolidação cortical da experiência, porém mantém-se a memória implícita, que pode levar a vivência de imagens intrusivas não elaboradas. No que concerne ao trauma, levanta-se a questão da precisão da memória e do seu impacto, tanto ao nível das implicações neurofisiológicas como das consequências psicopatológicas. As alterações ao nível das neurotransmissões induzidas pelo stress vão condicionar alterações na mielinização, sinaptogénese e neurogénese, que podem levar a alterações a longo prazo em várias regiões do cérebro entre as quais a amígdala. Nestas condições, o processo explícito e a aprendizagem podem ser cronicamente impedidas, para além do risco importante para o desenvolvimento de psicopatologia, nomeadamente: Perturbação da Personalidade, Perturbações de Humor (depressão); Perturbações de Ansiedade; Perturbações Dissociativas e maior risco de Psicose.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A água é um recurso natural único, escasso e essencial a todos os seres vivos, o que a torna um bem de extrema importância. Nos dias de hoje, o desperdício deste bem, aliado ao aumento da sua procura, tornou-se um problema devido à decrescente disponibilidade de água doce no nosso planeta. Todas as águas que rejeitamos depois da sua utilização para diversos fins, designadas de águas residuais, necessitam de tratamento antes de serem devolvidas ao meio ambiente. O seu tratamento é realizado numa Estação de Tratamento de Águas Residuais (ETAR) e o processo de tratamento depende das suas características. A ETAR das Termas de S. Vicente, em Penafiel, trabalha no seu limite de capacidade, apresenta uma sobrecarga hidráulica gerada por uma afluência de águas pluviais e o processamento das lamas geradas não permite uma secagem tão completa como seria desejável. Assim, este trabalho teve como objetivo o estudo do funcionamento desta ETAR com a finalidade de propor soluções que o possam otimizar. As soluções propostas para otimizar o funcionamento da ETAR em estudo são: i) a substituição de grades de limpeza manual por grades de limpeza automática de forma a reduzir a necessidade da intervenção do operador ao nível da remoção e condicionamento dos gradados; ii) a construção de um desarenador arejado que além de remover areias de diâmetro superior a 0,2 mm promove também a remoção de gorduras, protegendo desta forma os equipamentos a jusante da abrasão/desgaste prematuros e reduzindo a formação de depósitos nas tubagens; iii) a construção de um tanque de equalização de forma a garantir uma distribuição mais uniforme dos caudais e da carga poluente; iv) a substituição do enchimento do leito percolador por um meio de suporte plástico que permite atingir melhores eficiências de remoção neste tratamento biológico; v) a alteração do agente de desinfeção para radiação ultravioleta, evitando a adição de produtos químicos na água residual e possível formação de subprodutos prejudiciais ao ambiente, como ocorreria no caso da cloragem; e vi) a substituição da desidratação de lamas em leitos de secagem por filtros de banda, que é um processo mais rápido, que ocupa menos espaço e permite atingir elevadas eficiências de remoção de humidade. Para cada uma das sugestões são apresentadas as correspondentes especificações técnicas e dimensionamento. As sugestões de melhoria apresentadas neste trabalho constituem uma alternativa mais económica do que a ampliação da ETAR, que genericamente corresponde à duplicação da linha de tratamento atual. Devido à menor complexidade em termos de construção, estas sugestões podem vir a ser implementadas num futuro próximo, prolongando assim um pouco mais a vida útil da ETAR atual.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho teve como principal objetivo o estudo da simulação da unidade de destilação atmosférica e a vácuo da fábrica de óleos base da Petrogal, permitindo verificar que, uma vez conseguido um modelo num programa de simulação que traduz o comportamento real de um dado processo, é possível sem riscos operacionais avaliar o efeito da alteração das condições normais de funcionamento desse processo. O trabalho foi orientado pelo Eng.º Carlos Reis, no que diz respeito à empresa, e pelo Prof. Dr. Luís Silva, pelo ISEP. O trabalho foi dividido em duas partes, sendo a primeira direcionada à obtenção do novo crude a partir de dois crudes pesados e caracterização dessa mistura. Já a segunda parte reside na refinação deste novo crude através da plataforma Aspen Plus para obtenção do resíduo de vácuo, para posterior processamento na coluna de discos rotativos usando um método de separação por extração liquido-liquido. Estudaram-se as propriedades físicas dos fluidos e verificou-se que na destilação atmosférica as curvas de destilação encontram-se muito próximas comparativamente com os resultados obtidos pela empresa, enquanto na destilação a vácuo os valores encontram-se mais afastados, apresentando uma variação de 30ºC a 100ºC em relação aos valores obtidos pelo Petro-Sim. Com a finalidade de cumprir um dos objetivos em falta, irão ser realizadas futuramente simulações no extrator de discos rotativos para otimização do processo para crudes pesados, sendo os resultados facultados, posteriormente, à Petrogal. Durante a realização do trabalho foi atingido um modelo real representativo da unidade de destilação atmosférica e a vácuo da Petrogal, podendo obter-se resultados para qualquer tipo de crude, fazendo apenas variar o assay da corrente de alimentação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma nova área tecnológica está em crescente desenvolvimento. Esta área, denominada de internet das coisas, surge na necessidade de interligar vários objetos para uma melhoria a nível de serviços ou necessidades por parte dos utilizadores. Esta dissertação concentra-se numa área específica da tecnologia internet das coisas que é a sensorização. Esta rede de sensorização é implementada pelo projeto europeu denominado de Future Cities [1] onde se cria uma infraestrutura de investigação e validação de projetos e serviços inteligentes na cidade do Porto. O trabalho realizado nesta dissertação insere-se numa das plataformas existentes nessa rede de sensorização: a plataforma de sensores ambientais intitulada de UrbanSense. Estes sensores ambientais que estão incorporados em Data Collect Unit (DCU), também denominados por nós, medem variáveis ambientais tais como a temperatura, humidade, ozono e monóxido de carbono. No entanto, os nós têm recursos limitados em termos de energia, processamento e memória. Apesar das grandes evoluções a nível de armazenamento e de processamento, a nível energético, nomeadamente nas baterias, não existe ainda uma evolução tão notável, limitando a sua operacionalidade [2]. Esta tese foca-se, essencialmente, na melhoria do desempenho energético da rede de sensores UrbanSense. A principal contribuição é uma adaptação do protocolo de redes Ad Hoc OLSR (Optimized Link State Routing Protocol) para ser usado por nós alimentados a energia renovável, de forma a aumentar a vida útil dos nós da rede de sensorização. Com esta contribuição é possível obter um maior número de dados durante períodos de tempo mais longos, aproximadamente 10 horas relativamente às 7 horas anteriores, resultando numa maior recolha e envio dos mesmos com uma taxa superior, cerca de 500 KB/s. Existindo deste modo uma aproximação analítica dos vários parâmetros existentes na rede de sensorização. Contudo, o aumento do tempo de vida útil dos nós sensores com recurso à energia renovável, nomeadamente, energia solar, incrementa o seu peso e tamanho que limita a sua mobilidade. Com o referido acréscimo a determinar e a limitar a sua mobilidade exigindo, por isso, um planeamento prévio da sua localização. Numa primeira fase do trabalho analisou-se o consumo da DCU, visto serem estes a base na infraestrutura e comunicando entre si por WiFi ou 3G. Após uma análise dos protocolos de routing com iv suporte para parametrização energética, a escolha recaiu sobre o protocolo OLSR devido à maturidade e compatibilidade com o sistema atual da DCU, pois apesar de existirem outros protocolos, a implementação dos mesmos, não se encontram disponível como software aberto. Para a validação do trabalho realizado na presente dissertação, é realizado um ensaio prévio sem a energia renovável, para permitir caracterização de limitações do sistema. Com este ensaio, tornou-se possível verificar a compatibilidade entre os vários materiais e ajustamento de estratégias. Num segundo teste de validação é concretizado um ensaio real do sistema com 4 nós a comunicar, usando o protocolo com eficiência energética. O protocolo é avaliado em termos de aumento do tempo de vida útil do nó e da taxa de transferência. O desenvolvimento da análise e da adaptação do protocolo de rede Ad Hoc oferece uma maior longevidade em termos de tempo de vida útil, comparando ao que existe durante o processamento de envio de dados. Apesar do tempo de longevidade ser inferior, quando o parâmetro energético se encontra por omissão com o fator 3, a realização da adaptação do sistema conforme a energia, oferece uma taxa de transferência maior num período mais longo. Este é um fator favorável para a abertura de novos serviços de envio de dados em tempo real ou envio de ficheiros com um tamanho mais elevado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atualmente, as Tecnologias de Informação (TI) são cada vez mais vitais dentro das organizações. As TI são o motor de suporte do negócio. Para grande parte das organizações, o funcionamento e desenvolvimento das TI têm como base infraestruturas dedicadas (internas ou externas) denominadas por Centro de Dados (CD). Nestas infraestruturas estão concentrados os equipamentos de processamento e armazenamento de dados de uma organização, por isso, são e serão cada vez mais desafiadas relativamente a diversos fatores tais como a escalabilidade, disponibilidade, tolerância à falha, desempenho, recursos disponíveis ou disponibilizados, segurança, eficiência energética e inevitavelmente os custos associados. Com o aparecimento das tecnologias baseadas em computação em nuvem e virtualização, abrese todo um leque de novas formas de endereçar os desafios anteriormente descritos. Perante este novo paradigma, surgem novas oportunidades de consolidação dos CD que podem representar novos desafios para os gestores de CD. Por isso, é no mínimo irrealista para as organizações simplesmente eliminarem os CD ou transforma-los segundo os mais altos padrões de qualidade. As organizações devem otimizar os seus CD, contudo um projeto eficiente desta natureza, com capacidade para suportar as necessidades impostas pelo mercado, necessidades dos negócios e a velocidade da evolução tecnológica, exigem soluções complexas e dispendiosas tanto para a sua implementação como a sua gestão. É neste âmbito que surge o presente trabalho. Com o objetivo de estudar os CD inicia-se um estudo sobre esta temática, onde é detalhado o seu conceito, evolução histórica, a sua topologia, arquitetura e normas existentes que regem os mesmos. Posteriormente o estudo detalha algumas das principais tendências condicionadoras do futuro dos CD. Explorando o conhecimento teórico resultante do estudo anterior, desenvolve-se uma metodologia de avaliação dos CD baseado em critérios de decisão. O estudo culmina com uma análise sobre uma nova solução tecnológica e a avaliação de três possíveis cenários de implementação: a primeira baseada na manutenção do atual CD; a segunda baseada na implementação da nova solução em outro CD em regime de hosting externo; e finalmente a terceira baseada numa implementação em regime de IaaS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os sistemas de informação integrados contribuem para a gestão eficiente das empresas, seja na organização e funcionamento internos ou nas relações externas. O mercado deste software é dominado pelas empresas que criam e distribuem sistemas proprietários. Existe uma alternativa, software livre, que disponibiliza aplicações em código aberto e maioritariamente de licença gratuita, que pode ser adaptado às necessidades das empresas. O objetivo do presente trabalho é avaliar a viabilidade de plataformas livres, de natureza vertical – OFBiz – e horizontal – Spring – como opção na escolha de um sistema de informação nas Pequenas e Médias Empresas portuguesas. Das áreas de negócio principais das organizações, foi selecionada a área de Recursos Humanos para efeitos de adaptação na aplicação OFBiz, com incidência em dois casos de uso: uma opção essencial, mas que atualmente não está prevista – Processamento de vencimentos – e outra já existente e que é avaliada em termos de necessidades de adaptação – Recrutamento. Sendo o idioma um requisito indispensável à internacionalização da aplicação, foi também analisada a sua implementação. A metodologia de investigação utilizada foi o Design Science Research, tendo sido implementado um protótipo para efeitos de teste e avaliação do projeto, com a elaboração de dois modelos: configuração e desenvolvimento. Implementado o protótipo, verificou-se que a framework vertical apresenta-se como uma alternativa mais viável do que a horizontal, pelas funcionalidades já existentes e que facilitam a adequação às necessidades de informação das Pequenas e Médias Empresas. A sua base tecnológica e de estrutura permite que a aplicação possa ser adaptada por técnicos especialistas das próprias empresas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A evolução tecnológica tem sido de tal ordem que a realidade virtual deixou de ser um mero conceito que apenas é possível de implementar recorrendo a máquinas com um poder de processamento muito elevado. Tendo em conta o potencial da realidade virtual e a não existência de boas práticas na criação da interface de um sistema que use este conceito, pretende-se, nesta dissertação, fazer um estudo sobre como pode ser analisada e estruturada a componente de interação através da estratificação de níveis de interação para as diferentes operações do sistema pretendido. Por forma a ser possível, posteriormente, comparar cada um dos sistemas relativamente à interação, foram estipulados um conjunto de ações/operações que teriam de ser passíveis de executar em cada um, bem como, um tema base, uma aplicação de realidade virtual de simulação de espaço aplicada ao sector mobiliário. Depois de implementados os sistemas, estes foram apresentados a um conjunto de pessoas que foram inquiridas sobre os mesmos, por forma a avaliar a interação com cada um. Através dos resultados obtidos da avaliação dos inquéritos entregues, foi possível concluir que, para uma grande parte das operações implementadas, existe uma preferência para que a realização da operação seja o mais similar à sua execução num contexto real.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O veículo guiado automaticamente (AGV) adquirido pelo Departamento de Engenharia Mecânica (DEM) tem vindo a ficar obsoleto devido ao hardware, que nos dias de hoje começa a dar sinais de falhas bem como falta de peças de substituição, e ao software, sendo o PLC (Programmable Logic Controller) usado muito limitado quanto às suas funções de controlo, ficando as principais tarefas de controlo do AGV a cargo de placas eletrónicas de controlo. Para promover o controlo autónomo do AGV, foi decidido retirar toda a parte de hardware que detinha o controlo do mesmo e passou a ser um novo PLC, com maior capacidade de processamento, a executar todo o tipo de controlo necessário ao funcionamento do mesmo. O hardware considerado apenas incluí, de forma resumida, os motores responsáveis pelo movimento e direção, placa de controlo de potência dos motores, placa de interface entre as saídas digitais do PLC e as entradas da placa de controlo de potência dos motores e os demais sensores necessários à deteção de obstáculos, fins de curso da direção, sensores dos postos de trabalho e avisadores de emergência. Todo o controlo de movimento e direção bem como a seleção das ações a executar passou a ficar a cargo do software programado no PLC assim como a interação entre o sistema de supervisão instalado num posto de controlo e o PLC através de comunicação via rádio. O uso do PLC permitiu a flexibilidade de mudar facilmente a forma como as saídas digitais são usadas, ao contrário de um circuito eletrónico que necessita de uma completa remodelação, tempo de testes e implementação para efetuar a mesma função. O uso de um microcontrolador seria igualmente viável para a aplicação em causa, no entanto o uso do PLC tem a vantagem de ser robusto, mais rápido na velocidade de processamento, existência de software de interface de programação bastante intuitivo e de livre acesso, facilidade de alterar a programação localmente ou remotamente, via rádio, acesso a vários protocolos de comunicação robustos como Modbus, Canbus, Profinet, Modnet, etc., e acesso integrado de uma consola gráfica totalmente programável. iv É ainda possível a sua expansão com adição de módulos de entradas e saídas digitais e/ou analógicas permitindo expandir largamente o uso do AGV para outros fins. A solução está a ser amplamente testada e validada no Laboratório de Automação (LabA) do Departamento de Engenharia Mecânica do ISEP (Instituto Superior de Engenharia do Porto), permitindo a otimização dos sistemas de controlo de direção bem como a interatividade entre o PLC e o programa de interface/supervisão do posto de trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos anos o aumento exponencial da utilização de dispositivos móveis e serviços disponibilizados na “Cloud” levou a que a forma como os sistemas são desenhados e implementados mudasse, numa perspectiva de tentar alcançar requisitos que até então não eram essenciais. Analisando esta evolução, com o enorme aumento dos dispositivos móveis, como os “smartphones” e “tablets” fez com que o desenho e implementação de sistemas distribuidos fossem ainda mais importantes nesta área, na tentativa de promover sistemas e aplicações que fossem mais flexíveis, robutos, escaláveis e acima de tudo interoperáveis. A menor capacidade de processamento ou armazenamento destes dispositivos tornou essencial o aparecimento e crescimento de tecnologias que prometem solucionar muitos dos problemas identificados. O aparecimento do conceito de Middleware visa solucionar estas lacunas nos sistemas distribuidos mais evoluídos, promovendo uma solução a nível de organização e desenho da arquitetura dos sistemas, ao memo tempo que fornece comunicações extremamente rápidas, seguras e de confiança. Uma arquitetura baseada em Middleware visa dotar os sistemas de um canal de comunicação que fornece uma forte interoperabilidade, escalabilidade, e segurança na troca de mensagens, entre outras vantagens. Nesta tese vários tipos e exemplos de sistemas distribuídos e são descritos e analisados, assim como uma descrição em detalhe de três protocolos (XMPP, AMQP e DDS) de comunicação, sendo dois deles (XMPP e AMQP) utilzados em projecto reais que serão descritos ao longo desta tese. O principal objetivo da escrita desta tese é demonstrar o estudo e o levantamento do estado da arte relativamente ao conceito de Middleware aplicado a sistemas distribuídos de larga escala, provando que a utilização de um Middleware pode facilitar e agilizar o desenho e desenvolvimento de um sistema distribuído e traz enormes vantagens num futuro próximo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os biocombustíveis apresentam um interessante potencial de redução da dependência energética relativamente aos combustíveis fósseis. A produção de microalgas apresenta vários benefícios ambientais como sejam a utilização mais efetiva de terrenos, a captura de dióxido de carbono, a purificação de águas quando associada a um processo de tratamento de águas residuais e não provoca a disputa entre a produção de matéria-prima para alimentação e combustíveis. A cultura de microalgas para a produção de biodiesel tem recebido uma grande atenção nos últimos anos devido ao seu potencial. Neste trabalho pretende-se criar as etapas de processamento das microalgas em biodiesel onde são implementadas medidas de eficiência energética e aproveitamento de fontes poluidoras como o CO2. Para isso, formulou-se um modelo no programa Aspen Plus para simulação do processo desde a produção, colheita até à extração de óleo das microalgas e posterior avaliação económica do mesmo. Concluiu-se que para o projeto fosse pago no tempo de vida útil seria preciso vender o óleo a 13 $/kg. Aos preços atuais do óleo o projeto não é economicamente viável.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A dissertação em apreço resultou da necessidade em otimizar os recursos técnicos, mas sobretudo humanos, afetos às verificações de instrumentos de medição, no âmbito do Controlo Metrológico Legal. Estas verificações, realizadas nos termos do cumprimento das competências outrora atribuídas à Direção de Serviços da Qualidade da então Direção Regional da Economia do Norte, eram operacionalizadas pela Divisão da Qualidade e Licenciamento, na altura dirigida pelo subscritor da presente tese, nomeadamente no que respeita aos ensaios efetuados, em laboratório, a manómetros analógicos. O objetivo principal do trabalho foi alcançado mediante o desenvolvimento de um automatismo, materializado pela construção de um protótipo, cuja aplicação ao comparador de pressão múltiplo, dantes em utilização, permitiria realizar a leitura da indicação de cada manómetro analógico através de técnicas de processamento de imagem, função esta tradicionalmente efetuada manualmente por um operador especializado. As metodologias de comando, controlo e medição desse automatismo foram realizadas através de um algoritmo implementado no software LabVIEW® da National Intruments, particularmente no que respeita ao referido processamento das imagens adquiridas por uma câmara dedeo USB. A interface com o hardware foi concretizada recorrendo a um módulo de Aquisição de Dados Multifuncional (DAQ) USB-6212, do mesmo fabricante. Para o posicionamento horizontal e vertical da câmara dedeo USB, recorreu-se a guias lineares acionadas por motores de passo, sendo que estes dispositivos foram igualmente empregues no acionamento do comparador de pressão. Por último, procedeu-se à aquisição digital da leitura do padrão, recorrendo à respetiva virtualização, bem como a uma aplicação desenvolvida neste projeto, designada appMAN, destinada à gestão global do referido automatismo, nomeadamente no que se refere ao cálculo do resultado da medição, erro e incerteza associada, e emissão dos respetivos documentos comprovativos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta dissertação é apresentado um estudo dos sistemas de processamento automático de imagem em contexto de um problema relacionado com a individualização de neurónios em imagens da nematoda C. elegans durante estudos relacionados com a doença de Parkinson. Apresenta-se uma breve introdução à anatomia do verme, uma introdução à doença de Parkinson e uso do C. elegans em estudos relacionados e também é feita a análise de artigos em contexto de processamento de imagem para contextualizar a situação atual de soluções para o problema de extração de características e regiões específicas. Neste projeto é desenvolvida uma pipeline com o auxilio do software CellProfiler para procurar uma resposta para o problema em questão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os sistemas de monitorização de estruturas fornecem diversas vantagens, não só no que diz respeito à durabilidade da obra, ao aumento da segurança e do conhecimento relativamente ao comportamento das estruturas ao longo do tempo, à otimização do aspeto estrutural, bem como aos aspetos económicos do processo de construção e manutenção. A monitorização deve realizar-se durante a fase de construção e/ou de exploração da obra para permitir o registo integral do seu comportamento no meio externo. Deve efetuar-se de forma contínua e automática, executando intervenções de rotina para que se possa detetar precocemente sinais de alterações, respetivamente à segurança, integridade e desempenho funcional. Assim se poderá manter a estrutura dentro de parâmetros aceitáveis de segurança. Assim, na presente dissertação será concebido um demonstrador experimental, para ser estudado em laboratório, no qual será implementado um sistema de monitorização contínuo e automático. Sobre este demonstrador será feita uma análise de diferentes grandezas em medição, tais como: deslocamentos, extensões, temperatura, rotações e acelerações. Com carácter inovador, pretende-se ainda incluir neste modelo em sintonia de medição de coordenadas GNSS com o qual se torna possível medir deslocamentos absolutos. Os resultados experimentais alcançados serão analisados e comparados com modelos numéricos. Conferem-se os resultados experimentais de natureza estática e dinâmica, com os resultados numéricos de dois modelos de elementos finitos: um de barras e outro de casca. Realizaram-se diferentes abordagens tendo em conta as características identificadas por via experimental e calculadas nos modelos numéricos para melhor ajuste e calibração dos modelos numéricos Por fim, recorre-se a algoritmos de processamento e tratamento do respetivo sinal com aplicação de filtros, que revelam melhorar com rigor o sinal, de forma a potenciar as técnicas de fusão multisensor. Pretende-se integrar o sinal GNSS com os demais sensores presentes no sistema de monitorização. As técnicas de fusão multisensor visam melhor o desempenho deste potencial sistema de medição, demonstrando as suas valências no domínio da monitorização estrutural.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durante as últimas décadas, os materiais compósitos têm substituído com sucesso os materiais tradicionais em muitas aplicações de engenharia, muito devido às excelentes propriedades que se conseguem obter com a combinação de materiais diferentes. Nos compósitos reforçados com fibras longas ou contínuas tem-se verificado, ao longo dos últimos anos, um aumento do uso de matrizes termoplásticas, fruto de várias vantagens associadas, como o facto de serem bastante mais ecológicas, comparativamente às termoendurecíveis. No entanto, este aumento está muito dependente do desenvolvimento de novas tecnologias de processamento, pois a elevada viscosidade dos termoplásticos, comparativamente aos termoendurecíveis, dificulta significativamente o processo. Muitos equipamentos de produção de termoplásticos são resultado de adaptações de equipamentos de produção de termoendurecíveis, onde normalmente é necessário adicionar fornos de pré-aquecimento. Neste trabalho, pretendeu-se produzir pré-impregnados de fibras contínuas com matriz termoplástica, por deposição a seco de polímero em pó sobre fibras de reforço (denominados por towpreg) para, posteriormente, serem transformados por pultrusão e caracterizados. As matérias-primas utilizadas foram: Polipropileno (PP) como matriz termoplástica e fibra de carbono como reforço. Por forma a melhorar as propriedades finais do compósito, foram otimizadas as condições de processamento na produção dos towpregs, estudando-se a influência da variação dos parâmetros de processamento no teor de polímero presente nestes, tendo como objetivo teores mássicos de polímero superiores a 30%. A condição ótima e a influência dos parâmetros de processamento foram obtidas com o auxílio do Método de Taguchi. Os perfis produzidos por pultrusão foram sujeitos a ensaios de flexão, de forma a obter as suas propriedades quando sujeitos a esse tipo de esforço. Foram também realizados ensaios de calcinação de forma a obter as frações mássicas de fibra e polímero presentes no compósito final. Sabidas as frações mássicas, converteramse em frações volúmicas e obtiveram-se as propriedades teoricamente esperadas através da Lei das Misturas e compararam-se com as obtidas experimentalmente. As propriedades obtidas foram também comparadas com as de outros compósitos pultrudidos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos anos, a utilização dos materiais compósitos tem vindo a tornar-se cada vez mais comum em várias indústrias, onde se verifica uma ascensão na procura pelos mesmos. Características como o baixo peso aliado à sua alta resistência e rigidez permitem que estes materiais possuam diversas aplicações em variadas áreas, desde a medicina, aeronáutica, indústria automóvel e aeroespacial, até à indústria eletrónica. Hoje em dia, o uso de desperdícios sólidos de borracha e fibras naturais na produção de materiais compósitos é, mais que uma opção, uma necessidade ambiental. De forma a reduzir as enormes quantidades de desperdícios, foi criado um material compósito constituído por uma resina termoendurecível reforçada com esses dois tipos de desperdícios. Parâmetros de fabrico como a percentagem de borracha, o tamanho das partículas de borracha, a percentagem de fibras de cana-de-açúcar e o comprimento dessas fibras foram variados, com o objetivo de estudar a influência destes dois materiais nas propriedades mecânicas do compósito. Apesar da maior parte dos compósitos serem fabricados na forma de uma peça funcional quase pronta a ser utilizada, por vezes é necessário recorrer à maquinação de furos. Apesar das muitas técnicas de furação existentes, os defeitos resultantes deste processo aplicado aos materiais compósitos são ainda muito comuns. Desses defeitos o que mais se destaca é sem dúvida a delaminação. Trinta e seis provetes de epóxido reforçado com borracha e fibra de cana-de-açúcar foram fabricados e furados, de modo a possibilitar o estudo das propriedades mecânicas do material compósito, assim como a análise da zona danificada durante a furação. Diferentes condições de furação, como tipos de broca e velocidades de avanço diferentes, foram impostas aos provetes de forma a variar o mais possível a zona de dano de uns furos para os outros. Parâmetros como a área de dano ou ainda o fator de delaminação provam ser muito úteis na caracterização e quantificação do dano na zona periférica de um furo. Recorrendo a técnicas de processamento de imagem foi possível obter esses parâmetros. O processamento e análise de imagem pode ser feito através de vários métodos. O método utilizado neste trabalho foi o software MATLAB® associado a ferramentas de processamento de imagem. Depois de feita a análise dos furos foram realizados ensaios de esmagamento a todos os provetes. Este passo permitiu assim avaliar de que forma os parâmetros de furação influenciam a resistência mecânica do material, e se a avaliação realizada aos furos é um método viável para a avaliação da extensão de dano nesses furos.