130 resultados para Otimização de topologia


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A dissertação foi realizada em ambiente industrial, mais precisamente na empresa Monteiro, Ribas – Embalagens Flexíveis, S.A.. Esta empresa dedica-se à impressão e laminagem de filmes, assim como à confeção de sacos. Os seus produtos são direcionados na sua maioria para a indústria alimentar, exportando mais de 50% da sua produção, e dizem respeito a complexos (dois ou mais filmes unidos pela presença de um adesivo) que podem possuir impressão ou não. Estes complexos podem ser enviados para o cliente em bobina ou já em saco. Os objetivos propostos pela empresa diziam respeito a estudos relacionados com a força de laminagem dos complexos, com o coeficiente de atrito dos mesmos e com a identificação dos espetros dos componentes dos adesivos, assim como o estudo do processo de reticulação dos mesmos por espetrofotometria de Infravermelho. Relativamente aos resultados obtidos verificou-se que tanto a tinta como os metalizados influenciam negativamente a força de laminagem. Por sua vez o coeficiente de atrito é afetado por vários fatores. Através dos ensaios experimentais verificou-se que o adesivo, a tinta e o verniz mate favorecem o aumento do valor do COF. Além disso, nos complexos em que se utilizaram filmes de polietileno de maior espessura obtiveram-se valores de COF mais baixos, e no que diz respeito à temperatura e à tensão de enrolamento, verificou-se que valores mais elevados e muito baixos da primeira traduzem-se num aumento do valor do COF e uma tensão de enrolamento maior também tem o mesmo efeito. Relativamente ao tipo de filme impresso, substratos com maior energia superficial atraem mais o agente de deslizamento (slip). Por último, não se conseguiu perceber qual o tipo de adesivo (com ou sem solvente) que tem maior impacto no COF uma vez que em 55% dos casos o valor do COF é superior nas amostras que foram complexadas com adesivo sem solvente e em 45% o COF era superior nas amostras complexadas com adesivo base solvente. No que diz respeito aos espetros obtidos verificou-se que a reticulação dos adesivos é identificada pela diminuição da extensão do pico correspondente à ligação N=C=O.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As tintas são amplamente utilizadas para a prevenção da corrosão principalmente devido a aspectos económicos e conveniência. As estratégias de protecção da corrosão com recurso a tintas podem ser de vários tipos mas usualmente são função da aderência da resina, das propriedades barreira que o filme apresenta, e das propriedades anti-corrosivas dos pigmentos utilizados (seja por protecção por inibição ou por protecção catódica). Neste trabalho desenvolveu-se um primário anticorrosivo sem a utilização de pigmentos considerados tóxicos como o cromato de zinco. Assim, este primário é baseado em resinas de polivinil butiral (PVB) e pigmentos inibidores da corrosão não tóxicos. Foram caracterizadas as propriedades mecânicas e poliisocianato e também o efeito da concentração de ácido fosfórico no catalisador (fornecido em separado). Foram testados três pigmentos anticorrosivos: fosfato de zinco e ferro (ZF), fosfosilicato de estrôntico e cálcio (EC) e ortofosfato silicato hidratado de zinco, cálcio, estrôntico e alumínio (ZCEA). Avaliaram-se as propriedades anticorrosivas e mecânicas destes pigmentos a diferentes razões de Concentração Volumétrica de pigmentos (PVC) em função do seu valor crítico (CPVC) 80,60-1,15). Testaram-se inibidores de corrosão orgânicos juntamente com os pigmentos. As propriedades anticorrosivas foram avaliadas através das técnicas de espectroscopia de impedância eletroquímica (EIS) e nevoeiro salino. Os resultados obtidos mostraram que 2% de ácido fosfórico no catalisador não alteram a aderência mas permitem melhorar a dureza de primério. Esta percentagem permite um aumento da resistência química do produto final. nos testes com diferentes resinas a diferentes proporções, os melhores resultados foram obtidos com a resina de poliisocianato com claras melhorias nas propriedades mecânicas. a avaliação dos diferentes pigmentos resultou na seguinte sequência decrescente das propriedades anticorrosivas ZCEA >EC>ZF. O ZCEA demonstrou uma menor sensibilidade à razão PVC/CPVC. A resistência à corrosão pode ainda ser melhorada com o inibidor de corrosão zinco-5-nitroisoftalato, tomando partido dos efeitos sinergéticos entre pigmento inorgânico e aditivos orgânicos. A comparação do primário formulado com o pigmento ZCEA a PVC/CPVC de 0,60 demonstrou melhores propriedades anticorrosivas do que os três produtos da concorrência testados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Computação Evolutiva enquadra-se na área da Inteligência Artificial e é um ramo das ciências da computação que tem vindo a ser aplicado na resolução de problemas em diversas áreas da Engenharia. Este trabalho apresenta o estado da arte da Computação Evolutiva, assim como algumas das suas aplicações no ramo da eletrónica, denominada Eletrónica Evolutiva (ou Hardware Evolutivo), enfatizando a síntese de circuitos digitais combinatórios. Em primeiro lugar apresenta-se a Inteligência Artificial, passando à Computação Evolutiva, nas suas principais vertentes: os Algoritmos Evolutivos baseados no processo da evolução das espécies de Charles Darwin e a Inteligência dos Enxames baseada no comportamento coletivo de alguns animais. No que diz respeito aos Algoritmos Evolutivos, descrevem-se as estratégias evolutivas, a programação genética, a programação evolutiva e com maior ênfase, os Algoritmos Genéticos. Em relação à Inteligência dos Enxames, descreve-se a otimização por colônia de formigas e a otimização por enxame de partículas. Em simultâneo realizou-se também um estudo da Eletrónica Evolutiva, explicando sucintamente algumas das áreas de aplicação, entre elas: a robótica, as FPGA, o roteamento de placas de circuito impresso, a síntese de circuitos digitais e analógicos, as telecomunicações e os controladores. A título de concretizar o estudo efetuado, apresenta-se um caso de estudo da aplicação dos algoritmos genéticos na síntese de circuitos digitais combinatórios, com base na análise e comparação de três referências de autores distintos. Com este estudo foi possível comparar, não só os resultados obtidos por cada um dos autores, mas também a forma como os algoritmos genéticos foram implementados, nomeadamente no que diz respeito aos parâmetros, operadores genéticos utilizados, função de avaliação, implementação em hardware e tipo de codificação do circuito.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atualmente, o álcool tem um papel importante na saúde pública e surge como um dos principais problemas sociais no mundo, dado que é a droga mais viciante aceite em encontros sociais. Provavelmente, por essa razão, os riscos do consumo abusivo do álcool são subestimados pelos jovens, mulheres grávidas e idosos. O álcool, quando ingerido em altas proporções, pode afetar todos os órgãos e desencadear inúmeras doenças, tais como a doença cardíaca coronariana, doença neurodegenerativa, as doenças crónicas e câncer. O álcool afeta ainda o estado psicológico, induzindo a violência, o estado antissocial e situações de risco de comportamentos. Por estas razões, o álcool tornou-se um foco principal da investigação, avaliando os seus efeitos sobre o corpo humano. Nesta pesquisa, foram suscitadas amostras de sangue de um grupo de pacientes em tratamento psicológico e/ou farmacêutico que serão analisadas com quatro métodos: Teste de Radicais Livres do Oxigénio (FORT), Defesa contra Radicais Livres do Oxigénio (FORD), cromatografia gasosa (GC) e cromatografia líquida de alta pressão (HPLC). Ambos os métodos FORT e FORD avaliam o stress oxidativo pela quantificação de radicais livres e a capacidade de antioxidantes em eliminar esses radicais livres, respetivamente. O stress oxidativo é o efeito do excesso de consumo de álcool, que é reduzido pela capacidade de ação dos antioxidantes. A boa reprodutibilidade, precisão e exatidão de ambos os métodos indicam que estes podem ser aplicados em rápidos diagnósticos. Para o método FORT e considerando o início do tratamento, os pacientes alcoólicos apresentaram uma média de 3,59±1.01mmol/LH2O2 e o grupo de controlo uma média de 1,42±0.53mmol/LH2O2, o que mostra uma diferença significativa entre os dois grupos (P=0,0006). Para o método FORD, pacientes alcoólicos apresentam uma média de 1,07±0.53mmol/LH2O2 e o grupo de controlo, uma média de 2,81±0.46mmol/LH2O2, mostrando também uma média significativa (P=0,0075). Após 15 dias de tratamento observou-se que há uma diferença entre os dois grupos de pacientes alcoólicos, mas não há nenhum melhoramento em relação ao grupo de pacientes em tratamento. No método FORT os grupos mostram uma diferença significativa (P=0,0073), tendo os pacientes sem tratamento farmacêutico melhores resultados (2.37±0.44mmol/LH2O2) do que os pacientes com tratamento (3.72±1,04mmol/LH2O2). O oposto ocorre no método FORD, os pacientes em tratamento farmacêutico presentam melhores resultados (1.16±0.65mmol/LH2O2) do que o outro grupo (0.75±0.22mmol/LH2O2), não sendo, no entanto, uma diferença significativa entre os dois grupos (P=0.16). Os resultados obtidos para a concentração de MDA pelo método de HPLC mostraram que o grupo de controlo tem valores mais baixos do que os pacientes alcoólicos, embora a diferença não seja muito significativa (P = 0,084), mas é ainda elevada. Além disso, os dois grupos de pacientes não apresentaram uma diferença significativa entre os seus resultados no início (P=0,77) e no fim (P=0,79) do tratamento. De acrescentar ainda que, os resultados da concentração de álcool no sangue determinados pelo método de CG mostraram que só alguns pacientes sem tratamento consumiram álcool durante o período de tratamento, o que influencia negativamente a conclusão sobre o efeito do tratamento. Contudo, outros fatores externos podem ainda influenciar os resultados finais, tais como o estado nutricional e estado psicológico dos pacientes, se o paciente continua a beber durante o tempo de tratamento ou até mesmo se o paciente é exposto a outros tipos de substâncias nocivas. Existe ainda a possibilidade de o tempo de aplicação do tratamento não ser suficiente para apresentar um efeito positivo em relação ao stress oxidativo e este é um outro fator que contribui para a impossibilidade de confirmar sobre o efeito, quer seja positivo ou negativo, do tratamento antioxidante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O âmbito deste trabalho envolve o teste do modelo BIM numa obra em construção pela Mota-Engil – Engenharia, na extração experimental de peças desenhadas de preparação e apoio à execução de obra. No capítulo 1 deste relatório são definidos o âmbito e os objetivos deste trabalho, é feito um enquadramento histórico do tema e abordados conceitos e atividades da preparação de obra, na sua forma tradicional. O estado do conhecimento da preparação de obras e mais em concreto da tecnologia BIM a nível nacional e internacional é abordado no capítulo 2. Nesse sentido procura-se definir os conceitos principais inerentes a esta nova metodologia, que passa por identificar e caraterizar a tecnologia envolvida e o seu nível de desenvolvimento. Com suporte em casos práticos de preparação de obra na sua forma tradicional, identificados e desenvolvidos no capítulo 3, foi compilado um processo tipo de peças desenhadas de suporte identificadas e caracterizadas no capítulo 4, frequentes e comuns à execução de diversos tipos de obras de edifícios. Assente na compilação baseada em casos práticos e no estudo do projeto de execução da empreitada que sustenta o presente trabalho, com base no qual o modelo BIM foi concebido, identificou-se um conjunto de peças desenhadas de preparação e apoio à execução dos trabalhos, em 2D, a extrair do modelo. No capítulo 5, é feita uma descrição do modo como foi estudado o projeto da obra, com evidência para os fatores mais relevantes, especificando os desenhos a extrair. Suportada pelo programa de modelação ArchiCAD, a extração do conjunto de desenhos identificados anteriormente foi conseguida com recurso às funcionalidades disponíveis no software, que permite a criação de desenhos 2D atualizáveis ou não automaticamente a partir do modelo. Qualquer alteração introduzida no modelo virtual é automaticamente atualizada nos desenhos bidimensionais, caso o utilizador assim o pretenda. Ao longo desse trabalho foram detetados e analisados os condicionalismos inerentes ao processo de extração, referidos no capítulo 6, para estabelecimento de regras de modelação padrão a adotar em futuras empreitadas, que possam simplificar a obtenção dos elementos desenhados de preparação necessários à sua execução. No ponto 6.3 são identificadas melhorias a introduzir no modelo. Em conclusão no capítulo 7 são abordadas especificidades do setor da construção que sustentam e evidenciam cada vez mais a necessidade de utilizar as novas tecnologias com vista à adoção de práticas e ferramentas padrão de apoio à execução de obras. Sendo a tecnologia BIM, transversal a todo o setor, a sua utilização com regras padrão na conceção dos modelos e na extração de dados, potencia a otimização dos custos, do tempo, dos recursos e da qualidade final de um empreendimento, ao longo de todo o seu ciclo de vida, para além de apoiar com elevada fiabilidade as tomadas de decisão ao longo desse período. A tecnologia BIM, possibilita a antevisão do edifício a construir com um elevado grau de pormenor, com todas as vantagens que daí advêm.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O consumo de energia de forma irracional acarreta desvantagens a nível económico para o consumidor e problemas ambientais para toda a sociedade, como a escassez de recursos naturais e o aumento da poluição. Neste contexto, a otimização energética na indústria, e em particular no setor das borrachas, é indispensável de forma a utilizar racionalmente a energia e assim contribuir para a viabilidade das empresas. Este trabalho, efetuado na Flexocol - Fábrica de Artefactos de Borracha, Lda., teve como principal objetivo efetuar um levantamento energético à unidade fabril e propor alternativas que permitissem a redução do consumo de energia elétrica. Foi ainda realizado um estudo sobre a possibilidade de substituir o n-hexano, solvente utilizado na limpeza dos moldes, por um solvente mais adequado. O levantamento energético efetuado permitiu identificar o consumo das utilidades existentes na Flexocol. Esta empresa consome gasóleo e energia elétrica, sendo esta última, a forma de energia mais consumida correspondendo a 96%. O consumo global de energia é cerca 151 tep anuais, inferior a 500 tep/ano, ou seja é considerada uma empresa não consumidora intensiva de energia. Com base neste levantamento determinou-se os indicadores de consumo específico de energia e da intensidade carbónica, 2,73 tep/ ton e 1684,5 kg CO2/tep. A análise do consumo de energia elétrica dos diferentes equipamentos permitiu verificar que o setor que mais consome energia elétrica é a Vulcanização com 45,8%, seguido do setor da Mistura e Serralharia com 27,5% e 26,7%, respetivamente. O sistema de iluminação nos vários setores foi também alvo de estudo e permitiu identificar a Vulcanização como o setor com mais consumo e o da Mistura como o que menos consome. O estudo das variáveis anteriormente referidas permitiu apresentar algumas propostas de melhoria. Uma das propostas analisada foi implementação de condensadores no quadro parcial de forma a diminuir a energia reativa. Com esta medida prevê-se uma poupança de 5631 €/ano e um retorno de investimento de 0,045 anos. Foi também analisada relativamente à iluminação a possibilidade de instalação de balastros eletrónicos que conduziria a uma poupança na energia elétrica de cerca 7072 kWh/ano, mas com um retorno de investimento desfavorável. Por último estudou-se o solvente alternativo ao n-hexano. A acetona foi o solvente proposto uma vez que tem as propriedades indicadas para o fim a que se destina.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The integration of wind power in eletricity generation brings new challenges to unit commitment due to the random nature of wind speed. For this particular optimisation problem, wind uncertainty has been handled in practice by means of conservative stochastic scenario-based optimisation models, or through additional operating reserve settings. However, generation companies may have different attitudes towards operating costs, load curtailment, or waste of wind energy, when considering the risk caused by wind power variability. Therefore, alternative and possibly more adequate approaches should be explored. This work is divided in two main parts. Firstly we survey the main formulations presented in the literature for the integration of wind power in the unit commitment problem (UCP) and present an alternative model for the wind-thermal unit commitment. We make use of the utility theory concepts to develop a multi-criteria stochastic model. The objectives considered are the minimisation of costs, load curtailment and waste of wind energy. Those are represented by individual utility functions and aggregated in a single additive utility function. This last function is adequately linearised leading to a mixed-integer linear program (MILP) model that can be tackled by general-purpose solvers in order to find the most preferred solution. In the second part we discuss the integration of pumped-storage hydro (PSH) units in the UCP with large wind penetration. Those units can provide extra flexibility by using wind energy to pump and store water in the form of potential energy that can be generated after during peak load periods. PSH units are added to the first model, yielding a MILP model with wind-hydro-thermal coordination. Results showed that the proposed methodology is able to reflect the risk profiles of decision makers for both models. By including PSH units, the results are significantly improved.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A globalização, nas suas diversas dimensões, está a tornar o mundo cada vez mais pequeno, alterando as nossas vidas e transformando a forma como as empresas fazem negócios. Estamos cada vez mais expostos aos traços e práticas das outras culturas à medida que a tecnologia diminui os custos da comunicação global e das viagens. A globalização está a obrigar as empresas a serem mais competitivas ao mesmo tempo que os países reduzem as barreiras ao comércio internacional e ao investimento estrangeiro. A competitividade das empresas obriga-as a serem mais eficientes e eficazes, logo a pensarem os seus processos internos de forma a procurarem a sua otimização e melhorarem a sua produtividade, com a notória consequência na satisfação do cliente. Para a satisfação do cliente é necessário que as operações dentro do sistema de distribuição, nomeadamente as realizadas no armazém, sejam otimizadas. Esta otimização é atingida quando as encomendas dos clientes estiverem completas e prontas a serem despachadas em tempo útil e todos os processos necessários para o efeito tenham ocorrido no menor espaço de tempo possível e com o mínimo de recursos. O planeamento das operações no armazém tem de determinar o tempo e a ordem das operações bem como os recursos necessários de forma a não acontecerem congestionamentos. A Caetano Parts, uma empresa de revenda de peças de substituição automóvel, identificou um congestionamento na localização de peças que chegavam pela primeira vez ao seu armazém, o que suscitou a necessidade do desenvolvimento de uma ferramenta que permitisse proceder à localização destas peças de uma forma mais expedita, permitindo ganhos significativos de tempo na arrumação das peças e consequentemente no tempo gasto na sua procura/separação e posterior envio para os clientes. A ferramenta desenvolvida consiste num programa em Visual Basic for Applications (VBA) cuja conceção, desenvolvimento e descrição das funcionalidades serão abordados ao longo do trabalho. Os testes realizados ao longo do desenvolvimento validaram o correto funcionamento da ferramenta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho teve como principal objetivo o estudo da simulação da unidade de destilação atmosférica e a vácuo da fábrica de óleos base da Petrogal, permitindo verificar que, uma vez conseguido um modelo num programa de simulação que traduz o comportamento real de um dado processo, é possível sem riscos operacionais avaliar o efeito da alteração das condições normais de funcionamento desse processo. O trabalho foi orientado pelo Eng.º Carlos Reis, no que diz respeito à empresa, e pelo Prof. Dr. Luís Silva, pelo ISEP. O trabalho foi dividido em duas partes, sendo a primeira direcionada à obtenção do novo crude a partir de dois crudes pesados e caracterização dessa mistura. Já a segunda parte reside na refinação deste novo crude através da plataforma Aspen Plus para obtenção do resíduo de vácuo, para posterior processamento na coluna de discos rotativos usando um método de separação por extração liquido-liquido. Estudaram-se as propriedades físicas dos fluidos e verificou-se que na destilação atmosférica as curvas de destilação encontram-se muito próximas comparativamente com os resultados obtidos pela empresa, enquanto na destilação a vácuo os valores encontram-se mais afastados, apresentando uma variação de 30ºC a 100ºC em relação aos valores obtidos pelo Petro-Sim. Com a finalidade de cumprir um dos objetivos em falta, irão ser realizadas futuramente simulações no extrator de discos rotativos para otimização do processo para crudes pesados, sendo os resultados facultados, posteriormente, à Petrogal. Durante a realização do trabalho foi atingido um modelo real representativo da unidade de destilação atmosférica e a vácuo da Petrogal, podendo obter-se resultados para qualquer tipo de crude, fazendo apenas variar o assay da corrente de alimentação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho tem como objetivo a otimização da etapa de fermentação dos açúcares obtidos a partir da drêche cervejeira para produção do bioetanol através da utilização das leveduras Pichia stipitis NCYC 1541 e Kluyveromyces marxianus NCYC 2791 como agentes fermentativos. O meio de cultura usado para manter as culturas destas leveduras foi Yeast Extract Peptone Dextrose (YEPD). O principal propósito deste trabalho foi o de encontrar alternativas aos combustíveis fósseis, pautando-se por soluções inofensivas para o meio ambiente e sustentáveis. Assim, o trabalho está dividido em quatro etapas: 1) caraterização química e biológica da drêche; 2) pré-tratamento ácido e hidrólise enzimática para primeiramente quebrar as moléculas de lenhina que envolvem os polímeros de celulose e hemicelulose e em seguida romper as ligações poliméricas destas macromoléculas por ação enzimática e transforma-las em açúcares simples, respetivamente, obtendo-se então a glucose, a maltose, a xilose e a arabinose; e, por último, 3) otimização da etapa de fermentação da glucose, maltose e das pentoses que constitui a condição essencial para se chegar à síntese do bioetanol de um modo eficiente e sustentável e 4) a recuperação do bioetanol produzido por destilação fracionada. A quantificação dos açúcares libertados no processo foi feita recorrendo a análises por cromatografia líquida de alta eficiência (HPLC). Neste estudo foram identificados e quantificados cinco açúcares: Arabinose, Glucose, Maltose, Ribose e Xilose. Na etapa de pré-tratamento e hidrólise enzimática foram usados os ácidos clorídrico (HCl) e nítrico (HNO3) com a concentração de 1% (m/m), e as enzimas Glucanex 100g e Ultraflo L. Foram testadas seis condições de pré-tratamento e hidrólise enzimática, alterando os parâmetros tempo de contacto e razão enzimas/massa de drêche, respetivamente, e mantendo a temperatura (50 ºC), velocidade de agitação (75 rpm) e concentração dos ácidos (1% (m/m)). No processamento de 25 g de drêche seca com 0,5 g de Glucanex, 0,5 mL de Ultraflo e um tempo de reação de 60 minutos para as enzimas foi obtida uma eficiência de 15%, em hidrolisado com 6% da celulose. Realizou-se a fermentação do hidrolisado resultante do pré-tratamento ácido e hidrólise enzimática de drêche cervejeira e de meios sintéticos preparados com os açúcares puros, usando as duas estirpes selecionadas para este estudo: Pichia stipitis NCYC 1541 e Kluyveromyces marxianus NYCY 2791. As eficiências de fermentação dos açúcares nos meios sintéticos foram superiores a 80% para ambas as leveduras. No entanto, as eficiências de fermentação do hidrolisado da drêche foram de 45,10% pela Pichia stipitis e de 36,58 para Kluyveromyces marxianus, para um tempo de fermentação de 72 horas e à temperatura de 30 °C. O rendimento teórico em álcool no hidrolisado da drêche é de 0,27 g/g, três vezes maior do que o real (0,0856 g/g), para Pichia stipitis e de 0,19 g/g seis vezes maior do que o real (0,0308 g/g), para a Kluyveromyces marxianus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A indústria de semicondutores é um sector em permanente evolução tecnológica. A tendência de miniaturização e de otimização do espaço, a necessidade de produzir circuitos cada vez mais complexos, a tendência para o incremento do número de camadas em cada circuito integrado, são as condições necessárias para que a evolução tecnológica nesta área seja uma constante. Os processos ligados à produção de semicondutores estão também em permanente evolução, dada a pressão efetuada pelas necessidades acima expostas. Os equipamentos necessitam de uma crescente precisão, a qual tem que ser acompanhada de procedimentos rigorosos para que a qualidade atingida tenha sempre o patamar desejado. No entanto, a constante evolução nem sempre permite um adequado levantamento de todas as causas que estão na origem de alguns problemas detetados na fabricação de semicondutores. Este trabalho teve por objetivo efetuar um levantamento dos processos ligados ao fabrico de semicondutores a partir de uma pastilha de silício (wafer) previamente realizada, identificando para cada processo os possíveis defeitos introduzidos pelo mesmo, procurando inventariar as causas possíveis que possam estar na origem desse defeito e realizar procedimentos que permitam criar regras e procedimentos perfeitamente estabelecidos que permitam aprender com os erros e evitar que os mesmos problemas se possam vir a repetir em situações análogas em outros produtos de uma mesma família.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atualmente, as Tecnologias de Informação (TI) são cada vez mais vitais dentro das organizações. As TI são o motor de suporte do negócio. Para grande parte das organizações, o funcionamento e desenvolvimento das TI têm como base infraestruturas dedicadas (internas ou externas) denominadas por Centro de Dados (CD). Nestas infraestruturas estão concentrados os equipamentos de processamento e armazenamento de dados de uma organização, por isso, são e serão cada vez mais desafiadas relativamente a diversos fatores tais como a escalabilidade, disponibilidade, tolerância à falha, desempenho, recursos disponíveis ou disponibilizados, segurança, eficiência energética e inevitavelmente os custos associados. Com o aparecimento das tecnologias baseadas em computação em nuvem e virtualização, abrese todo um leque de novas formas de endereçar os desafios anteriormente descritos. Perante este novo paradigma, surgem novas oportunidades de consolidação dos CD que podem representar novos desafios para os gestores de CD. Por isso, é no mínimo irrealista para as organizações simplesmente eliminarem os CD ou transforma-los segundo os mais altos padrões de qualidade. As organizações devem otimizar os seus CD, contudo um projeto eficiente desta natureza, com capacidade para suportar as necessidades impostas pelo mercado, necessidades dos negócios e a velocidade da evolução tecnológica, exigem soluções complexas e dispendiosas tanto para a sua implementação como a sua gestão. É neste âmbito que surge o presente trabalho. Com o objetivo de estudar os CD inicia-se um estudo sobre esta temática, onde é detalhado o seu conceito, evolução histórica, a sua topologia, arquitetura e normas existentes que regem os mesmos. Posteriormente o estudo detalha algumas das principais tendências condicionadoras do futuro dos CD. Explorando o conhecimento teórico resultante do estudo anterior, desenvolve-se uma metodologia de avaliação dos CD baseado em critérios de decisão. O estudo culmina com uma análise sobre uma nova solução tecnológica e a avaliação de três possíveis cenários de implementação: a primeira baseada na manutenção do atual CD; a segunda baseada na implementação da nova solução em outro CD em regime de hosting externo; e finalmente a terceira baseada numa implementação em regime de IaaS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O veículo guiado automaticamente (AGV) adquirido pelo Departamento de Engenharia Mecânica (DEM) tem vindo a ficar obsoleto devido ao hardware, que nos dias de hoje começa a dar sinais de falhas bem como falta de peças de substituição, e ao software, sendo o PLC (Programmable Logic Controller) usado muito limitado quanto às suas funções de controlo, ficando as principais tarefas de controlo do AGV a cargo de placas eletrónicas de controlo. Para promover o controlo autónomo do AGV, foi decidido retirar toda a parte de hardware que detinha o controlo do mesmo e passou a ser um novo PLC, com maior capacidade de processamento, a executar todo o tipo de controlo necessário ao funcionamento do mesmo. O hardware considerado apenas incluí, de forma resumida, os motores responsáveis pelo movimento e direção, placa de controlo de potência dos motores, placa de interface entre as saídas digitais do PLC e as entradas da placa de controlo de potência dos motores e os demais sensores necessários à deteção de obstáculos, fins de curso da direção, sensores dos postos de trabalho e avisadores de emergência. Todo o controlo de movimento e direção bem como a seleção das ações a executar passou a ficar a cargo do software programado no PLC assim como a interação entre o sistema de supervisão instalado num posto de controlo e o PLC através de comunicação via rádio. O uso do PLC permitiu a flexibilidade de mudar facilmente a forma como as saídas digitais são usadas, ao contrário de um circuito eletrónico que necessita de uma completa remodelação, tempo de testes e implementação para efetuar a mesma função. O uso de um microcontrolador seria igualmente viável para a aplicação em causa, no entanto o uso do PLC tem a vantagem de ser robusto, mais rápido na velocidade de processamento, existência de software de interface de programação bastante intuitivo e de livre acesso, facilidade de alterar a programação localmente ou remotamente, via rádio, acesso a vários protocolos de comunicação robustos como Modbus, Canbus, Profinet, Modnet, etc., e acesso integrado de uma consola gráfica totalmente programável. iv É ainda possível a sua expansão com adição de módulos de entradas e saídas digitais e/ou analógicas permitindo expandir largamente o uso do AGV para outros fins. A solução está a ser amplamente testada e validada no Laboratório de Automação (LabA) do Departamento de Engenharia Mecânica do ISEP (Instituto Superior de Engenharia do Porto), permitindo a otimização dos sistemas de controlo de direção bem como a interatividade entre o PLC e o programa de interface/supervisão do posto de trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho consistiu em projetar, construir e testar um protótipo em laboratório de uma fonte de alimentação de alta tensão que permita descargas elétricas {estáveis e de dimensões reduzidas}, de modo a que possa ser utilizada, dada a sua essencialidade, na fabricação de redes de período longo (LPG) em fibra ótica nos chamados turning points. Estes são pontos de elevada sensibilidade, fundamentais no desenvolvimento tecnológico de sensores em fibra ótica, em particular, de sensores refractométricos. O protótipo da fonte de alimentação é composto por um regulador do tipo BUCK, um inversor para alimentação do transformador de alta tensão, o circuito de realimentação e controlo PWM e um microcontrolador para o comando da fonte. Posteriormente procedeu-se à otimização dos parâmetros de descarga, o que conduziu a fabricação de redes de período longo com períodos inferiores a 150 micrómetros. Este é um resultado sem paralelo a nível internacional no que concerne ao uso da técnica do arco elétrico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A crescente tendencia no acesso móvel tem sido potenciada pela tecnologia IEEE 802.11. Contudo, estas redes têm alcance rádio limitado. Para a extensão da sua cobertura é possível recorrer a redes emalhadas sem fios baseadas na tecnologia IEEE 802.11, com vantagem do ponto de vista do custo e da flexibilidade de instalação, face a soluções cabladas. Redes emalhadas sem fios constituídas por nós com apenas uma interface têm escalabilidade reduzida. A principal razão dessa limitação deve-se ao uso do mecanismo de acesso ao meio partilhado Carrier Sense Multiple Access with Collision Avoidance (CSMA/CA) em topologias multi-hop. Especificamente, o CSMA/CA não evita o problema do nó escondido levando ao aumento do número de colisões e correspondente degradação de desempenho com impacto direto no throughput e na latência. Com a redução da tecnologia rádio torna-se viável a utilização de múltiplos rádios por nó, sem com isso aumentar significativamente o custo da solução final de comunicações. A utilização de mais do que um rádio por nó de comuniações permite superar os problemas de desempenho inerentes ás redes formadas por nós com apenas um rádio. O objetivo desta tese, passa por desenvolver uma nova solução para redes emalhadas multi-cana, duar-radio, utilizando para isso novos mecanismos que complementam os mecanismos definidos no IEEE 802.11 para o estabelecimento de um Basic Service Set (BSS). A solução é baseada na solução WiFIX, um protocolo de routing para redes emalhadas de interface única e reutiliza os mecanismos já implementados nas redes IEEE 802.11 para difundir métricas que permitam à rede escalar de forma eficaz minimizando o impacto na performance. A rede multi-hop é formada por nós equipados com duas interfaces, organizados numa topologia hierárquica sobre múltiplas relações Access Point (AP) – Station (STA). Os resultados experimentais obtidos mostram a eficácia e o bom desempenho da solução proposta face à solução WiFIX original.