186 resultados para constante dielétrica


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A economia portuguesa regista nos últimos anos uma enorme “turbulência”, que foi em grande parte motivada pela constante transformação dos mercados, sobretudo dos financeiros. Torna-se então, fundamental que as empresas apostem na modernidade, na competitividade e na inovação. A atual crise económica faz “disparar” os níveis de desemprego e nesta perspetiva o empreendedorismo pode assumir um papel fundamental na compensação do mesmo. Este fenómeno pode ser visto como um elemento de desenvolvimento que contribui de uma forma positiva para o aumento da competitividade na economia, gerando riqueza e emprego. Por outro lado, pode também originar estabilidade social, uma vez, que se foca na política económica e industrial, abrangendo quer a criação de novos negócios quer o desenvolvimento de novas oportunidades de negócio em organizações já existentes. O espirito empresarial é também um grande impulsionador da inovação. O objetivo deste trabalho é analisar as causas e as consequências do empreendedorismo no Concelho de Vila do Conde entre os anos de 2005 e 2011, para se identificarem os aspetos que assumem particular relevância. Quanto à metodologia usada para estudar as causas deste fenómeno, optamos pela elaboração de um inquérito a todos os empreendedores atrás referidos, quanto à metodologia utilizada para estudar as consequências, optamos pela elaboração de um estudo económico-financeiro comparativo entre empresas de criação recentes e empresas de criação mais antiga. Com a realização deste estudo, verificamos que, no que concerne às causas, o empreendedorismo não está associado a um mecanismo de refúgio para os desempregados e ainda que a auto-realização é a principal motivação para a criação dos novos negócios. No que concerne às consequências, observamos que as empresas mais recentes apresentam pior performance económico-financeira que as mais antigas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução: Apesar dos muitos estudos sobre a temática da sensação retardada de desconforto muscular, atualmente, ainda se discute a explicação dos mecanismos subjacentes a esta condição clínica, bem como, a sua prevenção e tratamento. A literatura sugere a massagem como uma das formas de terapia, contudo, os estudos têm mostrado resultados controversos. Objetivo: Verificar se a massagem aplicada 2 horas após um protocolo de exercício excêntrico tem influência na sensação retardada de desconforto muscular, bem como, se o seu efeito varia dependendo do tempo de aplicação. Métodos: 21 participantes (23,62±1,32 anos; 76,95±12,17 kg; 174,71±4,78 cm; 25,25±4,26 Kg/m 2) foram divididos em três grupos. Foi avaliada a dor, força muscular e a perimetria antes, e 2h, 24h, 48h, e 72h após um protocolo de exercício constituído por três séries de dez repetições de contrações excêntricas dos isquiotibiais do membro dominante, com 80% da força máxima, a uma velocidade constante de 60º/s, numa amplitude entre 0º e 80º, utilizando o dinamómetro isocinético Biodex System 4. A massagem foi efetuada 2 horas após o exercício em dois grupos experimentais com durações diferentes, sendo o terceiro grupo de controlo. Para identificar diferenças entre os grupos no momento inicial e na variável diferença entre o momento inicial e os restantes momentos, recorreu-se ao teste de Kruskal-Wallis, seguido de uma análise Post-Hoc através do teste de Dunn com um nível de significância de 0,05. Resultados: Verificou-se que a massagem teve efeito na redução da dor e na perimetria. Relativamente à força não foram encontradas alterações significativas. Conclusão: Os resultados mostraram que a massagem aplicada 2 horas após o exercício excêntrico, independentemente da duração utilizada, teve efeito na redução da dor, mas não na força muscular. Na perimetria apesar de haver alterações, estas não foram consideradas relevantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na Fábrica de Papel da Ponte Redonda fabricam-se sacos de papel multi-folhas e papel reciclado do tipo Kraft. Tendo em consideração a primeira actividade, é de grande interesse optimizar o processo de fabrico de papel com vista a incorporara a máxima taxa de papel produzido internamente nas diferentes camadas dos sacos de papel. Os papéis de maior interesse são os do tipo Fluting e Liners, tendo sido produzidos em 2010 um total de 4,9 mil toneladas, ou seja 90% de todo o papel fabricado em 2010, correspondendo a a 4 mil toneladas de papéis do tipo Liners e 0,9 mil toneladas para os papéis do tipo Fluting. Nos papéis do tipo Liners incluem-se os papéis do tipo Test-Liner e Kraft-Liner, representando em termos produtivos valores idênticos. No âmbito deste trabalho, em que se pretendeu controlar as águas do processo e optimizar a produção de papel, foram introduzidos uma unidade de flutuação e um sistema que permitisse regular a consistência da suspensão fibrosa à entrada da máquina do papel, e foram ainda estudadas as possibilidades de adição de produtos químicos para melhorar as características da pasta assim como um tratamento microbiológico mais eficaz para todo o processo. Para se avaliar se as medidas implementadas teriam um impacto positivo na qualidade desses dois tipos de papéis, desenvolveu-se o trabalho em duas fases: a primeira envolve a introdução de um sistema de flutuação e de um sistema de controlo de consistência da pasta, assim como a selecção de produtos químicos a adicionar ao processo. A segunda fase consistiu na avaliação do efeito destas medidas nas características do papel fabricado. Para o efeito foram escolhidos dois tipos de papel e de diferentes gramagens, nomeadamente Test-Liner de 80 g/m2 e Fluting de 110 g/m2. Introduziu-se um flutuador com o objectivo de tratar parte das águas do processo de fabrico com vista a serem reutilizadas em determinadas aplicações possíveis para a qualidade da água obtida (lavagens e água do processo), de modo a conseguir-se uma poupança de água, assim como aproveitar-se as lamas resultantes, ricas em fibra de celulose, para utilizá-las como matéria-prima. Foi introduzido um regulador de consistência no processo da Ponte Redonda com o objectivo de alimentar de uma forma constante a consistência da pasta à entrada da máquina do papel proporcionando uma melhor formação da folha, devido à ligação entre fibras, na direcção máquina e direcção transversal. Esse sistema inovador é um Regulador de Consistência que vem proporcionar à máquina do papel uma alimentação em fibra mais constante. O fabrico de papel apenas a partir de fibras de celulose não permitirá obter um papel com as características desejadas para a sua utilização. Para corrigir estas deficiências, são adicionados produtos químicos para atribuir ou melhorar as propriedades dos papéis. Desta forma considerou-se interessante introduzir no processo um agente de retenção numa fase posterior à preparação da pasta e antes da chegada à máquina de papel, de forma a melhorar as características da suspensão fibrosa. Assim foi implementado um sistema cuja eficácia foi avaliada. Concluiu-se que com a sua implementação a máquina de papel apresentou melhores resultados na drenagem e na turbidez da água removida, significando uma água com menor teor de matéria suspensa e dissolvida, devido à melhor agregação das fibras dispersas na suspensão fibrosa, levando a um aumento da drenagem e consequentemente melhor eficiência das prensas e secaria. Foi também elaborado um estudo para introdução de um sistema de tratamento microbiológico em todo o processo de fabrico de papel, devido à existência de microorganismos prejudiciais ao seu fabrico. Concluiu-se que a água clarificada proveniente do flutuador apresentou qualidade aceitável para os objectivos pretendidos. No entanto, considerando a eficiência de 26,5% na remoção de sólidos suspensos será necessário mais algum tempo de utilização da água clarificada, cerca de um ano, para avaliar se esta terá algum efeito prejudicial nos equipamentos. Verificou-se que devido à existência de microrganismos em todo o processo de fabrico de papel será necessário efectuar lavagens aos tinões, tanques e circuitos com alguma regularidade, aproveitando-se as paragens do processo assim como implementar um sistema de tratamento microbiológico mais eficaz. Em resultado das medidas implementadas concluiu-se que os papéis produzidos apresentaram melhorias, tendo-se obtido melhores resultados em todos os ensaios de resistência. No papel do tipo Test-Liner destacam-se os bons resultados nos ensaios de superfície, Cobb60 e rebentamento. No caso do parâmetro do Cobb60, foi um resultado surpreendente visto que por norma este tipo de papéis reciclados não suportam este ensaio. Concluiu-se também que as medidas implementadas proporcionaram uma melhor agregação e ligação entre fibras, e melhor formação da folha na máquina do papel proporcionando aos papéis propriedades físico-mecânicas mais interessantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nas últimas décadas, devido ao desenvolvimento económico, e a uma necessidade constante de gerir os recursos energéticos, existe uma necessidade de procurar novas fontes de energia, em particular fontes de energia renováveis. O biodiesel surge assim como uma energia alternativa ao combustível fóssil. Este biocombustível tem ganho uma importância significativa na sociedade moderna. Quimicamente o biodiesel é constituído por ésteres metílicos de ácidos gordos de cadeia longa, derivados de óleos vegetais ou gorduras animais. O principal problema que este enfrenta é a sua susceptibilidade à oxidação, devido ao seu conteúdo de ácidos gordos insaturados, logo existe uma procura constante de soluções que possam solucionar este problema. É necessária a identificação de técnicas e métodos para retardar a seu envelhecimento ao longo do tempo. O objectivo deste trabalho consiste no estudo da estabilidade do biodiesel ao longo do tempo, quando armazenado a diferentes condições de temperatura, superiores às normalmente suportadas pelo biodiesel durante o armazenamento, de modo a acelerar o processo de degradação. As amostras de biodiesel foram sujeitas a duas temperaturas. Uma amostra de biodiesel não estabilizado foi colocada a uma temperatura entre 40 e 50ºC ao longo de 203 dias, e uma outra amostra foi colocada a uma temperatura entre 95º e 105ºC ao longo de 146 dias. Realizaram-se ensaios semanais de modo registar a evolução do envelhecimento do biodiesel. As análises foram efectuadas por espectrofotometria de ultravioleta e visível (UV-VIS) e por espectroscopia de absorção na região do infravermelho (FTIR). No UV-VIS foi possível observar que o aumento de temperatura foi responsável pela aceleração da oxidação do biodiesel que resulta num aumento generalizado da absorvância do biodiesel. Através das análises efectuadas no FTIR verificou-se a formação e aumento da banda dos hidroperóxidos (grupo ROOH) localizada entre 3000 e 3600 cm-1 nos espectros, e igualmente um alargamento na banda dos carbonilos (grupo C=O) entre 1500 e 1900 cm-1. Numa fase posterior testaram-se antioxidantes para retardar o envelhecimento do biodiesel. Os ensaios foram efectuados a uma temperatura entre 95º e 105ºC. Os antioxidantes utilizados foram o galhato de propilo (PG), o galhato de etilo (EG) e o ácido gálhico (AG). Recorreu-se a técnicas como o UV-VIS e o FTIR para o registo dos espectros do biodiesel ao longo do tempo. Através destas técnicas foi possível verificar a influência de antioxidantes na estabilidade oxidativa do biodiesel. O PG foi o antioxidante que melhor desempenho mostrou no retardamento da oxidação do biodiesel e a técnica que melhor permitiu analisar a acção dos antioxidantes foi o UVVIS. Os resultados obtidos por FTIR não se mostraram tão conclusivos. Para caracterizar o envelhecimento do biodiesel não estabilizado e estabilizado utilizou-se também a cromatografia gasosa (CG) para quantificar a percentagem de ésteres metílicos presentes nas diferentes amostras no inicio e no fim do processo de oxidação. O biodiesel envelheceu mais rapidamente para temperaturas mais elevadas e comprovou-se que o antioxidante que melhor estabiliza o biodiesel é o PG.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho estudou-se a implementação de um sistema de vigilância e alerta da qualidade da água de um recurso hídrico, para um possível caso de poluição. Em 25 de Agosto de 2008 foram derramadas 4 toneladas de ácido clorídrico acidentalmente para as águas do rio Febros. Este rio situa-se no concelho de Vila Nova de Gaia e é um pequeno afluente do rio Douro, tendo cerca de 14 km de extensão e tem a particularidade de atravessar o Parque Biológico de Gaia. A falta de uma rápida intervenção e da existência de um plano de ação levou a que parte da fauna e flora fosse destruída. Por este motivo realizou-se este estudo que se baseou na criação de um sistema de vigilância e alerta a ser implementado neste rio. A informação da hidrogeometria do rio e da capacidade de transporte e dispersão de poluentes é indispensável para o bom funcionamento deste sistema. O coeficiente de dispersão longitudinal é um parâmetro muito importante no estudo da qualidade da água. Recorreu-se à utilização da Rodamina WT como marcador, determinando assim a evolução da sua concentração ao longo do tempo e espaço. No cálculo do coeficiente de dispersão foi utilizado o modelo Transient Storage, que demonstrou ser um bom modelo de ajuste aproximando-se dos valores medidos em campo. Para três estações diferentes com distâncias de 290, 390 e 1100 metros do ponto de injeção, obtiveram-se valores de coeficiente de dispersão de 0,18, 0,15 e 0,39 m2/s respetivamente. Os valores do ajuste expressos sob a forma de coeficiente de correlação foram 0,988, 0,998 e 0,986, para a mesma ordem de estações. A constante de rearejamento do rio foi também determinada recorrendo ao método dos marcadores inertes, utilizando o propano como marcador gasoso. A constante determinada próximo de Casal Drijo, entre 2 estações de amostragem a 140 e 290 m do local de injeção, foi de 13,4 dia-1. Com os resultados do coeficiente de dispersão e da constante de rearejamento para além da velocidade e caudal da corrente do rio conseguir-se-á construir o modelo de simulação e previsão de um possível poluente. O sistema de vigilância a implementar sugere-se assim que seja construído por duas partes, uma de análise de evolução da nuvem de poluição e plano de ação outra de monitorização contínua e emissão de alerta. Após uma análise do investimento à implementação deste sistema chegou-se à conclusão que o valor de investimento é de 15.182,00 €.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A tecnologia de barreiras reactivas é uma alternativa possível de ser implementada para tratamento de águas contaminadas com compostos organoclorados, nomeadamente o tricloroetileno (TCE). O recurso a ferro zerovalente (Fe0) como meio reactivo tem na actualidade inúmeras aplicações, tratando-se de uma reacção de desalogenação por mecanismo de oxidação-redução. Neste trabalho fizeram-se estudos em batch da reacção entre o Fe0 e o TCE de forma a conhecer os parâmetros cinéticos. A natureza e a área da superfície do ferro provaram ser determinantes na velocidade da reacção. Foi possível verificar que para o sistema ferro comercial / TCE a ordem da reacção é inferior a um, e a constante cinética da ordem de 10-2 Lm-2h-1. Para simular uma barreira reactiva, projectaram-se e construíram-se colunas, as quais foram cheias com areia e ferro depois de devidamente misturados, uma vez que se tratou da disposição a que corresponderam melhores eficiências de redução do TCE. Não foi possível estabelecer o mecanismo da reacção, nem conhecer os parâmetros cinéticos, pelas dificuldades experimentais encontradas na análise do TCE e pelo facto de se tratar de uma reacção muito lenta. A cromatografia gasosa com detector de ionização de chama provou ser o método mais apropriado para doseamento do TCE em águas contaminadas, nas condições usadas neste estudo. A elevada volatilização do TCE e a baixa solubilidade em água contribuíram para as dificuldades operacionais encontradas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A constante e sistemática subida de preço dos combustíveis fósseis e as contínuas preocupações com o meio ambiente determinaram a procura de soluções ambientalmente sustentáveis. O biodiesel surge, então, como uma alternativa para essa problemática, bem como uma solução para resíduos líquidos e gordurosos produzidos pelo ser humano. A produção de biodiesel tem sido alvo de extensa atenção nos últimos anos, pois trata-se de um combustível biodegradável e não poluente. A produção de biodiesel pelo processo de transesterificação usando álcoois de cadeia curta e catalisadores químicos, nomeadamente alcalinos, tem sido aceite industrialmente devido à sua elevada conversão. Recentemente, a transesterificação enzimática tem ganho adeptos. No entanto, o custo da enzima permanece uma barreira para a sua aplicação em grande escala. O presente trabalho visa a produção de biodiesel por transesterificação enzimática a partir de óleo residual de origem vegetal. O álcool usado foi o etanol, em substituição do metanol usado convencionalmente na catálise homogénea, pois a atividade da enzima é inibida pela presença deste último. As maiores dificuldades apresentadas na etanólise residem na separação das fases (Glicerol e Biodiesel) após a reação bem como na menor velocidade de reação. Para ajudar a colmatar esta desvantagem foi estudada a influência de dois cosolventes: o hexano e o hexanol, na proporção de 20% (v/v). Após a escolha do co-solvente que permite obter melhor rendimento (o hexano), foi elaborado um planeamento fatorial no qual se estudou a influência de três variáveis na produção de biodiesel por catálise enzimática com etanol e co-solventes: a razão molar óleo/álcool (1:8, 1:6 e 1:4), a quantidade de co-solvente adicionado (30, 20 e 10%, v/v) e o tempo de reação (48, 36 e 24h). A avaliação do processo foi inicialmente seguida pelo rendimento da reação, a fim de identificar as melhores condições, sendo substituída posteriormente pela quantificação do teor de ésteres por cromatografia em fase gasosa. O biodiesel com teor de ésteres mais elevado foi produzido nas condições correspondentes a uma razão molar óleo:álcool de 1:4, com 5g de Lipozyme TL IM como catalisador, 10% co-solvente (hexano, v/v), à temperatura de 35 ºC durante 24h. O rendimento do biodiesel produzido sob estas condições foi de 73,3%, traduzido em 64,7% de teor de ésteres etílicos. Contudo o rendimento mais elevado que se obteve foi de 99,7%, para uma razão óleo/álcool de 1:8, 30% de co-solvente (hexano, v/v), reação durante 48h a 35 ºC, obtendo-se apenas 46,1% de ésteres. Por fim, a qualidade do biodiesel foi ainda avaliada, de acordo com as especificações da norma EN 14214, através das determinações de densidade, viscosidade, ponto de inflamação, teor de água, corrosão ao cobre, índice de acidez, índice de iodo, teor de sódio (Na+) e potássio (K+), CFPP e poder calorífico. Na Europa, os ésteres etílicos não têm, neste momento, norma que os regule quanto à classificação da qualidade de biodiesel. Contudo, o biodiesel produzido foi analisado de acordo com a norma europeia EN14214, norma esta que regula a qualidade dos ésteres metílicos, sendo possível concluir que nenhum dos parâmetros avaliados se encontra em conformidade com a mesma.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho, numa fase inicial, teve como pilar fundamental, a optimização energética de uma indústria de curtumes, mais concretamente da empresa Dias Ruivo. Pretendia-se avaliar todos os gastos de energia apresentados pela empresa, com o intuito de verificar se haveria possibilidade de diminuir a factura da electricidade e os custos associados, mantendo a qualidade dos produtos finais. Ainda se pretendia averiguar a viabilidade de reutilização de alguns desperdícios permitindo diminuir a quantidade de energia necessária para o aquecimento de algumas correntes de água. Por último, após os dados recolhidos, sugeriram-se medidas de melhoria, que possibilitariam que a empresa utilizasse os seus recursos de forma optimizada, não apresentando assim gastos desnecessários. Começando pela análise da factura de electricidade, verificou-se que nos anos de 2010 e 2011, a empresa apresentou um consumo de energia de 120 e 128 tep/ano, respectivamente. Determinaram-se igualmente os respectivos indicadores constatando-se que o valor médio para a intensidade carbónica foi de 900 e 1148 kg CO2/tep e para o consumo específico obteve-se 0,131 e 0,152 kgep/ft2, respectivamente. Numa segunda fase, tendo em conta a constante aposta da empresa na inovação de artigos em couro e o facto de estar envolvida num projecto mobilizador de ciência e tecnologia com esse fim, o trabalho incidiu no desenvolvimento de um produto inovador designado por floater que deve ser macio e mais leve que os produtos normais. Com base na aplicação de proteases apropriadas, desenvolveu-se um produto que, ainda na fase de ensaios de bancada e piloto, satisfaz no que respeita à macieza e leveza, sendo que se conseguiu um valor de 67 g/ft2 contra um valor de 75g/ft2 do padrão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The introduction of electricity markets and integration of Distributed Generation (DG) have been influencing the power system’s structure change. Recently, the smart grid concept has been introduced, to guarantee a more efficient operation of the power system using the advantages of this new paradigm. Basically, a smart grid is a structure that integrates different players, considering constant communication between them to improve power system operation and management. One of the players revealing a big importance in this context is the Virtual Power Player (VPP). In the transportation sector the Electric Vehicle (EV) is arising as an alternative to conventional vehicles propel by fossil fuels. The power system can benefit from this massive introduction of EVs, taking advantage on EVs’ ability to connect to the electric network to charge, and on the future expectation of EVs ability to discharge to the network using the Vehicle-to-Grid (V2G) capacity. This thesis proposes alternative strategies to control these two EV modes with the objective of enhancing the management of the power system. Moreover, power system must ensure the trips of EVs that will be connected to the electric network. The EV user specifies a certain amount of energy that will be necessary to charge, in order to ensure the distance to travel. The introduction of EVs in the power system turns the Energy Resource Management (ERM) under a smart grid environment, into a complex problem that can take several minutes or hours to reach the optimal solution. Adequate optimization techniques are required to accommodate this kind of complexity while solving the ERM problem in a reasonable execution time. This thesis presents a tool that solves the ERM considering the intensive use of EVs in the smart grid context. The objective is to obtain the minimum cost of ERM considering: the operation cost of DG, the cost of the energy acquired to external suppliers, the EV users payments and remuneration and penalty costs. This tool is directed to VPPs that manage specific network areas, where a high penetration level of EVs is expected to be connected in these areas. The ERM is solved using two methodologies: the adaptation of a deterministic technique proposed in a previous work, and the adaptation of the Simulated Annealing (SA) technique. With the purpose of improving the SA performance for this case, three heuristics are additionally proposed, taking advantage on the particularities and specificities of an ERM with these characteristics. A set of case studies are presented in this thesis, considering a 32 bus distribution network and up to 3000 EVs. The first case study solves the scheduling without considering EVs, to be used as a reference case for comparisons with the proposed approaches. The second case study evaluates the complexity of the ERM with the integration of EVs. The third case study evaluates the performance of scheduling with different control modes for EVs. These control modes, combined with the proposed SA approach and with the developed heuristics, aim at improving the quality of the ERM, while reducing drastically its execution time. The proposed control modes are: uncoordinated charging, smart charging and V2G capability. The fourth and final case study presents the ERM approach applied to consecutive days.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho apresenta os resultados dos estudos geotécnicos e de uma base de dados da zona ribeirinha de Vila Nova de Gaia, com o objectivo de compreender melhor os aspectos geotécnicos em ambiente urbano numa área sensível com um registo histórico de instabilidade de taludes rochosos. Além disso, os escassos estudos científicos recentes de natureza geológica e geotécnica em Vila Nova de Gaia justificam o estudo exploratório da geotecnia urbana da zona ribeirinha de Vila Nova de Gaia. A importância de Vila Nova de Gaia como a terceira maior cidade portuguesa e como centro de intensa actividade económica e cultural despoleta uma constante necessidade de expansão. O aumento da densidade populacional acarreta a realização de projectos complexos de engenharia, utilizando o subsolo para a construção e, com frequência, em terrenos com características geotécnicas desfavoráveis. As cidades de Vila Nova de Gaia e do Porto foram sendo edificadas ao longo de encostas numa plataforma litoral caracterizada por uma vasta área aplanada, inclinando ligeiramente para Oeste. Esta plataforma foi cortada pelo Rio Douro num vale encaixado de vertentes abruptas, nas quais se localizam as zonas ribeirinhas das duas cidades. Este trabalho envolveu, inicialmente, uma caracterização topográfica, morfoestrutural, geotectónica e geomecânica da área de estudo e, numa fase posterior, o desenvolvimento duma base de dados geotécnica. Todos os dados geológicos e geotécnicos locais e os estudos geotécnicos levados a cabo in situ pelas diversas empresas e instituições foram representados cartograficamente numa base apoiada pelos Sistemas de Informação Geográfica (SIG). Esta metodologia inter‐disciplinar foi de grande valor para um melhor conhecimento dos riscos geológico‐geotécnicos ao longo das margens do Rio Douro. De facto, a cartografia geotécnica da zona ribeirinha de Vila Nova de Gaia deve constituir uma ferramenta importante para uma previsão mais rigorosa de futuras instabilidades de taludes e um bom instrumento para a gestão do espaço urbano.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Perante a evolução constante da Internet, a sua utilização é quase obrigatória. Através da web, é possível conferir extractos bancários, fazer compras em países longínquos, pagar serviços sem sair de casa, entre muitos outros. Há inúmeras alternativas de utilização desta rede. Ao se tornar tão útil e próxima das pessoas, estas começaram também a ganhar mais conhecimentos informáticos. Na Internet, estão também publicados vários guias para intrusão ilícita em sistemas, assim como manuais para outras práticas criminosas. Este tipo de informação, aliado à crescente capacidade informática do utilizador, teve como resultado uma alteração nos paradigmas de segurança informática actual. Actualmente, em segurança informática a preocupação com o hardware é menor, sendo o principal objectivo a salvaguarda dos dados e continuidade dos serviços. Isto deve-se fundamentalmente à dependência das organizações nos seus dados digitais e, cada vez mais, dos serviços que disponibilizam online. Dada a mudança dos perigos e do que se pretende proteger, também os mecanismos de segurança devem ser alterados. Torna-se necessário conhecer o atacante, podendo prever o que o motiva e o que pretende atacar. Neste contexto, propôs-se a implementação de sistemas de registo de tentativas de acesso ilícitas em cinco instituições de ensino superior e posterior análise da informação recolhida com auxílio de técnicas de data mining (mineração de dados). Esta solução é pouco utilizada com este intuito em investigação, pelo que foi necessário procurar analogias com outras áreas de aplicação para recolher documentação relevante para a sua implementação. A solução resultante revelou-se eficaz, tendo levado ao desenvolvimento de uma aplicação de fusão de logs das aplicações Honeyd e Snort (responsável também pelo seu tratamento, preparação e disponibilização num ficheiro Comma Separated Values (CSV), acrescentando conhecimento sobre o que se pode obter estatisticamente e revelando características úteis e previamente desconhecidas dos atacantes. Este conhecimento pode ser utilizado por um administrador de sistemas para melhorar o desempenho dos seus mecanismos de segurança, tais como firewalls e Intrusion Detection Systems (IDS).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A geração de trajectórias de robôs em tempo real é uma tarefa muito complexa, não existindo ainda um algoritmo que a permita resolver de forma eficaz. De facto, há controladores eficientes para trajectórias previamente definidas, todavia, a adaptação a variações imprevisíveis, como sendo terrenos irregulares ou obstáculos, constitui ainda um problema em aberto na geração de trajectórias em tempo real de robôs. Neste trabalho apresentam-se modelos de geradores centrais de padrões de locomoção (CPGs), inspirados na biologia, que geram os ritmos locomotores num robô quadrúpede. Os CPGs são modelados matematicamente por sistemas acoplados de células (ou neurónios), sendo a dinâmica de cada célula dada por um sistema de equações diferenciais ordinárias não lineares. Assume-se que as trajectórias dos robôs são constituídas por esta parte rítmica e por uma parte discreta. A parte discreta pode ser embebida na parte rítmica, (a.1) como um offset ou (a.2) adicionada às expressões rítmicas, ou (b) pode ser calculada independentemente e adicionada exactamente antes do envio dos sinais para as articulações do robô. A parte discreta permite inserir no passo locomotor uma perturbação, que poderá estar associada à locomoção em terrenos irregulares ou à existência de obstáculos na trajectória do robô. Para se proceder á análise do sistema com parte discreta, será variado o parâmetro g. O parâmetro g, presente nas equações da parte discreta, representa o offset do sinal após a inclusão da parte discreta. Revê-se a teoria de bifurcação e simetria que permite a classificação das soluções periódicas produzidas pelos modelos de CPGs com passos locomotores quadrúpedes. Nas simulações numéricas, usam-se as equações de Morris-Lecar e o oscilador de Hopf como modelos da dinâmica interna de cada célula para a parte rítmica. A parte discreta é modelada por um sistema inspirado no modelo VITE. Medem-se a amplitude e a frequência de dois passos locomotores para variação do parâmetro g, no intervalo [-5;5]. Consideram-se duas formas distintas de incluir a parte discreta na parte rítmica: (a) como um (a.1) offset ou (a.2) somada nas expressões que modelam a parte rítmica, e (b) somada ao sinal da parte rítmica antes de ser enviado às articulações do robô. No caso (a.1), considerando o oscilador de Hopf como dinâmica interna das células, verifica-se que a amplitude e frequência se mantêm constantes para -5constante enquanto a amplitude diminui para g<0.2 e aumenta para g>0.2. A extensão do movimento varia de forma directamente proporcional à amplitude. No caso das equações de Morris-Lecar, quando a componente discreta é embebida (a.2), a amplitude e a frequência aumentam e depois diminuem para - 0.17constante enquanto a amplitude diminui para g<0.5 e aumenta para g>0.5 Pode concluir-se que: (1) a melhor forma de inserção da parte discreta que menos perturbação insere no robô é a inserção como offset; (2) a inserção da parte discreta parece ser independente do sistema de equações diferenciais ordinárias que modelam a dinâmica interna de cada célula. Como trabalho futuro, é importante prosseguir o estudo das diferentes formas de inserção da parte discreta na parte rítmica do movimento, para que se possa gerar uma locomoção quadrúpede, robusta, flexível, com objectivos, em terrenos irregulares, modelada por correcções discretas aos padrões rítmicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é desenvolvida uma bancada didáctica que permite simular o funcionamento de um sistema de microgeração. A bancada inclui uma máquina síncrona responsável pela geração de energia eléctrica acoplada a uma máquina de indução que simula a máquina primária. A máquina de indução é controlada por um sistema electrónico de controlo de potência (variador de velocidade) que permite manter constante a velocidade de rotação e consequentemente a frequência da tensão gerada pela máquina síncrona. Por sua vez, a excitação da máquina síncrona é controla por uma fonte de tensão externa. A parametrização e controlo do variador de velocidade, assim como o controlo da fonte de tensão externa, são feitos a partir dum software que corre num PC, que também monitoriza a tensão gerada pela máquina síncrona. Este software é ainda responsável pela interface com o utilizador. O software desenvolvido permite manter as características da tensão gerada pela máquina síncrona independentemente da carga imposta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Internet causou uma revolução em grande parte dos processos das empresas, criando oportunidades e gerando necessidades até então desconhecidas. Os Sistemas de Informação, ferramentas indispensáveis para uma gestão moderna das actividades empresariais, também foram influenciados pela evolução constante da tecnologia e as facilidades oferecidas para a popularização do uso da Internet. Rumo a uma crescente necessidade de modernização, rapidez, agilidade, eficiência e eficácia que são exigidos das actividades da empresa, actualmente, a tecnologia da Web é exibida como uma opção viável para melhorar o desempenho na gestão da informação. Esta Tese procura dissertar acerca dos aspectos relativos ao funcionamento e implementação de Serviços Web, suas principais características, vantagens e desvantagens comparativamente aos sistemas de informação tradicionais. Os objectivos propostos podem ser sintetizados no conhecimento e descrição das funcionalidades dos Serviços Web, no estudo da situação actual, na identificação das características que potenciam a capacidade de evolução dos Serviços Web, no estudo e desempenho dos Serviços Web, e finalmente, no estudo e análise da especificação Segurança.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objectivo da Realidade Virtual é simples de entender mas muito difícil de implementar: criar ambientes completamente indiferenciáveis do mundo real com os quais se possa interagir de um modo natural. Desde a criação do Sensorama por Morton Heiling em 1962, passando pela difusão do conceito pelo público geral na década de 90 até os dias de hoje, a evolução da Realidade Virtual tem sido constante. Este conjunto de tecnologias tem estado envolvido por uma certa descrença por parte da sociedade, motivada pelas grandes expectativas que lhe foram atribuídas e pelo estado de desenvolvimento do hardware aquando do seu auge. No entanto, actualmente assiste-se a um ressurgimento do seu interesse no público geral com a introdução de imagem estereoscópica no cinema ou o sucesso dos controladores da consola Nintendo Wii. Hoje em dia as suas aplicações são muito variadas: desde o treino de pilotos de avião ao tratamento de fobias, passando pela industria do entretenimento e a visita virtual de locais com interesse histórico ou turístico. O objectivo desta tese de mestrado é explorar uma área que ainda não tem sido muito abrangida pela Realidade Virtual e que cobre também aspectos educacionais e lúdicos de modo a ser um factor de atracção para os estudantes do ensino secundário: a simulação de instrumentos musicais. Para tal foi implementado um sistema capaz de simular instrumentos musicais de percussão (uma bateria) utilizando imagem estereoscópica, som posicional e interfaces com o utilizador realistas. Os resultados obtidos nas sessões de avaliação efectuadas por alunos recentemente ingressados no ensino superior demonstram que o sistema desenvolvido, bem como a inovação em interfaces do utilizador com os dispositivos electrónicos de uma forma geral, constituem um meio efectivo na sua motivação para a escolha de um curso na área da engenharia.