999 resultados para Sistemas de referência cartográfica


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nas últimas décadas tem-se assistido a um forte desenvolvimento dos veículos eléctricos, sobretudo das soluções híbridas, como resposta aos impactos ambientais e económicos dos combustíveis fósseis. Os desafios que se colocam no campo da engenharia são múltiplos e exigentes, motivados pela necessidade de integrar diversas áreas, tais como, novos materiais e concepções de motores eléctricos, electrónica de potência, sistemas de controlo e sistemas de armazenamento de energia. Neste artigo procura-se apresentar as principais características dos veículos híbridos eléctricos (VH) e dos veículos puramente eléctricos (VE). Começa-se por uma breve referência à origem e evolução destes veículos. Segue-se uma abordagem às diferentes configurações de VH e VE – principalmente no que se refere aos sistemas de propulsão e armazenamento de energia–,realçando as suas vantagens e desvantagens. Por fim, referem-se alguns dos factores mais relevantes para a evolução tecnológica e aceitação destes veículos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesta dissertação faz-se a apresentação dos trabalhos elaborados conducentes à realização de provas na Universidade Nova de Lisboa, Faculdade de Ciências e Tecnologia no ramo de Engenharia Electrotécnica, na especialidade de Sistemas de Informação Industriais, para obtenção do grau de Doutor. A tese defendida consiste na proposta de um enquadramento global de suporte ao processo de recolha e catalogação dos dados disponibilizados na Web por forma a permitir uma maior eficácia e melhor desempenho na sua exploração. O enquadramento global assenta nos seguintes pilares: i) uma metodologia geral; ii) uma arquitectura de referência; iii) uma metodologia específica de suporte à derivação de sistemas particulares e; iv) a operacionalização da arquitectura de referência. A metodologia geral está centrada no utilizador tendo por objectivo simplificar a recolha e catalogação dos dados electrónicos e viabilizando a personalização da Web pela construção de catálogos dinâmicos. A arquitectura de referência recorre à utilização de catálogos dinâmicos, sistemas de multiagentes inteligentes, ontologias e métodos de aprendizagem em texto, por contraste com os métodos habitualmente utilizados nos portais de recolha de dados. A metodologia específica de suporte à derivação de sistemas particulares possibilita uma aproximação sistemática à instalação da arquitectura, propondo um conjunto de passos que permitem capturar e configurar as necessidades do utilizador. Finalmente, a operacionalização da arquitectura de referência origina a construção de um protótipo composto por dois sistemas-base: o Sistema de Catalogação e o Sistema Interactivo de Apoio à Derivação de Sistemas Particulares. O Sistema de Catalogação é o sistema que permite o armazenamento e a consulta dos dados recolhidos através das pesquisas previamente efectuadas. O Sistema de Apoio à Derivação de Sistemas Particulares, permite a personalização do Sistema de Catalogação, pela definição de regras e SAD específicos, dedicados a cada caso concreto. Sumariamente, os obstáculos mais relevantes, abordados no decurso dos trabalhos, foram: • a coexistência de diversos formatos de dados na Web; • a capacidade de processamento dos dados, desde a filtragem de documentos tendo por base a sua relevância, passando pela identificação dos conceitos e sua posterior classificação; • a formalização do conhecimento com vista à adopção de uma terminologia comum; • a natureza do problema distribuído, complexo, descentralizado e com reduzida estruturação. Este documento está organizado em diversos capítulos e cada capítulo está dividido em várias secções. O primeiro capítulo apresenta a inovação e os objectivos genéricos do enquadramento global. O segundo capítulo descreve o estado da arte de um conjunto de assuntos essenciais para o desenrolar dos trabalhos. O terceiro capítulo apresenta, em detalhe, o enquadramento global e a arquitectura proposta. O quarto capítulo descreve a metodologia de derivação de sistemas particulares. O quinto capítulo apresenta o estudo de caso e os resultados obtidos que visam validar a tese defendida. Finalmente, o último capítulo apresenta as conclusões e trabalhos futuros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A avaliação de desempenho ambiental (ADA) consiste numa ferramenta de apoio à decisão, fornecendo elementos de medição, comparação e análise, de forma objectiva e com exactidão. No presente trabalho apresenta-se uma proposta de abordagem à ADA de estações de tratamento de águas residuais (ETAR) urbanas com descarga em zonas costeiras, através da utilização de indicadores ambientais. Reconhecendo-se a especificidade das águas costeiras como meio receptor de águas residuais urbanas tratadas, propõe-se um conjunto vasto de indicadores de desempenho ambiental e de indicadores de condição ambiental, destinados a avaliar o desempenho das ETAR. Procede-se seguidamente à aplicação da metodologia proposta a um conjunto de 80 ETAR localizadas na faixa costeira portuguesa, cujas descargas se localizam na área de influência de águas balneares, incluindo a análise de desempenhos negativos para o indicador de qualidade do meio receptor proposto. Recorreu-se a informação obtida junto das entidades gestoras das ETAR, entre 2003 e 2005, ao longo de duas fases, uma de inquérito e outra de visitas técnicas com amostragem e caracterização das águas residuais urbanas. Procede-se previamente ao estabelecimento do enquadramento legal relevante e à identificação dos instrumentos de planeamento que conformam as políticas seguidas no sector. Analisa-se o quadro conceptual dos sistemas de gestão ambiental e de avaliação do desempenho ambiental, identificando-se as principais abordagens existentes, quer as de carácter genérico, quer as específicas dos sectores da água e do saneamento. Por último, apresenta-se um conjunto de conclusões sobre as potencialidades de utilização e desenvolvimento da metodologia proposta, bem como sobre os resultados obtidos no exercício de aplicação. A metodologia proposta fornece um bom instrumento de avaliação do desempenho ambiental das ETAR, permitindo indiciar se estas poderão constituir uma fonte de problemas para a qualidade das águas balneares, requerendo, no entanto, abordagens complementares para a sua confirmação. O desempenho ambiental das ETAR tem registado uma evolução globalmente positiva mas carece ainda de melhorias em diversos domínios. Identificam-se como principais lacunas a dificuldade na obtenção de dados e a necessidade de desenvolver novos indicadores de estado do ambiente capazes de reflectir o nível de desempenho ambiental das ETAR. Por último, sugerem-se novas linhas de investigação, em continuação do estudo agora realizado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho centra-se na metodologia que um regulamento de descarga industrial deverá possuir face à complexidade dos efluentes industriais afluentes aos colectores e às condições de tratamento dos sistemas de tratamento públicos subjacentes. O estudo é aplicado a uma situação concreta em que se procurou avaliar o impacte das descargas nos sistemas de tratamento públicos existentes e projectados para o concelho do Cartaxo. Para tal foi realizado um inventário junto das unidades industriais donde resultou informação de carácter geral e especifico relativo ao processo fabril que permitiram estimar ou obter dados directos da carga poluente e do caudal produzido. Complementarmente foi determinada a carga poluente e caudal produzido do sector doméstico que em conjunto com o sector industrial afluem aos sistemas de tratamento públicos. De acordo com as capacidades efectivas dos sistemas de tratamento e em função das afluências foi possível determinar, através de balanço de massas, a carga máxima de origem industrial em termos de matérias conservativas, oxidáveis e degradáveis. Determinados os valores limites de descarga industrial elaborou-se o regulamento de descarga industrial para o caso concreto do concelho do Cartaxo e estabeleceram-se as acções de implementação e monitorização do mesmo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Desde o início da utilização da imunohistoquímica em anatomia patológica, um dos objetivos tem sido detetar as quantidades mais ínfimas de antigénio, tornando-o visível ao microscópio ótico. Vários sistemas de amplificação têm sido aplicados de forma a concretizar este objetivo, tendo surgido um grupo genérico de métodos simples e que apresentam uma amplificação superior: são os denominados métodos do polímero indireto. Tendo em conta a variedade de métodos disponíveis, o autor propõe-se a comparar a qualidade de quatro sistemas de amplificação, que recorrem ao método do polímero indireto com horseradish peroxidase (HRP). Foram utilizadas lâminas de diferentes tecidos, fixados em formol e incluídos em parafina, nos quais se procedeu à identificação de 15 antigénios distintos. Na amplificação recorreu-se a quatro sistemas de polímero indireto (Dako EnVision+ System – K4006; LabVision UltraVision LP Detection System – TL-004-HD; Leica NovoLink – RE7140-k; Vector ImmPRESS Reagent Kit – MP-7402). A observação microscópica e classificação da imunomarcação obtida foram feitas com base num algoritmo que enquadra intensidade, marcação específica, marcação inespecífica e contraste, num score global que pode tomar valores entre 0 e 25. No tratamento dos dados, para além da estatística descritiva, foi utilizado o teste one-way ANOVA com posthoc de tukey (alfa=0.05). O melhor resultado obtido, em termos de par média/desvio-padrão, dos scores globais foi o do NovoLink (22,4/2,37) e o pior foi o do EnVision+ (17,43/3,86). Verificou-se ainda que existe diferença estatística entre os resultados obtidos pelo sistema NovoLink e os sistemas UltraVision (p=.004), ImmPRESS (p=.000) e EnVision+ (p=.000). Concluiu-se que o sistema que permitiu a obtenção de melhores resultados, neste estudo, foi o Leica NovoLink.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com o advento dos sistemas de comunicação baseados em técnicas de espalhamento espectral, entre os quais se destacam o UMTS e redes sem fios baseadas nas normas 802.11b/g ou 802.16, os requisitos de qualidade vieram incrementados, com consequentes implicações nas técnicas de codificação/desmapeamento adoptadas (turbo códigos no UMTS e 802.16). No contexto dos sistemas baseados em técnicas de espalhamento espectral, são analisados os efeitos da utilização de sequências de espalhamento PN, dando ênfase a aspectos como: Adequação do comprimento face a um cenário multi-percurso e comparação com as técnicas de entrelaçamento usuais; Análise e identificação das sequências mais apropriadas na presença de múltiplos utilizadores; Impacto no desenho de estruturas de recepção apropriadas (nomeadamente estruturas baseadas no receptor RAKE); Associação de técnicas de modulação e codificação adequadas a este tipo de sistemas. Pretendeu-se avaliar o impacto de diferentes técnicas de combinação ao nível do receptor, na presença de um canal dispersivo na frequência. Neste contexto, foram utilizadas técnicas de codificação abrangendo concatenações paralelas, baseadas em códigos constituintes simples, e por sua vez associadas a sequências de espalhamento reais e complexas. No âmbito das técnicas de codificação, são analisados códigos resultantes de concatenações em paralelo, nomeadamente turbo códigos, bem como outros tipos de concatenações derivadas destas com elevada eficiência espectral, como modelações MQAM. Incluem-se resultados numéricos, obtidos por simulação, via método de Monte-Carlo

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Não existe uma definição única de processo de memória de longo prazo. Esse processo é geralmente definido como uma série que possui um correlograma decaindo lentamente ou um espectro infinito de frequência zero. Também se refere que uma série com tal propriedade é caracterizada pela dependência a longo prazo e por não periódicos ciclos longos, ou que essa característica descreve a estrutura de correlação de uma série de longos desfasamentos ou que é convencionalmente expressa em termos do declínio da lei-potência da função auto-covariância. O interesse crescente da investigação internacional no aprofundamento do tema é justificado pela procura de um melhor entendimento da natureza dinâmica das séries temporais dos preços dos ativos financeiros. Em primeiro lugar, a falta de consistência entre os resultados reclama novos estudos e a utilização de várias metodologias complementares. Em segundo lugar, a confirmação de processos de memória longa tem implicações relevantes ao nível da (1) modelação teórica e econométrica (i.e., dos modelos martingale de preços e das regras técnicas de negociação), (2) dos testes estatísticos aos modelos de equilíbrio e avaliação, (3) das decisões ótimas de consumo / poupança e de portefólio e (4) da medição de eficiência e racionalidade. Em terceiro lugar, ainda permanecem questões científicas empíricas sobre a identificação do modelo geral teórico de mercado mais adequado para modelar a difusão das séries. Em quarto lugar, aos reguladores e gestores de risco importa saber se existem mercados persistentes e, por isso, ineficientes, que, portanto, possam produzir retornos anormais. O objetivo do trabalho de investigação da dissertação é duplo. Por um lado, pretende proporcionar conhecimento adicional para o debate da memória de longo prazo, debruçando-se sobre o comportamento das séries diárias de retornos dos principais índices acionistas da EURONEXT. Por outro lado, pretende contribuir para o aperfeiçoamento do capital asset pricing model CAPM, considerando uma medida de risco alternativa capaz de ultrapassar os constrangimentos da hipótese de mercado eficiente EMH na presença de séries financeiras com processos sem incrementos independentes e identicamente distribuídos (i.i.d.). O estudo empírico indica a possibilidade de utilização alternativa das obrigações do tesouro (OT’s) com maturidade de longo prazo no cálculo dos retornos do mercado, dado que o seu comportamento nos mercados de dívida soberana reflete a confiança dos investidores nas condições financeiras dos Estados e mede a forma como avaliam as respetiva economias com base no desempenho da generalidade dos seus ativos. Embora o modelo de difusão de preços definido pelo movimento Browniano geométrico gBm alegue proporcionar um bom ajustamento das séries temporais financeiras, os seus pressupostos de normalidade, estacionariedade e independência das inovações residuais são adulterados pelos dados empíricos analisados. Por isso, na procura de evidências sobre a propriedade de memória longa nos mercados recorre-se à rescaled-range analysis R/S e à detrended fluctuation analysis DFA, sob abordagem do movimento Browniano fracionário fBm, para estimar o expoente Hurst H em relação às séries de dados completas e para calcular o expoente Hurst “local” H t em janelas móveis. Complementarmente, são realizados testes estatísticos de hipóteses através do rescaled-range tests R/S , do modified rescaled-range test M - R/S e do fractional differencing test GPH. Em termos de uma conclusão única a partir de todos os métodos sobre a natureza da dependência para o mercado acionista em geral, os resultados empíricos são inconclusivos. Isso quer dizer que o grau de memória de longo prazo e, assim, qualquer classificação, depende de cada mercado particular. No entanto, os resultados gerais maioritariamente positivos suportam a presença de memória longa, sob a forma de persistência, nos retornos acionistas da Bélgica, Holanda e Portugal. Isto sugere que estes mercados estão mais sujeitos a maior previsibilidade (“efeito José”), mas também a tendências que podem ser inesperadamente interrompidas por descontinuidades (“efeito Noé”), e, por isso, tendem a ser mais arriscados para negociar. Apesar da evidência de dinâmica fractal ter suporte estatístico fraco, em sintonia com a maior parte dos estudos internacionais, refuta a hipótese de passeio aleatório com incrementos i.i.d., que é a base da EMH na sua forma fraca. Atendendo a isso, propõem-se contributos para aperfeiçoamento do CAPM, através da proposta de uma nova fractal capital market line FCML e de uma nova fractal security market line FSML. A nova proposta sugere que o elemento de risco (para o mercado e para um ativo) seja dado pelo expoente H de Hurst para desfasamentos de longo prazo dos retornos acionistas. O expoente H mede o grau de memória de longo prazo nos índices acionistas, quer quando as séries de retornos seguem um processo i.i.d. não correlacionado, descrito pelo gBm(em que H = 0,5 , confirmando- se a EMH e adequando-se o CAPM), quer quando seguem um processo com dependência estatística, descrito pelo fBm(em que H é diferente de 0,5, rejeitando-se a EMH e desadequando-se o CAPM). A vantagem da FCML e da FSML é que a medida de memória de longo prazo, definida por H, é a referência adequada para traduzir o risco em modelos que possam ser aplicados a séries de dados que sigam processos i.i.d. e processos com dependência não linear. Então, estas formulações contemplam a EMH como um caso particular possível.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introdução – O efeito de êmbolo é um dos principais problemas relacionados com a eficácia de uma prótese. Uma diminuição do mesmo pode levar a uma marcha mais natural através do aumento da propriocetividade. Objetivos – Verificar se existe diferença de valores do efeito de êmbolo entre vários sistemas de suspensão para próteses transtibiais com a utilização de Liners e testar a aplicação de testes de imagiologia na análise da melhor solução protésica para um determinado indivíduo. Metodologia – Foi obtida uma radiografia da prótese em carga na posição ortostática, mantendo o peso do indivíduo igualmente distribuído pelos dois pés. Seguidamente foi realizada outra radiografia no plano sagital com o joelho com 30° de flexão, com a prótese suspensa e um peso de 5kg aplicado na extremidade distal da mesma durante 30 seg. Através destes dois exames efetuaram-se as medições do êmbolo para cada tipo de sistema de suspensão. Resultados – Dos quatro sistemas estudados apenas três apresentam valores de êmbolo, visto que um dos sistemas não criou suspensão suficiente para suportar o peso colocado na extremidade distal da prótese. Através das medições realizadas nos exames imagiológicos dos três sistemas pudemos encontrar variações de efeito de êmbolo que vão dos 47,91mm aos 72,55mm. Conclusão – Através da realização do estudo imagiológico verificaram-se diferenças a nível do efeito de êmbolo nos vários sistemas de suspensão, provando que esta é uma ferramenta viável na avaliação do mesmo. Também através da análise dos resultados ficou notório que o sistema de suspensão Vacuum Assisted Suspention System (VASS) é o que apresenta menos êmbolo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Mecânica

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Quando se aborda o tema da manutenção,muitas vezes a primeira ideia subjacente é a de que se trata de uma actividade que apenas acarreta custos, sem que dela resultem benefícios maiores para as instalações industriais. Tal facto deriva desta actividade estar natural e permanentemente associada a falhas. Daí a necessidade de se demonstrar que, através de uma aplicação rigorosa de metodologias modernas de manutenção, assentes em conceitos científicos, se podem acrescentar mais-valias na cadeia de valor de cada organização. O principal objectivo do presente trabalho foi o desenvolvimento de um modelo apropriado de manutenção, assente no conceito RAMS, aplicado a sistemas reparáveis de extracção de oleaginosas. A metodologia desenvolvida procura integrar os conceitos associados aos processos estocásticos pontuais com metodologias qualitativas de análise de falhas e efeitos e com as práticas de manutenção baseadas na fiabilidade. Os dados referentes à extracção de oleaginosas foram, inicialmente, codificados e tratados de forma a conseguir-se uma base de dados para cada subsistema, ordenada cronologicamente. A análise da extracção de oleaginosas como sistema reparável, constituído hierarquicamente por subsistemas igualmente reparáveis incidiu, fundamentalmente, em três vertentes: a primeira, consubstanciada na avaliação global das falhas do sistema reparável, articulando a utilização dos conceitos dos processos estocásticos pontuais com a determinação dos respectivos tempos médios de reparação; tem como o objectivo encontrar os subsistemas mais críticos, em termos de disponibilidade; a segunda, permitiu encontrar uma política de manutenção preventiva adequada, através da identificação dos respectivos componentes críticos; estes foram, obtidos pela aplicação da Análise Modal de Falhas e Efeitos e da modelação estatística da ordem das falhas e respectivas durações; a terceira, através do desenvolvimento da análise de riscos associada às tarefas de manutenção, permitiu identificar melhorias possíveis de aplicar ao nível da segurança ocupacional. A metodologia desenvolvida poderá ser eventualmente aplicada à totalidade dos subsistemas reparáveis da unidade em estudo, bem como a outras unidades industriais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação apresentada na Universidade do Minho com vista à obtenção do grau de Doutor em Tecnologias e Sistemas de Informação (Engenharia e Gestão de Sistemas de Informação)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tese submetida à Universidade Portucalense para obtenção do grau de Mestre em Informática, elaborada sob a orientação de Prof. Doutor Reis Lima e Eng. Jorge S. Coelho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do grau de Mestre Integrado em Engenharia do Ambiente, perfil Gestão e Sistemas Ambientais

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As Tecnologia de Informação, são certamente uma pedra base da sociedade de hoje e das vindouras. Estas têm modificado as relações sociais, culturais e organizacionais, tendo-se repercutido na sociedade, de diferentes formas. A análise aqui proposta, visa o mundo das organizações e o reconhecimento do peso do factor humano dentro desta, quer na forma como as relações entre os vários actores são mediadas por estas novas tecnologias, quer no que conceme às modificações produzidas por estas no trabalho e consequentemente nas qualificações dos operadores. O desenvolvimento desta análise, parte de uma perspectiva antropocêntrica, que tem, como premissas de partida o valor humano e as características culturais de cada organização. A proposta aqui apresentada, é sobretudo um alerta, para uma maior colaboração interdiscipliiar no desenho das Tecnologias de Informação, visando a plena integração do factor humano no desempenho destas tecnologias. Por último cabe aqui aludir ao estudo de caso, que tem por objecto de estudo um Sistema Flexível de Produção e a inclusão de um posto de trabaího no Sistema. A opção de organização do trabalho, visa sobretudo capacitar, o factor humano de competências e qualificações que lhe permitam o enobrecimento do seu posto de trabalho. É uma opção que assenta na divisão maleável do trabalho, sendo necessário um operador qualificado, mas também polivalente de forma a permitir ao indivíduo executar o conjunto de tarefas que comporta o posto de trabalho.