953 resultados para Posicionamento. IEEE 802.11. LVWNet. Free-space Path Loss. Wireless.Linux. Testbed. Prototipação
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia de Electrónica e Telecomunicações
Resumo:
Este artigo é resultado de uma pesquisa mais ampla cuja questão central diz respeito a como os pesquisadores constroem seus posicionamentos e suas interações em artigos experimentais e artigos teóricos da área de Lingüística. Os resultados apresentados advêm de um momento desta pesquisa no qual me dediquei a reconhecer, mapear e analisar os marcadores de atenuação e ênfase (Hyland, 2000) que, de forma mais relevante, constroem significados interpessoais de posicionamento e interação do pesquisador-autor na produção de exemplares de artigos experimentais e de artigos teóricos (Swales, 2004).
Resumo:
Este trabalho surgiu do âmbito da Tese de Dissertação do Mestrado em Energias Sustentáveis do Instituto Superior de Engenharia do Porto, tendo o acompanhamento dos orientadores da empresa Laboratório Ecotermolab do Instituto de Soldadura e Qualidade e do Instituto Superior de Engenharia do Porto, de forma a garantir a linha traçada indo de acordo aos objectivos propostos. A presente tese abordou o estudo do impacto da influência do ar novo na climatização de edifícios, tendo como base de apoio à análise a simulação dinâmica do edifício em condições reais num programa adequado, acreditado pela norma ASHRAE 140-2004. Este trabalho pretendeu evidenciar qual o impacto da influência do ar novo na climatização de um edifício com a conjugação de vários factores, tais como, ocupação, actividades e padrões de utilização (horários), iluminação e equipamentos, estudando ainda a possibilidade do sistema funcionar em regime de “Free-Cooling”. O princípio partiu fundamentalmente por determinar até que ponto se pode climatizar recorrendo único e exclusivamente à introdução de ar novo em regime de “Free-Cooling”, através de um sistema tudo-ar de Volume de Ar Variável - VAV, sem o apoio de qualquer outro sistema de climatização auxiliar localizado no espaço, respeitando os caudais mínimos impostos pelo RSECE (Decreto-Lei 79/2006). Numa primeira fase foram identificados todos os dados relativos à determinação das cargas térmicas do edifício, tendo em conta todos os factores e contributos alusivos ao valor da carga térmica, tais como a transmissão de calor e seus constituintes, a iluminação, a ventilação, o uso de equipamentos e os níveis de ocupação. Consequentemente foram elaboradas diversas simulações dinâmicas com o recurso ao programa EnergyPlus integrado no DesignBuilder, conjugando variáveis desde as envolventes à própria arquitectura, perfis de utilização ocupacional, equipamentos e taxas de renovação de ar nos diferentes espaços do edifício em estudo. Obtiveram-se vários modelos de forma a promover um estudo comparativo e aprofundado que permitisse determinar o impacto do ar novo na climatização do edifício, perspectivando a capacidade funcional do sistema funcionar em regime de “Free-Cooling”. Deste modo, a análise e comparação dos dados obtidos permitiram chegar às seguintes conclusões: Tendo em consideração que para necessidades de arrefecimento bastante elevadas, o “Free-Cooling” diurno revelou-se pouco eficaz ou quase nulo, para o tipo de clima verificado em Portugal, pois o diferencial de temperatura existente entre o exterior e o interior não é suficiente de modo a tornar possível a remoção das cargas de forma a baixar a temperatura interior para o intervalo de conforto. Em relação ao “Free-Cooling” em horário nocturno ou pós-laboral, este revelou-se bem mais eficiente. Obtiveram-se prestações muito interessantes sobretudo durante as estações de aquecimento e meia-estação, tendo em consideração o facto de existir necessidades de arrefecimento mesmo durante a estação de aquecimento. Referente à ventilação nocturna, isto é, em períodos de madrugada e fecho do edifício, concluiu-se que tal contribui para um abaixamento do calor acumulado durante o dia nos materiais construtivos do edifício e que é libertado ou restituído posteriormente para os espaços em períodos mais tardios. De entre as seguintes variáveis, aumento de caudal de ar novo insuflado e o diferencial de temperatura existente entre o ar exterior e interior, ficou demonstrado que este último teria maior peso contributivo na remoção do calor. Por fim, é ponto assente que de um modo geral, um sistema de climatização será sempre indispensável devido a cargas internas elevadas, requisitos interiores de temperatura e humidade, sendo no entanto aconselhado o “Free- Cooling” como um opção viável a incorporar na solução de climatização, de forma a promover o arrefecimento natural, a redução do consumo energético e a introdução activa de ar novo.
Resumo:
A presente dissertação apresenta uma solução para o problema de modelização tridimensional de galerias subterrâneas. O trabalho desenvolvido emprega técnicas provenientes da área da robótica móvel para obtenção um sistema autónomo móvel de modelização, capaz de operar em ambientes não estruturados sem acesso a sistemas de posicionamento global, designadamente GPS. Um sistema de modelização móvel e autónomo pode ser bastante vantajoso, pois constitui um método rápido e simples de monitorização das estruturas e criação de representações virtuais das galerias com um elevado nível de detalhe. O sistema de modelização desloca-se no interior dos túneis para recolher informações sensoriais sobre a geometria da estrutura. A tarefa de organização destes dados com vista _a construção de um modelo coerente, exige um conhecimento exacto do percurso praticado pelo sistema, logo o problema de localização da plataforma sensorial tem que ser resolvido. A formulação de um sistema de localização autónoma tem que superar obstáculos que se manifestam vincadamente nos ambientes underground, tais como a monotonia estrutural e a já referida ausência de sistemas de posicionamento global. Neste contexto, foi abordado o conceito de SLAM (Simultaneous Loacalization and Mapping) para determinação da localização da plataforma sensorial em seis graus de liberdade. Seguindo a abordagem tradicional, o núcleo do algoritmo de SLAM consiste no filtro de Kalman estendido (EKF { Extended Kalman Filter ). O sistema proposto incorpora métodos avançados do estado da arte, designadamente a parametrização em profundidade inversa (Inverse Depth Parametrization) e o método de rejeição de outliers 1-Point RANSAC. A contribuição mais importante do método por nós proposto para o avanço do estado da arte foi a fusão da informação visual com a informação inercial. O algoritmo de localização foi testado com base em dados reais, adquiridos no interior de um túnel rodoviário. Os resultados obtidos permitem concluir que, ao fundir medidas inerciais com informações visuais, conseguimos evitar o fenómeno de degeneração do factor de escala, comum nas aplicações de localização através de sistemas puramente monoculares. Provámos simultaneamente que a correcção de um sistema de localização inercial através da consideração de informações visuais é eficaz, pois permite suprimir os desvios de trajectória que caracterizam os sistemas de dead reckoning. O algoritmo de modelização, com base na localização estimada, organiza no espaço tridimensional os dados geométricos adquiridos, resultando deste processo um modelo em nuvem de pontos, que posteriormente _e convertido numa malha triangular, atingindo-se assim uma representação mais realista do cenário original.
Resumo:
Escrever é um dos mais poderosos instrumentos usados pela mídia para levar informações vitais. Nesse sentido, o efeito das “novas ideologias”, para valorização da identidade afro-brasileira, incidem diretamente sobre a produção literária como uma mensagem rigorosamente direcionada a um público menos especializado como receptor. O presente artigo discute a relação entre o gênero cordel e algumas das políticas culturais aplicadas no nordeste do Brasil. Tal estratégia vem comprovar não apenas o processo ativo de negociação entre os grupos subalternizados e os discursos dos poderes hegemônicos, mas também a reatualização do gênero literário do cordel, com o aparecimento de novos narradores e temáticas. Como se observa estes narradores estão plenamente conscientes dos seus papéis políticos ante a comunidade de que, fazem parte. Circulando em um espaço geográfico urbano, a produção não depende da condição econômica de seus leitores para sua aquisição, uma vez que sua distribuição centraliza-se na informação gratuita. Ao contrário da literatura “tradicional”, o real e o verossímil possuem objetivos definidos como informar e ensinar o destinatário sobre a nova lei em vigor. Nesse caso, a literatura cumpre de imediato um de seus papéis clássicos, o de ser útil, revestindo-se de funções igualmente nobres, provocando a “catarse social” de indivíduos pela aquisição de um saber inerente `a sua condição de cidadão.
Resumo:
Este trabalho pretende avaliar e melhorar o modo de execução da aplicação da técnica de rebentamento com explosivos, aumentando a fragmentação e reduzindo o custo no conjunto das operações de perfuração, carga, detonação e fragmentação secundária e compreender a influência na variação do custo das operações face às melhorias adoptadas. A investigação foi executada na pedreira da Mota-Engil, Engenharia S.A. ‘’ Bouça do Menino’’ Vila Verde, Cervães, tendo os dados iniciais sido recolhidos em 2004 (ano de referência) e comparados com os seguintes 4 anos. A perfuração é geralmente um dos principais factores que influenciam o resultado de um rebentamento, já que do seu rigor pode depender a eficiência do explosivo. Hoje em dia, para além da adequação dos métodos de execução ao local a fragmentar, existem ferramentas que nos permitem visualizar com rigor as circunstâncias em que se desenvolvem os trabalhos, nomeadamente as utilizadas pelos equipamentos de perfuração para controlo de profundidade, inclinação e direcção, a utilização de feixes ‘’laser’’ que nos permitem manter o nivelamento das plataformas, o ‘’laser’’ profile que nos ajuda a definir o posicionamento e inclinação dos furos relativamente à frente livre antes de executar a perfuração, ou ainda, a utilização de equipamentos de registo de coordenadas que nos permitem verificar o posicionamento do furo após a sua execução e decidir sobre a sua utilização mais correcta em função da sua posição. A utilização destas ferramentas associadas a um ‘’software’’ de desenho é ainda uma excelente ferramenta de formação para os operadores da perfuração e utilização dos explosivos, já que permite visualizar e compreender a relação da posição dos furos com o resultado do rebentamento.
Resumo:
Two chromatographic methods, gas chromatography with flow ionization detection (GC–FID) and liquid chromatography with ultraviolet detection (LC–UV), were used to determine furfuryl alcohol in several kinds of foundry resins, after application of an optimised extraction procedure. The GC method developed gave feasibility that did not depend on resin kind. Analysis by LC was suitable just for furanic resins. The presence of interference in the phenolic resins did not allow an appropriate quantification by LC. Both methods gave accurate and precise results. Recoveries were >94%; relative standard deviations were ≤7 and ≤0.3%, respectively for GC and LC methods. Good relative deviations between the two methods were found (≤3%).
Resumo:
Conferência: 39th Annual Conference of the IEEE Industrial-Electronics-Society (IECON) - NOV 10-14, 2013
Resumo:
Formaldehyde is a toxic component that is present in foundry resins. Its quantification is important to the characterisation of the resin (kind and degradation) as well as for the evaluation of free contaminants present in wastes generated by the foundry industry. The complexity of the matrices considered suggests the need for separative techniques. The method developed for the identification and quantification of formaldehyde in foundry resins is based on the determination of free carbonyl compounds by derivatization with 2,4-dinitrophenylhydrazine (DNPH), being adapted to the considered matrices using liquid chromatography (LC) with UV detection. Formaldehyde determinations in several foundry resins gave precise results. Mean recovery and R.S.D. were, respectively, >95 and 5%. Analyses by the hydroxylamine reference method gave comparable results. Results showed that hydroxylamine reference method is applicable just for a specific kind of resin, while the developed method has good performance for all studied resins.
Resumo:
Phenol is a toxic compound present in a wide variety of foundry resins. Its quantification is important for the characterization of the resins as well as for the evaluation of free contaminants present in foundry wastes. Two chromatographic methods, liquid chromatography with ultraviolet detection (LC-UV) and gas chromatography with flame ionization detection (GC-FID), for the analysis of free phenol in several foundry resins, after a simple extraction procedure (30 min), were developed. Both chromatographic methods were suitable for the determination of phenol in the studied furanic and phenolic resins, showing good selectivity, accuracy (recovery 99–100%; relative deviations <5%), and precision (coefficients of variation <6%). The used ASTM reference method was only found to be useful in the analysis of phenolic resins, while the LC and GC methods were applicable for all the studied resins. The developed methods reduce the time of analysis from 3.5 hours to about 30 min and can readily be used in routine quality control laboratories.
Resumo:
Celiac disease (CD) is an autoimmune enteropathy, characterized by an inappropriate T-cell-mediated immune response to the ingestion of certain dietary cereal proteins in genetically susceptible individuals. This disorder presents environmental, genetic, and immunological components. CD presents a prevalence of up to 1% in populations of European ancestry, yet a high percentage of cases remain underdiagnosed. The diagnosis and treatment should be made early since untreated disease causes growth retardation and atypical symptoms, like infertility or neurological disorders. The diagnostic criteria for CD, which requires endoscopy with small bowel biopsy, have been changing over the last few decades, especially due to the advent of serological tests with higher sensitivity and specificity. The use of serological markers can be very useful to rule out clinical suspicious cases and also to help monitor the patients, after adherence to a gluten-free diet. Since the current treatment consists of a life-long glutenfree diet, which leads to significant clinical and histological improvement, the standardization of an assay to assess in an unequivocal way gluten in gluten-free foodstuff is of major importance.
Resumo:
It is widely assumed that scheduling real-time tasks becomes more difficult as their deadlines get shorter. With deadlines shorter, however, tasks potentially compete less with each other for processors, and this could produce more contention-free slots at which the number of competing tasks is smaller than or equal to the number of available processors. This paper presents a policy (called CF policy) that utilizes such contention-free slots effectively. This policy can be employed by any work-conserving, preemptive scheduling algorithm, and we show that any algorithm extended with this policy dominates the original algorithm in terms of schedulability. We also present improved schedulability tests for algorithms that employ this policy, based on the observation that interference from tasks is reduced when their executions are postponed to contention-free slots. Finally, using the properties of the CF policy, we derive a counter-intuitive claim that shortening of task deadlines can help improve schedulability of task systems. We present heuristics that effectively reduce task deadlines for better scheduability without performing any exhaustive search.
Resumo:
Dynamical systems theory is used here as a theoretical language and tool to design a distributed control architecture for a team of two mobile robots that must transport a long object and simultaneously avoid obstacles. In this approach the level of modeling is at the level of behaviors. A “dynamics” of behavior is defined over a state space of behavioral variables (heading direction and path velocity). The environment is also modeled in these terms by representing task constraints as attractors (i.e. asymptotically stable states) or reppelers (i.e. unstable states) of behavioral dynamics. For each robot attractors and repellers are combined into a vector field that governs the behavior. The resulting dynamical systems that generate the behavior of the robots may be nonlinear. By design the systems are tuned so that the behavioral variables are always very close to one attractor. Thus the behavior of each robot is controled by a time series of asymptotically stable states. Computer simulations support the validity of our dynamic model architectures.
Resumo:
With the current complexity of communication protocols, implementing its layers totally in the kernel of the operating system is too cumbersome, and it does not allow use of the capabilities only available in user space processes. However, building protocols as user space processes must not impair the responsiveness of the communication. Therefore, in this paper we present a layer of a communication protocol, which, due to its complexity, was implemented in a user space process. Lower layers of the protocol are, for responsiveness issues, implemented in the kernel. This protocol was developed to support large-scale power-line communication (PLC) with timing requirements.
Resumo:
In this work a mixed integer optimization linear programming (MILP) model was applied to mixed line rate (MLR) IP over WDM and IP over OTN over WDM (with and without OTN grooming) networks, with aim to reduce network energy consumption. Energy-aware and energy-aware & short-path routing techniques were used. Simulations were made based on a real network topology as well as on forecasts of traffic matrix based on statistical data from 2005 up to 2017. Energy aware routing optimization model on IPoWDM network, showed the lowest energy consumption along all years, and once compared with energy-aware & short-path routing, has led to an overall reduction in energy consumption up to 29%, expecting to save even more than shortest-path routing. © 2014 IEEE.