903 resultados para Designers de móveis
Resumo:
O crescimento dos serviços de banda-larga em redes de comunicações móveis tem provocado uma demanda por dados cada vez mais rápidos e de qualidade. A tecnologia de redes móveis chamada LTE (Long Term Evolution) ou quarta geração (4G) surgiu com o objetivo de atender esta demanda por acesso sem fio a serviços, como acesso à Internet, jogos online, VoIP e vídeo conferência. O LTE faz parte das especificações do 3GPP releases 8 e 9, operando numa rede totalmente IP, provendo taxas de transmissão superiores a 100 Mbps (DL), 50 Mbps (UL), baixa latência (10 ms) e compatibilidade com as versões anteriores de redes móveis, 2G (GSM/EDGE) e 3G (UMTS/HSPA). O protocolo TCP desenvolvido para operar em redes cabeadas, apresenta baixo desempenho sobre canais sem fio, como redes móveis celulares, devido principalmente às características de desvanecimento seletivo, sombreamento e às altas taxas de erros provenientes da interface aérea. Como todas as perdas são interpretadas como causadas por congestionamento, o desempenho do protocolo é ruim. O objetivo desta dissertação é avaliar o desempenho de vários tipos de protocolo TCP através de simulações, sob a influência de interferência nos canais entre o terminal móvel (UE User Equipment) e um servidor remoto. Para isto utilizou-se o software NS3 (Network Simulator versão 3) e os protocolos TCP Westwood Plus, New Reno, Reno e Tahoe. Os resultados obtidos nos testes mostram que o protocolo TCP Westwood Plus possui um desempenho melhor que os outros. Os protocolos TCP New Reno e Reno tiveram desempenho muito semelhante devido ao modelo de interferência utilizada ter uma distribuição uniforme e, com isso, a possibilidade de perdas de bits consecutivos é baixa em uma mesma janela de transmissão. O TCP Tahoe, como era de se esperar, apresentou o pior desempenho dentre todos, pois o mesmo não possui o mecanismo de fast recovery e sua janela de congestionamento volta sempre para um segmento após o timeout. Observou-se ainda que o atraso tem grande importância no desempenho dos protocolos TCP, mas até do que a largura de banda dos links de acesso e de backbone, uma vez que, no cenário testado, o gargalo estava presente na interface aérea. As simulações com erros na interface aérea, introduzido com o script de fading (desvanecimento) do NS3, mostraram que o modo RLC AM (com reconhecimento) tem um desempenho melhor para aplicações de transferência de arquivos em ambientes ruidosos do que o modo RLC UM sem reconhecimento.
Resumo:
As emissões atmosféricas têm sido consideradas por especialistas, poder público, iniciativa privada e organizações ambientalistas, um dos maiores impactos ambientais que o planeta vem enfrentando. Neste contexto estão tanto as fontes estacionárias quanto as fontes móveis. Ao mesmo tempo em que se lançam na atmosfera milhões de toneladas de poluentes a cada ano através da indústria, o homem procura soluções alternativas através de fontes de energia limpa. Adicionalmente, procura-se ao diminuir as emissões das fontes fixas exercer melhor controle e tratamento. Apresenta-se nesse trabalho, a possibilidade da implementação de ações que visem minimizar o impacto causado pelas caldeiras geradoras de energia, em especial as que operam com queimadores convencionais. Experimentou-se um procedimento capaz de ser utilizado de imediato pelas indústrias, antes mesmo de se implementar inovações tecnológicas, que demandam tempo e recursos. Desta forma, pode-se reduzir, de maneira imediata, o volume de poluentes lançados diariamente na atmosfera, em especial o monóxido de carbono, CO, os óxidos de nitrogênio, NOx, e o material particulado, MP. Objetivou-se atingir um nível de emissões capaz de minimizar o custo do dano, sem perder a eficiência da combustão. Apresenta-se ainda a base metodológica de um modelo, utilizando-se a lógica difusa, como forma de se obter um controle e confiabilidade na gestão das emissões.
Resumo:
Uma das tarefas mais desafiadoras do engenheiro na área da Geotecnia é a escolha dos valores de parâmetros geotécnicos obtidos de ensaios de campo ou laboratório e que serão utilizados nos modelos analíticos ou numéricos na fase de projeto de fundações. Diante das incertezas inerentes aos ensaios de SPT e da heterogeneidade de abordagens para a utilização dos valores de NSPT, é proposta neste estudo, a aplicação de um critério estatístico para obtenção de valores de NSPT, a partir da construção de intervalos de confiança de 95% de probabilidade em torno da reta ajustada de regressão linear simples entre a variável aleatória NSPT e a profundidade. Os valores obtidos de NSPT pelo critério aplicado foram utilizados na previsão da capacidade de carga de 19 estacas isoladas a partir da utilização de três métodos semi-empíricos: Aoki-Velloso (1975) com coeficientes alterados por Monteiro (1997), Décourt & Quaresma (1978) alterado pelo método de Décourt (1996) e Método de Alonso (1996). As cargas de ruptura dessas 19 estacas ensaiadas através de Provas de Carga Estática foram obtidas pelos métodos de extrapolação de Van Der Veen (1953) e Décourt (1996) e serviram para comparação e consequente validação do critério estatístico. Adicionalmente, com fulcro no item 6.2.1.2.1 da ABNT NBR 6122:2010 Resistência calculada por método semi-empírico, foram avaliados os fatores de segurança em relação às cargas de projeto, inclusive, também se utilizando da premissa de reconhecimento de regiões representativas, levando em conta o número de ensaios de SPT executados, fato que promove uma diminuição da incerteza dos parâmetros, apontando a um menor fator de segurança. A dissertação enfatiza as vantagens de um adequado tratamento estatístico dos parâmetros geotécnicos, a exemplo da recomendação já existente nas normas internacionais como Eurocódigo e outras. O critério construído permite e encoraja análises e decisões racionais no universo das partes interessadas consumidores, projetistas, fiscais de obras, contratantes e comunidade científica promovendo as discussões de forma mais objetiva e harmoniosa sobre o tema.
Resumo:
Apesar de serem intensamente estudados em muitos países que caminham na vanguarda do conhecimento, os métodos sem malha ainda são pouco explorados pelas universidades brasileiras. De modo a gerar uma maior difusão ou, para a maioria, fazer sua introdução, esta dissertação objetiva efetuar o entendimento dos métodos sem malha baseando-se em aplicações atinentes à mecânica dos sólidos. Para tanto, são apresentados os conceitos primários dos métodos sem malha e o seu desenvolvimento histórico desde sua origem no método smooth particle hydrodynamic até o método da partição da unidade, sua forma mais abrangente. Dentro deste contexto, foi investigada detalhadamente a forma mais tradicional dos métodos sem malha: o método de Galerkin sem elementos, e também um método diferenciado: o método de interpolação de ponto. Assim, por meio de aplicações em análises de barras e chapas em estado plano de tensão, são apresentadas as características, virtudes e deficiências desses métodos em comparação aos métodos tradicionais, como o método dos elementos finitos. É realizado ainda um estudo em uma importante área de aplicação dos métodos sem malha, a mecânica da fratura, buscando compreender como é efetuada a representação computacional da trinca, com especialidade, por meio dos critérios de visibilidade e de difração. Utilizando-se esses critérios e os conceitos da mecânica da fratura, é calculado o fator de intensidade de tensão através do conceito da integral J.
Resumo:
Os escoamentos altamente convectivos representam um desafio na simulação pelo método de elementos finitos. Com a solução de elementos finitos de Galerkin para escoamentos incompressíveis, a matriz associada ao termo convectivo é não simétrica, e portanto, a propiedade de aproximação ótima é perdida. Na prática as soluções apresentam oscilações espúrias. Muitos métodos foram desenvolvidos com o fim de resolver esse problema. Neste trabalho apresentamos um método semi- Lagrangeano, o qual é implicitamente um método do tipo upwind, que portanto resolve o problema anterior, e comparamos o desempenho do método na solução das equações de convecção-difusão e Navier-Stokes incompressível com o Streamline Upwind Petrov Galerkin (SUPG), um método estabilizador de reconhecido desempenho. No SUPG, as funções de forma e de teste são tomadas em espaços diferentes, criando um efeito tal que as oscilações espúrias são drasticamente atenuadas. O método semi-Lagrangeano é um método de fator de integração, no qual o fator é um operador de convecção que se desloca para um sistema de coordenadas móveis no fluido, mas restabelece o sistema de coordenadas Lagrangeanas depois de cada passo de tempo. Isto prevê estabilidade e a possibilidade de utilizar passos de tempo maiores.Existem muitos trabalhos na literatura analisando métodos estabilizadores, mas não assim com o método semi-Lagrangeano, o que representa a contribuição principal deste trabalho: reconhecer as virtudes e as fraquezas do método semi-Lagrangeano em escoamentos dominados pelo fenômeno de convecção.
Resumo:
Diversas das possíveis aplicações da robótica de enxame demandam que cada robô seja capaz de estimar a sua posição. A informação de localização dos robôs é necessária, por exemplo, para que cada elemento do enxame possa se posicionar dentro de uma formatura de robôs pré-definida. Da mesma forma, quando os robôs atuam como sensores móveis, a informação de posição é necessária para que seja possível identificar o local dos eventos medidos. Em virtude do tamanho, custo e energia dos dispositivos, bem como limitações impostas pelo ambiente de operação, a solução mais evidente, i.e. utilizar um Sistema de Posicionamento Global (GPS), torna-se muitas vezes inviável. O método proposto neste trabalho permite que as posições absolutas de um conjunto de nós desconhecidos sejam estimadas, com base nas coordenadas de um conjunto de nós de referência e nas medidas de distância tomadas entre os nós da rede. A solução é obtida por meio de uma estratégia de processamento distribuído, onde cada nó desconhecido estima sua própria posição e ajuda os seus vizinhos a calcular as suas respectivas coordenadas. A solução conta com um novo método denominado Multi-hop Collaborative Min-Max Localization (MCMM), ora proposto com o objetivo de melhorar a qualidade da posição inicial dos nós desconhecidos em caso de falhas durante o reconhecimento dos nós de referência. O refinamento das posições é feito com base nos algoritmos de busca por retrocesso (BSA) e de otimização por enxame de partículas (PSO), cujos desempenhos são comparados. Para compor a função objetivo, é introduzido um novo método para o cálculo do fator de confiança dos nós da rede, o Fator de Confiança pela Área Min-Max (MMA-CF), o qual é comparado com o Fator de Confiança por Saltos às Referências (HTA-CF), previamente existente. Com base no método de localização proposto, foram desenvolvidos quatro algoritmos, os quais são avaliados por meio de simulações realizadas no MATLABr e experimentos conduzidos em enxames de robôs do tipo Kilobot. O desempenho dos algoritmos é avaliado em problemas com diferentes topologias, quantidades de nós e proporção de nós de referência. O desempenho dos algoritmos é também comparado com o de outros algoritmos de localização, tendo apresentado resultados 40% a 51% melhores. Os resultados das simulações e dos experimentos demonstram a eficácia do método proposto.
Resumo:
Este trabalho é uma investigação da história do papel-moeda brasileiro, do cruzeiro de 1970 ao real de 2010, do ponto de vista do Design Gráfico, considerando as dimensões histórica, tecnológica e política do objeto dinheiro impresso. Foram levantados dados de diferentes fontes, como bibliografia especializada, documentos da Casa da Moeda do Brasil e do Banco Central, bem como entrevistas com profissionais envolvidos nos projetos de papel-moeda brasileiro no período de 1970 a 2010. O estudo aponta para uma crescente nacionalização do processo de projeto gráfico do papel-moeda brasileiro a partir dos anos 1960, com a aprovação da proposta da cédula de cinco cruzeiros pela Casa da Moeda, dando início à nacionalização definitiva dos trabalhos de projeto e de produção de cédulas pelo Brasil, atingida com o lançamento da família de cédulas projetada por Aloísio Magalhães, e com a modernização da Casa da Moeda no final dos anos 1970.
Resumo:
A região da Bacia de Campos está exposta a diversas atividades antrópicas, que interferem diretamente no funcionamento do ecossistêmico marinho. O estudo da fauna marinha na costa centro-norte fluminense mostra grande relevância, diversas aves marinhas residem ou passam grande parte de seu período migratório ao longo da Bacia de Campos, entre elas está Sula leucogaster (Boddaert, 1783). Embora essas aves sejam altamente móveis, suas populações apresentam uma estrutura populacional genética robusta. Com o intuito de verificar a estruturação e as relações evolutivas da população de Sula leucogaster na Bacia de Campos foram recolhidas 91 amostras de encalhe e os dados gerados para esta região foram comparados com dados já publicados de outras bacias oceânicas. A partir da região controle do DNA mitocondrial foram gerados 26 haplótipos, todos exclusivos da Bacia de Campos, muitos raros e apenas oito possuíram frequência comum. As análises mostraram que a população da Bacia de Campos é um estoque genético de Sula leucogaster. Tal fato pode ser atribuído ao comportamento filopátrico e ao hábito costeiro dessa espécie que impede o fluxo gênico entre populações. Além disso, a população da Bacia de Campos detém baixa variabilidade genética e possivelmente está sofrendo efeito gargalo ou seleção purificadora, corroborados por valores do teste Fu, o que é comum para espécies que se dividem em subpopulações. Os dados filogenéticos demonstram um contato recente entre as populações da Bacia de Campos e da ilha de Ascensão. As condições oceanográficas também têm influência na estruturação de populações de Sula leucogaster, visto que a ausência de barreiras e a proximidade geográfica poderiam favorecer contato secundário com o Mar do Caribe, fato não evidenciado nas análises. Sendo assim, a divergência de populações nessa espécie e a baixa variabilidade genética são fatores preocupantes para a manutenção da população de atobás marrons em uma área de grande impacto ambiental
Modelagem do comportamento dinâmico e análise de fadiga de pontes rodoviárias mistas (aço-concreto).
Resumo:
Considerando-se os diversos carregamentos que solicitam a estrutura de uma ponte rodoviária, ao longo de sua vida útil, alguns possuem um comportamento essencialmente dinâmico, ou seja, variam com o tempo, diferentemente do que é considerado na prática corrente de projeto desse tipo de obra de arte. Em geral, os projetistas desse tipo de estrutura têm tratado carregamentos como o de vento, tráfego de veículos e de pedestres como ações de natureza estática, ignorando seu perfil cíclico. Tal consideração, em diversas situações de projeto, tende a minorar os efeitos das ações dinâmicas sobre o sistema estrutural. Além disso, estruturas submetidas a solicitações cíclicas, sob uma carga inferior à caga máxima suportada pelo material, estão sujeitas ao fenômeno da fadiga. A consideração adequada de todos estes aspectos mostra-se fundamentalmente importante para correta avaliação dos níveis de esforços solicitantes do sistema estrutural e, bem como, para a identificação de fenômenos importantes como o da fadiga que pode vir a provocar, por exemplo, a ruptura de componentes estruturais sem aviso prévio ou motivo aparente. Para tal, nesta dissertação as técnicas para a contagem de ciclos de tensão e a aplicação das regras de dano acumulado foram analisadas através de curvas do tipo S-N, associadas a diversas normas de projeto. A ponte rodoviária mista (aço-concreto) investigada neste estudo é constituída por seis vigas de aço longitudinais com enrijecedores transversais, oito transversinas e por um tabuleiro de concreto armado. O modelo numérico-computacional, desenvolvido para a análise dinâmica da ponte, foi elaborado com base em técnicas usuais de discretização através do método dos elementos finitos. As mesas e almas das vigas, assim como os enrijecedores , foram modelados por elementos de casca e laje de concreto armado, por elementos sólidos. O carregamento dinâmico avaliado no presente estudo diz respeito ao tráfego de veículos, cuja representação se dá a partir de sistemas "massa-mola-amortecedor". Os comboios formados são adotados como sendo semi-infinitos, deslocando-se com velocidade constante sobre a ponte. As conclusões da presente investigação versam acerca da vida útil de serviço dos elementos estruturais de pontes mistas (aço-concreto).
Measurement of stressful postures during daily activities: An observational study with older people.
Resumo:
This study measured the postures of older people during cooking and laundry. A sample of men and women aged 75+ years (n=27) was recruited and observed in a home-like environment. Postures were recorded with a measurement system in an objective and detailed manner. The participants were videotaped to be able to see where 'critical' postures occurred, as defined by a trunk inclination of ≥60°. Analysis of data was facilitated by specially developed software. Critical postures accounted for 3% of cooking and 10% of laundry, occurring primarily during retrieving from and putting in lower cabinets, the refrigerator, laundry basket or washing machine as well as disposing into the waste bin. These tasks involve a great variation in postural changes and pose a particular risk to older people. The results suggest that the use of stressful postures may decrease efficiency and increase fatigue, eventually leading to difficulties with daily activities. The specific tasks identified during which critical postures occurred should be targeted by designers in order to improve the activities. A few examples are given of how better design can reduce or eliminate some of the postural constraints.
Resumo:
The development of an expert system, BRIDEX, for the design of prestressed concrete bridges is discussed in this paper. Design of multi-span continuous pre-stressed concrete bridges pose considerable difficulties to designers because of the large number of parameters involved and their complex interactions. The design is often perceived as an iterative process of generation, evaluation and modification of trial designs. It takes years of experience to develop an understanding of the design process. BRIDEX is aimed at providing guidance to the designers by suggesting appropriate range of values for the design parameters. The knowledge within BRIDEX is mainly based on fundamental principles developed by a careful study of the intricacies involved in the design process, while heuristics are used only to supplement this knowledge. The BRIDEX approach ensures that the whole design evolves sequentially as the design proceeds, module after module.
Resumo:
The IGBT has become the device of choice in many high-voltage-power electronic applications, by virtue of combining the ease of MOS gate control with an acceptable forward voltage drop. However, designers have retained an interest in MOS gated thyristor structures which have a turn-off capability. These offer low on-state losses as a result of their latching behaviour. Recently, there have been various proposals for dual-gate devices that have a thyristor on-state with IGBT-like switching. Many of these dual gated structures rely on advanced MOS technology, with inherent manufacturing difficulties. The MOS and bipolar gated thyristor offers all the advantages of dual gated performance, while employing standard IGBT processing techniques. The paper describes the MBGT in detail, and presents experimental and simulation results for devices based on realistic commercial processes. It is shown that the MBGT represents a viable power semiconductor device technology, suitable for a diverse range of applications. © IEE, 1998.
Resumo:
Raising design quality and value in the built environment requires continuous improvement, drawing on feedback from clients or occupiers and other industry players. The challenging task for architectural and engineering designers has always been to use their intellectual knowledge to deliver both forms of benefits, tangibles and intangibles, in the built environment. Increasingly as clients demand best value for money, there is a greater need to understand the potential from intangibles, to see projects not as ends in themselves but as means to improved quality of life and wealth creation. As we begin to understand more about how - through the design of the built environment - to deliver these improvements in outcomes, clients will be better placed to expect their successful delivery from designers, and designers themselves will be better placed to provide them. This paper discusses cross-disciplinary issues about intangibles and is aimed at designers, clients, investors and entrepreneurs within the built environment. It presents some findings from a minuscule study that investigated intangible benefits in a new primary school. © 2004 IEEE.
Resumo:
For increasing the usability of a medical device the usability engineering standards IEC 60601-1-6 and IEC 62366 suggest incorporating user information in the design and development process. However, practice shows that integrating user information and the related investigation of users, called user research, is difficult in the field of medical devices. In particular, identifying the most appropriate user research methods is a difficult process. This difficulty results from the complexity of the medical device industry, especially with respect to regulations and standards, the characteristics of this market and the broad range of potential user research methods available from various research disciplines. Against this background, this study aimed at guiding designers and engineers in selecting effective user research methods according to their stage in the design process. Two approaches are described which reduce the complexity of method selection by summarizing the high number of methods into homogenous method classes. These approaches are closely connected to the medical device industry characteristic design phases and therefore provide the possibility of selecting design-phase- specific user research methods. In the first approach potential user research methods are classified after their characteristics in the design process. The second approach suggests a method summarization according to their similarity in the data collection techniques and provides an additional linkage to design phase characteristics. Both approaches have been tested in practice and the results show that both approaches facilitate user research method selection. © 2009 Springer-Verlag.