879 resultados para next generation sequencing
Resumo:
We analyze the potential of the next generation of e+e- linear colliders to search for large extra dimensions via the production of fermion pairs in association with Kaluza-Klein gravitons (G), i.e., e+e- →ff̃G. This process leads to a final state exhibiting a significant amount of missing energy in addition to acoplanar lepton or jet pairs. We study in detail this reaction using the full tree level contributions due to the graviton emission and the standard model backgrounds. After choosing the cuts to enhance the signal, we show that a linear collider with a center-of-mass energy of 500 GeV will be able to probe quantum gravity scales from 0.96 (0.86) up to 4.1 (3.3) TeV at a 2 (5)σ level, depending on the number of extra dimensions. ©2001 The American Physical Society.
Resumo:
Weight reduction and improved damage tolerance characteristics were the prime drivers to develop new family of materials for the aerospace/ aeronautical industry. Aiming this objective, a new lightweight Fiber/ Metal Laminate (FML) has been developed. The combination of metal and polymer composite laminates can create a synergistic effect on many properties. The mechanical properties of FML shows improvements over the properties of both aluminum alloys and composite materials individually. Due to their excellent properties, FML are being used as fuselage skin structures of the next generation commercial aircrafts. One of the advantages of FML when compared with conventional carbon fiber/epoxy composites is the low moisture absorption. The moisture absorption in FML composites is slower when compared with polymer composites, even under the relatively harsh conditions, due to the barrier of the aluminum outer layers. Due to this favorable atmosphere, recently big companies such as EMBRAER, Aerospatiale, Boing, Airbus, and so one, starting to work with this kind of materials as an alternative to save money and to guarantee the security of their aircrafts.
Resumo:
Research on the influence of multiple representations in mathematics education gained new momentum when personal computers and software started to become available in the mid-1980s. It became much easier for students who were not fond of algebraic representations to work with concepts such as function using graphs or tables. Research on how students use such software showed that they shaped the tools to their own needs, resulting in an intershaping relationship in which tools shape the way students know at the same time the students shape the tools and influence the design of the next generation of tools. This kind of research led to the theoretical perspective presented in this paper: knowledge is constructed by collectives of humans-with-media. In this paper, I will discuss how media have shaped the notions of problem and knowledge, and a parallel will be developed between the way that software has brought new possibilities to mathematics education and the changes that the Internet may bring to mathematics education. This paper is, therefore, a discussion about the future of mathematics education. Potential scenarios for the future of mathematics education, if the Internet becomes accepted in the classroom, will be discussed. © FIZ Karlsruhe 2009.
Resumo:
Automatic inspection of petroleum well drilling has became paramount in the last years, mainly because of the crucial importance of saving time and operations during the drilling process in order to avoid some problems, such as the collapse of the well borehole walls. In this paper, we extended another work by proposing a fast petroleum well drilling monitoring through a modified version of the Optimum-Path Forest classifier. Given that the cutting's volume at the vibrating shale shaker can provide several information about drilling, we used computer vision techniques to extract texture informations from cutting images acquired by a digital camera. A collection of supervised classifiers were applied in order to allow comparisons about their accuracy and effciency. We used the Optimum-Path Forest (OPF), EOPF (Efficient OPF), Artificial Neural Network using Multilayer Perceptrons (ANN-MLP) Support Vector Machines (SVM), and a Bayesian Classifier (BC) to assess the robustness of our proposed schema for petroleum well drilling monitoring through cutting image analysis.
Resumo:
A recently proposed scenario for baryogenesis, called post-sphaleron baryogenesis (PSB), is discussed within a class of quark-lepton unified framework based on the gauge symmetry SU(2)L×SU(2) R×SU(4)c realized in the multi-TeV scale. The baryon asymmetry of the Universe in this model is produced below the electroweak phase transition temperature after the sphalerons have decoupled from the Hubble expansion. These models embed naturally the seesaw mechanism for neutrino masses and predict color-sextet scalar particles in the TeV range which may be accessible to the LHC experiments. A necessary consequence of this scenario is the baryon-number-violating ΔB=2 process of neutron-antineutron (n-n̄) oscillations. In this paper we show that the constraints of PSB, when combined with the neutrino oscillation data and restrictions from flavor changing neutral currents mediated by the colored scalars, imply an upper limit on the n-n̄ oscillation time of 5×1010 sec regardless of the quark-lepton unification scale. If this scale is relatively low, in the (200-250) TeV range, τn-n̄ is predicted to be less than 1010 sec, which is accessible to the next generation of proposed experiments. © 2013 American Physical Society.
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
A tecnologia DSL- Digital Subscriber Line permitem um acesso universal de banda larga, com redução de custo e tempo de implantação necessários, quando comparadas a outras redes de acesso. DSL pode ser considerada uma rede de banda larga de grande capilaridade, uma vez que utiliza uma combinação de infra-estrutura de telefonia existente e a tecnologia de transmissão. Não obstante, a rede DSL precisa ser amplamente compreendida, de maneira que suas principais vantagens não sejam suplantadas pela ineficiência geral do sistema. Esta tese apresenta uma abordagem baseada em estratégias que possibilitem o planejamento de redes de comunicação que a priori não foram implementadas para suportar fluxos Triple Play (pré-requisito obrigatório diante do perfil atual de usuários da Internet). Será mostrado que, a partir do uso de medidas reais e análises probabilísticas, é possível elaborar o planejamento de redes de comunicação, considerando os parâmetros físicos e lógicos, tais como: o caminho de transmissão, a influência do ruído na comunicação, os protocolos utilizados e tráfego de Triple Play (voz, vídeo e dados).
Resumo:
Gerenciamento de recursos de rádio é um tema importante e desafiador em redes sem fio. Na próxima geração de redes (redes 4G) esse tema é ainda mais desafiador devido à necessidade de gerenciamento de recursos das diversas redes sem fio de forma conjunta. Algoritmos de controle de admissão de chamadas (CAC) é uma alternativa viável e amplamente estudada em redes homogêneas para este fim. Contudo, os algoritmos de CAC propostos para redes homogêneas não são adequados para a próxima geração de redes sem fio por não possuírem uma visão global do sistema. Diante da importância de gerenciamento de recursos de rádio e da escassez de algoritmos de CAC destinados às redes heterogêneas, tem-se este tema como foco primário deste trabalho. Além da confecção de um modelo para controle conjunto de admissão de chamadas através da utilização de processos semi-markovianos de decisão, dada a existência de um conglomerado de tecnologias de acesso sem fio atuando colaborativamente, um estudo é realizado buscando-se avaliar o impacto da proporcionalidade existente entre os tamanhos de áreas de coberturas, no desempenho do sistema.
Resumo:
As Redes Ópticas Passivas (Passive Optical Networks - PONs) vêm experimentando um sólido crescimento nas últimas décadas por terem sido concebidas como uma excelente alternativa para a solução de um dos maiores problemas para as redes de telecomunicações: o gargalo nas redes de acesso. A próxima geração desta tecnologia, as chamadas Next Genaration PONs (NG-PON), surgem como consequência da evolução das tecnologias ópticas e oferecem suporte aos serviços de próxima geração, melhorando os parâmetros de desempenho das TDM-PONs e inclusive aumentando a área de cobertura destas redes. Esta expansão geográfica beneficia as empresas de telecomunicações que passam a focar seus esforços na simplificação de suas infra-estruturas através da unificação das redes metropolitanas, de acesso e de backhaul, reduzindo a quantidade de nós e, consequentemente, de custos operacionais e financeiros. Trata-se de uma significativa mudança no cenário das redes de acesso que passam a ter grandes distâncias entre as Optical Network Units (ONUs) e o Central Office (CO) e uma imensa variedade de serviços, tornando fundamental a presença de algoritmos de agendamento capazes de gerenciar todos os recursos compartilhados de forma eficiente, ao mesmo tempo que garantem controle e justeza na alocação dinâmica dos tráfegos upstream e downstream. É a partir deste contexto que esta dissertação tem como objetivo geral apresentar a proposta de um algoritmo híbrido de agendamento de grants baseado na priorização de filas (Hybrid Grant Scheduler based on Priority Queuing – HGSPQ), que além de gerenciar todos os recursos em WDM-PONs, busca oferecer eficiência e controle ao Optical Line Terminal (OLT) no agendamento dinâmico dos tráfegos. Os resultados apresentados foram extraídos de cenários desenvolvidos em ambiente de simulação computacional e se baseiam nas métricas de atraso e vazão para avaliação de seu desempenho. Também será avaliado como a quantidade de recursos no OLT interfere nestas métricas.
Resumo:
Recentemente a sociedade está vivendo em meio a um aglomerado de dispositivos móveis com múltiplas interfaces sem fio que permitem que clientes móveis domésticos e corporativos solucionem problemas rotineiros no menor espaço de tempo e em diversas localizações. Por outro lado, a disponibilidade de diversas tecnologias de acesso sem fio como: Wi-Fi (Wireless Fidelity), WiMAX (Worldwide Interoperability for Microwave Access) e LTE (Long Term Evolution), proporcionam um cenário heterogêneo com diversas oportunidades de conectividade para o usuário de dispositivos com múltiplas interfaces. Alguns dos desafios atuais no contexto da concepção da então denominada NGN (Next Generation Networks) são o desenvolvimento de arcabouços e mecanismos que viabilizem tanto o suporte adequado à Qualidade de Serviço (QoS – Quality of Service) e à Qualidade de Experiência (QoE – Quality of Experience) para aplicações multimídia, quanto a garantia de equidade entre vazões de diferentes aplicações em ambiente heterogêneo. Esta dissertação propõe um arcabouço para o aprovisionamento de QoS e QoE em redes sem fio heterogêneas formada por redes WiMAX e Wi-Fi. Especificamente, nossa solução provê mapeamento estático de QoS entre as classes de serviços WiMAX e categorias de acesso Wi-Fi. Além disso, nossa proposta também combina funcionalidades de equidade entre vazões com a solução de mapeamento, a fim de alcançar um bom compromisso tanto para o operador da rede, quanto para o usuário, através de uma nova metodologia de coleta e calculo de vazão agregada e algoritmo de decisão de handover vertical. A avaliação quantitativa da proposta foi realizada através de modelos de simulação no ns-2 (Network Simulator). Os resultados de desempenho demonstram a eficiência da arquitetura em termos de métricas de QoS (vazão, vazão média e atraso) e QoE (PSRN - Peak Signal to Noise Ratio, SSIM - Structural Similarity Index e VQM - Video Quality Metric).
Resumo:
A crescente utilização dos serviços de telecomunicações principalmente sem fio tem exigido a adoção de novos padrões de redes que ofereçam altas taxas de transmissão e que alcance um número maior de usuários. Neste sentido o padrão IEEE 802.16, no qual é baseado o WiMAX, surge como uma tecnologia em potencial para o fornecimento de banda larga na próxima geração de redes sem fio, principalmente porque oferece Qualidade de Serviço (QoS) nativamente para fluxos de voz, dados e vídeo. A respeito das aplicações baseadas vídeo, tem ocorrido um grande crescimento nos últimos anos. Em 2011 a previsão é que esse tipo de conteúdo ultrapasse 50% de todo tráfego proveniente de dispositivos móveis. Aplicações do tipo vídeo têm um forte apelo ao usuário final que é quem de fato deve ser o avaliador do nível de qualidade recebida. Diante disso, são necessárias novas formas de avaliação de desempenho que levem em consideração a percepção do usuário, complementando assim as técnicas tradicionais que se baseiam apenas em aspectos de rede (QoS). Nesse sentido, surgiu a avaliação de desempenho baseada Qualidade de Experiência (QoE) onde a avaliação do usuário final em detrimento a aplicação é o principal parâmetro mensurado. Os resultados das investigações em QoE podem ser usados como uma extensão em detrimento aos tradicionais métodos de QoS, e ao mesmo tempo fornecer informações a respeito da entrega de serviços multimídias do ponto de vista do usuário. Exemplos de mecanismos de controle que poderão ser incluídos em redes com suporte a QoE são novas abordagens de roteamento, processo de seleção de estação base e tráfego condicionado. Ambas as metodologias de avaliação são complementares, e se usadas de forma combinada podem gerar uma avaliação mais robusta. Porém, a grande quantidade de informações dificulta essa combinação. Nesse contexto, esta dissertação tem como objetivo principal criar uma metodologia de predição de qualidade de vídeo em redes WiMAX com uso combinado de simulações e técnicas de Inteligência Computacional (IC). A partir de parâmetros de QoS e QoE obtidos através das simulações será realizado a predição do comportamento futuro do vídeo com uso de Redes Neurais Artificiais (RNA). Se por um lado o uso de simulações permite uma gama de opções como extrapolação de cenários de modo a imitar as mesmas situações do mundo real, as técnicas de IC permitem agilizar a análise dos resultados de modo que sejam feitos previsões de um comportamento futuro, correlações e outros. No caso deste trabalho, optou-se pelo uso de RNAs uma vez que é a técnica mais utilizada para previsão do comportamento, como está sendo proposto nesta dissertação.
Resumo:
As redes de acesso usando cabos de cobre atualmente utilizam bandas de frequência até 30 MHz, especificada no padrão VDSL2. À medida que arquiteturas híbridas de fibra e cobre se tornam mais proeminentes na indústria e academia, torna-se possível utilizar cabos metálicos mais curtos (i.e. até 250 metros) conectando o último ponto de distribuição aos usuários, de modo que frequências mais altas podem ser exploradas para se alcançar taxas de transmissão de dados de 500 Mbps ou mais, como é o caso do padrão G.fast atualmente em desenvolvimento no ITU-T. Nesse trabalho, um simulador no domínio do tempo foi desenvolvido para avaliar a capacidade do sistema G.fast com diferentes tamanhos de extensão cíclica e diferentes topologias de rede especificadas pelo ITU-T. Os resultados das simulações mostram que sistemas G.fast são robustos a bridged taps e capazes de atingir altas taxas de dados para todas as topologias simuladas, provendo suporte à próxima geração de serviços de banda larga. Além disso, esse trabalho descreve o progresso da implementação de um protótipo de modem baseado no padrão G.fast em um ambiente híbrido de DSP multicore e FPGA utilizando kits de avaliação adquiridos pela UFPA. Arquiteturas, protocolos de comunicação e benchmarks são apresentados e avaliados para se chegar à conclusão de que tal protótipo é factível e fornece suporte flexível a várias linhas de pesquisa em banda larga da próxima geração.
Resumo:
As Redes da Próxima Geração consistem no desenvolvimento de arquiteturas que viabilizem a continuidade de serviços que proporcionem sempre a melhor conectividade (Always Best Connectivity - ABC) aos usuários móveis com suporte adequado à Qualidade de Experiência (QoE) para aplicações multimídia de alta definição, nesse novo contexto as arquiteturas têm perspectiva orientada a serviços e não a protocolos. Esta tese apresenta uma arquitetura para redes da próxima geração capaz de fornecer acesso heterogêneo sem fio e handover vertical transparente para as aplicações multimídia. A tese considera diferentes tecnologias sem fio e também adota o padrão IEEE 802.21 (Media Independent Handover – MIH) para auxiliar na integração e gerenciamento das redes heterogêneas sem fio. As tecnologias que a arquitetura possui são: IEEE 802.11 (popularmente denominada de WiFi), IEEE 802.16 (popularmente denominada de WiMAX) e LTE (popularmente denominada de redes 4G). O objetivo é que arquitetura tenha a capacidade de escolher entre as alternativas disponíveis a melhor conexão para o momento. A arquitetura proposta apresenta mecanismos de predição de Qualidade de Experiência (Quality of Experience - QoE) que será o parâmetro decisivo para a realização ou não do handover para uma nova rede. A predição para determinar se haverá ou não mudança de conectividade será feita com o uso da inteligência computacional de Redes Neurais Artificiais. Além disso a arquitetura também apresenta um mecanismo de descarte seletivo de pacotes especifico para aplicações multimídia. A proposta é avaliada via simulação utilizando-se o ns-2 (Network Simulator) e os resultados de desempenho são apresentados através das métricas de QoS, de QoE e também visualmente através da exibição de frames dos vídeos transmitidos na arquitetura.
Resumo:
Populations of carrot seeds with superior physiological quality and storage potential are of interest to seed companies and growers. Thus, we verified the efficiency of some tests for the selection of carrot populations with greater vigor and longevity of seeds. Seeds of 50 carrots progenies of different half-brothers from Brasilia cultivar were evaluated for the mass of one hundred seeds, the first count, germination, dormancy, accelerated aging with water and saturated NaCl solution. The seeds were stored at moisture contents of 6.1±0.3% in hermetic packaging at temperatures of 15 and 25°C for 12 months and germination was evaluated quarterly. The experimental data were evaluated for variance and phenotypic, genotypic and environmental heritability, coefficient of variation and genetic gain from selection. Selection based on the mass should not be used because it would increase the occurrence of dormancy in seeds of the next generation. The test of the first count, germination and accelerated aging in water or saline solution saturated may be used to select populations of carrot seeds of higher vigor and longevity. The estimated gain genetic selection for germination after 12 months storage at 25°C was 14%.
Resumo:
The Numerical INJection Analysis (NINJA) project is a collaborative effort between members of the numerical relativity and gravitational-wave (GW) astrophysics communities. The purpose of NINJA is to study the ability to detect GWs emitted from merging binary black holes (BBH) and recover their parameters with next-generation GW observatories. We report here on the results of the second NINJA project, NINJA-2, which employs 60 complete BBH hybrid waveforms consisting of a numerical portion modelling the late inspiral, merger, and ringdown stitched to a post-Newtonian portion modelling the early inspiral. In a 'blind injection challenge' similar to that conducted in recent Laser Interferometer Gravitational Wave Observatory (LIGO) and Virgo science runs, we added seven hybrid waveforms to two months of data recoloured to predictions of Advanced LIGO (aLIGO) and Advanced Virgo (AdV) sensitivity curves during their first observing runs. The resulting data was analysed by GW detection algorithms and 6 of the waveforms were recovered with false alarm rates smaller than 1 in a thousand years. Parameter-estimation algorithms were run on each of these waveforms to explore the ability to constrain the masses, component angular momenta and sky position of these waveforms. We find that the strong degeneracy between the mass ratio and the BHs' angular momenta will make it difficult to precisely estimate these parameters with aLIGO and AdV. We also perform a large-scale Monte Carlo study to assess the ability to recover each of the 60 hybrid waveforms with early aLIGO and AdV sensitivity curves. Our results predict that early aLIGO and AdV will have a volume-weighted average sensitive distance of 300 Mpc (1 Gpc) for 10M circle dot + 10M circle dot (50M circle dot + 50M circle dot) BBH coalescences. We demonstrate that neglecting the component angular momenta in the waveform models used in matched-filtering will result in a reduction in sensitivity for systems with large component angular momenta. This reduction is estimated to be up to similar to 15% for 50M circle dot + 50M circle dot BBH coalescences with almost maximal angular momenta aligned with the orbit when using early aLIGO and AdV sensitivity curves.