25 resultados para Engenharia de linhas de produto de software


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho apresenta a implementação em software da codificação de canal utilizada no padrão ADSL. A teoria da codificação de canal e descrita, bem como a codificação de canal implementada no Software Modem ADSL utilizando o ambiente de desenvolvimento Ptolemy II. A implementação de um modelo de ruído impulsivo também é apresentada. Para garantir que a implementação obedeça o padrão do ADSL, testes utilizando o analisador de sistemas DSL TraceSpan são descritos. O trabalho apresenta ainda um exemplo de aplicação do Software Modem ADSL, caracterizado por um estudo de caso sobre os efeitos do ruído impulsivo na transmissão dedeo, analisando o impacto de alguns parâmetros da codificação de canal na correção dos erros.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nesta tese é proposta uma metodologia para identificação automática de topologias de linhas telefônicas compostas de uma ou mais seções de linha, as quais são utilizadas em sistemas de linhas digitais de assinante (DSL, do inglês digital subscriber line). Métodos com esta finalidade são fundamentais para a qualificação da linha com o objetivo de instalação do serviço DSL, em especial na atualização para serviços como o VDSL2 ou para adoção de "vetorização". Com o intuito de ser relevante para as operadoras na qualificação de uma rede inteira, composta de milhões de linhas, é fundamental que, além de precisão, métodos de qualificação tenham baixo custo computacional. Os métodos desenvolvidos são baseados nessa premissa e fazem análise da resposta ao impulso e da resposta à reflectometria no domínio do tempo de uma dada linha. Esses sinais são analisados utilizando-se um método de detecção de bordas, baseado em transformada wavelet, para identificar e extrair características de sinal que contenham informação sobre a topologia da linha. Dependendo das características disponíveis, é utilizado um dos três sistemas especialistas desenvolvidos para interpretação dessas informações e identificação da topologia. Estas metodologias são avaliadas através de um conjunto de teste de linhas reais medidas em laboratório. Seus resultados são comparados com os resultados de dois outros métodos implementados a partir da literatura. Os resultados obtidos mostram que os métodos propostos são eficientes na estimação de informações da topologia da linha e possuem reduzido custo computacional quando comparados às implementações das outras técnicas avaliadas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Uma boa alternativa para o controle de ruído em ambientes fechados é a utilização de materiais de absorção sonora, onde parte da energia acústica é transformada em energia térmica através da viscosidade do ar, o que ocorre tanto em materiais porosos quanto fibrosos. A característica de absorção acústica de um material é determinada pelo coeficiente de absorção sonora que depende principalmente da freqüência, ângulo de incidência do som, densidade, espessura e estrutura interna do material. Da Amazônia, devido a sua sobrepujante biodiversidade, são retirados milhares de produtos e subprodutos naturais, alguns dos quais não são totalmente aproveitados. Dessa forma, muitos resíduos chegam a outros setores industriais, como é o caso da fibra de coco que é utilizada das mais diversas formas. Assim, o presente trabalho define e descreve um processo de fabricação de painéis acústicos, a partir da fibra de coco, com a determinação experimental dos principais parâmetros visando o controle acústico de recintos, além de desenvolver um modelo numérico para estabelecimento de parâmetros de controle de qualidade e custo, que auxiliem no desenvolvimento e na fabricação de novos painéis. Primeiramente, são coletadas as informações necessárias para iniciar o processo de desenvolvimento dos painéis de fibra de coco, seguindo uma metodologia de desenvolvimento de produto, baseada no “projeto informacional”. Em seguida, são descritas todas as etapas do processo de fabricação destes painéis, para posterior obtenção de suas principais propriedades físico-químicas, mecânicas e acústicas. Com as simulações numéricas, buscou-se analisar e predizer o comportamento de um painel de fibra de coco (além de um painel de espuma comercialmente disponível), e investigar a sua influência sobre os parâmetros acústicos de um auditório (tempo de reverberação, decaimento da pressão sonora e inteligibilidade). Com o desenvolvimento dos painéis pretende-se contribuir para a criação de novos setores na economia do estado, principalmente quando se considera o alto custo dos painéis comercializados no sul do país. Finalmente, outra vantagem significativa é a possibilidade da utilização destes painéis dentro do contexto das linhas arquitetônicas regionais, onde são realçados os materiais da própria região.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O crescente aumento da demanda de energia elétrica tem forçado o avanço tecnológico dos equipamentos responsáveis pelo transporte desta energia fazendo com que estes trabalhem sob tensões cada vez maiores, principalmente por razões econômicas. Mas este fato implica diretamente no incremento do diâmetro do condutor, o que acarreta elevação de seus custos, bem como das estruturas que devem suportá-lo. Para atender a esta necessidade sem aumentar o custo de projeto da linha de transmissão, surgiu a idéia de utilizar mais de um condutor por fase, montados paralelamente entre si a pequenas distâncias, o que é conseguido através da inserção de espaçadores montados a intervalos regulares ao longo dos vãos das linhas. Por outro lado, problemas mecânicos de ordem operacional das linhas podem ocorrer, como, por exemplo, a ruptura total ou parcial dos cabos e/ou espaçadores, proveniente de excitações dinâmicas devidas ao vento. Assim, este trabalho consiste no estudo do comportamento dinâmico de feixe de cabos de linhas aéreas de transmissão, através de um modelo de elementos finitos. O modelo reproduz o acoplamento dos cabos aos espaçadoresamortecedores da linha de transmissão e às estruturas de ancoragem, considerando o efeito de não-linearidade geométrica, decorrente dos grandes deslocamentos dos cabos, bem como a continuidade da linha, ou seja, os vãos adjacentes, que são representados por rigidez equivalente no modelo. O carregamento de vento é modelado através de um processo não deterministico a partir de suas propriedades estatísticas, tal que fica subdividido em duas partes: uma parte média, analisada de forma estática; e uma parte variável, analisada de forma dinâmica. Os resultados obtidos ao longo desse estudo mostram que a parcela variável do carregamento leva a uma resposta dinâmica do modelo que pode ser determinante no seu comportamento. Assim, o procedimento tradicional de assumir o carregamento do vento como uma excitação estática pode levar, em alguns casos a conseqüências desastrosas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

De acordo com o modo causal de seleção por consequências proposto por Skinner, o comportamento humano é o produto de processos seletivos em três níveis: filogênese, ontogênese e cultura. Investigações empíricas que se ocupem do terceiro nível apenas começam a ser realizadas na análise do comportamento. No campo teórico, Glenn introduziu o conceito de Metacontingência para enfocar relações funcionais entre contingências de reforçamento entrelaçadas e um produto agregado que seleciona o próprio entrelaçamento. Um trabalho pioneiro na reprodução em laboratório de uma metacontingência foi produzido por Vichi, a partir da adaptação de um método usado em estudos experimentais na sociologia. O estudo de Vichi sugere que o entrelaçamento dos comportamentos das pessoas de um pequeno grupo pôde ser modificado por produtos agregados que estes entrelaçamentos produziam, caracterizando uma Metacontingência. O presente trabalho consistiu de uma replicação do estudo de Vichi, com o objetivo de verificar se contingências comportamentais entrelaçadas podem de fato ser selecionadas e mantidas por um produto agregado contingente aos comportamentos dos membros de um pequeno grupo em uma microcultura de laboratório. Participaram da pesquisa oito alunos universitários, divididos em dois grupos de quatro, que realizaram uma tarefa em grupo. A tarefa consistiu em resolver um problema, escolhendo uma linha de uma matriz de 8 colunas por 8 fileiras, com sinais positivos e negativos. Os participantes escolhiam as linhas e o experimentador escolhia as colunas. Um sinal positivo na interseção das duas escolhas resultava em ganho para o grupo; um sinal negativo, em perda. A escolha da coluna pelo experimentador não foi aleatória, mas contingente ao modo de distribuição (igualitária ou desigual) dos ganhos pelo grupo na tentativa imediatamente anterior. Na condição experimental A, o acerto era contingente a distribuições igualitárias, já na condição experimental B, o acerto era contingente a distribuições desiguais. Os resultados mostram que o grupo 1 acertou 43% das jogadas (dividiu os recursos de acordo com a condição experimental que estava em vigor) e o grupo 2 acertou 19% das jogadas. Os resultados indicam que o fato do procedimento utilizar consequências (acertos ou erros) contingentes, porém não contíguas ao entrelaçamento do grupo, dificultou a seleção de tal entrelaçamento. Entretanto, contingências de reforçamento entrelaçadas foram selecionadas por seus produtos agregados sob controle de variáveis não controladas no experimento. Caracteriza-se este fenômeno enquanto um análogo experimental de uma metacontingência. Discute-se o procedimento utilizado, possíveis aprimoramentos deste e a complexidade da tarefa experimental, além, também, de discutir alguns padrões de regras supersticiosas que emergiram durante o experimento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A crescente demanda por capacidade vem levando os padrões de comunicação sem-fio a prover suporte para a coexistência de macro e pico células. O backhaul, conexão entre a rede de acesso e o núcleo da rede, é de grande interesse neste contexto devido aos diversos desafios técnicos e financeiros envolvidos ao tentar satisfazer o crescente tráfego dos usuários. Fibra óptica e micro-ondas com linha de visada são as opções mais amplamente adotadas para o backhaul de macro-células. Contudo, em muitas situações de interesse prático, estas não são factíveis devido aos altos custos e logística envolvidos. Este trabalho avalia o backhaul de pico-células, focando primeiramente na utilização de cobre como backhaul. O simulador OPNET foi utilizado para avaliar os requerimentos de backhaul para redes móveis em cenários específicos considerando garantir qualidade de serviço para os diversos tipos de tráfego envolvidos. Assumindo demandas de tráfego para LTE e LTE-Advanced, as tecnologias VDSL2 e G.fast são avaliadas e os resultados mostram que mesmo com uma grande demanda de aplicações dedeo de alta definição, estas tecnologias podem acomodar o tráfego no backhaul de pico-células. VDSL2 é capaz de prover as taxas requeridas para cenários de pico-células LTE, mas não é capaz de acomodar tráfego LTE-Advanced típico. Por outro lado, considerando as taxas atingidas com a tecnologia G.fast, o tráfego backhaul para pico-células LTE-Advanced pode ainda ser entregue com garantias de qualidade de serviço. Neste trabalho também é proposta uma solução para simulação de cenários contendo redes de acesso heterogêneas considerando backhaul LTE sem linha de visada. São demonstrados também os resultados de simulações no OPNET com o backhaul LTE proposto para validar a solução proposta como capaz de caracterizar o tráfego de ambas as tecnologias WiFi e LTE na rede de acesso de acordo com o tipo de serviço.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os Sistemas de Detecção e Prevenção de Intrusão (Intrusion Detection Systems – IDS e Intrusion Prevention Systems - IPS) são ferramentas bastante conhecidas e bem consagradas no mundo da segurança da informação. Porém, a falta de integração com os equipamentos de rede como switches e roteadores acaba limitando a atuação destas ferramentas e exige um bom dimensionamento de recursos de hardware como processamento, memória e interfaces de rede de alta velocidade, utilizados para implementá-las. Diante de diversas limitações deparadas por pesquisadores e administradores de redes, surgiu o conceito de Rede Definida por Software (Software Defined Network – SDN), que ao separar os planos de controle e de dados, permite adaptar o funcionamento da rede de acordo com as necessidades de cada um. Desta forma, devido à padronização e flexibilidade propostas pelas SDNs, e das limitações apresentadas dos IPSs, esta dissertação de mestrado propõe o IPSFlow, um framework que utiliza uma rede baseada na arquitetura SDN e o protocolo OpenFlow para a criação de um IPS com ampla cobertura e que permite bloquear um tráfego caracterizado pelos IDS(s) como malicioso no equipamento mais próximo da origem. Para validar o framework, experimentos no ambiente virtual Mininet foram realizados utilizando-se o Snort como IDS para analisar tráfego de varredura (scan) gerado pelo Nmap de um host ao outro. Os resultados coletados apresentam que o IPSFlow funcionou conforme planejado ao efetuar o bloqueio de 85% do tráfego de varredura.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho vem apresentar um modelo de simulação computacional com propósito de resolver o problema do balanceamento de linhas de produção de uma fábrica de cerâmica vermelha, pertencente ao polo oleiro-cerâmico de São Miguel do Guamá. Neste sentido, inicialmente é realizada uma pesquisa bibliográfica acerca dos sistemas de eventos discretos, dos métodos de solução para balanceamento de linhas e dos conceitos envolvendo a modelagem e simulação. A metodologia aborda o estudo de caso, sendo este conduzido pelo método proposto por Chwif (1999) no qual abrange 03 (três) macros etapas na condução de um projeto de simulação, sejam a etapa de concepção, implementação e etapa de análise. Com o modelo computacional desenvolvido com base nas características atuais da linha de produção, pode-se descrever o estado atual do processo, identificar a operação gargalo bem como encaminhar propostas de melhorias a partir da construção de 03 cenários. Onde o terceiro cenário apresentou os melhores resultados e, portanto, sendo este o modelo representativo ao balanceamento. Ao final, entende-se como principais contribuições deste trabalho o fato de trazer para dentro da universidade a experiência da aplicação prática da simulação, envolvendo uma indústria de cerâmica vermelha de São Miguel do Guamá e oferecer a indústria desta região uma ferramenta potencial para melhoria de seus processos produtivos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho visa propor uma solução contendo um sistema de reconhecimento de fala automático em nuvem. Dessa forma, não há necessidade de um reconhecedor sendo executado na própria máquina cliente, pois o mesmo estará disponível através da Internet. Além do reconhecimento automático de voz em nuvem, outra vertente deste trabalho é alta disponibilidade. A importância desse tópico se d´a porque o ambiente servidor onde se planeja executar o reconhecimento em nuvem não pode ficar indisponível ao usuário. Dos vários aspectos que requerem robustez, tal como a própria conexão de Internet, o escopo desse trabalho foi definido como os softwares livres que permitem a empresas aumentarem a disponibilidade de seus serviços. Dentre os resultados alcançados e para as condições simuladas, mostrou-se que o reconhecedor de voz em nuvem desenvolvido pelo grupo atingiu um desempenho próximo ao do Google.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tese refere-se ao uso de modelos de attachment de lideres (Leader Progression Model – LPM) para estimativa da distancia de salto, que, junto com dados de densidade de raios como coletado pelo sistema de detecção de raios do SIPAM, são usados para estimar a taxa de flashover em linhas de transmissão de eletricidade na Amazônia. O modelo de progressão deder desenvolvido nesta tese é denominado ModSalto, que, para estimar a distancia de salto: 1- integra a densidade linear de cargas elétricas devida ao líder, proporcional a prospectiva corrente de primeira descarga (1º stroke) Ip, para determinar o campo elétrico produzido pelo líder descendente na estrutura sob estudo (para-raios, arestas, condutores, etc.); 2 – integra a distribuição imagem do líder descendente, fazendo uso da característica de poder das pontas como fator de estimulo e intensificação do campo elétrico devido a streamers nas partes aguçadas das estruturas sob estudo, para temporizar o momento do processo de attachment. O gatilho para o líder descendente, por hipótese, se deve a ejeção aleatória de pacotes de cargas elétricas em domínios turbulentos no interior das nuvens que recebem energia por processos de cascata da turbulência geral, e o comportamento do líder descendente, deve obedecer à equação da força de Lorentz, no espaço de campos cruzados elétrico devido às nuvens a cima e o campo magnético da Terra, que obriga as cargas do líder a desenvolverem movimentos cicloidais que podem explicar a natureza tortuosa do trajeto do líder descendente. Com o objetivo de formalizar dados consistentes de densidade de raios é feita uma reanalise do conjunto de dados coletado pelo LLS SIPAM de outubro de 2006 a julho de 2008 na região amazônica, com cerca de 3 milhões de eventos, comparando-os com dados de torres instrumentadas para evidenciar-se sua qualidade e usabilidade. Dados de elevação de terreno do SRTM da NASA são usados para gerar formula do raio de atração (Ra) das estruturas passiveis de serem atingidas por raios e para gerar formulas de área de atração, usadas para quantificar o numero de raios que provavelmente atingirão determinada estrutura, baseado no valor de densidade de raios (raios/km2/ano) na área em estudo.