17 resultados para modelación híbrida
em Universidade Federal do Pará
Resumo:
A tecnologia DSL- Digital Subscriber Line permitem um acesso universal de banda larga, com redução de custo e tempo de implantação necessários, quando comparadas a outras redes de acesso. DSL pode ser considerada uma rede de banda larga de grande capilaridade, uma vez que utiliza uma combinação de infra-estrutura de telefonia existente e a tecnologia de transmissão. Não obstante, a rede DSL precisa ser amplamente compreendida, de maneira que suas principais vantagens não sejam suplantadas pela ineficiência geral do sistema. Esta tese apresenta uma abordagem baseada em estratégias que possibilitem o planejamento de redes de comunicação que a priori não foram implementadas para suportar fluxos Triple Play (pré-requisito obrigatório diante do perfil atual de usuários da Internet). Será mostrado que, a partir do uso de medidas reais e análises probabilísticas, é possível elaborar o planejamento de redes de comunicação, considerando os parâmetros físicos e lógicos, tais como: o caminho de transmissão, a influência do ruído na comunicação, os protocolos utilizados e tráfego de Triple Play (voz, vídeo e dados).
Resumo:
Este trabalho consiste na solução híbrida da Equação de Advecção-dispersão de solutos unidimensional em meios porosos homogêneos ou heterogêneos, para um único componente, com coeficientes de retardo, dispersão, velocidade média, decaimento e produção dependentes da distância percorrida pelo soluto. Serão estudados os casos de dispersão-advecção em que o retardamento, dispersão, velocidade do fluxo, decaimento e produção variem de forma linear enquanto a dispersividade assuma os modelos linear, parabólico ou exponencial. Para a solução da equação foi aplicada a Técnica da Transformada Integral Generalizada. Os resultados obtidos nesta dissertação demonstram boa concordância entre os problemas-exemplo e suas soluções numéricas ou analíticas contidas na literatura e apontam uma melhor adequação no uso de modelos parabólico no estudo da advecção-dispersão em curto intervalo de tempo, enquanto que o modelo linear converge mais rapidamente em tempos prolongados de simulação. A convergência da série mostrou-se ter dependência direta quanto ao comprimento do domínio, ao modelo de dispersão e da dispersividade adotada, convergindo com até 60 termos, podendo chegar a NT = 170, para os casos heterogêneos, utilizando o modelo de dispersão exponencial, respeitando o critério adotado de 10-4.
Resumo:
Os principais objetivos deste trabalho são propor um algoritmo eficiente e o mais automático possível para estimar o que está coberto por regiões de nuvens e sombras em imagens de satélite; e um índice de confiabilidade, que seja aplicado previamente à imagem, visando medir a viabilidade da estimação das regiões cobertas pelos componentes atmosféricos usando tal algoritmo. A motivação vem dos problemas causados por esses elementos, entre eles: dificultam a identificação de objetos de imagem, prejudicam o monitoramento urbano e ambiental, e desfavorecem etapas cruciais do processamento digital de imagens para extrair informações ao usuário, como segmentação e classificação. Através de uma abordagem híbrida, é proposto um método para decompor regiões usando um filtro passa-baixas não-linear de mediana, a fim de mapear as regiões de estrutura (homogêneas), como vegetação, e de textura (heterogêneas), como áreas urbanas, na imagem. Nessas áreas, foram aplicados os métodos de restauração Inpainting por suavização baseado em Transformada Cosseno Discreta (DCT), e Síntese de Textura baseada em modelos, respectivamente. É importante salientar que as técnicas foram modificadas para serem capazes de trabalhar com imagens de características peculiares que são obtidas por meio de sensores de satélite, como por exemplo, as grandes dimensões e a alta variação espectral. Já o índice de confiabilidade, tem como objetivo analisar a imagem que contém as interferências atmosféricas e daí estimar o quão confiável será a redefinição com base no percentual de cobertura de nuvens sobre as regiões de textura e estrutura. Tal índice é composto pela combinação do resultado de algoritmos supervisionados e não-supervisionados envolvendo 3 métricas: Exatidão Global Média (EGM), Medida De Similaridade Estrutural (SSIM) e Confiança Média Dos Pixels (CM). Finalmente, verificou-se a eficácia destas metodologias através de uma avaliação quantitativa (proporcionada pelo índice) e qualitativa (pelas imagens resultantes do processamento), mostrando ser possível a aplicação das técnicas para solucionar os problemas que motivaram a realização deste trabalho.
Resumo:
As tecnologias wireless vêm evoluindo de forma rápida nas últimas décadas, pois são uma eficiente alternativa para transmissão de informações, sejam dados, voz, vídeos e demais serviços de rede. O conhecimento do processo de propagação dessas informações em diferentes ambientes é um fator de grande importância para o planejamento e o desenvolvimento de sistemas de comunicações sem fio. Devido ao rápido avanço e popularização dessas redes, os serviços oferecidos tornaram-se mais complexos e com isso, necessitam de requisitos de qualidades para que sejam ofertados ao usuário final de forma satisfatória. Devido a isso, torna-se necessário aos projetistas desses sistemas, uma metodologia que ofereça uma melhor avaliação do ambiente indoor. Essa avaliação é feita através da análise da área de cobertura e do comportamento das métricas de serviços multimídia em qualquer posição do ambiente que está recebendo o serviço. O trabalho desenvolvido nessa dissertação objetiva avaliar uma metodologia para a predição de métricas de qualidade de experiência. Para isso, foram realizadas campanhas de medições de transmissões de vídeo em uma rede sem fio e foram avaliados alguns parâmetros da rede (jitter de pacotes/frames, perda de pacotes/frames) e alguns parâmetros de qualidade de experiência (PSNR, SSIM e VQM). Os resultados apresentaram boa concordância com os modelos da literatura e com as medições.
Resumo:
O uso da comunicação de voz e dados através de dispositivos móveis vem aumentando significativamente nos últimos anos. Tal expansão traz algumas dificuldades inerentes, tais como: ampliação constante de capacidade das redes e eficiência energética. Neste contexto, vem se consolidando o conceito de Green networks, que se concentra no esforço para economia de energia e redução de CO2. Neste sentido, este trabalho propõe validar um modelo de uma política baseado em processo markoviano de decisão, visando a otimizar o consumo de energia, QoS e QoE, na alocação de usuários em redes macrocell e femtocell. Para isso o modelo foi inserido no simulador NS-2, aliando a solução analítica markoviana à flexibilidade característica da simulação discreta. A partir dos resultados apresentados na simulação, a política obteve uma economia significativa no consumo energético, melhorando a eficiência energética em até 4%, além de melhorar a qualidade de serviço em relação às redes macrocell e femtocell, demonstrando-se eficaz, de modo a alterar diretamente as métricas de QoS e de QoE.
Resumo:
Esta pesquisa teve como objetivo o estudo do comportamento mecânico de um eco-compósito em estrutura laminada para aplicação como painéis divisórios de ambientes utilizando uma resina comercial poliuretana a base natural de óleo de mamona, uma resina comercial de poliéster insaturada e um tecido de juta como reforço, obtido de sacarias. A fração em massa de produto natural (juta) ou de base natural (poliuretana a base de óleo de mamona) totalizou 44,32%, habilitando sua denominação como eco-compósito. Foram realizados os ensaios de tração, de compressão, de flexão, de impacto Charpy e de impacto por queda de dardo nos materiais constituintes do compósito para verificação da contribuição de cada material para as propriedades do compósito. Os ensaios de tração foram realizados na matriz de poliuretana, na matriz de poliéster, no tecido de juta, na matriz híbrida (resina de poliuretana e resina de poliéster) e no compósito. Os ensaios de compressão foram realizados na matriz de poliuretana, na matriz de poliéster, na matriz híbrida e no compósito. Os ensaio de flexão foram realizados na matriz de poliéster, na matriz híbrida e no compósito. Os ensaios de impacto foram realizados na matriz de poliuretana, na matriz de poliéster, na matriz híbrida e no compósito. Os resultados obtidos mostram que o compósito apresenta bom comportamento quando submetido a impacto e a esforços de tração.
Resumo:
Este trabalho tem como objetivo apresentar o desenvolvimento de uma metaheurística híbrida baseada no ciclo de vida viral, mais especificamente dos Retrovírus, que fazem parte do grupo dos seres que evoluem mais rápido na natureza. Este algoritmo é denominado Algoritmo Genético Retroviral Iterativo (AGRI) e para embasamento computacional são utilizados conceitos de Algoritmo Genético (AG) e biológico características de replicação e evolução retroviral, o que proporciona uma grande diversidade genética o que aumenta a probabilidade para encontrar a solução, fato este confirmado através de melhores resultados obtidos pelo AGRI em relação ao AG.
Resumo:
A etiquetagem morfossintática é uma tarefa básica requerida por muitas aplicações de processamento de linguagem natural, tais como análise gramatical e tradução automática, e por aplicações de processamento de fala, por exemplo, síntese de fala. Essa tarefa consiste em etiquetar palavras em uma sentença com as suas categorias gramaticais. Apesar dessas aplicações requererem etiquetadores que demandem maior precisão, os etiquetadores do estado da arte ainda alcançam acurácia de 96 a 97%. Nesta tese, são investigados recursos de corpus e de software para o desenvolvimento de um etiquetador com acurácia superior à do estado da arte para o português brasileiro. Centrada em uma solução híbrida que combina etiquetagem probabilística com etiquetagem baseada em regras, a proposta de tese se concentra em um estudo exploratório sobre o método de etiquetagem, o tamanho, a qualidade, o conjunto de etiquetas e o gênero dos corpora de treinamento e teste, além de avaliar a desambiguização de palavras novas ou desconhecidas presentes nos textos a serem etiquetados. Quatro corpora foram usados nos experimentos: CETENFolha, Bosque CF 7.4, Mac-Morpho e Selva Científica. O modelo de etiquetagem proposto partiu do uso do método de aprendizado baseado em transformação(TBL) ao qual foram adicionadas três estratégias, combinadas em uma arquitetura que integra as saídas (textos etiquetados) de duas ferramentas de uso livre, o TreeTagger e o -TBL, com os módulos adicionados ao modelo. No modelo de etiquetador treinado com o corpus Mac-Morpho, de gênero jornalístico, foram obtidas taxas de acurácia de 98,05% na etiquetagem de textos do Mac-Morpho e 98,27% em textos do Bosque CF 7.4, ambos de gênero jornalístico. Avaliou-se também o desempenho do modelo de etiquetador híbrido proposto na etiquetagem de textos do corpus Selva Científica, de gênero científico. Foram identificadas necessidades de ajustes no etiquetador e nos corpora e, como resultado, foram alcançadas taxas de acurácia de 98,07% no Selva Científica, 98,06% no conjunto de teste do Mac-Morpho e 98,30% em textos do Bosque CF 7.4. Esses resultados são significativos, pois as taxas de acurácia alcançadas são superiores às do estado da arte, validando o modelo proposto em busca de um etiquetador morfossintático mais confiável.
Resumo:
Várias das técnicas tradicionais de Mineração de Dados têm sido aplicadas com êxito e outras esbarram em limitações, tanto no desempenho como na qualidade do conhecimento gerado. Pesquisas recentes têm demonstrado que as técnicas na área de IA, tais como Algoritmo Genético (AG) e Lógica Difusa (LD), podem ser utilizadas com sucesso. Nesta pesquisa o interesse é revisar algumas abordagens que utilizam AG em combinação com LD de forma híbrida para realizar busca em espaços grandes e complexos. Este trabalho apresenta o Algoritmo Genético (AG), utilizando Lógica Difusa, para a codificação, avaliação e reprodução dos cromossomos, buscando classificar dados através de regras extraídas de maneira automática com a evolução dos cromossomos. A Lógica Difusa é utilizada para deixar as regras mais claras e próximas da linguagem humana, utilizando representações lingüísticas para identificar dados contínuos.
Resumo:
O complexo Icterus cayanensis-chtysocephalus apresenta um intrincado padrão de variação em plumagem e tamanho corpóreo. São reconhecidos, tradicionalmente, para o grupo seis táxons: Icterus chtysocephalus, I. cayanensis cayanensís. I. cayanensis tibialis, I. cayanensis tibialis, I. cayanensis valenciobuenoi, I. cayanensis periporphyrus e I. cayanensis pyrrhopterus, que se substituem geograficamente ao longo de grande parte da América do Sul. Neste estudo foi feita a descrição dos padrões de variação geográfica. Foram diagnosticadas quatro espécies, à luz do conceito filogenético de espécie: Icterus cayanensis (Amazônia Meridional), Icterus chrysocephalus (Amazônia Setentrional), Icterus tibialis (Caatinga) e Icterus pyrrhopterus (Chaco); os táxons I. cayanensis valenciobuenoi e I. cayanensis periporphyrus foram sinonimizados. Entre as formas amazonicas (chrysocephalus e cayanensis) foi detectada a presença de uma zona híbrida mais extensa do que aquela reportada na literatura. No Brasil Central foi diagnosticada a maior zona de intergradação conhecida para aves, com aproximadamente 2.300 km de extensão, produto do intercruzamento entre Icterus tibialis e Icterus pyrrhopterus, formas distribuídas pela Caatinga e Chaco, respectivamente. Postula-se que as zonas de intergradação diagnosticadas neste estudo são produto do intercruzamento de populações previamente diferenciadas em isolamento geográfico.
Resumo:
A teoria dos feixes gaussianos foi introduzida na literatura sísmica no início dos anos 80 por pesquisadores russos e tchecos, e foi originalmente utilizada no cálculo do campo de ondas eletromagnéticas, baseado na teoria escalar da difração. Na teoria dos feixes gaussianos, o campo de ondas sísmicas é obtido por uma integral, cujo o integrando é constituído de duas partes, a saber: (1) as amplitudes dos campos das ondas na vizinhança do ponto de observação e (2) a função fase de cada um desses campos de ondas, que neste caso é representada por um tempo de trânsito paraxial complexo. Como ferramenta de imageamento, mais precisamente como operador de migração, os primeiros trabalhos usando feixes gaussianos datam do final da década de 80 e início dos anos 90. A regularidade dos campos de ondas descritos pelos feixes gaussianos, além de sua alta precisão em regiões singulares do modelo de velocidades, tornaram o uso de feixes gaussianos como uma alternativa híbrida viável para a migração. Nesse trabalho, unimos a flexibilidade da migração tipo Kirchhoff em profundidade em verdadeira amplitude com a regularidade da descrição do campo de ondas, representado pela sobreposição de feixes gaussianos. Como forma de controlar de forma estável quantidades usadas na construção de feixes gaussianos, utilizamos informações advindas do volume de Fresnel, mais precisamente a zona de Fresnel ao redor do ponto de reflexão e a zona de Fresnel projetada, localizada ao redor do ponto de registro do sismograma e cuja a informação se encontra nas curvas de reflexão de dados sísmico. Nosso processo de migração pode ser chamado como uma migração Kirchhoff em verdadeira amplitude usando um operador de feixes gaussianos.
Resumo:
Localizar em subsuperfície a região que mais influencia nas medidas obtidas na superfície da Terra é um problema de grande relevância em qualquer área da Geofísica. Neste trabalho, é feito um estudo sobre a localização dessa região, denominada aqui zona principal, para métodos eletromagnéticos no domínio da freqüência, utilizando-se como fonte uma linha de corrente na superfície de um semi-espaço condutor. No modelo estudado, tem-se, no interior desse semi-espaço, uma heterogeneidade na forma de camada infinita, ou de prisma com seção reta quadrada e comprimento infinito, na direção da linha de corrente. A diferença entre a medida obtida sobre o semi-espaço contendo a heterogeneidade e aquela obtida sobre o semi-espaço homogêneo, depende, entre outros parâmetros, da localização da heterogeneidade em relação ao sistema transmissor-receptor. Portanto, mantidos constantes os demais parâmetros, existirá uma posição da heterogeneidade em que sua influência é máxima nas medidas obtidas. Como esta posição é dependente do contraste de condutividade, das dimensões da heterogeneidade e da freqüência da corrente no transmissor, fica caracterizada uma região e não apenas uma única posição em que a heterogeneidade produzirá a máxima influência nas medidas. Esta região foi denominada zona principal. Identificada a zona principal, torna-se possível localizar com precisão os corpos que, em subsuperfície, provocam as anomalias observadas. Trata-se geralmente de corpos condutores de interesse para algum fim determinado. A localização desses corpos na prospecção, além de facilitar a exploração, reduz os custos de produção. Para localizar a zona principal, foi definida uma função Detetabilidade (∆), capaz de medir a influência da heterogeneidade nas medidas. A função ∆ foi calculada para amplitude e fase das componentes tangencial (Hx) e normal (Hz) à superfície terrestre do campo magnético medido no receptor. Estudando os extremos da função ∆ sob variações de condutividade, tamanho e profundidade da heterogeneidade, em modelos unidimensionais e bidimensionais, foram obtidas as dimensões da zona principal, tanto lateralmente como em profundidade. Os campos eletromagnéticos em modelos unidimensionais foram obtidos de uma forma híbrida, resolvendo numericamente as integrais obtidas da formulação analítica. Para modelos bidimensionais, a solução foi obtida através da técnica de elementos finitos. Os valores máximos da função ∆, calculada para amplitude de Hx, mostraram-se os mais indicados para localizar a zona principal. A localização feita através desta grandeza apresentou-se mais estável do que através das demais, sob variação das propriedades físicas e dimensões geométricas, tanto dos modelos unidimensionais como dos bidimensionais. No caso da heterogeneidade condutora ser uma camada horizontal infinita (caso 1D), a profundidade do plano central dessa camada vem dada pela relação po = 0,17 δo, onde po é essa profundidade e δo o "skin depth" da onda plana (em um meio homogêneo de condutividade igual à do meio encaixante (σ1) e a freqüência dada pelo valor de w em que ocorre o máximo de ∆ calculada para a amplitude de Hx). No caso de uma heterogeneidade bidimensional (caso 2D), as coordenadas do eixo central da zona principal vem dadas por do = 0,77 r0 (sendo do a distância horizontal do eixo à fonte transmissora) e po = 0,36 δo (sendo po a profundidade do eixo central da zona principal), onde r0 é a distância transmissor-receptor e δo o "skin depth" da onda plana, nas mesmas condições já estipuladas no caso 1D. Conhecendo-se os valores de r0 e δo para os quais ocorre o máximo de ∆, calculado para a amplitude de Hx, pode-se determinar (do, po). Para localizar a zona principal (ou, equivalentemente, uma zona condutora anômala em subsuperfície), sugere-se um método que consiste em associar cada valor da função ∆ da amplitude de Hx a um ponto (d, p), gerado através das relações d = 0,77 r e p = 0,36 δ, para cada w, em todo o espectro de freqüências das medidas, em um dado conjunto de configurações transmissor-receptor. São, então, traçadas curvas de contorno com os isovalores de ∆ que vão convergir, na medida em que o valor de ∆ se aproxima do máximo, sobre a localização e as dimensões geométricas aproximadas da heterogeneidade (zona principal).
Resumo:
É apresentada uma solução totalmente analítica do modelo da falha infinita para o modo TE magnetotelúrico, levando em conta a presença do ar, utilizando como base o trabalho de Sampaio apresentado em 1985, que apresenta uma solução parcialmente analítica e parcialmente numérica – solução híbrida. Naquela solução foram aplicadas oito condições de contorno, sendo que em quatro delas foram encontradas inconsistências matemáticas que foram dirimidas com alterações adequadas nas soluções propostas por Sampaio. Tais alterações propiciaram a chegarse à solução totalmente analítica aqui apresentada. A solução obtida foi comparada com a solução de Weaver, com a de Sampaio e com o resultado do método numérico dos elementos finitos para contrastes de resistividade iguais a 2, 10 e 50. A comparação da solução analítica, para o campo elétrico normalizado, com a solução de elementos finitos mostra que a solução analítica proporcionou resultados mais próximos, em comparação aos fornecidos por Weaver e por Sampaio. Este é um problema muito difícil, aberto para uma solução analítica definitiva. A solução apresentada aqui é, nesta direção, um grande passo.
Resumo:
O sistema WDM (Wavelength Division Multiplexing) é considerado como uma tecnologia madura para ser usada no backbone de redes ópticas. Entretanto, encontrar uma solução ótima para o algoritmo de atribuição de comprimento de onda no projeto e operação destas redes, ainda é uma questão em aberto. A pesquisa realizada nesta tese aborda os principais aspectos relacionados ao processo de atribuição de comprimento de onda em sistemas WDM, e como resultado foi proposta uma metodologia que minimiza a degradação do sinal óptico gerada pela modulação de fase cruzada (XPM – Cross-Phase Modulation). Esta proposta é composta por uma metodologia híbrida baseada em Coloração de Grafo e Algoritmo Genético (AG), sendo que o primeiro tem a função de reduzir o número de comprimentos de onda necessários para atender a matriz de tráfego (que é fornecida a priori) e o último tem a função de encontrar a ordem de ativação de canais na grade de comprimentos de onda, com o objetivo de reduzir o efeito XPM. A proposta foi comparada com o algoritmo First-Fit em diferentes cenários e topologias de redes, e demonstrou uma considerável redução na probabilidade de bloqueio.
Resumo:
Apesar do aumento significativo do uso de redes locais sem fio (WLAN) nos últimos anos, aspectos de projeto e planejamento de capacidade da rede são ainda sistematicamente negligenciados durante a implementação da rede. Tipicamente um projeto de rede local sem fio é feito e instalado por profissionais de rede. Esses profissionais são extremamente experientes com redes cabeadas, mas são ainda geralmente pouco experientes com redes sem fio. Deste modo, as instalações de redes locais sem fio são desvantajosas pela falta de um modelo de avaliação de desempenho e para determinar a localização do ponto de acesso (PA), além disso, fatores importantes do ambiente não são considerados no projeto. Esses fatores se tornam mais importante quando muitos pontos de acesso (PAs) são instalados para cobrir um único edifício, algumas vezes sem planejamento de freqüência. Falhas como essa podem causar interferência entre células geradas pelo mesmo PA. Por essa razão, a rede não obterá os padrões de qualidade de serviço (QoS) exigidos por cada serviço. O presente trabalho apresenta uma proposta para planejamento de redes sem fio levando em consideração a influência da interferência com o auxílio de inteligência computacional tais como a utilização de redes Bayesianas. Uma extensiva campanha de medição foi feita para avaliar o desempenho de dois pontos de acesso (PAs) sobre um cenário multiusuário, com e sem interferência. Os dados dessa campanha de medição foram usados como entrada das redes Bayesianas e confirmaram a influência da interferência nos parâmetros de QoS. Uma implementação de algoritmo genético foi utilizado permitindo uma abordagem híbrida para planejamento de redes sem fio. Como efeito de comparação para otimizar os parâmetros de QoS, de modo a encontrar a melhor distância do PA ao receptor garantindo as recomendações do International Telecomunication Union (ITU-T), a técnica de otimização por enxame de partículas foi aplicada.