44 resultados para Compressão de dados (Telecomunicações)


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dados faltantes são um problema comum em estudos epidemiológicos e, dependendo da forma como ocorrem, as estimativas dos parâmetros de interesse podem estar enviesadas. A literatura aponta algumas técnicas para se lidar com a questão, e, a imputação múltipla vem recebendo destaque nos últimos anos. Esta dissertação apresenta os resultados da utilização da imputação múltipla de dados no contexto do Estudo Pró-Saúde, um estudo longitudinal entre funcionários técnico-administrativos de uma universidade no Rio de Janeiro. No primeiro estudo, após simulação da ocorrência de dados faltantes, imputou-se a variável cor/raça das participantes, e aplicou-se um modelo de análise de sobrevivência previamente estabelecido, tendo como desfecho a história auto-relatada de miomas uterinos. Houve replicação do procedimento (100 vezes) para se determinar a distribuição dos coeficientes e erros-padrão das estimativas da variável de interesse. Apesar da natureza transversal dos dados aqui utilizados (informações da linha de base do Estudo Pró-Saúde, coletadas em 1999 e 2001), buscou-se resgatar a história do seguimento das participantes por meio de seus relatos, criando uma situação na qual a utilização do modelo de riscos proporcionais de Cox era possível. Nos cenários avaliados, a imputação demonstrou resultados satisfatórios, inclusive quando da avaliação de performance realizada. A técnica demonstrou um bom desempenho quando o mecanismo de ocorrência dos dados faltantes era do tipo MAR (Missing At Random) e o percentual de não-resposta era de 10%. Ao se imputar os dados e combinar as estimativas obtidas nos 10 bancos (m=10) gerados, o viés das estimativas era de 0,0011 para a categoria preta e 0,0015 para pardas, corroborando a eficiência da imputação neste cenário. Demais configurações também apresentaram resultados semelhantes. No segundo artigo, desenvolve-se um tutorial para aplicação da imputação múltipla em estudos epidemiológicos, que deverá facilitar a utilização da técnica por pesquisadores brasileiros ainda não familiarizados com o procedimento. São apresentados os passos básicos e decisões necessárias para se imputar um banco de dados, e um dos cenários utilizados no primeiro estudo é apresentado como exemplo de aplicação da técnica. Todas as análises foram conduzidas no programa estatístico R, versão 2.15 e os scripts utilizados são apresentados ao final do texto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo principal desta dissertação é analisar os impactos da abertura comercial vista no Brasil no início da década de 1990 entre 1990 a 1996 na margem de lucro das indústrias de transformação passando por três padrões monetários diferentes (cruzeiro, cruzeiro real e real). A especificação e metodologia adotadas no trabalho são as de Goldar e Aggawal (2004), que fazem uma análise de dados em painel para efeitos fixos e randômicos para as indústrias de transformação indianas como um todo e, posteriormente, aplicando os mesmos testes separando os vinte e oito setores da indústria brasileira de transformação em setores de bens de capital e intermediários no primeiro grupo e bens de capital no segundo. Este trabalho ainda inclui esta metodologia aplicando, além das duas já citadas, o teste de mínimos quadrados ordinários (MQO) para permitir uma melhor análise com três testes diferentes antes e depois de separar os setores por meio de variáveis explicativas como barreiras à importação, concentração industrial, participação salarial, produtividade do trabalho, representatividade setorial e variação na taxa de crescimento da produção do setor entre os anos. Conclui-se que o aumento observado na margem de lucro foi impactado significativamente pelas variáveis expostas acima e estes resultados são importantes para que possamos auferir de que forma impactaram positivamente ou contribuíram negativamente na margem de lucro auferida pela indústria brasileira de transformação entre 1990 e 1996.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Essa pesquisa teve como objetivo analisar a aplicabilidade de uma metodologia de investigação das disfunções existentes no conjunto de dados eleitorais de uma eleição para cargo majoritário no Brasil. O desenvolvimento e a rápida expansão da teoria descoberta por Newcomb-Benford, conhecida como Lei de Benford, bastante difundida por Mark J. Nigrini, Ph.D. no meio contábil, com a utilização de testes estatísticos, despertou o interesse por esta pesquisa. Vislumbrou-se a possibilidade de reduzir o risco de fraude eleitoral através da utilização da análise digital. Entretanto, é necessário adotar procedimentos mais acurados para que possíveis erros de aplicação do método analisado não acabem inviabilizando os efeitos benéficos trazidos pelo mesmo. A probabilidade de ocorrência do erro tipo I alarme falso pode levar ao aumento de custo na análise dos dados. Um dos maiores problemas encontrados em auditorias, contábeis ou não, diz respeito à falha na obtenção de evidências. No Brasil, a partir da utilização de sistema de processamento eletrônico de votação, houve um aumento da preocupação com a fraude, visto que não existe ainda um procedimento que permita verificar, por trilha de auditoria, a confiabilidade dos dados eleitorais. Para atingir o objetivo da pesquisa, foi realizada a aplicação do método estudado em um conjunto de dados relativos à eleição para cargo majoritário Presidente da República do Brasil - no ano de 2010, e a posterior análise dos resultados obtidos. Então, a partir dos resultados obtidos, pode-se sugerir a aplicabilidade da Lei de Benford, em especial o teste do 2 dígito, para a detecção de manipulação ou fraude no conjunto de dados eleitorais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação tem como objetivo a análise da eficiência técnica das operadoras de planos de saúde vis-à-vis a criação da Agência Nacional de Saúde Suplementar - ANS, no período de 2003 a 2008. Para tanto, foi utilizada a Análise Envoltória de Dados nos dados da saúde suplementar para geração das medidas de eficiência das operadoras, agrupadas em cinco modalidades: autogestão, cooperativa médica, filantropia, medicina de grupo e seguradora. Foram propostas quatro diferentes abordagens que pretenderam visualizar as performances das operadoras nas questões econômico-financeiras e assistenciais, bem como a relação do setor de saúde suplementar com o Sistema Único de Saúde - SUS. Além disso, os dados foram desagregados em grandes regiões brasileiras proporcionando a observação das diferenças regionais. Observou-se que existem grandes diferenças entre modalidades e também entre regiões. A comparação entre as medidas de eficiência nas quatro diferentes abordagens e a evolução, ano a ano, dos normativos da ANS, ainda necessita de uma análise mais detalhada, mas indica, ainda que primariamente, que as modalidades tiveram diferentes reações à regulação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os métodos potenciais são conhecidos como uma ferramenta útil para estudos regionais. Na Ibéria Ocidental, a gravimetria e a magnetometria podem ser utilizadas para auxiliar no entendimento de algumas questões sobre a estruturação tectônica offshore. Nesta região, tanto as estruturas geradas pela quebra continental, quanto às herdadas do embasamento variscano, tem uma importante contribuição para a resposta geofísica regional observada com estes métodos. Este trabalho tem como objetivo correlacionar as feições geofísicas observadas com alguns modelos geológicos do arcabouço tectônico da Ibéria Ocidental já publicados na literatura. Mapas filtrados foram usados para auxiliar no reconhecimento de diferentes assinaturas geofísicas, os quais foram calculados a partir dos mapas de gravidade Bouguer e do campo magnético total tais como o gradiente horizontal total, derivada tilt, derivada vertical, e integral vertical. O domínio crustal continental foi definido a partir da interpretação dos dados gravimétricos, utilizando gradiente de gravidade horizontal total da Anomalia Bouguer. Os dados magnéticos, originais e filtrados, foram utilizados para identificar mais três domínios regionais offshore, que sugerem a existência de três tipos de crosta não-siálica. Dois deles são propostos como domínios de transição. A região da crosta de transição mais próxima do continente tem uma fraca resposta regional magnética, e a porção mais distal é um domínio de anomalia de alta amplitude, semelhante à resposta magnética oceânica. O limite crustal oceânico não pôde ser confirmado, mas um terceiro domínio offshore, a oeste da isócrona C34, poderia ser considerado como crosta oceânica, devido ao padrão magnético que apresenta. Alguns lineamentos do embasamento foram indicados na crosta continental offshore. As feições gravimétricas e magnéticas interpretadas coincidem, em termos de direção e posição, com zonas de sutura variscanas, mapeados em terra. Assim, esses contatos podem corresponder à continuação offshore destas feições paleozoicas, como o contato entre as zonas de Ossa Morena-Zona Centro-Ibérica. Nesta interpretação, sugere-se que a crosta continental offshore pode ser composta por unidades do Sudoeste da Península Ibérica. Isto permite considerar que a Falha de Porto-Tomar pertence a uma faixa de deformação strike-slip, onde parte das bacias mesozoicas da margem continental está localizada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A discussão jurídica versa acerca da proteção ou não dos dados clínicos e informações não divulgadas Data Package, obtidos através de pesquisas clinicas, a partir do desenvolvimento de um novo medicamento. È importante realizar-se uma investigação prévia para descobrir se o novo medicamento a ser comercializado, possui efeitos benéficos ou adversos, que possam afetar os seres humanos, garantindo assim a eficácia e a segurança de sua utilização. O dossiê contendo os dados clínicos é submetido à Agência Nacional de Vigilância Sanitária que, no uso de sua atribuição específica, e em função da avaliação do cumprimento de caráter jurídico-administrativo e técnico-científico relacionado com a eficácia, segurança e qualidade do medicamento conforme a Lei 6360/76 e o Decreto 79.094/77 determina o registro sanitário. A tese defendida pelas sociedades farmacêuticas de pesquisa é a de que seria vedado à ANVISA deferir registros de medicamentos genéricos e similares de mesmo princípio ativo, com base nas pesquisas clinicas realizada, enquanto vigente o período de exclusividade, com fundamento no artigo 5, inciso XXIX da Constituição Federal, artigos 39.1, 39.2, 39.3 do Acordo sobre Aspectos dos Direitos de Propriedade Intelectual Acordo TRIPS, artigo 195, XIV da Lei n 9.279/96 (Lei da Propriedade Industrial), artigo 421, 884, 885 e 886 do CC, artigo 37, caput, da CF e artigo 2, da Lei 9.784/99 e aplicação analógica da Lei 10.603/2002. A ANVISA ao permitir aos fabricantes dos medicamentos genéricos e similares a utilização do pacote de dados clínicos, fornecido pelo titular do medicamento de referencia, estaria promovendo a concorrência desleal e parasitária, ao permitir que as versões genéricas e similares, ingressem no mercado, sob custos de produção e comerciais substancialmente menores, do que os praticadas pelos medicamentos de referencia. Este argumento tem fulcro na norma do artigo 39.3 do Acordo TRIPS firmado entre os membros da Organização Mundial do Comércio OMC, em 1994, no qual o Brasil é signatário, e que se comprometeram a adotar providências no sentido de manter em sigilo e protegidos contra o uso comercial desleal os dados clínicos relativos à pesquisa clínica, necessários à aprovação da comercialização de produtos farmacêuticos. A divulgação, exploração ou a utilização dos dados clínicos, sem a autorização do respectivo titular, o qual demandou recursos materiais e humanos consideráveis e desde que estas informações tenham sido apresentadas a entidades governamentais como condição para aprovação da comercialização de um medicamento, devem ser protegidas. Os Estados membros da OMC e subscritores do acordo internacional devem assegurar que os concorrentes não tenham acesso às informações recebidas pelo ente estatal, que não as explorarem ou delas possam aferir indevidamente tanto direta quanto indiretamente de vantagens que as beneficiem do conhecimento técnico-cientifico, investimentos e esforços realizados pelo titular daquela pesquisa clínica. Dentro deste cenário, faz-se necessário que o Estado produza um marco regulatório capaz de prover uma segurança jurídica, que permita as sociedades farmacêuticas disponibilizar elevado investimento, viabilizando a realização de pesquisa clinica e introdução de novos medicamentos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os painéis de gráficos estatísticos conhecidos como dashboards são utilizados comumente naárea de Business Intelligence (BI) para a visualização de grandes sistemas organizados de dados. A presente dissertação propõe embasar o projeto de dashboards pelas teorias de Jacques Bertin, formuladas nas obras Sémiologie Graphique e La Graphique et le Traitement Graphique de linformation. Considerando este referencial, e ainda parâmetros do design de informação e da visualização de dados, foram desenvolvidos dashboards que apresentam dados sobre a política de reserva de vagas da Universidade do Estado do Rio de Janeiro, sistematizados pelo projeto de BI dessa instituição. O objetivo foi não apenas o de atender aos requisitos convencionais de um dashboard, mas sobretudo o de apresentar outras perspectivas informativas. Nesse sentido, investigam-se as especificidades dos métodos de Bertin e sua expansão para o domínio dos sistemas interativos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O Domínio Costeiro integra o Terreno Oriental, no segmento central da Faixa Ribeira e abriga rochas ortoderivadas com afinidade de arcos magmáticos (Complexo Rio Negro, ca. 790-605 Ma). Os ortognaisses deste complexo possuem clara assinatura para ambientes de zonas de subducção, encaixados em rochas metassedimentares de alto grau, integrantes do Grupo São Fidélis. O conjunto acima descrito é ainda intrudido por várias de rochas granitóides sin a tardi- colisionais, relacionadas às várias etapas de desenvolvimento da Orogenia Brasiliana neste setor do orógeno (ca. 605-480 Ma). Idades U-Pb (LA-ICP-MS) em zircões detríticos de rochas quartzíticas do Grupo São Fidélis indicam um amplo espectro com modas significativas no Mesoproterozóico e Paleoproterozoico, além de zircões do Neoproterozóico e do Arqueano. Sinteticamente os resultados obtidos foram: a) Idades concordantes Arqueanas com ca. 2,85, 2,84 e 2,70 Ga; b) zircões Paleoproterozóicos (ca. 2,3 a 1,7 Ga), com máxima concentração em torno de ca. 2,2 Ga, representando a segunda maior moda; c) Idades Mesoproterozóicas (ca. 1,3 -1,1 Ga) com idades de espectro dominantes, com moda em ca. 1,5 Ga; d) Zircões Neoproterozóicos com idades de ca. 0,95-90 Ga e 0,86-0,61 Ga. Em vários grãos detríticos observou-se sobrecrescimento metamórfico em ca. 602-570 Ma. Dados U-Pb (LA-ICP-MS) obtidos para zircões para Ortognaisse Rio Grande e o Biotita Ortognaisse, intrudidos na unidade basal do Grupo São Fidélis, apresentam idades em ca. 620 Ma e são equivalentes ao período pré-colisional de geração de rochas do arco magmático Rio Negro. Combinando estas idades com os núcleos de zircões detríticos mais jovens, com assinatura do Arco Rio Negro em ca. 613 Ma, pode-se definir o intervalo máximo de sedimentação da unidade superior do Grupo São Fidélis no Neoproterozóico. Cristais de monazitas selecionadas para análise U-Pb (ID-TIMS) apresentam relações com os principais episódios tectono-metamórficos da Faixa Ribeira. Dois cristais de uma amostra quartzítica e dois do ortognaisse Rio Grande alinham-se em uma discórdia que gerou idade de 603 Ma, referente ao metamorfismo progressivo descrito na literatura, durante a Orogenia Brasiliana. Enquanto a idade concordante obtida em 535 Ma, adquirida em uma amostra quartzítica, é correspontente ao último metamorfismo colisional da Faixa Ribeira.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Amazônia exibe uma variedade de cenários que se complementam. Parte desse ecossistema sofre anualmente severas alterações em seu ciclo hidrológico, fazendo com que vastos trechos de floresta sejam inundados. Esse fenômeno, entretanto, é extremamente importante para a manutenção de ciclos naturais. Neste contexto, compreender a dinâmica das áreas alagáveis amazônicas é importante para antecipar o efeito de ações não sustentáveis. Sob esta motivação, este trabalho estuda um modelo de escoamento em áreas alagáveis amazônicas, baseado nas equações de Navier-Stokes, além de ferramentas que possam ser aplicadas ao modelo, favorecendo uma nova abordagem do problema. Para a discretização das equações é utilizado o Método dos Volumes Finitos, sendo o Método do Gradiente Conjugado a técnica escolhida para resolver os sistemas lineares associados. Como técnica de resolução numérica das equações, empregou-se o Método Marker and Cell, procedimento explícito para solução das equações de Navier-Stokes. Por fim, as técnicas são aplicadas a simulações preliminares utilizando a estrutura de dados Autonomous Leaves Graph, que tem recursos adaptativos para manipulação da malha que representa o domínio do problema

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No presente trabalho foram utilizados modelos de classificação para minerar dados relacionados à aprendizagem de Matemática e ao perfil de professores do ensino fundamental. Mais especificamente, foram abordados os fatores referentes aos educadores do Estado do Rio de Janeiro que influenciam positivamente e negativamente no desempenho dos alunos do 9 ano do ensino básico nas provas de Matemática. Os dados utilizados para extrair estas informações são disponibilizados pelo Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira que avalia o sistema educacional brasileiro em diversos níveis e modalidades de ensino, incluindo a Educação Básica, cuja avaliação, que foi foco deste estudo, é realizada pela Prova Brasil. A partir desta base, foi aplicado o processo de Descoberta de Conhecimento em Bancos de Dados (KDD - Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós-processamento dos dados. Os padrões foram extraídos dos modelos de classificação gerados pelas técnicas árvore de decisão, indução de regras e classificadores Bayesianos, cujos algoritmos estão implementados no software Weka (Waikato Environment for Knowledge Analysis). Além disso, foram aplicados métodos de grupos e uma metodologia para tornar as classes uniformemente distribuídas, afim de melhorar a precisão dos modelos obtidos. Os resultados apresentaram importantes fatores que contribuem para o ensino-aprendizagem de Matemática, assim como evidenciaram aspectos que comprometem negativamente o desempenho dos discentes. Por fim, os resultados extraídos fornecem ao educador e elaborador de políticas públicas fatores para uma análise que os auxiliem em posteriores tomadas de decisão.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesta pesquisa utilizou-se um equipamento experimental que utiliza o método do eco-impacto produzido no Laboratório de Ensaios Físicos do Instituto Politécnico do Rio de Janeiro (UERJ/IPRJ), para estimar a espessuras de placas de concreto através da propagação de ondas de tensão geradas por um impacto. Para determinação dessa espessura, foram investigados vários mecanismos de estruturação do protótipo do equipamento com objetivo de se obter a melhor leitura possível, por meio das literaturas existentes. Entre parâmetros avaliados no estudo, estava o modelo de sensor a ser utilizado, o tipo de impactor, a precisão relacionada à aquisição de dados e o tratamento do mesmo, a distância entre o ponto de impacto e o transdutor (sensor), e o local de teste. Os resultados experimentais concordam com as previsões teóricas e revelam que este método é eficiente para análise de estrutura de concreto. A análise da espessura e resposta em frequência de um novo protótipo desenvolvido e os testes realizados possibilitou um erro médio de espessura real para amostras sem agregados de 0,39% e para as amostras com agregados com de 0,64%. Esses resultados apontam que o equipamento produzido tem potencial e que o mesmo pode ser utilizado para avaliação de estrutura de concreto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A detecção de clusters de doenças é um desafio para a saúde pública e principalmente para elucidação da ocorrência de surtos, visto que surtos epidemiológicos são usualmente definidos como aglomeração de casos. As revisões da literatura disponíveis sobre a indicação de qual técnica de análise espacial (TAE) é apropriada para essa tarega se limitam a indicar a escolha das técnicas considerando os tipos de dados, o tipo de cluster e a medida da doença. São raras as diretrizes que sugerem o uso de TAE em investigações de surtos . É um estudo metodológico exploratório, com avaliação de métodos em duas etapas: (i) uma revisão narrativa do objeto da pesquisa e (ii) descrição e revisão crítica da aplicação das técnicas selecionadas na revisão narrativa. As técnicas consideradas de maior importância para investigação de surtos forma revisadas e descritas, incluindo técnicas dos tipos global, loca e focal. treze técnicas foram submetidas à revisão crítica e 14 perguntas relevantes para investigação de surtos foram apreciadas. A análise da capacidade de responta das técnicas selecionadas baseou-se nas características das técnicas e natureza das perguntas da investigação de surtos, buscando-se a equivalência da responta dada pelas técnicas de análise espacial em relação à responta que se pretende alcançar na pergunta da investigação. As técnicas forma classificadas quanto a quantidade de informação que elas fornecem para que a perunca seja respondida, indicando assim, a sua capacidade de responder , ou de responsividade. concluiu-se que as TAE podem contribuir para a investigação de surtos, uma vez que são capazes de responder algumas das perguntas de uma investigação. Todas as catorze perguntas estudadas forma respondidas em algum nível pelas treze técnicas revisadas. Técnicas espaço-temporais e puramente espaciais locais respondem ao maior número de perguntas. Já as espaço-temporais apresentam maior nível de responsividade às perguntas. As técnicas com menor número de perguntas respondidas forma as puramente espaciais focais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho aborda o problema de identificação de danos em uma estrutura a partir de sua resposta impulsiva. No modelo adotado, a integridade estrutural é continuamente descrita por um parâmetro de coesão. Sendo assim, o Modelo de Elementos Finitos (MEF) é utilizado para discretizar tanto o campo de deslocamentos, quanto o campo de coesão. O problema de identificação de danos é, então, definido como um problema de otimização, cujo objetivo é minimizar, em relação a um vetor de parâmetros nodais de coesão, um funcional definido a partir da diferença entre a resposta impulsiva experimental e a correspondente resposta prevista por um MEF da estrutura. A identificação de danos estruturais baseadas no domínio do tempo apresenta como vantagens a aplicabilidade em sistemas lineares e/ou com elevados níveis de amortecimento, além de apresentar uma elevada sensibilidade à presença de pequenos danos. Estudos numéricos foram realizados considerando-se um modelo de viga de Euler-Bernoulli simplesmente apoiada. Para a determinação do posicionamento ótimo do sensor de deslocamento e do número de pontos da resposta impulsiva, a serem utilizados no processo de identificação de danos, foi considerado o Projeto Ótimo de Experimentos. A posição do sensor e o número de pontos foram determinados segundo o critério D-ótimo. Outros critérios complementares foram também analisados. Uma análise da sensibilidade foi realizada com o intuito de identificar as regiões da estrutura onde a resposta é mais sensível à presença de um dano em um estágio inicial. Para a resolução do problema inverso de identificação de danos foram considerados os métodos de otimização Evolução Diferencial e Levenberg-Marquardt. Simulações numéricas, considerando-se dados corrompidos com ruído aditivo, foram realizadas com o intuito de avaliar a potencialidade da metodologia de identificação de danos, assim como a influência da posição do sensor e do número de dados considerados no processo de identificação. Com os resultados obtidos, percebe-se que o Projeto Ótimo de Experimentos é de fundamental importância para a identificação de danos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O surgimento de novos serviços de telecomunicações tem provocado um enorme aumento no tráfego de dados nas redes de transmissão. Para atender a essa demanda crescente, novas tecnologias foram desenvolvidas e implementadas ao longo dos anos, sendo que um dos principais avanços está na área de transmissão óptica, devido à grande capacidade de transporte de informação da fibra óptica. A tecnologia que melhor explora a capacidade desse meio de transmissão atualmente é a multiplexação por divisão de comprimento de onda ou Wavelength Division Multiplexing (WDM) que permite a transmissão de diversos sinais utilizando apenas uma fibra óptica. Redes ópticas WDM se tornaram muito complexas, com enorme capacidade de transmissão de informação (terabits por segundo), para atender à explosão de necessidade por largura de banda. Nesse contexto, é de extrema importância que os recursos dessas redes sejam utilizados de forma inteligente e otimizada. Um dos maiores desafios em uma rede óptica é a escolha de uma rota e a seleção de um comprimento de onda disponível na rede para atender uma solicitação de conexão utilizando o menor número de recursos possível. Esse problema é bastante complexo e ficou conhecido como problema de roteamento e alocação de comprimento de onda ou, simplesmente, problema RWA (Routing and Wavelentgh Assignment problem). Muitos estudos foram realizados com o objetivo de encontrar uma solução eficiente para esse problema, mas nem sempre é possível aliar bom desempenho com baixo tempo de execução, requisito fundamental em redes de telecomunicações. A técnica de algoritmo genético (AG) tem sido utilizada para encontrar soluções de problemas de otimização, como é o caso do problema RWA, e tem obtido resultados superiores quando comparada com soluções heurísticas tradicionais encontradas na literatura. Esta dissertação apresenta, resumidamente, os conceitos de redes ópticas e de algoritmos genéticos, e descreve uma formulação do problema RWA adequada à solução por algoritmo genético.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho teve como objetivo principal implementar um algoritmo empírico para o monitoramento do processo de eutrofização da Baía de Guanabara (BG), Rio de Janeiro (RJ), utilizando dados de clorofila-a coletados in situ e imagens de satélite coletadas pelo sensor MERIS, a bordo do satélite ENVISAT, da Agência Espacial Européia (ESA). Para a elaboração do algoritmo foi utilizada uma série histórica de clorofila-a (Out/2002 a Jan/2012) fornecida pelo Laboratório de Biologia Marinha da UFRJ, que, acoplada aos dados radiométricos coletados pelo sensor MERIS em datas concomitantes com as coletas in situ de clorofila-a, permitiu a determinação das curvas de regressão que deram origem aos algorítmos. Diversas combinações de bandas foram utilizadas, com ênfase nos comprimentos de onda do verde, vermelho e infra-vermelho próximo. O algoritmo escolhido (R = 0,66 e MRE = 77,5%) fez uso dos comprimentos de onda entre o verde e o vermelho (665, 680, 560 e 620 nm) e apresentou resultado satisfatório, apesar das limitações devido à complexidade da área de estudo e problemas no algoritmo de correção atmosférica . Algorítmos típicos de água do Caso I (OC3 e OC4) também foram testados, assim como os algoritmos FLH e MCI, aconselhados para águas com concentrações elevadas de Chl-a, todos com resultados insatisfatório. Como observado por estudos pretéritos, a Baia de Guanabara possui alta variabilidade espacial e temporal de concentrações de clorofila-a, com as maiores concentrações no período úmido (meses: 01, 02, 03, 10, 11 12) e nas porções marginais (~ 100 mg.m-3), particularmente na borda Oeste da baia, e menores concentrações no período seco e no canal principal de circulação (~ 20 mg.m-3). O presente trabalho é pioneiro na construção e aplicação de algoritmos bio-óptico para a região da BG utilizando imagens MERIS. Apesar dos bons resultados, o presente algorítmo não deve ser considerado definitivo, e recomenda-se para trabalhos futuros testar os diferentes modelos de correção atmosférico para as imagens MERIS.