11 resultados para COMPUTADORES
em Universidade Federal do Pará
Resumo:
Esta pesquisa teve por objetivo refletir sobre o ensino instrumental da leitura em inglês, através da utilização de componentes visuais para auxiliar leitores na construção do significado. Com pressupostos teóricos baseados principalmente em Swales (1990); Soares (1993); Bronckart (1999); Joly (2002); Santaella (1983, 2000); Magno e Silva (2002, 2004); e Field (2004), efetuamos um estudo descritivo das características semiótico-discursivas presentes em manuais de instalação de softwares com enfoque nos recursos visuais. Além disso, coletamos dados e descrevemos os procedimentos pedagógicos observados em uma turma de Inglês Instrumental do Curso Superior de Tecnologia em Redes de Computadores, da Faculdade de Tecnologia da Amazônia (FAZ), em Belém. Nossa pesquisa-ação objetivou também investigar em que medida os componentes visuais podem influenciar o leitor nas suas escolhas de leitura; de que forma os componentes visuais podem ser utilizados em atividades de pré-leitura, leitura e pós-leitura para conduzir o leitor à compreensão do sentido do texto; e qual a importância dos componentes visuais na leitura de manuais de instalação de softwares. Os resultados da análise foram sucessivamente alterando a coleta seqüencial dos dados e mostraram que os componentes visuais são excelentes ferramentas que, quando bem utilizadas e associadas às palavras, podem incentivar e simplificar o processamento da leitura, especialmente num contexto em que os participantes não possuem pleno domínio lingüístico na língua-alvo.
Resumo:
O uso das Tecnologias da Informação e Comunicação -TIC no ambiente escolar, além de permitir o acesso a um universo de informações tão caótico quanto inimaginável, promoveu uma profunda transformação na relação de seus principais atores -professores e alunos - com o conhecimento. Desde o final da década de 1980 que, no Brasil, diversos programas surgiram com a finalidade de prover a educação pública de condições de igualdade com a educação privada, procurando através da inserção nas escolas da rede municipal e estadual de um ambiente tecnológico de aprendizagem com base em rede de computadores conectados a Internet, garantir o ansiado salto de qualidade do ensino público. A proposta desse trabalho é investigar se os professores de Matemática que atuam nas escolas da rede estadual em Belém/P A, que possuem Laboratório de Informática, estabelecem interações com esse ambiente na busca pela melhoria de sua práxis pedagógica, favorecendo a transmissão de informações, a construção de conhecimentos e de conceitos matemáticos.
Resumo:
Neste trabalho estudamos alguns algoritmos de alocação de comprimento de onda em redes ópticas WDM (Wavelength Division Multiplexing). O objetivo para estudar os algoritmos de alocação first-fit, least-used e most-used está baseado na estratégia adotada para estudar o Problema RWA. A estratégia toma como base a visão geral do problema que envolve os algoritmos de roteamento e os algoritmos de alocação de comprimento de onda, e tendo como métrica principal para seus resultados a probabilidade de bloqueio. Este trabalho apresenta uma visão diferenciada para o problema e considera-se que a alocação de comprimentos de onda se sobrepõe, em importância, à ação de roteamento em redes ópticas. Essa percepção ocorre quando se analisa o problema RWA a partir do critério clássico usado no estabelecimento de uma rota: a escolha do caminho mais curto entre a origem e o destino. Apesar da identificação de um caminho mais curto, isso não garante, em redes ópticas, que ele será o utilizado, pois é necessário que haja para aquele caminho, um comprimento de onda adequado. Foi utilizada uma ferramenta de simulação para redes WDM denominada OWNS para realizar uma análise do problema RWA. Os resultados obtidos são apresentados graficamente e em uma das simulações observou-se uma forte tendência de queda na probabilidade de bloqueio e uma boa vazão no trafego da rede com isso possibilitando um aumento na capacidade de transmissão da rede. Por fim, este texto apresenta uma discussão sobre os diferenciais e limitações deste trabalho, e apresenta direcionamentos para investigações futuras neste campo de estudo.
Resumo:
As Redes Ópticas Passivas (Passive Optical Networks - PONs) vêm experimentando um sólido crescimento nas últimas décadas por terem sido concebidas como uma excelente alternativa para a solução de um dos maiores problemas para as redes de telecomunicações: o gargalo nas redes de acesso. A próxima geração desta tecnologia, as chamadas Next Genaration PONs (NG-PON), surgem como consequência da evolução das tecnologias ópticas e oferecem suporte aos serviços de próxima geração, melhorando os parâmetros de desempenho das TDM-PONs e inclusive aumentando a área de cobertura destas redes. Esta expansão geográfica beneficia as empresas de telecomunicações que passam a focar seus esforços na simplificação de suas infra-estruturas através da unificação das redes metropolitanas, de acesso e de backhaul, reduzindo a quantidade de nós e, consequentemente, de custos operacionais e financeiros. Trata-se de uma significativa mudança no cenário das redes de acesso que passam a ter grandes distâncias entre as Optical Network Units (ONUs) e o Central Office (CO) e uma imensa variedade de serviços, tornando fundamental a presença de algoritmos de agendamento capazes de gerenciar todos os recursos compartilhados de forma eficiente, ao mesmo tempo que garantem controle e justeza na alocação dinâmica dos tráfegos upstream e downstream. É a partir deste contexto que esta dissertação tem como objetivo geral apresentar a proposta de um algoritmo híbrido de agendamento de grants baseado na priorização de filas (Hybrid Grant Scheduler based on Priority Queuing – HGSPQ), que além de gerenciar todos os recursos em WDM-PONs, busca oferecer eficiência e controle ao Optical Line Terminal (OLT) no agendamento dinâmico dos tráfegos. Os resultados apresentados foram extraídos de cenários desenvolvidos em ambiente de simulação computacional e se baseiam nas métricas de atraso e vazão para avaliação de seu desempenho. Também será avaliado como a quantidade de recursos no OLT interfere nestas métricas.
Resumo:
A capacidade de processamento das instituições de pesquisa vem crescendo significativamente à medida que processadores e estações de trabalho cada vez mais poderosos vão surgindo no mercado. Considerando a melhoria de desempenho na área de redes de computadores e visando suprir a demanda por processamento cada vez maior, surgiu a ideia de utilizar computadores independentes conectados em rede como plataforma para execução de aplicações paralelas, originando assim a área de computação em grade. Em uma rede que se encontra sob um mesmo domínio administrativo, é comum que exista o compartilhamento de recursos como discos, impressoras, etc. Mas quando a rede ultrapassa um domínio administrativo, este compartilhamento se torna muito limitado. A finalidade das grades de computação é permitir compartilhamento de recursos mesmo que estes estejam espalhados por diversos domínios administrativos. Esta dissertação propõe uma arquitetura para o estabelecimento dinâmico de conexões multidomínio que faz uso da comutação de rajadas ópticas (OBS – Optical Burst Switching) utilizando um plano de controle GMPLS (Generalized Multiprotocol Label Switching). A arquitetura baseia-se no armazenamento de informações sobre recursos de grade de sistemas autônomos (AS -Autonomous Systems) distintos em um componente chamado Servidor GOBS Raiz (Grid OBS) e na utilização do roteamento explícito para reservar os recursos ao longo de uma rota que satisfaça as restrições de desempenho de uma aplicação. A validação da proposta é feita através de simulações que mostram que a arquitetura é capaz de garantir níveis de desempenho diferenciados de acordo com a classe da aplicação e proporciona uma melhor utilização dos recursos de rede e de computação.
Resumo:
Neste trabalho, propõe-se uma melhoria na estratégia de escalonamento baseada em pesos das classes de tráfego em redes óticas passivas Ethernet – EPON, de modo a não penalizar demasiadamente a classe tipo melhor esforço (BE). Como suporte, desenvolveu-se um modelo híbrido analítico/simulado para análise de desempenho do fluxo de subida, baseado no atraso total de quadros. A modelagem foi feita utilizando Redes de Petri Coloridas Estocásticas (Stochastic Colored Petri Nets - SCPN) da qual se obtém, por simulação, o tamanho médio da fila que posteriormente é usado para, analiticamente, obter-se o atraso total. Não obstante ao crescimento de aplicações multimídia em tempo real, no ano de 2010, o tráfego tradicional na Internet (navegação web, email, mensagens instantâneas) classificado como melhor esforço ainda foi responsável, sozinho (excluindo transferência de arquivos P2P), por valores em torno de 18% do tráfego na Internet. Somando-se a este percentual as aplicações P2P, que também não são essencialmente sensíveis ao atraso, têm-se uma participação de 58% (o tráfego P2P foi no ano de 2010 responsável por aproximadamente 40% do volume total de informações trafegadas na Internet). Mesmo em previsões feitas para o ano de 2014 o tráfego BE ainda representará aproximadamente 40% do volume total de dados a serem trafegados nas redes IPs mundiais. Estes números demonstram que a preocupação com este tipo de tráfego não pode ser relegada a uma importância secundária em detrimento às aplicações que exigem maior qualidade de serviço. Tomando como base o escalonamento IPACT (Interleaved Polling with Adapting Cycle Time) esta dissertação demonstra que é possível, através da melhoria proposta, obter atrasos menores no tráfego de melhor esforço, sem que as classes de tráfego prioritárias ultrapassem as especificações de atraso recomendadas para cada uma destas.
Resumo:
Este artigo apresenta um estudo experimental de técnicas de identificação paramétrica aplicadas à modelagem dinâmica de um servidor web Apache. Foi desenvolvido um arranjo experimental para simular variações de carga no servidor. O arranjo é composto por dois computadores PC, sendo um deles utilizado para executar o servidor Apache e o outro utilizado como um gerador de carga, solicitando requisições de serviço ao servidor Apache. Foram estimados modelos paramétricos auto-regressivos (AR) para diferentes pontos de operação e de condição de carga. Cada ponto de operação foi definido em termos dos valores médios para o parâmetro de entrada MaxClients (parâmetro utilizado para definir o número máximo de processos ativos) e a saída percentual de consumo de CPU (Central Processing Unit) do servidor Apache. Para cada ponto de operação foram coletadas 600 amostras, com um intervalo de amostragem de 5 segundos. Metade do conjunto de amostras coletadas em cada ponto de operação foi utilizada para estimação do modelo, enquanto que a outra metade foi utilizada para validação. Um estudo da ordem mais adequada do modelo mostrou que, para um ponto de operação com valor reduzido de MaxClients, um modelo AR de 7a ordem pode ser satisfatório. Para valores mais elevados de MaxClients, os resultados mostraram que são necessários modelos de ordem mais elevada, devido às não-linearidades inerentes ao sistema.
Resumo:
As Redes da Próxima Geração consistem no desenvolvimento de arquiteturas que viabilizem a continuidade de serviços que proporcionem sempre a melhor conectividade (Always Best Connectivity - ABC) aos usuários móveis com suporte adequado à Qualidade de Experiência (QoE) para aplicações multimídia de alta definição, nesse novo contexto as arquiteturas têm perspectiva orientada a serviços e não a protocolos. Esta tese apresenta uma arquitetura para redes da próxima geração capaz de fornecer acesso heterogêneo sem fio e handover vertical transparente para as aplicações multimídia. A tese considera diferentes tecnologias sem fio e também adota o padrão IEEE 802.21 (Media Independent Handover – MIH) para auxiliar na integração e gerenciamento das redes heterogêneas sem fio. As tecnologias que a arquitetura possui são: IEEE 802.11 (popularmente denominada de WiFi), IEEE 802.16 (popularmente denominada de WiMAX) e LTE (popularmente denominada de redes 4G). O objetivo é que arquitetura tenha a capacidade de escolher entre as alternativas disponíveis a melhor conexão para o momento. A arquitetura proposta apresenta mecanismos de predição de Qualidade de Experiência (Quality of Experience - QoE) que será o parâmetro decisivo para a realização ou não do handover para uma nova rede. A predição para determinar se haverá ou não mudança de conectividade será feita com o uso da inteligência computacional de Redes Neurais Artificiais. Além disso a arquitetura também apresenta um mecanismo de descarte seletivo de pacotes especifico para aplicações multimídia. A proposta é avaliada via simulação utilizando-se o ns-2 (Network Simulator) e os resultados de desempenho são apresentados através das métricas de QoS, de QoE e também visualmente através da exibição de frames dos vídeos transmitidos na arquitetura.
Resumo:
Os Sistemas de Detecção e Prevenção de Intrusão (Intrusion Detection Systems – IDS e Intrusion Prevention Systems - IPS) são ferramentas bastante conhecidas e bem consagradas no mundo da segurança da informação. Porém, a falta de integração com os equipamentos de rede como switches e roteadores acaba limitando a atuação destas ferramentas e exige um bom dimensionamento de recursos de hardware como processamento, memória e interfaces de rede de alta velocidade, utilizados para implementá-las. Diante de diversas limitações deparadas por pesquisadores e administradores de redes, surgiu o conceito de Rede Definida por Software (Software Defined Network – SDN), que ao separar os planos de controle e de dados, permite adaptar o funcionamento da rede de acordo com as necessidades de cada um. Desta forma, devido à padronização e flexibilidade propostas pelas SDNs, e das limitações apresentadas dos IPSs, esta dissertação de mestrado propõe o IPSFlow, um framework que utiliza uma rede baseada na arquitetura SDN e o protocolo OpenFlow para a criação de um IPS com ampla cobertura e que permite bloquear um tráfego caracterizado pelos IDS(s) como malicioso no equipamento mais próximo da origem. Para validar o framework, experimentos no ambiente virtual Mininet foram realizados utilizando-se o Snort como IDS para analisar tráfego de varredura (scan) gerado pelo Nmap de um host ao outro. Os resultados coletados apresentam que o IPSFlow funcionou conforme planejado ao efetuar o bloqueio de 85% do tráfego de varredura.
Resumo:
A saturação de água é a principal propriedade petrofísica para a avaliação de reservatórios de hidrocarbonetos, pois através da análise dos seus valores é definida a destinação final do poço recém perfurado, como produtor ou poço seco. O cálculo da saturação de água para as formações limpas é, comumente, realizado a partir da equação de Archie, que envolve a determinação da resistividade da zona virgem, obtida a partir de um perfil de resistividade profunda e o cálculo de porosidade da rocha, obtida a partir dos perfis de porosidade. A equação de Archie envolve ainda, a determinação da resistividade da água de formação, que normalmente necessita de definição local e correção para a profundidade da formação e da adoção de valores convenientes para os coeficientes de Archie. Um dos métodos mais tradicionais da geofísica de poço para o cálculo da saturação de água é o método de Hingle, particularmente útil nas situações de desconhecimento da resistividade da água de formação. O método de Hingle estabelece uma forma linear para a equação de Archie, a partir dos perfis de resistividade e porosidade e a representa na forma gráfica, como a reta da água ou dos pontos, no gráfico de Hingle, com saturação de água unitária e o valor da resistividade da água de formação é obtido a partir da inclinação da reta da água. Independente do desenvolvimento tecnológico das ferramentas de perfilagem e dos computadores digitais, o geofísico, ainda hoje, se vê obrigado a realizar a interpretação de ábacos ou gráficos, sujeito a ocorrência de erros derivados da sua acuidade visual. Com o objetivo de mitigar a ocorrência deste tipo de erro e produzir uma primeira aproximação para a saturação de água em tempo real de perfilagem do poço, insere-se o trabalho apresentado nesta dissertação, com a utilização de uma conveniente arquitetura de rede neural artificial, a rede competitiva angular, capaz de identificar a localização da reta da água, a partir da identificação de padrões angulares presentes nos dados dos perfis de porosidade e resistividade representados no gráfico de Hingle. A avaliação desta metodologia é realizada sobre dados sintéticos, que satisfazem integralmente a equação de Archie, e sobre dados reais.
Resumo:
As técnicas utilizadas para avaliação da segurança estática em sistemas elétricos de potência dependem da execução de grande número de casos de fluxo de carga para diversas topologias e condições operacionais do sistema. Em ambientes de operação de tempo real, esta prática é de difícil realização, principalmente em sistemas de grande porte onde a execução de todos os casos de fluxo de carga que são necessários, exige elevado tempo e esforço computacional mesmo para os recursos atuais disponíveis. Técnicas de mineração de dados como árvore de decisão estão sendo utilizadas nos últimos anos e tem alcançado bons resultados nas aplicações de avaliação da segurança estática e dinâmica de sistemas elétricos de potência. Este trabalho apresenta uma metodologia para avaliação da segurança estática em tempo real de sistemas elétricos de potência utilizando árvore de decisão, onde a partir de simulações off-line de fluxo de carga, executadas via software Anarede (CEPEL), foi gerada uma extensa base de dados rotulada relacionada ao estado do sistema, para diversas condições operacionais. Esta base de dados foi utilizada para indução das árvores de decisão, fornecendo um modelo de predição rápida e precisa que classifica o estado do sistema (seguro ou inseguro) para aplicação em tempo real. Esta metodologia reduz o uso de computadores no ambiente on-line, uma vez que o processamento das árvores de decisão exigem apenas a verificação de algumas instruções lógicas do tipo if-then, de um número reduzido de testes numéricos nos nós binários para definição do valor do atributo que satisfaz as regras, pois estes testes são realizados em quantidade igual ao número de níveis hierárquicos da árvore de decisão, o que normalmente é reduzido. Com este processamento computacional simples, a tarefa de avaliação da segurança estática poderá ser executada em uma fração do tempo necessário para a realização pelos métodos tradicionais mais rápidos. Para validação da metodologia, foi realizado um estudo de caso baseado em um sistema elétrico real, onde para cada contingência classificada como inseguro, uma ação de controle corretivo é executada, a partir da informação da árvore de decisão sobre o atributo crítico que mais afeta a segurança. Os resultados mostraram ser a metodologia uma importante ferramenta para avaliação da segurança estática em tempo real para uso em um centro de operação do sistema.