1000 resultados para Rede de computadores.
Resumo:
Este estudo descreve as crenças acerca do evento-aula por parte de três professores de língua estrangeira de escolas da rede pública de ensino de uma cidade do interior do Rio Grande do Sul. O corpo de dados relativo a cada um dos três professores é composto de observação participativa de dez turnos consecutivos de trabalho, registro audiovisual de dois períodos de aula, entrevistas individuais com o professor e pessoal de supervisão educacional e secretaria, e sessão de visionamento dos dados audiovisuais. O trabalho foi desenvolvido em uma abordagem qualitativa, seguindo os princípios da pesquisa interpretativista. O foco analítico recaiu sobre a relação entre o discurso do professor e sua prática de sala de aula. Os resultados indicam que cada professor tem diferentes crenças em relação ao evento-aula, em consonância com o modo de entender a sua tarefa de ensino, o que resulta em andamentos distintos de seus eventos-aula. Um dos professores acredita que ensinar língua é simplesmente transmiti-la aos alunos, outro acredita que ensinar é trabalhar com os alunos de forma disciplinada, mas não necessariamente de forma reflexiva, e o terceiro acredita que ensinar uma língua é, mais do que falar uma língua ou dar instruções para o desenvolvimento das atividades, é promover o desenvolvimento da autonomia e responsabilidade do aluno em relação a sua própria aprendizagem.
Resumo:
Resumo não disponível.
Resumo:
A simulação computacional de processos é uma ferramenta valiosa em diversas etapas da operação de uma planta química, tais como o projeto, a análise operacional, o estudo da estratégia de controle e a otimização, entre outras. Um programa simulador requer, freqüentemente, o cálculo das propriedades termofísicas que fazem parte das equações correspondentes aos balanços de massa, energia e quantidade de movimento. Algumas dessas quantidades, típicas de operações baseadas no equilíbrio de fases (tais como a destilação fracionada e a separação flash), são as fugacidades e entalpias das fases líquida e vapor em equilíbrio. Contudo, o uso de modelos e correlações cada vez mais sofisticadas para representar acuradamente as propriedades termofísicas dos sistemas reais fez com que grande parte do tempo gasto numa simulação de processos seja devida à avaliação destas propriedades. Muitas estratégias têm sido propostas na literaturas a fim de se reduzir a carga computacional envolvida na simulação, estática e dinâmica, dos problemas de Engenharia Química. Esta diminuição do tempo de processamento pode muitas vezes ser determinante na aplicação ou não da simulação de processos na prática industrial, como, por exemplo, no controle automático. Esta dissertação aborda uma das alternativas para a redução do tempo computacional gasto na simulação de processos: a aproximação das funções que descrevem as propriedades termofísicas através de funções mais simples, porém de fácil avaliação. Estas funções, a fim de se garantir uma aproximação adequada, devem ser corrigidas ou atualizadas de alguma forma, visto que se tratam de modelos estritamente válidos em uma pequena região do espaço das variáveis, sendo, por isto, chamados de modelos locais. Partindo-se do estado atual desta técnica, é proposta nesta dissertação uma nova metodologia para se efetuar esta aproximação, através da representação global da propriedade mediante múltiplas funções simples, constituindo, desse modo, uma rede de modelos locais. Algumas possibilidades para a geração efetiva destas redes são também discutidas, e o resultado da metodologia é testado em alguns problemas típicos de separação por equilíbrio de fases.
Resumo:
As redes ATM têm se constituído na solução tecnológica ideal para o desenvolvimento da RDSI-FL. O ATM foi desenvolvido para dar suporte, com altas velocidades e com garantia de qualidade, a uma ampla variedade de serviços. A demanda por serviços de comunicação de dados, em velocidades maiores do que as redes de pacotes atuais são capazes de oferecer, tem crescido rapidamente, estimulando o desenvolvimento da tecnologia ATM, que tem sido muito promissora, devida a sua flexibilidade e eficiência. Para dar suporte à comunicação de dados em redes ATM, foram desenvolvidas soluções, como a emulação de redes locais (LANE), a interconexão de redes locais (LAN) e metropolitanas (MAN), e o protocolo IP sobre ATM. O ATM utiliza multiplexação estatística (assíncrona) para inserir os dados nos canais de comunicação de forma otimizada. Esta técnica, permite atender uma quantidade maior de fontes heterogêneas sob num único canal, porém, pode causar congestionamento na rede. O uso da multiplexação estatística, aliada à necessidade de garantir níveis de qualidade diferentes, para cada tipo de serviço, torna necessária a adoção de uma combinação de técnicas de controle de tráfego e congestionamento. Com este propósito, foram desenvolvidos diversas funções e mecanismos, como, por exemplo, controle de acesso (CAC), controle dos parâmetros de uso (UPC), descarte seletivo de células e conformação de tráfego (TS), os quais necessitam conhecer as características do tráfego emitido pela fonte. Por esta razão, toda e qualquer conexão ATM está associada a um contrato de tráfego, que especifica as exigências do usuário, quanto à qualidade de serviço (QoS) a ser oferecida pela rede, através de um descritor de tráfego. O trabalho apresentado nesta dissertação, tem por objetivo propor uma metodologia capaz de discriminar um fluxo de células ATM arbitrário, visando a obter os parâmetros descritores de UPC do mesmo. A discriminação de tráfego é relevante à medida que todos os usuários de redes ATM necessitam, de alguma forma, determinar os parâmetros que caracterizam seu fluxo, para poder negociar o contrato de trafego. Infelizmente, a maioria das aplicações ATM, não tem condições prévias de fornecer dados sobre o comportamento do fluxo que geram. Para estas situações, estamos propondo um Discriminador de Tráfego ATM (DTA), que infere a partir de uma amostra inicial do fluxo um conjunto mais provável de parâmetros, os quais constituirão o descritor de tráfego da fonte (STD).
Resumo:
Voz sobre IP (VoIP) é uma tecnologia que permite a digitalização e a codificação da voz e o empacotamento em pacotes de dados IP para a transmissão em uma rede que utilize o protocolo TCP/IP. Devido ao volume de dados gerados por uma aplicação VoIP, esta tecnologia se encontra em funcionamento, em redes corporativas privadas. Mas se a rede base para o transporte desta aplicação for a Internet, certamente, não deve ser utilizada para fins profissionais, pois o TCP/IP não oferece padrões de QoS (Qualidade de Serviço) comprometendo desta forma a qualidade da voz. A qualidade da voz fica dependente do tráfego de dados existentes no momento da conversa. Para realizar um projeto de VoIP é necessário conhecer todo o tráfego existente na rede e verificar o quanto isto representa em relação à banda total da rede. Também se deve conhecer o tipo de aplicação que se deseja implantar, verificando a banda a ser utilizada por esta, e então projetar como a rede deverá ser estruturada. Para auxiliar no projeto de VoIP, pretende-se mostrar o que está sendo desenvolvido para que o protocolo TCP/IP ofereça QoS e uma ferramenta para análise do tráfego de voz sobre redes TCP/IP e também análises dos resultados obtidos em experimentos simulando diversas situações práticas.
Resumo:
Este trabalho descreve o protocolo de adaptação ATM do tipo 2 (AAL2), e expõe as mudanças que foram realizadas no simulador de rede ATM com a finalidade de estudá-lo. É proposto que se conheça melhor este novo padrão, planejado para baixa taixa de transferência e multiplexação de usuários e pode contribuir nos serviços de tráfego de voz, quando ocorre a integração de diversas aplicações que é o objetivo da B-ISDN. Após algumas explanações sobre o ATM em geral, é descrita de forma detalhada a recomendação I.362 que padroniza o novo AAL. É explicado o comportamento da máquina de estados de transmissão, e como ocorre a temporização para carregar diversos pacotes de voz numa mesma célula. Como foi idealizado para a classe de serviços do tipo VBR em tempo real, comentam-se alguns mecanismos próprios do AAL2 para controle de tráfego e sua influência. Descreve-se a subcamada SSCS proposta para pacotes longos, recentemente padronizada. São apresentados alguns artigos e estudos realizados sobre o AAL2 que descreve quantitativamente o ganho esperado pelo protocolo e levanta algumas questões comparando-o ao AAL1. Por ter sido inicialmente uma necessidade da telefonia celular, realiza-se um breve comentário de estudos dirigidos para a área. Com o intuito de realizar a simulação do protocolo, foi utilizado o simulador de redes ATM, desenvolvido pelo NIST, que possui certas qualidades desejadas para este trabalho, porém, foram necessárias realizar modificações para implementar a camada AAL que não estava prevista na arquitetura original dele. Para se criar um ambiente de testes propício, e com a preocupação de não corromper o funcionamento padrão, foram criadas estruturas semelhantes às existentes e realizadas mudanças sutis, reconhecidas normalmente pelo simulador original. A partir destas simulações, pretende-se deixar uma ferramenta para fazer análises deste protocolo; utilizando modelos de tráfego de voz, a fim de obter informações do seu comportamento. No entanto, este estudo limitou-se somente a demonstrar a verificação e validação do simulador a partir dos resultados gerados. Para verificar a integridade do código fonte original foram utilizados os exemplos do próprio NIST e assim garantir que nada foi alterado. Além disso, o novo módulo foi comparado a norma através de um "debug". Na validação, devido ao fato de não existir uma rede real montada e disponível para testes, foram empregados artigos para comparar os resultados e demonstrar a boa aproximação obtida. Acredita-se que desta forma obteve-se o resultado desejado de um ambiente para estudo e compreensão do AAL2 e que, futuramente, pode ser usado para todos os protocolos da camada AAL.
Resumo:
Esta pesquisa tem como foco um olhar para além do fracasso escolar, abordando a temática do fracasso escolar – estigma das crianças das classes populares – para além das denúncias e classificações reducionistas. Busca, nas trajetórias de vida dos sujeitos, vítimas do fracasso escolar e submetidos a políticas públicas de correção de fluxo, como vivem e percebem essa intervenção e, em que medida essa experiência toca em sua auto-imagem e auto-estima, levando o campo de análise para além do reativo e do imediato. O trabalho de campo iniciou ainda em 1999, a partir do acompanhamento do Projeto Progressão da Aprendizagem – PPA – desenvolvido nas escolas seriadas da rede municipal de ensino de Caxias do Sul no período de 1997 a 2000. Embora várias escolas municipais tenham sido cenário da pesquisa, o trabalho de campo mais intensivo aconteceu na Escola de Ensino Fundamental Machado de Assis durante os anos de 2000 e 2001. O olhar e escuta sensíveis, propostos como atitude metodológica, tiveram a intenção de superação dos condicionamentos e determinismos do fenômeno fracasso escolar em si, tendo em vista a busca reflexiva dos saberes presentes nas trajetórias de vida de seis adolescentes vítimas do fracasso escolar. A fundamentação teórica do estudo contempla as contribuições de Miguel Arroyo, Bernard Charlot, Maria Helena Souza Patto, José de Souza Martins, Cláudia Fonseca, entre outros, dentro de um espectro que envolve desde a temática em si e também suas relações com os elementos de análise contextualizada (relacional). Os saberes da vida advindos dessa escuta densa demonstram que é possível reverter aquilo que o senso comum ajuda a perpetuar, ou seja, a marca, a classificação, o preconceito. Esta dissertação contribui em aspectos que podem ser considerados nos programas de formação de professores, na formulação de políticas públicas, no planejamento de sala de aula, mais do que uma forma, mas, acima de tudo, na assunção de uma postura que contempla a pesquisa como ato de emoção e entrega, para além dos resultados. As categorias vida cotidiana e vida privada, além de vivido, concebido e percebido, abordadas no corpo do texto, pedem a realização de mais estudos, conectados com a ação educativa, como forma de aprofundar os conhecimentos aqui investigados.
Resumo:
O desenvolvimento de um projeto de obra de edificação é fruto da interação entre profissionais de diversas disciplinas que desenvolvem, simultaneamente, suas opções e decisões com relação ao mesmo. Assim sendo, é necessário considerar que a realização do projeto é dependente da eficiência da comunicação entre os membros da equipe, uma vez que grande parte do trabalho de cada projetista deve ser desenvolvida sob as restrições impostas pelas necessidades dos demais. O cuidado com o fluxo de informações apresenta-se, portanto, como um mecanismo eficiente para garantir a integração, controle e organização das atividades, colaborando para a transparência do processo tanto para o coordenador como para cada um dos profissionais selecionados para a equipe. Assim, este trabalho propõe, com base na realização de uma série de entrevistas com profissionais da área de projeto da cidade de Porto Alegre (RS), um sequenciamento básico de atividades a serem desenvolvidas pelos profissionais ao longo das etapas do processo. O modelo traçado buscou explicitar de forma sistematizada o intercâmbio de informações necessário para o desenvolvimento de cada projeto específico, definindo os principais resultados que devem ser disponibilizados para que outros profissionais possam desenvolver sua parcela do trabalho. O modelo foi gerado caracterizando a dependência entre os resultados disponibilizados individualmente pelos intervenientes para a equipe de profissionais ao longo do processo Desta forma, cada resultado caracterizou uma atividade, para a qual é possível conhecer não só as dependências - atividade(s) precedente(s) e sucessora(s)- mas a quem cabe a responsabilidade de disponibilizar tal informação, permitindo a tomada de decisão sobre o processo como um todo ao observar as ocorrências do dia-a-dia.
Resumo:
Uma aplicação distribuída freqüentemente tem que ser especificada e implementada para executar sobre uma rede de longa distância (wide-área network-WAN), tipicamente a Internet. Neste ambiente, tais aplicações são sujeitas a defeitos do tipo colapso(falha geral num dado nó), teporização (flutuações na latência de comunicação) e omissão (perdas de mensagens). Para evitar que este defeitos gerem comseqüências indesejáveis e irreparáveis na aplicação, explora-se técnicas para tolerá-los. A abstração de detectores de defeitos não confiáveis auxilia a especificação e trato de algoritmos distribuídos utilizados em sistemas tolerantes a falhas, pois permite uma modelagem baseada na noção de estado (suspeito ou não suspeito) dos componentes (objetos, processo ou processadores) da aplicação. Para garantir terminação, os algoritmos de detecção de defeitos costumam utilizar a noção de limites de tempo de espera (timeout). Adicionalmente, para minimizar seu erro (falasas suspeitas) e não comprometer seu desempenho (tempo para detecção de um defeito), alguns detectores de defeitos ajustam dinamicamente o timeout com base em previsões do atraso de comunicação. Esta tese explora o ajuste dinâmico do timeout realizado de acordo com métodos de previsão baseados na teoria de séries temporais. Tais métodos supõem uma amostragem periódica e fornececm estimativas relativamente confiáveis do comportamento futuro da variável aleatória. Neste trabalho é especificado uma interface para transformar uma amostragem aperiódica do atraso de ida e volta de uma mensagem (rtt) numa amostragem periódica, é analisado comportamento de séries reais do rtt e a precisão dee sete preditores distintos (três baseados em séries temporais e quatrro não), e é avaliado a influência destes preditores na qualidade de serviço de um detector de defeitos do estilopull. Uma arquitetura orientada a objetos que possibilita a escolha/troca de algoritmos de previsão e de margem de segurança é também proposta. Como resultado, esta tese mostra: (i) que embora a amostragem do rtt seja aperiódica, pode-se modelá-la como sendo uma série temporal (uma amostragem periódica) aplciando uma interface de transformação; (ii) que a série temporal rtt é não estacionária na maioria dos casos de teste, contradizendo a maioria das hipóteses comumente consideradas em detectores de defeitos; (iii) que dentre sete modelos de predição, o modelo ARIMA (autoregressive integrated moving-average model) é o que oferece a melhor precisão na predição de atrasos de comunicação, em termos do erro quadrático médio: (iv) que o impacto de preditores baseados em séries temporais na qualidade de serviço do detector de defeitos não significativo em relação a modelos bem mais simples, mas varia dependendo da margem de segurança adotada; e (v) que um serviço de detecção de defeitos pode possibilitar a fácil escolha de algoritmos de previsão e de margens de segurança, pois o preditor pode ser modelado como sendo um módulo dissociado do detector.
Resumo:
A área de Detecção de Intrusão, apesar de muito pesquisada, não responde a alguns problemas reais como níveis de ataques, dim ensão e complexidade de redes, tolerância a falhas, autenticação e privacidade, interoperabilidade e padronização. Uma pesquisa no Instituto de Informática da UFRGS, mais especificamente no Grupo de Segurança (GSEG), visa desenvolver um Sistema de Detecção de Intrusão Distribuído e com características de tolerância a falhas. Este projeto, denominado Asgaard, é a idealização de um sistema cujo objetivo não se restringe apenas a ser mais uma ferramenta de Detecção de Intrusão, mas uma plataforma que possibilite agregar novos módulos e técnicas, sendo um avanço em relação a outros Sistemas de Detecção atualmente em desenvolvimento. Um tópico ainda não abordado neste projeto seria a detecção de sniffers na rede, vindo a ser uma forma de prevenir que um ataque prossiga em outras estações ou redes interconectadas, desde que um intruso normalmente instala um sniffer após um ataque bem sucedido. Este trabalho discute as técnicas de detecção de sniffers, seus cenários, bem como avalia o uso destas técnicas em uma rede local. As técnicas conhecidas são testadas em um ambiente com diferentes sistemas operacionais, como linux e windows, mapeando os resultados sobre a eficiência das mesmas em condições diversas.
Resumo:
Esta dissertação de mestrado investigou o processo de criação do conhecimento organizacional em uma relação Universidade-Empresa. Para isto, foi estudado o caso do desenvolvimento de um novo produto por uma empresa de informática em parceria com uma universidade. Para apresentar como ocorreu o processo de criação do conhecimento organizacional no caso estudado, foram verificadas a natureza e a forma de implementação das condições que capacitam as fases da criação do conhecimento organizacional, e a forma de ocorrência destas fases. Na pesquisa de campo deste estudo utilizou-se um instrumental especialmente criado para a investigação da criação do conhecimento organizacional em projetos de pesquisa e desenvolvimento (P&D). Ao atingir os seus objetivos, este estudo de caso apresenta como pode ser criado um ambiente favorável à relação universidade-empresa quando esta relação tem como finalidade a P&D de um novo produto.
Resumo:
O desenvolvimento tecnológico do setor construção civil no Brasil não tem sido acompanhado de ações sistemáticas de formação/qualificação profissional de seus trabalhadores em níveis compatíveis com os novos padrões técnico/industriais. Aportes provenientes de várias áreas do conhecimento podem contribuir para a reversão dessa situação. De caráter interdisciplinar, envolvendo arquitetura, construção civil, educação e informática, este trabalho investiga como os recursos informáticos e telemáticos podem contribuir para a qualificação de trabalhadores da indústria da construção civil. Abordando um tema específico – leitura e interpretação de plantas arquitetônicas –, investiga as possibilidades que essas novas tecnologias podem oferecer para ações de qualificação de trabalhadores, bem como verifica as condições em que esses se apropriam dos recursos que serão predominantes nos processos de trabalho no milênio que se inicia. Adotando um referencial construtivista, foi projetado e aplicado um experimento, consistindo de um site na Internet e de um programa de desenho, em que os participantes não apenas tomam contato passivamente com diversos conteúdos relativos à sua atuação profissional, mas contribuem com seus conhecimentos tanto na definição dos temas e tópicos a serem abordados quanto na produção de conhecimentos relativos aos temas propostos, fazendoos participantes ativos e não meros leitores. Recursos como animações, imagens sobrepostas, textos, etc. são empregados para apresentar os princípios fundamentais da representação prévia do espaço construído As participações dos usuários são registradas por meio de formulários, cujos textos produzidos são disponibilizados posteriormente aos demais participantes. Os resultados obtidos dão conta da viabilidade de iniciativas dessa natureza em ações que façam uso da rede mundial de computadores para a qualificação de trabalhadores, contribuindo para a superação de desequilíbrios na distribuição dos recursos de formação.
Resumo:
Este trabalho é o resultado de uma pesquisa realizada em micro, pequenas e médias empresas que formam a indústria de confecções de Sarandi - RS, visando identificar a postura estratégica das organizações do segmento de confecções do município, reposicionando-a face ao ambiente competitivo atual. As empresas nas quais foi aplicada a pesquisa foram identificadas junto aos cadastros da Prefeitura Municipal e da Associação Comercial e Industrial do município de Sarandi. O universo das indústrias que atuam na área de confecções do município é formado por 45 empresas. A pesquisa foi aplicada em 39 empresas (86,67% do total). Este número foi definido de acordo com a aceitação e disponibilidade dos dirigentes em fornecer as informações solicitadas. Trata-se de uma pesquisa descritiva; foram realizadas inicialmente entrevistas em profundidade, não estruturadas, com os principais atores responsáveis pela criação das indústrias de confecções no município. Posteriormente, foi aplicado um questionário aos dirigentes das organizações. A postura estratégica predominante foi a analítica. Entretanto, o reconhecimento do fortalecimento da competitividade dos dias atuais fez com que emergisse a necessidade de uma atuação além da empresa, vista de maneira individualizada, sugerindo uma atuação em redes flexíveis. Neste sentido, existem ações realizadas e o espírito da comunidade está aberto. O presente estudo é aprofundado nesta direção.
Resumo:
Aplicações como videoconferência, vídeo sob-demanda, aplicações de ensino a distância, entre outras, utilizam-se das redes de computadores como infra-estrutura de apoio. Mas para que tal uso seja efetivo, as redes de computadores, por sua vez, devem fornecer algumas facilidades especiais para atender às necessidades dessas aplicações. Dentre as facilidades que devem ser fornecidas estão os suportes à qualidade de serviço (QoS - Quality of Service) e as transmissões multicast. Além do suporte a QoS e multicast nas redes, é necessário fornecer um gerenciamento da rede adequado às expectativas de tais aplicações. Soluções que fornecem gerenciamento de forma individual para tais facilidades, já foram propostas e implementadas. Entretanto, estas soluções não conseguem agir de modo integrado, o que torna a tarefa do gerente da rede extremamente complexa e difícil de ser executada, pois possibilitam um fornecimento não adequado das facilidades desejadas às aplicações. Nesta dissertação é apresentada uma solução para gerenciamento integrado de QoS e multicast. Fazem parte da solução: a definição e implementação de uma arquitetura para gerenciamento integrado de QoS e multicast, utilizando gerenciamento baseado em políticas (PBNM - Policy-Based Network Management), além da validação da solução proposta através da implementação de um protótipo. Um ambiente, condições de teste, e análise dos resultados obtidos, também são apresentados durante a dissertação.
Resumo:
Este trabalho propõe a utilização da arquitetura Trace como um sistema de detecção de intrusão. A arquitetura Trace oferece suporte ao gerenciamento de protocolos de alto nível, serviços e aplicações através de uma abordagem baseada na observação passiva de interações de protocolos (traços) no tráfego de rede. Para descrever os cenários a serem monitorados, é utilizada uma linguagem baseada em máquinas de estado. Esta linguagem permite caracterizar aspectos observáveis do tráfego capturado com vistas a sua associação com formas de ataque. O trabalho mostra, através de exemplos, que esta linguagem é adequada para a modelagem de assinaturas de ataques e propõe extensões para permitir a especificação de um número maior de cenários ligados ao gerenciamento de segurançaa. Em seguida, é descrita a implementação do agente de monitoração, componente-chave da arquitetura Trace, e sua utilização para detectar intrusões. Esse agente (a) captura o tráfego da rede, (b) observa a ocorrência dos traços programados e (c) armazena estatísticas sobre a sua ocorrência em uma base de informações de gerenciamento (MIB { Management Information Base). O uso de SNMP permite a recuperação destas informações relativas µa ocorrências dos ataques. A solução apresentada mostrou ser apropriada para resolver duas classes de problemas dos sistemas de detecção de intrusão: o excesso de falsos positivos e a dificuldade em se modelar certos ataques.