993 resultados para Novas redes de acesso


Relevância:

30.00% 30.00%

Publicador:

Resumo:

A sociedade moderna atual aponta para a necessidade de ajustar a educação ao novo cenário social que se configura. Com o advento tecnológico cada vez mais coevo e necessário é significante somar esforços para ampliar e validar as discussões sobre as Novas Tecnologias da Informação e Comunicação (NTIC), com mais expressividade a Internet, como um dos elementos potencializador do processo de construção do conhecimento na escola. Nesse contexto, o objetivo basilar do presente estudo repousou na compreensão das implicações das NTIC para a construção do conhecimento na esfera educacional. Para tanto, foi realizado um survey com professores e estudantes do Ensino Médio no setor público estadual, Escola Quintino Bocaiúva, em Camocim de São Félix-PE. Foram elaborados questionários com escala Likert, destinados aos 176 estudantes colaboradores, e uma entrevista na modalidade grupo focal, com a participação de 6 docentes. Os dados recolhidos através dos questionários receberam tratamento estatístico em um diálogo comparativo-explicativo com diversos estudos consolidados na literatura científica em diferentes países para aprofundar a visão crítica da inserção das tecnologias na escola. Nesse sentido, os resultados mais expressivos demonstram que a maioria dos estudantes utiliza à Internet com as finalidades de acessar redes sociais (62,6%), participar de chats (50%) e pesquisar conteúdos escolares (58,6%), porém, nesse tipo de atividade, copiar e colar são as estratégias mais usuais (53,4%), sinalizando o baixo nível de criticidade (32,8%) por parte do grupo investigado. Quanto ao material recolhido através da entrevista foi organizado conforme preconiza a Análise de Conteúdo de Bardin e interpretado notadamente à luz da teoria da razão comunicativa de Jünger Habermas. Os achados destacam a pouca utilização das novas tecnologias em contexto pedagógico, notadamente em atividades de estímulo ou criação de estratégias centradas na (re)significação do conhecimento, além de indicar que as condições e as circunstâncias de uso das tecnologias são fatores preditivos para potencializar a construção do conhecimento no processo de escolarização, apenas quando estão intrinsecamente associadas ao uso pedagógico para promoção de sujeitos críticos que sejam capazes de ir além da instrumentalização das tecnologias ou da reprodução da informação para se colocar como produtores de conhecimento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A criação de redes institucionais na história recente da América Latina tem sido um resultado crucial nos processos de construção e consolidação das ciências sociais e educação. Estes processos são explicados no quadro da chamada sociedade do conhecimento e da reflexividade social. Ambos os fenómenos - a configuração de uma sociedade em rede e o acesso crescente à informação - são o produto de um tempo em que produtores de redes sociais e conhecimento são também refletidas em experiências concretas na esfera educativa. Apresentam-se neste artigo - a título exemplificativo e sem tentar esgotar o inventário - alguns casos relevantes de redes institucionais dentro do campo das ciências sociais e da educação no contexto da América Latina. Todos eles são expressão de uma forma de trabalho colaborativo e de um modo dialógico de construir e gerir o conhecimento. Em primeiro lugar, descrevem-se as contribuições de três iniciativas que começam e se desenvolvem a partir da segunda metade do século XX: o Conselho Latino-americano de Ciências sociais (CLACSO), criado em Buenos Aires, em 1964; a Faculdade Latino-americana de Ciências Sociais (FLACSO), criada em 1957, por iniciativa da UNESCO e alguns governos da região; A Rede Latino-americana de Informação e Documentação em Educação (REDUC), fundada em 1977 com o objetivo de preservar a memória da produção educacional na região. Por último, apresentam-se, como uma experiência singular que começa na primeira década do século XXI, as iniciativas em curso da Rede Ibero-americana de investigação em políticas educativas (RIAIPE), criada em 2006, com a participação de instituições de educação superior na América Latina e da Europa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A investigadora fixou o objetivo de se atualizar a nível profissional, por autoformação. Considera ser relevante para o ensino que se aposte em estratégias /atividades inovadoras sob um ponto de vista pedagógico, assentes nas novas tecnologias. Neste contexto, a questão de partida foi: como pode a docente inovar na sua prática pedagógica com impacto no desenvolvimento das suas competências digitais e profissionais? Pode inovar, explorando, a nível educativo, as caraterísticas de uma rede social como o Facebook, que é intuitiva e permite o acesso por computador. Além disso, aposta na natureza ubíqua, desenhada para Tablet ou telemóvel, em mobilidade. Possibilita a comunicação síncrona e assíncrona. Pode ser rentabilizada em dois níveis: no da Web 1.0, para pesquisa e arquivo; e no da Web 2.0, para criação/cocriação. Nesta investigação, o paradigma da Web 2.0 facultou a conceção de uma Wiki e de outros produtos criativos. Sendo inábil em tecnologia digital, a docente investigadora pretendeu inverter a situação ao começar pelo Facebook, que se revelou uma forma muito pragmática de ir aprendendo, paulatinamente, a operar outras ferramentas digitais e de consolidar uma autoformação em espiral ascendente. O Trabalho de Projeto, de que ora se lavra este relatório, seguiu a metodologia de investigação-ação, pelo modelo de Whitehead (1989). Foram cinco fases distintas: desde a identificação do problema até à sua superação, passando pelas fases intermédias de planificação do trabalho e de implementação. A última fase foi a reformulação, isto é, a planificação do ano letivo seguinte, com base na experimentação anterior e nos resultados obtidos. Dos resultados obtidos, destacam-se os seguintes: os discentes empenharam-se nas inovações digital e pedagógica porque compreenderam que a docente as concebeu para eles e eram adequadas às suas capacidades; elucidaram a docente, quando esta teve dúvidas de ordem digital; aprovaram o método eclético que concilia o tradicional com o moderno, sem exageros; apreciaram que a docente se implicasse, conferindo um cunho pessoal às aulas; aceitaram bem a entrada do Facebook em meio escolar, com a associação do telemóvel, para partilha de informação e de conhecimento; o Facebook ajudou a docente a desenvolver as aprendizagens tecnológicas e a comunicar com os alunos; os intervenientes reconheceram que podem criar produtos propositadamente para exibir na página, entrando portanto, na Web 2.0.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O controlo de segurança para preservação da integridade estrutural da barragens é, durante a fase de exploração normal, uma actividade que tem essencialmente como elemento fulcral as inspecções à estrutura e os dados resultantes das observações periódicas da obra, apoiando-se em modelos de comportamento da mesma. Neste sentido, a análise de situações de emergência requer, em regra, a atenção de um especialista em segurança de barragens, o qual poderá, perante os resultados da observação disponíveis e da aplicação de modelos do comportamento da estrutura, identificar o nível de alerta adequado à situação que se está a viver na barragem. Esta abordagem tradicional de controlo de segurança é um processo eficaz mas que apresenta a desvantagem de poder decorrer um período de tempo significativo entre a identificação de um processo anómalo e a definição do respectivo nível de gravidade. O uso de novas tecnologias de apoio à decisão e o planeamento de emergência podem contribuir para minorar os efeitos desta desvantagem. O presente trabalho consiste no desenvolvimento de um modelo de aferição do comportamento de uma barragem através da aplicação de redes neuronais do tipo Perceptrão Multicamadas aos resultados da observação de uma barragem de aterro, por forma a identificar anomalias de comportamento e a quantificar o correspondente nível de alerta. A tese divide-se essencialmente em duas partes. A primeira parte aborda os aspectos que se relacionam com as barragens de aterro, nomeadamente definindo as soluções estruturais mais correntes e identificando os principais tipos de deteriorações que podem surgir nestas estruturas. São, igualmente, abordadas as questões que se relacionam com o controlo de segurança e o planeamento de emergência em barragens de aterro. A segunda parte do trabalho versa sobre o modelo de rede neuronal desenvolvido em linguagem de programação java – o modelo ALBATROZ. Este modelo permite definir o nível de alerta em função do nível de água na albufeira, da pressão registada em quatro piezómetros localizados no corpo e na fundação da barragem e do caudal percolado através da barragem e respectiva fundação. Nesta parte, o trabalho recorre, aos resultados da observação da barragem de Valtorno/Mourão e usa os resultados de um modelo de elementos finitos (desenvolvido no Laboratório Nacional de Engenharia Civil, no âmbito do plano de observação da obra) por forma a simular o comportamento da barragem e fornecer dados para o treino da rede neuronal desenvolvida.O presente trabalho concluiu que o desenvolvimento de redes neuronais que relacionem o valor registado em algumas das grandezas monitorizadas pelo sistema de observação com o nível de alerta associado a uma situação anómala na barragem pode contribuir para a identificação rápida de situações de emergência e permitir agir atempadamente na sua resolução. Esta característica transforma a redes neuronais numa peça importante no planeamento de emergência em barragens e constitui, igualmente, um instrumento de apoio ao controlo de segurança das mesmas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Valendo-me das categorias da Economia das trocas simbólicas, propostas por Bourdieu, pretendo desenvolver neste artigo uma breve análise das trocas simbólicas produzidas em um novo ambiente sócio-técnico (a internet) e como ele tornou possível o surgimento de um espaço virtual de coalizões (redes de interagentes). Nesse sentido, torna-se fundamental pensar a complexa integração entre as trocas simbólicas no mundo "off-line" e "on-line" que disputam o acesso à produção, apropriação e distribuição universal de novos tipos de recursos mais ou menos escassos. Procuro analisar,brevemente, a relação entre a promessa de abundância e certos tipos de escassez encontrados no ciberespaço e a colocação de uma questão que considero fundamental: a arquitetura distribuída da rede eliminaria totalmente a necessidade de representação e delegação ou estabeleceria diferentes filtros e modalidades de organização e seleção de porta-vozes em novos tipos de comunidades?

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação apresentada ao Programa de Mestrado em Comunicação da Universidade Municipal de São Caetano do Sul - USCS

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação apresentada ao Programa de Pós-Graduação em Administração da Universidade Municipal de São Caetano do Sul

Relevância:

30.00% 30.00%

Publicador:

Resumo:

E-book disponível na íntegra em: http://politicom.com.br/wp-content/uploads/2012/02/ebookpoliticomunisal.pdf#page=64

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação de mestrado apresentada ao Programa de Pós-Graduação em Administração da USCS - Universidade Municipal de São Caetano do Sul

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O gerenciamento de redes de computadores é uma tarefa complexa de ser realizada porque a redes atualmente possuem muitos equipamentos, protocolos, serviços e usuários. Como regra geral, redes de computadores são heterogêneas e a introdução de facilidades para o fornecimento de qualidade de serviço (QoS) faz com que a gerência de redes se torne ainda mais complexa, e neste cenário as soluções tradicionais de gerenciamento podem falhar. O gerenciamento de redes com QoS vem sendo investigado por diversos grupos, e soluções comerciais para o problema já podem ser encontradas. Entretanto, a gerência de QoS possui aspectos diversos que são investigados separadamente. Do ponto de vista do administrador de redes, soluções pontuais são importantes, mas a integração entre os diversos aspectos de gerência de QoS também é uma necessidade. Tal necessidade, entretanto, não tem encontrado respaldo nas pesquisas desenvolvidas ou nos produtos de gerenciamento disponibilizados no mercado. Nesta situação, o administrador da rede é obrigado a trabalhar ao mesmo tempo com soluções disjuntas que não oferecem integração. Isso acaba por complicar a gerência de QoS, que por si só já é uma atividade complexa. QoS e discutida a necessidade de integração. As soluções existentes e pesquisas desenvolvidas são classificadas para que possam ser mais bem avaliadas em uma visão mais global. A classificação realizada organiza os aspectos de QoS em tarefas de gerência de QoS que devem ser executadas por um administrador de redes que possuam facilidades de QoS. Para que a integração das tarefas de gerência de QoS seja possível, um modelo para gerência integrada de QoS em redes de computadores é proposto. O modelo, definido em camadas, utiliza elementos distribuídos na rede para executar tarefas específicas e um ambiente de gerência central fornece uma interface única de acesso ao sistema de gerência ao administrador da rede. O modelo proposto é analisado de acordo com alguns aspectos (por exemplo, em relação à sua escalabilidade, flexibilidade e exeqüibilidade). Uma implementação do mesmo é apresentada para a gerência de redes baseadas em IP que possuam mecanismos para fornecimento de QoS. A avaliação do modelo mostra, ao final, que a gerência de QoS, além de ser uma necessidade real, é possível de ser executada de forma integrada, como desejam os administradores de rede.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Atualmente, a sociedade tem experimentado uma grande transformação devido à crescente incorporação da tecnologia em seu cotidiano. Estas mudanças demonstram o grande avanço tecnológico experimentado nas últimas décadas, principalmente na área de Redes e Telecomunicações. Este contexto tem gerado uma crescente procura por profissionais desta área, com um perfil que privilegie, além do conhecimento técnico, outras habilidades consideradas importantes, como o pensamento crítico, o auto-aprendizado e a habilidade para trabalhar em equipe, habilidades estas que não são normalmente focadas nos cursos atuais. Estas habilidades são estimuladas nas abordagens centradas nos alunos, com destaque ao Problem-Based Learning (PBL), uma abordagem na qual o aluno é exposto a problemas, sem nenhum conhecimento prévio, e que, para resolvê-los, precisa pesquisar e analisar novas informações, visando sua aplicação na solução dos mesmos. Apesar da grande utilização do PBL em diversas instituições no mundo, existem poucas ferramentas de software que dão apoio para sua total aplicação. Por outro lado, mesmo sendo bem estruturado, o PBL não sugere indicações de como assimilar melhor novas experiências, de como buscar o conhecimento em experiências anteriores e como desenvolver problemas atuais e interessantes com características reais. Estas dificuldades podem ser minimizadas com a utilização do CBR (Case-Based Reasoning). Entre as aplicações CBR desenvolvidas especificamente na área de Redes de Computadores, pode-se destacar o sistema DUMBO, um sistema CBR, desenvolvido na UFRGS, especificamente para o diagnóstico de problemas em Redes de Computadores. A integração com o DUMBO permite à abordagem PBL ser aplicada com maior eficiência, utilizando sua biblioteca de casos como ferramenta de pesquisa e para a sugestão de novos problemas a partir de casos reais e atuais. Com base nestas afirmações, este trabalho apresenta a proposta e o desenvolvimento de um protótipo de ambiente de aprendizado para o ensino de Redes de Computadores, utilizando a abordagem PBL em conjunto com a abordagem CBR através do sistema DUMBO.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O surgimento de novas aplicações que utilizam o protocolo HTTP nas suas transações e a crescente popularidade da World Wide Web (WWW) provocaram pesquisas pelo aumento do desempenho de servidores Web. Para tal, uma das alternativas propostas neste trabalho é utilizar um conjunto de servidores Web distribuídos que espalham a carga de requisições entre vários computadores, atuando como um só associado a uma estratégia de replicação de conteúdo. Um dos problemas centrais a ser resolvido em servidores Web distribuídos é como manter a consistência das réplicas de conteúdo entre os equipamentos envolvidos. Esta dissertação apresenta conceitos fundamentais envolvendo o tema replicação de conteúdo em servidores Web distribuídos. São mostrados detalhes sobre arquitetura de servidores Web distribuídos, manutenção da consistência em ambientes de servidores Web distribuídos, uso de replicação e formas de replicação. Além disso, são citados alguns trabalhos correlatos ao propósito de manter réplicas consistentes em ambientes de servidores Web distribuídos. Este trabalho tem por objetivo propor um modelo de manutenção da consistência de conteúdo em servidores Web distribuídos com características de transparência e autonomia. O modelo, denominado One Replication Protocol for Internet Servers (ORPIS), adota uma estratégia de propagação otimista porque não existe sincronismo no envio das atualizações para as réplicas. Este trabalho apresenta os principais componentes tecnológicos empregados na Web, além dos problemas causados pela escalabilidade e distribuição inerentes a esse ambiente. São descritas as principais técnicas de aumento de desempenho de servidores Web que atualmente vêm sendo utilizadas. O modelo ORPIS é descrito, sendo apresentados seus pressupostos, elencados seus componentes e detalhados os seus algoritmos de funcionamento. Este trabalho dá uma visão geral sobre a implementação e os testes realizados em alguns módulos do protótipo do modelo, caracterizando o ambiente de desenvolvimento do protótipo e detalhes da implementação. São enumerados os atributos e métodos das classes do protótipo e definidas as estruturas de dados utilizadas. Além disso, apresentam-se os resultados obtidos da avaliação funcional dos módulos implementados no protótipo. Um ponto a ser salientado é a compatibilidade do modelo ORPIS aos servidores Web existentes, sem a necessidade de modificação em suas configurações. O modelo ORPIS é baseado na filosofia de código aberto. Durante o desenvolvimento do protótipo, o uso de software de código aberto proporcionou um rápido acesso às ferramentas necessárias (sistema operacional, linguagens e gerenciador de banco de dados), com possibilidade de alteração nos códigos fonte como uma alternativa de customização.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O acesso integrado a informações provenientes de banco de dados autônomos e heterogêneos, localizadas em diferentes ambientes de hardware e software, vem sendo amplamente pesquisado pela comunidade de banco de dados, com diversas soluções propostas. A maioria delas baseia-se na comparação e na integração ou mapeamento dos esquemas conceituais dos bancos de dados participantes, implementados através de uma camada adicional de software, em um nível superior ao dos bancos de dados existentes. Inicialmente, as metodologias de acesso integrado eram limitadas às informações provenientes de banco de dados. Entretanto, com o crescimento das redes de computadores e, conseqüentemente, com a intensa utilização da Internet, novas fontes de informações passaram a ser utilizadas neste ambiente, tais como fontes de dados semi-estruturadas. Estender o acesso integrado também a esses tipos de informações tornou-se importante. Este trabalho tem como objetivo propor a utilização de um metamodelo XML como modelo de dados canônico, através do qual é possível obter a representação conceitual dos esquemas de exportação provenientes de bancos de dados relacionais, objeto-relacionais e documentos XML, permitindo, desta forma, o acesso integrado a fontes de dados estruturadas e semi-estruturadas, a partir de metodologias inicialmente voltadas à interoperabilidade de banco de dados heterogêneos. Além do metamodelo apresentado, este trabalho incluiu o desenvolvimento da ferramenta XML Integrator, cujo objetivo é fornecer ao usuário mecanismos de apoio ao processo conversão dos esquemas conceituais locais de fontes de dados heterogêneas para o Metamodelo XML, bem como de extração de um esquema conceitual correspondente a um documento XML ou a uma classe de documentos XML. Para isso, a ferramenta utiliza interfaces gráficas, que guiam o usuário através dos diversos passos, desde a seleção da fonte de dados a ser convertida, até a geração do esquema de exportação propriamente dito.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta Tese apresenta o SAM (Sistema Adaptativo para Multimídia), que consiste numa ferramenta de transmissão e recepção de sinais multimídia através de redes de computadores. A ferramenta pode ser utilizada para transmissões multimídia gravadas (vídeo sob demanda) ou ao vivo, como aulas a distância síncronas, shows e canais de TV. Seu maior benefício é aumentar o desempenho e a acessibilidade da transmissão, utilizando para isso um sinal codificado em camadas, onde cada camada é transmitida como um grupo multicast separado. O receptor, utilizando a ferramenta, adapta-se de acordo com a sua capacidade de rede e máquina no momento. Assim, por exemplo, um receptor com acesso via modem e outro via rede local podem assistir à transmissão na melhor qualidade possível para os mesmos. O principal foco da Tese é no algoritmo de controle de congestionamento do SAM, que foi denominado ALM (Adaptive Layered Multicast). O algoritmo ALM tem como objetivo inferir o nível de congestionamento existente na rede, determinando a quantidade de camadas que o receptor pode suportar, de forma que a quantidade de banda recebida gere um tráfego na rede que seja eqüitativo com outros tráfegos ALM concorrentes, ou outros tráfegos TCP concorrentes. Como se trata de transmissões multimídia, é desejável que a recepção do sinal seja estável, ou seja, sem muitas variações de qualidade, entretanto, o tráfego TCP concorrente é muito agressivo, dificultando a criação de um algoritmo estável. Dessa forma, desenvolveu-se dois algoritmos que formam o núcleo desta Tese: o ALMP (voltado para redes privativas), e o ALMTF (destinado a concorrer com tráfego TCP). Os elementos internos da rede, tais como os roteadores, não necessitam quaisquer modificações, e o protocolo funciona sobre a Internet atual. Para validar o método, se utilizou o software NS2 (Network Simulator), com modificações no código onde requerido. Além disso, efetuou-se uma implementação inicial para comparar os resultados das simulações com os da implementação real. Em http://www.inf.unisinos.br/~roesler/tese e também no CD anexo a esta Tese, cuja descrição encontra-se no Anexo B, podem ser encontrados todos os programas de apoio desenvolvidos para esta Tese, bem como a maior parte da bibliografia utilizada, o resultado das simulações, o código dos algoritmos no simulador e o código do algoritmo na implementação real.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A institucionalização de acervos particulares de artistas não é um fenômeno recente, mas esse processo se acelerou nos últimos 30 anos. As transformações sociais decorrentes do estabelecimento de uma ordem econômica globalizada criaram novas regras no universo das organizações culturais. Este trabalho é o resultado de uma pesquisa sobre instituições responsáveis por gerir acervos de artistas contemporâneos realizada com o objetivo de encontrar diretrizes para a constituição de uma iniciativa da mesma ordem: o Ateliê Carlos Vergara. O tema foi examinado com base em entrevistas com cinco artistas plásticos brasileiros e em um levantamento sobre a trajetória de Carlos Vergara e de seu ateliê. Algumas questões relacionadas à organização e à preservação dos acervos, à sustentabilidade das instituições, ao papel dos herdeiros em sua gestão, assim como ao alinhamento dessas iniciativas aos princípios dos artistas, são discutidas neste texto.