999 resultados para Arquitetura não-hierárquica (Rede de computador)


Relevância:

30.00% 30.00%

Publicador:

Resumo:

OBJETIVO: Analisar fatores associados à prática de atividade física e ao tempo médio despendido com algumas atividades sedentárias em escolares. MÉTODOS: Estudo transversal em amostra representativa de 592 escolares de nove a 16 anos em São Luís, MA em 2005. Os dados foram coletados por meio de Inquérito de Atividade Física Recordatório de 24h, contendo variáveis demográficas, socioeconômicas, atividades físicas praticadas e tempo despendido com algumas atividades sedentárias. As atividades físicas foram classificadas de acordo com seu equivalente metabólico (MET) e obteve-se o Índice de Atividade Física para cada escolar. O sedentarismo foi avaliado pelo tempo despendido com TV/computador/jogos. Para comparações entre proporções, utilizou-se o teste do qui-quadrado. Aplicou-se análise de regressão linear para se estabelecerem associações. As estimativas foram corrigidas pelo efeito do desenho amostral. RESULTADOS: A média geral do índice de Atividade Física foi 605,73 MET-min/dia (DP = 509,45). Escolares do sexo masculino (coeficiente = 134,57; IC95% 50,77; 218,37), da rede pública (coeficiente = 94,08; IC95% 12,54; 175,62) e o grupo do 5º ao 7º ano (coeficiente = 95,01; IC95% 8,10;181,92) apresentaram maiores índices quando comparados ao sexo feminino, à rede privada e ao grupo do 8º ao 9º ano, respectivamente (p < 0,05). Em média, os escolares permaneceram 2,66 horas/dia em atividades sedentárias. O tempo nessas atividades diminuiu de maneira significativa no grupo de nove a 11 anos (coeficiente = -0,49 h/dia; IC95% -0,88; -0,10) e nas classes econômicas mais baixas (coeficiente = -0,87; IC95% -1,45;-0,30). Tarefas domésticas (59,4%) e deslocamento a pé para a escola (58,4%) foram as atividades físicas mais citadas. CONCLUSÕES: Ser do sexo feminino, pertencer à rede privada de ensino e ao grupo do 8º ao 9º ano foram fatores associados a menor nível de atividade física. Escolares de menor idade e pertencentes à classe econômica mais baixa gastaram menos tempo em atividades sedentárias.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

No passado, as acções publicitárias eram rotuladas como above the line e below the line, referindo-se à dicotomia de pontos de contacto com os públicos-alvo via Meios de Comunicação Social ou via Ponto de Venda. A esta dicotomia de meios e instrumentos, os anos 90 vieram trazer um terceiro ponto de contacto, crescentemente omnipresente e hegemónico, a world wide web ou rede, a que se acedia via computador. As acções de marketing e comunicação passaram então a rotular-se como online e offline, passando, não já a referir-se aos pontos de contacto, mas aos canais pelos quais circulavam as mensagens e acções das marcas. Desde o início deste século, o poder do digital veio crescendo, em software e hardware, em terminais e tecnologias, assistindo-se a uma transferência de esforços de comunicação, da esfera real para a esfera do digital. O deslumbramento pelo digital conquistou mesmo algumas marcas de dimensão mundial que hoje apostam integralmente o seu orçamento nesta forma de marketing, nas suas múltiplas facetas. Contudo, e porque se tem tornado óbvio que os públicos distribuem os seus favores por múltiplos touch points, para maximizar o impacto, assiste-se agora a um fenómeno único, potenciado por novas tecnologias que surgem todos os dias: em estratégias que se podem denominar de all-line, verifica-se a fusão entre dois mundos, mundo real e mundo digital, em múltiplas actividades de marketing que fazem convergir estas duas realidades em plataformas que vão do computador ao tablet, do smartphone à vending machine interactiva, do facebook ao Google maps, da imprensa tradicional ao pinterest. É esta convergência mundo real - mundo digital que abre agora novas oportunidades à comunicação publicitária, potenciando os ingredientes das marcas de sucesso no futuro: sensações (estímulo dos sentidos), intimidade e mistério, num cocktail suportado por uma nova criatividade.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação apresentada para cumprimento dos requisitos necessários à obtenção do grau de Mestre em Ciências da Comunicação

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este documento contém todo o estudo e planeamento para a implementação de um novo sistema de monitorização e alarmística, desenvolvido para o serviço de informática, no decorrer do estágio profissional no Instituto Português de Oncologia do Porto. Observou-se que o sistema já existente, apesar de facilitar algumas ações da equipa, apresentava muitas lacunas, mas ao mesmo tempo uma boa abertura para evolução. A criação desse sistema teve que contemplar um conjunto de objetivos que levaram a elaboração de estudos, permitindo uma análise e fundamento na tomada de decisões e na criação de tarefas e testes. É apresentado também um estudo de uma nova arquitetura, pois devido a falta de recursos que a solução já implementada tinha, que permitisse ao serviço de informática obter um sistema robusto, redundante, fiável, seguro e sempre disponível.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os sistemas computacionais ligados através da rede precisam, cada vez mais, de medidas e mecanismos de protecção que os permitem realizar as suas tarefas de acordo com os objectivos traçados pelos indivíduos ou organizações que os utilizam. Neste sentido, os Intrusion Detection System (IDS) ou Sistemas de Detecção de Intrusão desempenham um papel preponderante na monitorização contínua de actividades de um sistema pretendendo, essencialmente, garantir a autenticidade, confidencialidade, integridade e, sobretudo, a disponibilidade dos seus recursos. O presente trabalho apresenta um estudo sobre os Sistemas de Detecção de Intrusões, apresentando ainda um caso de estudo sobre a Rede Multimédia da Universidade Jean Piaget de Cabo Verde, estudo esse que incide sobre uma ferramenta Open Source, o Snort

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As redes neurais supervisionadas são compostas por unidades de processamento organizadas de forma paralela, em que cada uma delas computa determinadas funções matemáticas. As unidades são organizadas em camadas e ligadas por pesos sinápticos que ponderam as entradas, buscando ajustá-los a um padrão de saída previamente estabelecido. É fundamental a correta definição do número de camadas e da quantidade de neurônios em cada uma delas, uma vez que o treinamento é influenciado diretamente por esses parâmetros. Para explorar esse ponto, dados de cubagem de cinco empresas diferentes foram reunidos em uma planilha e, de forma aleatória, divididos em conjunto de treinamento e conjunto de validação. Os dados foram apresentados para três redes com arquiteturas diferentes. A avaliação foi feita por meio de gráficos de resíduos e teste t (p< = 0,05). Com base nos resultados, foi possível concluir que, para obter estimativas de volume por árvore, a rede neural deve ser construída com mais de 10 neurônios na primeira camada, sendo recomendado o uso de mais de uma camada intermediária.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho traz o desenvolvimento de ferramenta computacional de auxílio ao planejamento energético na eletrificação rural, tendo como referência os principais softwares disponíveis no mercado mundial e citados na literatura científica. Após identificar as principais limitações dos mesmos, obteve-se um produto em português, que compara a extensão da rede convencional de energia elétrica às principais modalidades de geração elétrica de pequeno porte em uso no Brasil. Traz a inovação do dimensionamento e do uso da geração de energia elétrica a partir da produção de biogás no local. Para validação do programa, foram comparados os resultados obtidos pela mesma em dois estudos de casos reais de eletrificação rural.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O grande desafio da atual sociedade da informação é gerir novas abordagens de produção, organização, circulação e recuperação da informação, com recurso às Tecnologias de Informação e Comunicação. Com base neste pressuposto, o presente estudo é desenvolvido a partir da necessidade das unidades navais terem acesso imediato à informação atualizada de caráter técnico, em formato digital, para a resolução de problemas a bordo e para apoio à tomada de decisão. Face à constatação do crescente número de pedidos de acesso à documentação em formato digital, rapidamente se verificou ser essencial implementar uma metodologia que permitisse o seu acesso expedito e em tempo útil, sem restrições espacio-temporais, e que fosse dinâmico na atualização do seu conteúdo documental. Neste sentido, procedeu-se à desmaterialização dos documentos técnicos, por meio da digitalização, com reconhecimento ótico de caracteres, anexação de metadados e classificação e arquivo digital destes documentos, com vista à adoção do padrão internacional para arquivos digitais a longo prazo: o Portable Document Format/Archiving (PDF/A). A desmaterialização dos documentos técnicos implica a identificação dos circuitos e fluxos de informação, das tipologias documentais envolvidas e das responsabilidades associadas a cada atividade, no sentido de simplificar e racionalizar os procedimentos e consequentemente reajustar esses fluxos de informação, sendo fundamental a implementação de sistemas de gestão que promovam a interoperabilidade e a troca de informação. Desta forma, com o decorrer do estudo, identificando e fazendo uso de sistemas e aplicações já existentes no contexto militar naval, pretende-se efetuar a organização e implementação de uma rede global de informação para o Arquivo Técnico da Direcção de Navios, da Base Naval de Lisboa. Considera-se que este trabalho poderá contribuir para a continuidade da reflexão já existente sobre a desmaterialização dos arquivos e divulgação mais sustentada da informação que estes detêm, através de uma arquitetura relacional dos sistemas de gestão de documentos digitais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta pesquisa aconteceu a partir de uma lista de discussão, em rede telemática, entre professores da 4ª série do ensino fundamental de três escolas da região central do Estado do Rio Grande do Sul. Neste espaço de interação virtual, tínhamos como objetivo estudar como se instituíam as condições para emergência de novos sentidos, possibilitadores de uma dinâmica auto-organizativa do próprio espaço de interação, assim como seus extravasamentos para as práticas em situação pedagógica. Os referenciais teóricos, que deram sustentação a este estudo, encontram seus fundamentos na Epistemologia Genética de Jean Piaget e nas aproximações realizadas pelo próprio autor, com as teorias da complexidade, especialmente a teoria do caos e dos sistemas dinâmicos auto-organizativos. Na análise dos dados coletados no interior da lista, foi possível observar que o próprio espaço de interação telemática (definido pela lista de discussão) tornou-se operador das interações/reflexões dialógicas, entre professores (S x S) e entre suas práticas em situações pedagógicas (S x O). Os movimentos interativos/reflexivos, num misto de encontros/desencontros de idéias e sentidos, instituíram uma zona de interação telemática (zit). Por conseguinte, devido a multiplicidade de pontos de vista e de espaços-tempos visibilizados nesta zit, novos modos de pensar e de agir abriam-se para um campo virtual de possibilidades (Copntinuação) O que estava inicialmente fragmentado, solto, desorganizado, disperso, sem um sentido aparente e com operadores restringindo as aproximações integrativas (característico das condutas α), aos poucos foi conquistando coerência e estabilidade, integrando os desvios e as perturbações nestas novas construções e aproximando os professores de condutas β e γ. Enfim, a zit configurava suas fronteiras provisórias, apenas nas circularidades complexas, nos estados estacionários (aberturas e fechamentos coexistindo), que emergiam no devir das interações/reflexões partilhadas. Novas perspectivas tornaram-se possíveis e o professor podia, então, deslocar-se em relação a si, ao outro (colegas, autores...) e a própria prática, conquistando metapontos de vista. O que, de um determinado lugar, era restritor e limitava as interações/reflexões, de outro, tornava-se objeto tematizado para meta-reflexões. As oscilações acabaram por produzir novas estabilidades em meio às instabilidades, dessa forma instituindo a própria zit como um operador para os processos de emergência e produções de sentidos. Este estudo é, também, uma contribuição ao uso crítico/criativo das novas tecnologias na educação, enquanto possibilitadora de novos sentidos nas transformações político-pedagógicas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho investiga a aplicação de métodos e técnicas de correlação de alarmes na detecção e diagnóstico de falhas em sistemas supervisionados por computador. Atualmente, alguns centros de supervisão ainda não se utilizam destas técnicas para o tratamento das informações recebidas de suas redes de supervisão, ficando para os operadores a responsabilidade de identificar estas correlações. Com o crescente volume de informações recebidas pelos centros de supervisão, devido ao aumento da heterogeneidade e do número de equipamentos supervisionados, torna a identificação manual da correlação dos alarmes lenta e pouco precisa. Objetivando melhorar a qualidade do serviços prestados pelos centros de supervisões, este trabalho propõe o uso de uma rede Bayesiana como método de correlação de alarmes e uma técnica de limitação de escopo para atingir uma melhor performance na propagação desta correlação. Através dos conceitos desenvolvidos neste trabalho, foi implementado um protótipo de correlação de alarmes para um sistema de supervisão existente no mercado, neste protótipo modela-se a rede Bayesiana em um banco de dados relacional e, como resultado desta implementação apresenta-se a interface desenvolvida para a supervisão.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O avanço tecnológico no projeto de microprocessadores, nos recentes anos, tem seguido duas tendências principais. A primeira tenta aumentar a freqüência do relógio dos mesmos usando componentes digitais e técnicas VLSI mais eficientes. A segunda tenta explorar paralelismo no nível de instrução através da reorganização dos seus componentes internos. Dentro desta segunda abordagem estão as arquiteturas multi-tarefas simultâneas, que são capazes de extrair o paralelismo existente entre e dentro de diferentes tarefas das aplicações, executando instruções de vários fluxos simultaneamente e maximizando assim a utilização do hardware. Apesar do alto custo da implementação em hardware, acredita-se no potencial destas arquiteturas para o futuro próximo, pois é previsto que em breve haverá a disponibilidade de bilhões de transistores para o desenvolvimento de circuitos integrados. Assim, a questão principal a ser encarada talvez seja: como prover instruções paralelas para uma arquitetura deste tipo? Sabe-se que a maioria das aplicações é seqüencial pois os problemas nem sempre possuem uma solução paralela e quando a solução existe os programadores nem sempre têm habilidade para ver a solução paralela. Pensando nestas questões a arquitetura SEMPRE foi projetada. Esta arquitetura executa múltiplos processos, ao invés de múltiplas tarefas, aproveitando assim o paralelismo existente entre diferentes aplicações. Este paralelismo é mais expressivo do que aquele que existe entre tarefas dentro de uma mesma aplicação devido a não existência de sincronismo ou comunicação entre elas. Portanto, a arquitetura SEMPRE aproveita a grande quantidade de processos existentes nas estações de trabalho compartilhadas e servidores de rede. Além disso, esta arquitetura provê suporte de hardware para o escalonamento de processos e instruções especiais para o sistema operacional gerenciar processos com mínimo esforço. Assim, os tempos perdidos com o escalonamento de processos e as trocas de contextos são insignificantes nesta arquitetura, provendo ainda maior desempenho durante a execução das aplicações. Outra característica inovadora desta arquitetura é a existência de um mecanismo de prébusca de processos que, trabalhando em cooperação com o escalonamento de processos, permite reduzir faltas na cache de instruções. Também, devido a essa rápida troca de contexto, a arquitetura permite a definição de uma fatia de tempo (fatia de tempo) menor do que aquela praticada pelo sistema operacional, provendo maior dinâmica na execução das aplicações. A arquitetura SEMPRE foi analisada e avaliada usando modelagem analítica e simulação dirigida por execução de programas do SPEC95. A modelagem mostrou que o escalonamento por hardware reduz os efeitos colaterais causados pela presença de processos na cache de instruções e a simulação comprovou que as diferentes características desta arquitetura podem, juntas, prover ganho de desempenho razoável sobre outras arquiteturas multi-tarefas simultâneas equivalentes, com um pequeno acréscimo de hardware, melhor aproveitando as fatias de tempo atribuídas aos processos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O desenvolvimento tecnológico do setor construção civil no Brasil não tem sido acompanhado de ações sistemáticas de formação/qualificação profissional de seus trabalhadores em níveis compatíveis com os novos padrões técnico/industriais. Aportes provenientes de várias áreas do conhecimento podem contribuir para a reversão dessa situação. De caráter interdisciplinar, envolvendo arquitetura, construção civil, educação e informática, este trabalho investiga como os recursos informáticos e telemáticos podem contribuir para a qualificação de trabalhadores da indústria da construção civil. Abordando um tema específico – leitura e interpretação de plantas arquitetônicas –, investiga as possibilidades que essas novas tecnologias podem oferecer para ações de qualificação de trabalhadores, bem como verifica as condições em que esses se apropriam dos recursos que serão predominantes nos processos de trabalho no milênio que se inicia. Adotando um referencial construtivista, foi projetado e aplicado um experimento, consistindo de um site na Internet e de um programa de desenho, em que os participantes não apenas tomam contato passivamente com diversos conteúdos relativos à sua atuação profissional, mas contribuem com seus conhecimentos tanto na definição dos temas e tópicos a serem abordados quanto na produção de conhecimentos relativos aos temas propostos, fazendoos participantes ativos e não meros leitores. Recursos como animações, imagens sobrepostas, textos, etc. são empregados para apresentar os princípios fundamentais da representação prévia do espaço construído As participações dos usuários são registradas por meio de formulários, cujos textos produzidos são disponibilizados posteriormente aos demais participantes. Os resultados obtidos dão conta da viabilidade de iniciativas dessa natureza em ações que façam uso da rede mundial de computadores para a qualificação de trabalhadores, contribuindo para a superação de desequilíbrios na distribuição dos recursos de formação.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho propõe a utilização da arquitetura Trace como um sistema de detecção de intrusão. A arquitetura Trace oferece suporte ao gerenciamento de protocolos de alto nível, serviços e aplicações através de uma abordagem baseada na observação passiva de interações de protocolos (traços) no tráfego de rede. Para descrever os cenários a serem monitorados, é utilizada uma linguagem baseada em máquinas de estado. Esta linguagem permite caracterizar aspectos observáveis do tráfego capturado com vistas a sua associação com formas de ataque. O trabalho mostra, através de exemplos, que esta linguagem é adequada para a modelagem de assinaturas de ataques e propõe extensões para permitir a especificação de um número maior de cenários ligados ao gerenciamento de segurançaa. Em seguida, é descrita a implementação do agente de monitoração, componente-chave da arquitetura Trace, e sua utilização para detectar intrusões. Esse agente (a) captura o tráfego da rede, (b) observa a ocorrência dos traços programados e (c) armazena estatísticas sobre a sua ocorrência em uma base de informações de gerenciamento (MIB { Management Information Base). O uso de SNMP permite a recuperação destas informações relativas µa ocorrências dos ataques. A solução apresentada mostrou ser apropriada para resolver duas classes de problemas dos sistemas de detecção de intrusão: o excesso de falsos positivos e a dificuldade em se modelar certos ataques.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho apresenta a proposta e a implementação de um sistema de gerência de energia para redes locais de computadores (Local Area Networks ou LANs). Desde sua introdução, no início dos anos 90, os mecanismos de gerência de energia para computadores têm contribuído de maneira significativa para a redução do consumo nos períodos de inatividade, mas podem ter seu efeito minimizado por uma série de fatores, dentre os quais destaca-se a conexão do equipamento a uma rede. Em linhas gerais, o objetivo do sistema proposto é, justamente, facilitar a gerência de energia em ambientes de rede. O funcionamento do sistema é baseado na aplicação de políticas de consumo definidas pelo administrador da rede. As políticas podem ser aplicadas em duas situações distintas: em horários pré-determinados (p. ex. depois do horário comercial), quando podem ajudar a reduzir o desperdício de energia, ou em resposta a alterações no fornecimento de energia, caso a rede seja protegida por no-breaks, quando a redução no consumo resulta em maior tempo de autonomia da fonte reserva (banco de baterias). As políticas são configuradas através de um mecanismo flexível, que permite não apenas desligar os equipamentos, mas colocá-los em estados intermediários de consumo e executar outros tipos de ações. A arquitetura do sistema é baseada no modelo SNMP (Simple Network Management Protocol) de gerência de redes. É composta, basicamente, de agentes, elementos de software que residem nos equipamentos da rede e detêm o conhecimento específico sobre suas características de consumo de eletricidade, e de um gerente, elemento central que contém a configuração das políticas de consumo e que é responsável pelo monitoramento e controle dos agentes. Gerente e agentes comunicam-se através do protocolo SNMP, trocando informações segundo uma base de informações (MIB) projetada especificamente para a gerência de energia. A ênfase da parte prática do trabalho está no gerente, que foi inteiramente implementado através da linguagem Java, utilizando bibliotecas disponíveis gratuitamente. Adicionalmente, foi implementado um agente-protótipo para a plataforma Windows, o que permitiu observar o sistema completo em execução. Os testes permitiram validar a praticabilidade da arquitetura e estimar o ganho potencial proporcionado pela utilização do sistema. São apresentadas medições que demonstram um aumento de até 6 vezes na autonomia do banco de baterias do no-break para uma configuração de rede pequena, utilizando o sistema para desligar automaticamente 90% dos computadores durante um corte no fornecimento externo. A economia decorrente da redução de consumo em horários de inatividade foi estimada em até R$0,63 por computador no período de um ano (tomando por base a tarifa média praticada no Brasil entre janeiro e maio de 2002).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A popularização das tecnologias de acesso à Internet por “banda larga” suportam a crescente proliferação de aplicações do tipo “par-a-par” (peer-to-peer), onde o usuário doméstico, tipicamente consumidor de informação, passa também a atuar como provedor. De forma simultânea, há uma popularização crescente dos jogos em rede, especialmente dos “jogos maciçamente multijogador” (MMG ou massively multiplayer game) onde milhares de jogadores interagem, em tempo real, em mundos virtuais de estado persistente. Os MMGs disponíveis atualmente, como EverQuest e Ultima Online, são implementados como sistemas centralizados, que realizam toda a simulação do jogo no “lado servidor”. Este modelo propicia controle de acesso ao jogo pelo servidor, além de ser muito resistente a jogadores trapaceiros. Porém, a abordagem cliente-servidor não é suficientemente escalável, especialmente para pequenas empresas ou projetos de pesquisa que não podem pagar os altos custos de processamento e comunicação dos servidores de MMGs centralizados. Este trabalho propõe o FreeMMG, um modelo híbrido, cliente-servidor e par-a-par, de suporte a jogos maciçamente multijogador de estratégia em tempo real (MMORTS ou massively multiplayer online real-time strategy). O servidor FreeMMG é escalável pois delega a maior parte da tarefa de simulação do jogo para uma rede par-apar, formada pelos clientes. É demonstrado que o FreeMMG é resistente a certos tipos de trapaças, pois cada segmento da simulação distribuída é replicado em vários clientes. Como protótipo do modelo, foi implementado o jogo FreeMMGWizards, que foi utilizado para gerar testes de escalabilidade com até 300 clientes simulados e conectados simultaneamente no mesmo servidor Os resultados de escalabilidade obtidos são promissores, pois mostram que o tráfego gerado em uma rede FreeMMG, entre servidor e clientes, é significativamente menor se comparado com uma alternativa puramente cliente-servidor, especialmente se for considerado o suporte a jogos maciçamente multijogador de estratégia em tempo real.