911 resultados para Redes Definidas por Software


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Sistemas de recomendação baseados cooperação indireta podem ser implementados em bibliotecas por meio da aplicação de conceitos e procedimentos de análise de redes. Uma medida de distância temática, inicialmente desenvolvida para variáveis dicotômicas, foi generalizada e aplicada a matrizes de co-ocorrências, permitindo o aproveitando de toda a informação disponível sobre o comportamento dos usuários com relação aos itens consultados. Como resultado formaram-se subgrupos especializados altamente coerentes, para os quais listas-base e listas personalizadas foram geradas da maneira usual. Aplicativos programáveis capazes de manipularem matrizes, como o software S-plus, foram utilizados para os cálculos (com vantagens sobre o software especializado UCINET 5.0), sendo suficientes para o processamento de grupos temáticos de até 10.000 usuários.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O fornecimento de facilidades de QoS em redes de computadores tem por objetivo introduzir níveis das garantias que são ausentes, por exemplo, no paradigma de melhor-esforço das redes IP. Diferentes arquiteturas de QoS possuem padrões diferentes para os serviços fornecidos, que conduzem a um cenário em que a QoS prevista não possa ser sempre fornecida corretamente pela arquitetura utilizada. Neste contexto, uma monitoração da QoS é necessária para verificar a QoS observada e para compará-la com a QoS esperada/ contratada. Em uma rede que utilize gerenciamento baseado em políticas, a QoS esperada é definido pelas políticas que regem o comportamento da rede. O Internet Engineering Task Force (IETF) tem padronizado vários elementos para um sistema de gerenciamento de redes baseado em políticas (PBNM), no qual políticas são definidas utilizando-se linguagem de alto nível, armazenadas em repositórios para políticas, aplicadas com o auxilio de Policy Decision Points (PDPs) e mantidas por Enforcement Points (PEPs). Pela definição do IETF, uma vez que uma política é aplicada com sucesso, o sistema de PBNM não mais checará o comportamento desta, e a QoS definida é assumida com a fornecida pela rede. De fato, isso nem sempre é verdade. A arquitetura da qual provém a QoS pode apresentar-se instável ou mediante problemas, logo a QoS esperada não seria atingida. Para verificar a degradação na QoS em ambientes de gerenciamento reais, atualmente, o administrador da rede monitora a rede e determina a QoS fornecida. Tal QoS é, por sua vez, manualmente comparada com a QoS definida pelas políticas de rede. Finalmente, se diferenças são encontradas, o administrador procede com medidas que levem a arquitetura a um estado consistente Nos dias de hoje, as definições e aplicações de políticas e monitoração de QoS são tarefas executadas separadamente pelas soluções disponíveis. Além disso, como demonstrado anteriormente, a verificação da QoS fornecida contra a QoS definida pelas políticas da rede é deixada a cargo do administrador da rede. Nesse contexto, a automação da monitoração das políticas de QoS e a integração entre as tarefas citadas são necessárias do ponto de vista do administrador da rede. Nesta dissertação, é proposta uma definição (e um sistema) para a monitoração de QoS em que as definições de políticas são dados de entrada utilizados para checar a QoS observada. No momento em que uma degradação na QoS é detectada, o sistema de monitoração notifica um gerente com suporte a SNMP utilizando mensagens do tipo InformRequest. A arquitetura do sistema é dividida internamente em monitores de QoS e controladores de monitores de QoS. Cada controlador de monitor de QoS controla vários monitores de QoS, os quais coletam dados da rede. Tais dados são comparados com as políticas traduzidas pelo controlador, e, caso sejam detectadas degradações, o controlador de monitor de QoS notifica o gerente. A comunicação entre controlador de monitores de QoS e monitores de QoS também é baseada em SNMP. O principal objetivo do trabalho é fornecer uma solução que integre monitoração de QoS e PBNM em um único ambiente de gerenciamento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho avalia a importância e o desempenho dos atributos de qualidade nos serviços de conectividade de redes de uma concessionária de telecomunicações, segundo a percepção dos seus clientes. Foi realizado um levantamento qualitativo para identificar os atributos de qualidade mais importantes para os clientes, e a partir deste foi realizada uma pesquisa quantitativa na população de 161 clientes do estado do Rio Grande do Sul que utilizam estes serviços. Ao aplicar os resultados da pesquisa em uma matriz de importância x desempenho, foi possível classificar os atributos de qualidade destes serviços em ordem de importância, bem como avaliar o seu desempenho comparado com os atributos de qualidade dos mesmos serviços dos concorrentes. A identificação de atributos considerados importantes e com desempenho percebido pelos clientes inferior aos concorrentes, trouxe a necessidade de melhorar as características da qualidade nos serviços de conectividade de redes da Brasil Telecom. Para tanto, foi utilizada a metodologia QFD (Quality Function Deployment ou Desdobramento da Função Qualidade), que permite captar as necessidades, expectativas e desejos do consumidor e traduzi-las em requisitos de qualidade para um determinado serviço ou produto. Com base na priorização das características da qualidade definidas no QFD, foi proposto um plano de melhoria das especificações de qualidade dos serviços de conectividade de redes da concessionária de telecomunicações do estado do Rio Grande do Sul.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O emergente mercado de desenvolvimento de software para jogos eletrônicos oferece um campo favorável para iniciativas empreendedoras, pois é um setor que vem apresentando franco crescimento em nível mundial, tendo ultrapassado, em faturamento, no ano de 2001, a receita da indústria cinematográfica dos Estados Unidos. Em função desse crescimento, novos produtos de software e também de hardware são constantemente lançados para atender à crescente demanda do setor. No Brasil, este mercado está evoluindo, apesar de ser ainda incipiente e apresentar problemas estruturais. Existem empreendimentos que estão tendo um bom desempenho, inclusive exportando produtos. O objetivo deste trabalho foi identificar as características dos empreendimentos como atores do mercado, bem como aquelas de seus empreendedores. São apresentados os resultados de um estudo de múltiplos casos com cinco empresas brasileiras que desenvolvem jogos eletrônicos. Este é um mercado em que predominam os negócios via rede de contatos, as exportações, com contratos de outsourcing, e os padrões de qualidade são estabelecido internacionalmente. As principais características identificadas são que as empresas são pequenas, elativamente novas no mercado, desenvolvem sua própria tecnologia, algumas transformando resultados de pesquisas acadêmicas em produtos, têm capacidade de inovação e a maioria começou suas atividades sem investimento de capital de risco. Os empreendedores têm, em geral, formação técnica e algumas habilidades gerenciais, e, além disso, utilizam suas redes de contatos para expandir os negócios no exterior e estão altamente determinados a ter sucesso no mercado de jogos eletrônicos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esse trabalho comparou, para condições macroeconômicas usuais, a eficiência do modelo de Redes Neurais Artificiais (RNAs) otimizadas por Algoritmos Genéticos (AGs) na precificação de opções de Dólar à Vista aos seguintes modelos de precificação convencionais: Black-Scholes, Garman-Kohlhagen, Árvores Trinomiais e Simulações de Monte Carlo. As informações utilizadas nesta análise, compreendidas entre janeiro de 1999 e novembro de 2006, foram disponibilizadas pela Bolsa de Mercadorias e Futuros (BM&F) e pelo Federal Reserve americano. As comparações e avaliações foram realizadas com o software MATLAB, versão 7.0, e suas respectivas caixas de ferramentas que ofereceram o ambiente e as ferramentas necessárias à implementação e customização dos modelos mencionados acima. As análises do custo do delta-hedging para cada modelo indicaram que, apesar de mais complexa, a utilização dos Algoritmos Genéticos exclusivamente para otimização direta (binária) dos pesos sinápticos das Redes Neurais não produziu resultados significativamente superiores aos modelos convencionais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A presente pesquisa teve como objetivo verificar as diversas formas de utilização do relacionamento interpessoal por meio das redes sociais como estratégia para sobreviver no trabalho. O arcabouço teórico fundamentou-se nos conceitos de relacionamento interpessoal, rede social, capital social e sobrevivência no trabalho. O processo metodológico, baseado no estruturalismo, aventou o estudo das redes sociais e de seu processo de interação, mostrando os elementos dessas redes que influenciam na sobrevivência no trabalho. Foram definidas três grandes áreas de pesquisa: o indivíduo (e sua auto-percepção), os relacionamentos como âncora para a formação das redes sociais e seus principais tipos, e a forma de utilização dessas redes como estratégia de sobrevivência. O estudo teve caráter explicativo, compreendendo uma etapa exploratória e outra descritiva. A coleta de dados foi realizada por de meio entrevistas e questionários, ambos semi-estruturados. Foi utilizado o critério de saturação para definir o número de dados coletados. Foram entrevistados profissionais que atuam em empresas localizadas no Rio de Janeiro. Para análise dos dados foram construídas duas matrizes: uma contendo as respostas dos entrevistados, outra as dos questionários. A técnica da triangulação deu base à validade dos resultados obtidos, buscando identificar como as redes sociais podem ser usadas como estratégia de sobrevivência no trabalho, mediante a identificação das relações entre o profissional e a forma com que ele utiliza as mesmas. As informações analisadas sugerem que as redes sociais constituem-se em elemento chave na sobrevivência no trabalho na atualidade, mas não operam autonomamente, devendo ser associadas às características pessoais, competências técnicas, e habilidades.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta pesquisa aborda o processo de reconhecimento, amadurecimento e conquista da temática da cultura digital pelo Ministério da Cultura brasileiro, na gestão de Gilberto Gil (de janeiro de 2003 a julho de 2008). Focaliza a genealogia da primeira política pública cultural voltada ao contexto das redes e tecnologias digitais: os Pontos de Cultura, integrantes do Programa Cultura Viva, dotados de estúdios de produção audiovisual com conexão à internet, distribuídos por todo o país, em áreas de vulnerabilidade social. A proposta dá centralidade, não à infraestrutura tecnológica, mas ao potencial de transformação suscitado pelos novos paradigmas de produção, circulação e consumo cultural do contexto das redes. Este trabalho se situa na interseção dos novos campos de saber dos Estudos Culturais e dos Estudos Culturais do Software, bem como da área dos estudos em comunicação, incorporando ainda a dimensão das políticas públicas e a perspectiva da contribuição de trajetórias pessoais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este estudo objetivou demonstrar que é possível explicar os fenômenos que ocorrem na criação de frangos de corte através de redes neurais artificiais. A estatística descritiva e a diferença entre as médias das variáveis dos dados iniciais foram calculadas com o programa computacional SigmaStat® Statistical Software para Windows 2.03. Foi utilizada uma série histórica de dados de produção de frangos de corte, obtidos nos anos de 2001 e 2002, fornecidos por uma Integração Avícola do Rio Grande do Sul, contendo informações de 1.516 criadores com lotes alojados em 2001 e 889 criadores com lotes alojados em 2002. Nos arquivos estavam registrados, para cada lote, suas variáveis de produção, tais como número do lote, data do alojamento, data do abate, idade ao abate, número de pintos alojados, quilogramas de ração consumidos, quilogramas de frangos produzidos, número de aves abatidas, custo do frango produzido, mortalidade, peso médio, ganho de peso diário, índice de conversão alimentar, índice de eficiência, quilogramas líquido de frangos, quilogramas de ração inicial, quilogramas de ração crescimento, quilogramas de ração abate, além de outros. Para a construção das redes neurais artificiais foi utilizado o programa computacional NeuroShell®Predictor, desenvolvido pela Ward Systems Group. Ao programa foi identificado as variáveis escolhidas como “entradas” para o cálculo do modelo preditivo e a variável de “saída” aquela a ser predita. Para o treinamento das redes foram usados 1.000 criadores do banco de dados do alojamento de frangos de corte de 2001. Os restantes 516 criadores de 2001 e todos os 889 criadores de 2002 serviram para a validação das predições, os quais não participaram da etapa de aprendizagem, sendo totalmente desconhecidos pelo programa. Foram gerados 20 modelos na fase de treinamento das redes neurais artificiais, com distintos parâmetros de produção ou variáveis (saídas). Em todos estes modelos, as redes neurais artificiais geradas foram bem ajustadas apresentando sempre, um Coeficiente de Determinação Múltipla (R²) elevado e o menor Quadrado Médio do Erro (QME). Ressalta-se que o R² perfeito é 1 e um coeficiente muito bom deve estar próximo de 1. Todos os 20 modelos, quando validados com os 516 lotes de 2001 e com 889 de 2002, apresentaram também Coeficientes de Determinação Múltipla (R²) elevados e muito próximos de 1, além de apresentarem o Quadrado Médio do Erro (QME) e Erro Médio reduzidos. Foi comprovado não haver diferenças significativas entre as médias dos valores preditos e as médias dos valores reais, em todas as validações efetuadas nos lotes abatidos em 2001 e em 2002, quando aplicados os 20 modelos de redes neurais gerados. Como conclusão, as redes neurais artificiais foram capazes de explicar os fenômenos envolvidos com a produção industrial de frangos de corte. A técnica oferece critérios objetivos, gerados cientificamente, que embasarão as decisões dos responsáveis pela produção industrial de frangos de corte.Também permite realizar simulações e medir a contribuição de cada variável no fenômeno em estudo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Durante a evolução da comunicação, diversos fatores contribuíram para melhorar a qualidade dos sistemas computacionais (Hardware e Software) em um ambiente industrial, onde o fator desempenho é um dos pontos importantes a ser considerado em um projeto de automação industrial. Nos últimos vinte anos, surgiram diversas propostas de padronização de protocolos para automação industrial e aplicações de tempo real, cada qual com características e tempos de resposta diferentes. Um estudo detalhado sobre as características técnicas de controle de tempo é de extrema importância, visto que esses sistemas, muitas vezes são implementados em situações de missão crítica, nas quais o tempo de resposta é um fator crucial para a aplicação. Nesta dissertação, apresentamos as etapas de evolução das técnicas de controle de acesso ao barramento, culminando inicialmente com o surgimento da proposta do protocolo FIELDBUS e em seguida com a proposta alemã, o PROFIBUS. O principal objetivo deste trabalho é propor um modelo analítico para a realização de avaliação de desempenho em uma rede PROFIBUS. O trabalho apresenta uma descrição das características funcionais do protocolo, bem como uma descrição detalhada dos tempos de controle utilizado pelo protocolo para controle e supervisão da rede. Uma descrição dos experimentos e o cruzamento dos dados obtidos na simulação com os dados obtidos através do modelo analítico demonstram a razão pela qual os modelos analíticos é uma ferramenta de extrema importância devido a sua agilidade em estimar o desempenho de uma rede PROFIBUS. Palavras-chave: Avaliação de desempenho, automação industrial, redes de campo, protocolos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A presente pesquisa aborda os movimentos desencadeados na instituição escolar com a chegada dos ambientes informatizados nas escolas da rede municipal de Porto Alegre, tendo como interface de investigação as categorias de tempo e de espaço. Problematizo a relação escolarizaçãotecnologia no contexto de um cenário social que emerge na hegemonia tecnológica digital das redes de informação e comunicação, para que se tornem evidentes as configurações de tempo e de espaço forjadas no palco de uma proposta de organização da escola pública municipal que, ao reorganizar tempo e espaço escolares, marca a saída do modelo da escola seriada e a entrada da escola por ciclos de formação e autoriza uma forma de escolarização que coloca de forma oficial a materialidade e os saberes da informática educativa na rede de ensino municipal de Porto Alegre. Sob a lógica de uma perspectiva de investigação histórica e cultural, desnaturaliza-se a inserção da informática no tempo e no espaço ao considerá-la como não-imune aos efeitos do contemporâneo fenômeno de compressão do tempo e do espaço. Percorrendo as diferentes experiências espaço-temporais e as configurações assumidas pela sociedade ocidental, ganham visibilidade formas de escolarização que, num processo histórico, conquistaram legitimidade e produziram a escola pública, gratuita, obrigatória, tecnológica e ajustada às transformações e exigências de um cenário social regido por uma imensa acumulação de espetáculos. Continuidades e descontinuidades marcam a inserção das tecnologias de informação e de comunicação na maquinaria escolar, e o disciplinamento cognitivo e comportamental conquista novos dispositivos. Em um corpus de análise em que se entrelaçam documentos, entrevistas, observações e o complexo e ambivalente fenômeno implementado pela permanente revolução das redes digitais de comunicação e de informação, é que a inserção do saber e da materialidade da Informática na Educação no tempo e no espaço escolares passa a ser tematizada. Como um jogo de cara e coroa que, ao revelar sua face de veneno, tornando mais eficiente o controle individual e coletivo, faz, também, girar a moeda, para que o potencial participativo, socializante e emancipador da rede mundial de computadores aponte para a face do próprio remédio. A partir dessa faceta condicionante e nãodeterminista da relação escolarização-tecnologia, tempos e espaços para colonizar são problematizados a fim de fazer emergir, na mesma intensidade, tempos e espaços para fruir, para deixar espraiar a sensibilidade e a interação humanas, para potencializar o aprendizado e a aquisição dos saberes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O fenômeno "Born global" refere-se a empresas que consideram o mercado global como seu contexto natural e que iniciam seu processo de internacionalização muito cedo após sua criação. As teorias tradicionais como o modelo de Uppsala não conseguem explicar este processo. Portanto, outras teorias têm surgido, como a perspectiva de redes. Existem alguns estudos relacionados a esta área, principalmente realizados em países desenvolvidos com pequenos mercados e economias abertas. No entanto, poucos estudos têm sido feitos em economias em desenvolvimento. Além disso, o número de pesquisas quanto à escolha do modo de entrada e seleção de mercados das empresas “born global” é bastante limitado. Consequentemente, este estudo pretende descrever os principais fatores que influenciam a escolha do modo de entrada e seleção de mercados das empresas, de economias em desenvolvimento, nascidas globais. O foco da pesquisa é a indústria de software e um estudo de casos múltiplo foi realizado com três empresas no Equador. A metodologia incluiu entrevistas com fundadores, bem como a coleta de dados secundários. Com base na evidência empírica, verificou-se que os principais fatores que influenciam a escolha do modo de entrada são as restrições financeiras, as receitas esperadas, a velocidade de internacionalização, mercados nicho e a experiência empresarial anterior dos fundadores. Por outro lado, a seleção de mercado é influenciada por semelhanças de língua e cultura, mercados nicho e relações em rede.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This work aims to obtain a low-cost virtual sensor to estimate the quality of LPG. For the acquisition of data from a distillation tower, software HYSYS ® was used to simulate chemical processes. These data will be used for training and validation of an Artificial Neural Network (ANN). This network will aim to estimate from available simulated variables such as temperature, pressure and discharge flow of a distillation tower, the mole fraction of pentane present in LPG. Thus, allowing a better control of product quality

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this paper artificial neural network (ANN) based on supervised and unsupervised algorithms were investigated for use in the study of rheological parameters of solid pharmaceutical excipients, in order to develop computational tools for manufacturing solid dosage forms. Among four supervised neural networks investigated, the best learning performance was achieved by a feedfoward multilayer perceptron whose architectures was composed by eight neurons in the input layer, sixteen neurons in the hidden layer and one neuron in the output layer. Learning and predictive performance relative to repose angle was poor while to Carr index and Hausner ratio (CI and HR, respectively) showed very good fitting capacity and learning, therefore HR and CI were considered suitable descriptors for the next stage of development of supervised ANNs. Clustering capacity was evaluated for five unsupervised strategies. Network based on purely unsupervised competitive strategies, classic "Winner-Take-All", "Frequency-Sensitive Competitive Learning" and "Rival-Penalize Competitive Learning" (WTA, FSCL and RPCL, respectively) were able to perform clustering from database, however this classification was very poor, showing severe classification errors by grouping data with conflicting properties into the same cluster or even the same neuron. On the other hand it could not be established what was the criteria adopted by the neural network for those clustering. Self-Organizing Maps (SOM) and Neural Gas (NG) networks showed better clustering capacity. Both have recognized the two major groupings of data corresponding to lactose (LAC) and cellulose (CEL). However, SOM showed some errors in classify data from minority excipients, magnesium stearate (EMG) , talc (TLC) and attapulgite (ATP). NG network in turn performed a very consistent classification of data and solve the misclassification of SOM, being the most appropriate network for classifying data of the study. The use of NG network in pharmaceutical technology was still unpublished. NG therefore has great potential for use in the development of software for use in automated classification systems of pharmaceutical powders and as a new tool for mining and clustering data in drug development

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This study developed software rotines, in a system made basically from a processor board producer of signs and supervisory, wich main function was correcting the information measured by a turbine gas meter. This correction is based on the use of an intelligent algorithm formed by an artificial neural net. The rotines were implemented in the habitat of the supervisory as well as in the habitat of the DSP and have three main itens: processing, communication and supervision