999 resultados para Análise de Redes
Resumo:
Em um cenário de aumento de competitividade, crescente expectativa por inovações do produto e necessidade de atender diferentes perfis de consumidores, o conceito de gerenciamento de cadeias de suprimentos globais (GSCM) surge como uma estratégia para coordenar mais eficazmente as atividades dispersas geograficamente dos sistemas produtivos. Na adoção do GSCM, as organizações devem lidar com rupturas que impactam no gerenciamento das suas atividades, tais como a interrupção de vias de transporte, pane no fornecimento de energia, desastres naturais e até ataques terroristas. Nesse contexto, o trabalho introduz um procedimento sistematizado para modelagem das cadeias de suprimentos visto como um sistema a eventos discretos e sua análise por simulação das atividades do GSCM baseada em técnicas formais como a rede de Petri (PN) e o Production Flow Schema (PFS). Um exemplo é também apresentado para ilustrar e comprovar as vantagens do método proposto na análise do GSCM.
Resumo:
A Internet das Coisas é um novo paradigma de comunicação que estende o mundo virtual (Internet) para o mundo real com a interface e interação entre objetos. Ela possuirá um grande número de dispositivos heteregôneos interconectados, que deverá gerar um grande volume de dados. Um dos importantes desafios para seu desenvolvimento é se guardar e processar esse grande volume de dados em aceitáveis intervalos de tempo. Esta pesquisa endereça esse desafio, com a introdução de serviços de análise e reconhecimento de padrões nas camadas inferiores do modelo de para Internet das Coisas, que procura reduzir o processamento nas camadas superiores. Na pesquisa foram analisados os modelos de referência para Internet das Coisas e plataformas para desenvolvimento de aplicações nesse contexto. A nova arquitetura de implementada estende o LinkSmart Middeware pela introdução de um módulo para reconhecimento de padrões, implementa algoritmos para estimação de valores, detecção de outliers e descoberta de grupos nos dados brutos, oriundos de origens de dados. O novo módulo foi integrado à plataforma para Big Data Hadoop e usa as implementações algorítmicas do framework Mahout. Este trabalho destaca a importância da comunicação cross layer integrada à essa nova arquitetura. Nos experimentos desenvolvidos na pesquisa foram utilizadas bases de dados reais, provenientes do projeto Smart Santander, de modo a validar da nova arquitetura de IoT integrada aos serviços de análise e reconhecimento de padrões e a comunicação cross-layer.
Resumo:
As redes atuais de telecomunicações utilizam tecnologias de comutação de pacotes para integração de voz, dados, imagens e outros serviços. O tráfego nessas redes costuma ser feito por meio de tecnologias como o MPLS-TP e com regras heurísticas para a determinação dos melhores caminhos. O uso de boas regras afeta diretamente o desempenho e a segurança da operação. Este trabalho propõe o uso de simulação de baixo custo para prever o comportamento e avaliar regras de escolha de caminhos. Para isso, este trabalho avalia três métodos de seleção de caminhos de LSPs, combinados com duas heurísticas de recuperação, usados em redes MPLS-TP em malha com mecanismos de proteção em malha compartilhada. Os resultados das simulações medem o impacto dos métodos e heurísticas utilizados, demonstrando o quanto uma melhor seleção de caminhos pode contribuir para a redução do uso dos recursos da rede e do número máximo de LSPs afetados em caso de falhas na rede. Os resultados deste trabalho, bem como a técnica de análise proposta, almejam ser uma contribuição para a padronização de regras de seleção de LSPs em redes heterogêneas.
Resumo:
Este trabalho propõe dois métodos para teste de sistemas de software: o primeiro extrai ideias de teste de um modelo desenvolvido em rede de Petri hierárquica e o segundo valida os resultados após a realização dos testes utilizando um modelo em OWL-S. Estes processos aumentam a qualidade do sistema desenvolvido ao reduzir o risco de uma cobertura insuficiente ou teste incompleto de uma funcionalidade. A primeira técnica apresentada consiste de cinco etapas: i) avaliação do sistema e identificação dos módulos e entidades separáveis, ii) levantamento dos estados e transições, iii) modelagem do sistema (bottom-up), iv) validação do modelo criado avaliando o fluxo de cada funcionalidade e v) extração dos casos de teste usando uma das três coberturas de teste apresentada. O segundo método deve ser aplicado após a realização dos testes e possui cinco passos: i) primeiro constrói-se um modelo em OWL (Web Ontology Language) do sistema contendo todas as informações significativas sobre as regras de negócio da aplicação, identificando as classes, propriedades e axiomas que o regem; ii) em seguida o status inicial antes da execução é representado no modelo através da inserção das instâncias (indivíduos) presentes; iii) após a execução dos casos de testes, a situação do modelo deve ser atualizada inserindo (sem apagar as instâncias já existentes) as instâncias que representam a nova situação da aplicação; iv) próximo passo consiste em utilizar um reasoner para fazer as inferências do modelo OWL verificando se o modelo mantém a consistência, ou seja, se não existem erros na aplicação; v) finalmente, as instâncias do status inicial são comparadas com as instâncias do status final, verificando se os elementos foram alterados, criados ou apagados corretamente. O processo proposto é indicado principalmente para testes funcionais de caixa-preta, mas pode ser facilmente adaptado para testes em caixa branca. Obtiveram-se casos de testes semelhantes aos que seriam obtidos em uma análise manual mantendo a mesma cobertura do sistema. A validação provou-se condizente com os resultados esperados, bem como o modelo ontológico mostrouse bem fácil e intuitivo para aplicar manutenções.
Resumo:
É importante que as redes elétricas tenham altos índices de confiabilidade, de forma a se manter a agilidade e a manutenção ideais para um melhor funcionamento. Por outro lado, o crescimento inesperado da carga, falhas em equipamentos e uma parametrização inadequada das funções de proteção tornam a análise de eventos de proteção mais complexas e demoradas. Além disso, a quantidade de informações que pode ser obtida de relés digitais modernos tem crescido constantemente. Para que seja possível uma rápida tomada de decisão e manutenção, esse projeto de pesquisa teve como objetivo a implementação de um sistema completo de diagnóstico que é ativado automaticamente quando um evento de proteção ocorrer. As informações a serem analisadas são obtidas de uma base de dados e de relés de proteção, via protocolo de comunicação IEC 61850 e arquivos de oscilografia. O trabalho aborda o sistema Smart Grid completo incluindo: a aquisição de dados nos relés, detalhando o sistema de comunicação desenvolvido através de um software com um cliente IEC61850 e um servidor OPC e um software com um cliente OPC, que é ativado por eventos configurados para dispará-lo (por exemplo, atuação da proteção); o sistema de pré-tratamento de dados, onde os dados provenientes dos relés e equipamentos de proteção são filtrados, pré-processados e formatados; e o sistema de diagnóstico. Um banco de dados central mantém atualizados os dados de todas essas etapas. O sistema de diagnóstico utiliza algoritmos convencionais e técnicas de inteligência artificial, em particular, um sistema especialista. O sistema especialista foi desenvolvido para lidar com diferentes conjuntos de dados de entrada e com uma possível falta de dados, sempre garantindo a entrega de diagnósticos. Foram realizados testes e simulações para curtos-circuitos (trifásico, dupla-fase, dupla-fase-terra e fase-terra) em alimentadores, transformadores e barras de uma subestação. Esses testes incluíram diferentes estados do sistema de proteção (funcionamento correto e impróprio). O sistema se mostrou totalmente eficaz tanto no caso de disponibilidade completa quanto parcial de informações, sempre fornecendo um diagnóstico do curto-circuito e analisando o funcionamento das funções de proteção da subestação. Dessa forma, possibilita-se uma manutenção muito mais eficiente pelas concessionárias de energia, principalmente no que diz respeito à prevenção de defeitos em equipamentos, rápida resposta a problemas, e necessidade de reparametrização das funções de proteção. O sistema foi instalado com sucesso em uma subestação de distribuição da Companhia Paulista de Força e Luz.
Resumo:
O paradigma das redes em chip (NoCs) surgiu a fim de permitir alto grau de integração entre vários núcleos de sistemas em chip (SoCs), cuja comunicação é tradicionalmente baseada em barramentos. As NoCs são definidas como uma estrutura de switches e canais ponto a ponto que interconectam núcleos de propriedades intelectuais (IPs) de um SoC, provendo uma plataforma de comunicação entre os mesmos. As redes em chip sem fio (WiNoCs) são uma abordagem evolucionária do conceito de rede em chip (NoC), a qual possibilita a adoção dos mecanismos de roteamento das NoCs com o uso de tecnologias sem fio, propondo a otimização dos fluxos de tráfego, a redução de conectores e a atuação em conjunto com as NoCs tradicionais, reduzindo a carga nos barramentos. O uso do roteamento dinâmico dentro das redes em chip sem fio permite o desligamento seletivo de partes do hardware, o que reduz a energia consumida. Contudo, a escolha de onde empregar um link sem fio em uma NoC é uma tarefa complexa, dado que os nós são pontes de tráfego os quais não podem ser desligados sem potencialmente quebrar uma rota preestabelecida. Além de fornecer uma visão sobre as arquiteturas de NoCs e do estado da arte do paradigma emergente de WiNoC, este trabalho também propõe um método de avaliação baseado no já consolidado simulador ns-2, cujo objetivo é testar cenários híbridos de NoC e WiNoC. A partir desta abordagem é possível avaliar diferentes parâmetros das WiNoCs associados a aspectos de roteamento, aplicação e número de nós envolvidos em redes hierárquicas. Por meio da análise de tais simulações também é possível investigar qual estratégia de roteamento é mais recomendada para um determinado cenário de utilização, o que é relevante ao se escolher a disposição espacial dos nós em uma NoC. Os experimentos realizados são o estudo da dinâmica de funcionamento dos protocolos ad hoc de roteamento sem fio em uma topologia hierárquica de WiNoC, seguido da análise de tamanho da rede e dos padrões de tráfego na WiNoC.
Resumo:
Localizar objetos ou pessoas no interior de um edifício é de grande interesse. Contudo, diferentemente do que ocorre no exterior de edificações, não há metodologia consagrada para a determinação da posição desses entes nos edifícios. Para o posicionamento em locais abertos existem tecnologias consolidadas, como GNSS (Global Navigation Satellite System), a dificuldade em fazê-lo em interiores é maior. Nesses casos, o GNSS não pode ser utilizado, pois os sinais de rádio dos satélites não conseguem penetrar através das estruturas, enquanto que outras tecnologias são apenas incipientes nesse quesito. Abordagens habituais para a resolução dessa demanda têm se baseado na utilização de propagadores das ondas de rádio do GNSS, no uso da potência de sinais de redes sem fio ou, ainda, no emprego de transmissores infravermelhos. No entanto, uma técnica diferente pode ser empreendida para essa finalidade. Usando-se a assinatura das potências de rádio das redes sem fio nas imediações e no interior da edificação, é possível criar um mapa com base nesses sinais, permitindo a determinação da posição de um objeto. No presente trabalho foram desenvolvidos um sistema para geração do mapa de sinais, com critério de parada e um método de cálculo de posicionamento. Procedeu-se, também, à análise de quatro critérios para o cálculo final da posição do objeto, baseados no uso da distância euclidiana com os conjuntos de roteadores disponíveis. Concluiu-se que, quando o mapa de sinais é pequeno, o posicionamento fracassou. Entretanto, quando a quantidade de sinais geradores do mapa aumenta, os resultados apresentaram melhora significativa, com resultados próximos a 100% de assertividade. Desse modo foi possível determinar uma estimativa boa para o número mínimo de roteadores presentes na base e estabelecer um critério de parada para a fase de criação do mapa de sinais.
Resumo:
A facilidade com que hoje em dia os estudantes têm em aceder à Internet e às redes sociais, e com a sua desmedida proliferação, é oportuno saber até que ponto não são meros mecanismos de diversão, mas sim, grandes fontes de informação e conhecimento. Este artigo pretende contribuir para o melhor entendimento desta problemática. Apresentando um trabalho que vá para além da revisão da literatura, através da apresentação de um estudo empírico que revele a relação entre as redes sociais e a obtenção de conhecimento em alunos do ensino superior. Com vista à realização deste estudo, entendeu-se apropriado aplicar a técnica de questionário, uma vez que potencia uma resposta clara, direta e objetiva. Além disso, uma vez que visa a análise de uma população estudantil, constituída por 290 estudantes do ensino superior, julga-se ser o método de investigação mais apropriado. Os resultados são discutidos á luz dos dados recolhidos no questionário e identificados trabalhos futuros.
Resumo:
A facilidade com que hoje em dia os estudantes têm em aceder à Internet e às redes sociais, e com a sua desmedida proliferação, é oportuno saber até que ponto não são meros mecanismos de diversão, mas sim, grandes fontes de informação e conhecimento. Este artigo pretende contribuir para o melhor entendimento desta problemática. Apresentando um trabalho que vá para além da revisão da literatura, através da apresentação de um estudo empírico que revele a relação entre as redes sociais e a obtenção de conhecimento em alunos do ensino superior. Com vista à realização deste estudo, entendeu-se apropriado aplicar a técnica de questionário, uma vez que potencia uma resposta clara, direta e objetiva. Além disso, uma vez que visa a análise de uma população estudantil, constituída por 290 estudantes do ensino superior, julga-se ser o método de investigação mais apropriado. Os resultados são discutidos á luz dos dados recolhidos no questionário e identificados trabalhos futuros.
Resumo:
Tese de mestrado integrado em Engenharia da Energia e do Ambiente, apresentada à Universidade de Lisboa, através da Faculdade de Ciências, 2016
Resumo:
O presente trabalho de investigação pretende compreender a influência da presença das marcas nas redes sociais, nomeadamente no Facebook, na intenção de compra do consumidor no ponto de venda.É feita uma revisão de literatura à panóplia de conceitos de marketing e comunicação de marketing digital, ao consumidor e à decisão de compra e ao social media online, sendo dado maior enfâse à relação entre consumidor e as marcas presentes no Facebook. A investigação é dividida em duas fases, uma fase qualitativa de análise à estratégia digital das marcas e uma fase quantitativa de análise ao comportamento do consumidor.
Resumo:
"A comunicação é a voz da marca, meio através do qual uma marca procura estabelecer um diálogo e construir um relacionamento com o cliente" (Kotler, 2009). O presente trabalho de investigação tem como principal intuito compreender a importância das redes sociais, mais concretamente do facebook e da correta gestão de crise nas redes sociais. A Internet e as Redes Sociais trouxeram consigo novas funcionalidades que abriram um novo mundo no que respeita ao tipo de comunicação das marcas. Nos dias de hoje, as redes sociais são vistas como um instrumento inovador que ajuda as pessoas a criarem laços pessoais e verdadeiros (Holloman, 2011). Segundo Mangold e Fauls (2009), a criação de páginas ou comunidades por parte das marcas, nas redes sociais, permite aos consumidores interagirem com a marca ou com os outros consumidores sobre aspetos relacionados com a marca, assim acaba por surgir um envolvimento direto e em tempo real entre marcas e consumidores. Os cidadãos vivem rodeados de informação e as redes sociais, como o facebook, são um dos fatores que contribuem para o excesso de notícias que um cidadão recebe. Logo, o novo poder do consumidor está diretamente associado ao fácil acesso à informação. Estamos na “era das tecnologias de informação”, em que a informação é abundante, e à distância de um click é possível ter um conhecimento geral sobre quase tudo o que existe (Adolpho, 2012). Mas por vezes, a informação certa para o público nem sempre é conseguida, deste modo as empresas devem estar preparadas para a emergência de crises, para as gerir e minimizar os seus impactos.
Resumo:
Com o decorrer dos anos a sinistralidade rodoviária tem vindo a decrescer. Porém é necessário continuar a apostar na melhoria dos indicadores. O trabalho inicia-se com uma revisão bibliográfica de enquadramento, de modo a evidenciar os aspetos relacionados com a avaliação da segurança rodoviária e as eventuais medidas mitigadoras. Determinaram-se alguns indicadores que foram utilizados para medir a sinistralidade rodoviária em interseções em meio urbano, tendo-se como estudo de caso a rede da cidade de Coimbra, de 2010 a 2012. Para isso, recorreu-se ao ArcGIS 10.0 que é um Sistema de Informação Geográfica (SIG), utilizando a base de dados facultada pela Autoridade Nacional de Segurança Rodoviária (ANSR), complementada com informação dos acidentes recolhidos pela PSP de Coimbra. Consideraram-se na análise as vias com 4 ou mais acidentes em pelo menos um ano. Após georreferenciação dos acidentes rodoviários, o SIG permitiu visualizar a sua distribuição na rede, bem como associar a cada um deles o esquema do acidente disponibilizado pela Polícia de Segurança Pública. Os procedimentos envolvidos nas análises dizem respeito ao Índice de Gravidade (IG) e ao Valor Hierárquico do Local (VHL). Por se ter verificado que o VHL traduz melhor o desempenho em termos de sinistralidade em meio urbano, foi este o parâmetro utilizado para identificar as interseções sobre as quais deveria incidir a atenção da entidade gestora da rede. O VHL é determinado com base no número de ocorrências, na gravidade dos acidentes e no volume horário de tráfego, tendo-se considerado a informação de sinistralidade de duas formas distintas: dados de forma agregada no triénio; e dados separados para cada um dos anos. De forma a comparar de forma simples o desempenho das interseções, fez-se a normalização da variável VHL de modo a ser possível assinalar as interseções com níveis de desempenho de 1, 2, 3, 4 ou 5. Nesta escala, 1 corresponde ao melhor desempenho e 5 refere-se ao pior desempenho. As interseções identificadas com o nível 5 e 4 devem ter uma atenção privilegiada por parte da entidade gestora por serem as que revelam pior desempenho. A metodologia utilizada pode ser aplicada a redes viárias de aglomerados urbanos desde que se disponha de dados de acidentes em três anos consecutivos e seja possível fazer a sua georeferenciação, sendo também necessários dados de volumes horários de tráfego, os quais podem ser obtidos por contagens em vários pontos da rede.
Resumo:
Aliadas aos estudos sobre sustentabilidade, há inúmeras discussões e atitudes para combater consequências do uso irracional dos recursos naturais do planeta. Surge assim o entendimento do consumo, suas influências e alternativas. O indivíduo pode ter hábitos de consumo de forma consumista ou de forma consciente. O consumista é entendido como o oposto dos hábitos do consumidor consciente, sendo levado pelo impulso e pelo estímulo à compra, sem avaliar suas necessidades e impactos futuros. O consumo é de fato indispensável à humanidade. Entretanto, quando aplicado de forma exacerbada e incorreta, pode gerar sérias consequências sociais e/ou ambientais. O consumidor consciente tem a qualificação de avaliar dentre as possibilidades existentes, os impactos que podem ser ocasionados com a aquisição, de tal modo, a minimizar suas consequências e contribuir de alguma forma para uma sociedade mais sustentável. O principal objetivo desta pesquisa foi compreender a aderência dos pesquisados ao comportamento de consumo consciente, bem como avaliar o compartilhamento de informações sobre o tema por pessoas que estão inseridas em alguma rede social na internet, partindo do pressuposto que este é um dos principais meios de comunicação e compartilhamento de informações. Para a pesquisa, foi utilizada a metodologia de análise qualitativa de caráter exploratório e a técnica de entrevistas em profundidade baseada em roteiro semiestruturado. Por meio da análise do conteúdo, a compreensão dos resultados aponta que todos os entrevistados possuem um grau de conhecimento sobre o consumo consciente e a maioria tenta ter algum tipo de ação consciente. Mas, ao mesmo tempo, esses indivíduos podem sofrer influências neste processo principalmente de caráter pessoal, levando à alteração de ação. Com relação ao compartilhamento do tema nas redes sociais na internet, foi possível identificar que grande parte dos entrevistados já teve algum tipo de experiência da situação, mas ainda em pequena escala, com poucas ocorrências. Também acredita-se que o canal pode ser utilizado para a proliferação do tema, o que nos leva à conclusão de que é um canal viável ao compartilhamento. Porém, mediante a ruptura de hábitos, é utilizado para a ocorrência de um maior engajamento por parte dos usuários. A análise apresenta uma compreensão e perspectivas a partir do recorte estudado, abrindo horizonte para novos estudos e aprofundamento das reflexões apresentadas neste trabalho.