873 resultados para Análise de desempenho
Resumo:
O uso de Internet para a distribuição de fluxos de vídeo tem se mostrado uma tendência atual e traz consigo grandes desafios. O alicerce sobre qual a Internet está fundamentada, comutação por pacotes e arquitetura cliente-servidor, não proporciona as melhores condições para este tipo de serviço. A arquitetura P2P (peer-to-peer) vem sendo considerada como infraestrutura para a distribuição de fluxos de vídeo na Internet. A idéia básica da distribuição de vídeo com o suporte de P2P é a de que os vários nós integrantes da rede sobreposta distribuem e encaminham pedaços de vídeo de forma cooperativa, dividindo as tarefas, e colocando à disposição da rede seus recursos locais. Dentro deste contexto, é importante investigar o que ocorre com a qualidade do serviço de distribuição de vídeo quando a infraestrutura provida pelas redes P2P é contaminada por nós que não estejam dispostos a cooperar, já que a base desta arquitetura é a cooperação. Neste trabalho, inicialmente é feito um estudo para verificar o quanto a presença de nós não-cooperativos pode afetar a qualidade da aplicação de distribuição de fluxo de vídeo em uma rede P2P. Com base nos resultados obtidos, é proposto um mecanismo de incentivo à cooperação para que seja garantida uma boa qualidade de vídeo aos nós cooperativos e alguma punição aos nós não-cooperativos. Os testes e avaliações foram realizados utilizando-se o simulador PeerSim.
Resumo:
O crescimento dos serviços de banda-larga em redes de comunicações móveis tem provocado uma demanda por dados cada vez mais rápidos e de qualidade. A tecnologia de redes móveis chamada LTE (Long Term Evolution) ou quarta geração (4G) surgiu com o objetivo de atender esta demanda por acesso sem fio a serviços, como acesso à Internet, jogos online, VoIP e vídeo conferência. O LTE faz parte das especificações do 3GPP releases 8 e 9, operando numa rede totalmente IP, provendo taxas de transmissão superiores a 100 Mbps (DL), 50 Mbps (UL), baixa latência (10 ms) e compatibilidade com as versões anteriores de redes móveis, 2G (GSM/EDGE) e 3G (UMTS/HSPA). O protocolo TCP desenvolvido para operar em redes cabeadas, apresenta baixo desempenho sobre canais sem fio, como redes móveis celulares, devido principalmente às características de desvanecimento seletivo, sombreamento e às altas taxas de erros provenientes da interface aérea. Como todas as perdas são interpretadas como causadas por congestionamento, o desempenho do protocolo é ruim. O objetivo desta dissertação é avaliar o desempenho de vários tipos de protocolo TCP através de simulações, sob a influência de interferência nos canais entre o terminal móvel (UE User Equipment) e um servidor remoto. Para isto utilizou-se o software NS3 (Network Simulator versão 3) e os protocolos TCP Westwood Plus, New Reno, Reno e Tahoe. Os resultados obtidos nos testes mostram que o protocolo TCP Westwood Plus possui um desempenho melhor que os outros. Os protocolos TCP New Reno e Reno tiveram desempenho muito semelhante devido ao modelo de interferência utilizada ter uma distribuição uniforme e, com isso, a possibilidade de perdas de bits consecutivos é baixa em uma mesma janela de transmissão. O TCP Tahoe, como era de se esperar, apresentou o pior desempenho dentre todos, pois o mesmo não possui o mecanismo de fast recovery e sua janela de congestionamento volta sempre para um segmento após o timeout. Observou-se ainda que o atraso tem grande importância no desempenho dos protocolos TCP, mas até do que a largura de banda dos links de acesso e de backbone, uma vez que, no cenário testado, o gargalo estava presente na interface aérea. As simulações com erros na interface aérea, introduzido com o script de fading (desvanecimento) do NS3, mostraram que o modo RLC AM (com reconhecimento) tem um desempenho melhor para aplicações de transferência de arquivos em ambientes ruidosos do que o modo RLC UM sem reconhecimento.
Resumo:
A extração de regras de associação (ARM - Association Rule Mining) de dados quantitativos tem sido pesquisa de grande interesse na área de mineração de dados. Com o crescente aumento das bases de dados, há um grande investimento na área de pesquisa na criação de algoritmos para melhorar o desempenho relacionado a quantidade de regras, sua relevância e a performance computacional. O algoritmo APRIORI, tradicionalmente usado na extração de regras de associação, foi criado originalmente para trabalhar com atributos categóricos. Geralmente, para usá-lo com atributos contínuos, ou quantitativos, é necessário transformar os atributos contínuos, discretizando-os e, portanto, criando categorias a partir dos intervalos discretos. Os métodos mais tradicionais de discretização produzem intervalos com fronteiras sharp, que podem subestimar ou superestimar elementos próximos dos limites das partições, e portanto levar a uma representação imprecisa de semântica. Uma maneira de tratar este problema é criar partições soft, com limites suavizados. Neste trabalho é utilizada uma partição fuzzy das variáveis contínuas, que baseia-se na teoria dos conjuntos fuzzy e transforma os atributos quantitativos em partições de termos linguísticos. Os algoritmos de mineração de regras de associação fuzzy (FARM - Fuzzy Association Rule Mining) trabalham com este princípio e, neste trabalho, o algoritmo FUZZYAPRIORI, que pertence a esta categoria, é utilizado. As regras extraídas são expressas em termos linguísticos, o que é mais natural e interpretável pelo raciocício humano. Os algoritmos APRIORI tradicional e FUZZYAPRIORI são comparado, através de classificadores associativos, baseados em regras extraídas por estes algoritmos. Estes classificadores foram aplicados em uma base de dados relativa a registros de conexões TCP/IP que destina-se à criação de um Sistema de Detecção de Intrusos.
Resumo:
Métodos de otimização que utilizam condições de otimalidade de primeira e/ou segunda ordem são conhecidos por serem eficientes. Comumente, esses métodos iterativos são desenvolvidos e analisados à luz da análise matemática do espaço euclidiano n-dimensional, cuja natureza é de caráter local. Consequentemente, esses métodos levam a algoritmos iterativos que executam apenas as buscas locais. Assim, a aplicação de tais algoritmos para o cálculo de minimizadores globais de uma função não linear,especialmente não-convexas e multimodais, depende fortemente da localização dos pontos de partida. O método de Otimização Global Topográfico é um algoritmo de agrupamento, que utiliza uma abordagem baseada em conceitos elementares da teoria dos grafos, a fim de gerar bons pontos de partida para os métodos de busca local, a partir de pontos distribuídos de modo uniforme no interior da região viável. Este trabalho tem dois objetivos. O primeiro é realizar uma nova abordagem sobre método de Otimização Global Topográfica, onde, pela primeira vez, seus fundamentos são formalmente descritos e suas propriedades básicas são matematicamente comprovadas. Neste contexto, propõe-se uma fórmula semi-empírica para calcular o parâmetro chave deste algoritmo de agrupamento, e, usando um método robusto e eficiente de direções viáveis por pontos-interiores, estendemos o uso do método de Otimização Global Topográfica a problemas com restrições de desigualdade. O segundo objetivo é a aplicação deste método para a análise de estabilidade de fase em misturas termodinâmicas,o qual consiste em determinar se uma dada mistura se apresenta em uma ou mais fases. A solução deste problema de otimização global é necessária para o cálculo do equilíbrio de fases, que é um problema de grande importância em processos da engenharia, como, por exemplo, na separação por destilação, em processos de extração e simulação da recuperação terciária de petróleo, entre outros. Além disso, afim de ter uma avaliação inicial do potencial dessa técnica, primeiro vamos resolver 70 problemas testes, e então comparar o desempenho do método proposto aqui com o solver MIDACO, um poderoso software recentemente introduzido no campo da otimização global.
Resumo:
Hoje em dia, distribuições de grandes volumes de dados por redes TCP/IP corporativas trazem problemas como a alta utilização da rede e de servidores, longos períodos para conclusão e maior sensibilidade a falhas na infraestrutura de rede. Estes problemas podem ser reduzidos com utilização de redes par-a-par (P2P). O objetivo desta dissertação é analisar o desempenho do protocolo BitTorrent padrão em redes corporativas e também realizar a análise após uma modificação no comportamento padrão do protocolo BitTorrent. Nesta modificação, o rastreador identifica o endereço IP do par que está solicitando a lista de endereços IP do enxame e envia somente aqueles pertencentes à mesma rede local e ao semeador original, com o objetivo de reduzir o tráfego em redes de longa distância. Em cenários corporativos típicos, as simulações mostraram que a alteração é capaz de reduzir o consumo médio de banda e o tempo médio dos downloads, quando comparados ao BitTorrent padrão, além de conferir maior robustez à distribuição em casos de falhas em enlaces de longa distância. As simulações mostraram também que em ambientes mais complexos, com muitos clientes, e onde a restrição de banda em enlaces de longa distância provoca congestionamento e descartes, o desempenho do protocolo BitTorrent padrão pode ser semelhante a uma distribuição em arquitetura cliente-servidor. Neste último caso, a modificação proposta mostrou resultados consistentes de melhoria do desempenho da distribuição.
Resumo:
Portugal é um dos países europeus com melhor cobertura espacial e populacional de rede de autoestradas (5º entre os 27 da UE). O acentuado crescimento desta rede nos últimos anos leva a que seja necessária a utilização de metodologias de análise e avaliação da qualidade do serviço que é prestado nestas infraestruturas, relativamente às condições de circulação. Usualmente, a avaliação da qualidade de serviço é efetuada por intermédio de metodologias internacionalmente aceites, das quais se destaca a preconizada no Highway Capacity Manual (HCM). É com esta última metodologia que são habitualmente determinados em Portugal, os níveis de serviço nas diversas componentes de uma autoestrada (secções correntes, ramos de ligação e segmentos de entrecruzamento). No entanto, a sua transposição direta para a realidade portuguesa levanta algumas reservas, uma vez que os elementos que compõem o ambiente rodoviário (infraestrutura, veículo e condutor) são distintos dos da realidade norte-americana para a qual foi desenvolvida. Assim, seria útil para os atores envolvidos no setor rodoviário dispor de metodologias desenvolvidas para as condições portuguesas, que possibilitassem uma caracterização mais realista da qualidade de serviço ao nível da operação em autoestradas. No entanto, importa referir que o desenvolvimento de metodologias deste género requer uma quantidade muito significativa de dados geométricos e de tráfego, o que acarreta uma enorme necessidade de meios, quer humanos, quer materiais. Esta abordagem é assim de difícil execução, sendo por isso necessário recorrer a metodologias alternativas para a persecução deste objetivo. Ultimamente tem-se verificado o uso cada vez mais generalizado de modelos de simulação microscópica de tráfego, que simulando o movimento individual dos veículos num ambiente virtual permitem realizar análises de tráfego. A presente dissertação apresenta os resultados obtidos no desenvolvimento de uma metodologia que procura recriar, através de simuladores microscópicos de tráfego, o comportamento das correntes de tráfego em secções correntes de autoestradas com o intuito de, posteriormente, se proceder à adaptação da metodologia preconizada no HCM (na sua edição de 2000) à realidade portuguesa. Para tal, com os simuladores microscópicos utilizados (AIMSUN e VISSIM) procurou-se reproduzir as condições de circulação numa autoestrada portuguesa, de modo a que fosse possível analisar as alterações sofridas no comportamento das correntes de tráfego após a modificação dos principais fatores geométricos e de tráfego envolvidos na metodologia do HCM 2000. Para o efeito, realizou-se uma análise de sensibilidade aos simuladores de forma a avaliar a sua capacidade para representar a influência desses fatores, com vista a, numa fase posterior, se quantificar o seu efeito para a realidade nacional e dessa forma se proceder à adequação da referida metodologia ao contexto português. Em resumo, o presente trabalho apresenta as principais vantagens e limitações dos microssimuladores AIMSUN e VISSIM na modelação do tráfego de uma autoestrada portuguesa, tendo-se concluído que estes simuladores não são capazes de representar de forma explícita alguns dos fatores considerados na metodologia do HCM 2000, o que impossibilita a sua utilização como ferramenta de quantificação dos seus efeitos e consequentemente inviabiliza a adaptação dessa metodologia à realidade nacional. São, no entanto, referidas algumas indicações de como essas limitações poderão vir a ser ultrapassadas, com vista à consecução futura dessa adequação.
Resumo:
Mestrado em Engenharia Informática, Área de Especialização em Tecnologias do Conhecimento e da Decisão
Resumo:
O presente Relatório de Estágio representa o último passo para a obtenção do Grau de Mestre em Engenharia Civil – Ramo de Construções, lecionado no Instituto Superior de Engenharia do Porto (ISEP). Este relatório refere-se ao trabalho desenvolvido em estágio na entidade acolhedora Concexec – Arquitetura, Lda., através da elaboração e desenvolvimento dos projetos de térmica de edifícios referentes a duas moradias unifamiliares. Os referidos projetos foram elaborados em colaboração com a entidade patronal do estágio, precedidos de visitas aos locais das respetivas obras e análise dos respetivos projetos de especialidades considerados relevantes. Numa primeira parte do relatório está descrita a realidade da situação energética atual em Portugal, sucedida da referência e descrição de soluções construtivas disponíveis no mercado nacional que visam a melhoria da eficiência energética em edifícios de habitação. Numa segunda parte do relatório encontram-se descritos, de uma forma detalhada, os projetos de térmica de edifícios referidos e respetivas soluções alternativas, sucedidos de uma análise energética e económica que permita deduzir qual a melhor solução a ser aplicada mediante o caso. Os resultados obtidos cumpriram com todos os requisitos regulamentares estabelecidos, permitindo obter conclusões adequadas ao âmbito do presente Relatório de Estágio, cumprindo, desta forma, os objetivos que lhe foram estabelecidos. No final estão descritas as conclusões que foram obtidas durante todo o processo de pesquisa e desenvolvimento do estágio realizado.
Resumo:
Ao longo desta dissertação é apresentada a legislação em vigor em Portugal relacionada com a acústica de edifícios, bem como as normas europeias existentes. Como caso de estudo optou-se por analisar um edifício recuperado no âmbito do programa de reabilitação urbana do Porto, incidindo o estudo experimental na realização de ensaios acústicos, avaliando e validando através dos mesmos as soluções construtivas preconizadas no projeto de execução do edifício. Assim, para cada uma das soluções construtivas, realizaram-se estimativas de acordo com diferentes métodos preconizados nas normas e na bibliografia da especialidade. Efetuou-se também a avaliação acústica do edifício através do método prescrito pelo Laboratório de Engenharia Civil (LNEC), a qual reverteu numa classificação de acordo com os parâmetros considerados, a qual é apresentada no presente trabalho.
Resumo:
O objetivo geral deste trabalho é a Análise do Desempenho na Administração Pública com recurso a Rácios Financeiros (Caso do Município de Matosinhos). Neste estudo iremos fazer uma análise económica e financeira do Município de Matosinhos avaliando seu o desempenho nos períodos de 2011 a 2014 e também, iremos analisar alguns fatores que influenciam a estrutura de capital dos 12 Municípios de grande dimensão e o seu desempenho. Quanto à análise económica e financeira do Município de Matosinhos, os resultados mostram, que a curto prazo é possível afirmar que o Município de Matosinhos se encontra numa situação favorável em termos de liquidez, com uma boa margem de segurança, ou seja, consegue solver os compromissos a curto. Verifica-se que o Município de Matosinhos ao longo do quadriénio foi recorrendo cada vez menos a capitais alheios para conseguir financiar os seus ativos, tendência positiva em termos do equilíbrio da estrutura financeira municipal. Tentando confirmar a existência ou inexistência de uma relação entre a estrutura de capital (endividamento) e o desempenho (rendibilidade do ativo) com os fatores que as influenciam, foi realizada uma análise de correlação não paramétrica de Spearman com recurso ao SPSS versão 21. Ao contrário da hipótese formulada e das conclusões chegadas em grande parte dos estudos efetuados, verifica-se a existência de uma relação negativa a um nível de significância de 5%, entre o nível de endividamento e a dimensão do Município. Quanto a relação o entre o endividamento com composição do ativo e a rendibilidade do ativo, os resultados não são satisfatórios, mostram uma inexistência da relação entre o endividamento e esses fatores. Verifica-se uma correlação positiva para um nível de significância de 1% entre a rendibilidade do ativo e crescimento, ou seja, os Municípios com maior taxa de crescimento apresentam uma maior rendibilidade do ativo. Este resultado confirma-se a nossa hipótese 4. Porém, em relação a associação positiva entre a rendibilidade do Município e a sua dimensão, os resultados evidenciaram uma inexistência de qualquer relação entre as variáveis.
Resumo:
Em um mundo de intensa competição global, as alianças estratégicas tornam-se essenciais na busca por uma eficiência nos negócios. Aquelas empresas que conseguirem tirar proveito das parcerias podem alcançar o sucesso, pois podem alcançar um desempenho competitivo superior. Porém, a dificuldade está em gerir este negócio em conjunto, visto que, um elevado percentual de parcerias fracassam. Um sistema eficiente de monitoramento das questões mais importantes podem auxiliar em uma melhor gestão. O objetivo deste trabalho é avaliar o desempenho e as características de uma aliança estratégica entre empresa argentina e brasileira. Para tanto, foi utilizado um método de monitoramento da parceria, envolvendo sete variáveis: tecnologia, mercado, finanças, recursos humanos e planejamento geral, produção e cultura. A presente investigação ocorreu entre os meses de março e maio de 2001. O estudo apresenta resultados individuais e comparativos da empresa argentina Vesubio, da brasileira Industrias Integradas e da Joint Venture Vesubio do Brasil. Por fim são apresentadas implicações do estudo que poderiam ser aprofundadas em novas pesquisas na área de relacionamentos em mercados internacionais.
Resumo:
Nesse trabalho abordam-se de maneira geral a diversas características e propriedades dos materiais que influem na penetração da água em fachadas de alvenaria. Analiza-se os principais mecanismos de infiltraçao da água bem como o comportamento da água sobre a superfície das fachadas. Uma análise também é feita com respeito a determinação do grau de exposição da fachada. Com o fim de avaliar o desempenho de fachadas de alvenaria, com relação a sua resistência a penetração da chuva, utiliza-se a metodologia de desempenho. Faz-se uma aplicação prática para as condições de Porto Alegre, apresentando-se os resultados obtidos.
Resumo:
Este trabalho apresenta um sistema virtual para suporte ao ensino, denominado SADA. O sistema se baseia na análise do desempenho durante a aprendizagem para implementar técnicas de adaptação para apresentação dos links. Tendo como objetivo principal auxiliar o ensino presencial, e caracterizar as possibilidades para se adaptar a navegação no conteúdo do curso através da forma de apresentação dos links. O SADA utiliza ferramentas computacionais de domínio público na Web, e possui um conjunto de opções para criação e divulgação de cursos com conteúdos didáticos, e questões de múltipla escolha para avaliação do desempenho do aluno. Um sistema de ensino como o SADA, mediado por computador e baseado na Internet (Web), pode ser uma ferramenta complementar ao trabalho do professor, por acrescentar maior dinâmica aos cursos ou disciplinas devido às novas formas de interação com o aluno.
Resumo:
Este artigo tem como objetivo verificar a robustez do contéudo preditivo de regras da análise técnica, usando informações intradiárias do mercado futuro do índice de ações da Bolsa de Valores de São Paulo (Ibovespa Futuro). A metodologia sugerida foi a avaliacão em grupos, conforme os resultados de Baptista (2002), tal que as regras são obtidas conforme os resultados em alguns dos subperíodos estudados, sendo testadas em períodos subsequentes. Como resultado, obteve-se robustez ao longo do tempo e à taxa de amostragem dos dados no desempenho das regras acima do benchmark (buy-and-hold), porém considerações realistas acerca do momento de compra, assim como da corretagem (exceto grande investidor), podem reduzir substancialmente os ganhos
Resumo:
This research evaluated the quality of the management of Brazilian stock funds on the period from January 1997 to October 2006. The analysis was based on the Modern Portfolio Theory measures of performance. In addition, this research evaluated the relevance of the performance measures The sample with 21 funds was extracted from the 126 largest Brasilian stock options funds because they were the only with quotas on the whole period. The monthly mean rate of return and the following indexes were calculated: total return, mean monthly return, Jensen Index, Treynor Index, Sharpe Index, Sortino Index, Market Timing and the Mean Quadratic Error. The initial analysis showed that the funds in the sample had different objectives and limitations. To make valuable comparisons, the ANBID (National Association of Investment Banks) categories were used to classify the funds. The measured results were ranked. The positions of the funds on the rankings based on the mean monthly return and the indexes of Jensen, Treynor, Sortino and Sharpe were similar. All of the ten ACTIVE funds of this research were above the benchmark (IBOVESPA index) in the measures above. Based on the CAPM, the managers of these funds got superior performance because they might have compiled the available information in a superior way. The six funds belonging to the ANBID classification of INDEXED got the first six positions in the ranking based on the Mean Quadratic Error. None of the researched funds have shown market timing skills to move the beta of their portfolios in the right direction to take the benefit of the market movements, at the significance level of 5%.