853 resultados para análise e desempenho de tarefas
Resumo:
Introdução: Estudos actuais sugerem que o sono possui um papel importante na melhoria do desempenho motor em adultos. Porém, em crianças saudáveis os resultados são contraditórios, indicando que apenas a passagem do tempo pode produzir um ganho ilusório. Objetivo: Identificar e sumarizar a evidência acerca do impacto do sono no desempenho de tarefas de memória procedimental em crianças saudáveis. Métodos: Foi conduzida uma pesquisa bibliográfica nas principais bases de dados electrónicas, Medline, ISI Web of Science e Scopus. Esta foi realizada até 17 de Maio de 2015 e de acordo com o equação de pesquisa. Após a selecção dos artigos, segundo os critérios de inclusão e exclusão, avaliou-se a qualidade metodológica com recurso ao instrumento designado QATSDD (Quality Assessment Tool and Scoring Guidance Notes) e outro instrumento para estudos de intervenção beforeafter, sem grupo de controlo, desenvolvido por profissionais de sáude pertencentes ao National Institutes of Health. A meta-análise foi realizada com a medida do tempo de reacção, usando a diferença das médias padronizadas. O método estatístico utilizado foi Mantel-Haenszel para efeitos aleatórios. Resultados: Conduziu-se a revisão sistemática com quatorze artigos publicados entre 2007 e 2014, três estudos usados na meta-análise. Apenas quatro estudos denotaram melhorias, estatisticamente significativas, no que diz respeito ao efeito de um período de sono no desempenho de uma tarefa motora em crianças. Pelo contrário, a maioria dos estudos é a favor de que um período de sono prejudica o desempenho. Na meta-análise mostra-se que a vigília favorece os valores do tempo de reacção. Conclusões: A presente evidência não suporta o facto de que um período de sono optimiza o desempenho de tarefas de memória procedimental em crianças. Dadas as limitações apresentadas, nomeadamente a heterogeneidade das intervenções e reduzida qualidade metodológica dos estudos incluídos, sem grupo de controlo, sugere-se a realização de estudos futuros com maior nível de evidência.
Resumo:
Sistemas Gerenciadores de Workflow (SGWf) têm atraído muita atenção nos últimos anos, por serem baseados em um modelo simples que permite definir, executar e monitorar a execução de processos. Mas este esquema é um tanto quanto rígido e inflexível, apresentando alguns problemas quando da necessidade de sua utilização no controle de processos com características cooperativas, em que o comportamento humano deve ser levado em conta. Este tipo de processo deve apresentar uma certa flexibilidade de forma a possibilitar a troca de resultados entre tarefas, acabando com a dependência fim-início existente entre tarefas seqüenciais nos SGWfs tradicionais. A fim de possibilitar este tipo de comportamento, surge a antecipação de tarefas, que tem por objetivo oferecer meios de flexibilizar o fluxo de controle e o fluxo de dados para permitir que tarefas possam ser disparadas antes mesmo da conclusão de suas antecessoras. A antecipação implica no aumento da cooperação entre tarefas e em melhor desempenho com relação ao tempo de execução dos processos. O aumento na cooperação está relacionado diretamente à troca de resultados, permitindo que duas ou mais tarefas trabalhem sobre instâncias de um determinado dado que ainda está sendo produzido. O melhor desempenho deve-se ao paralelismo (parcial) criado entre tarefas que deveriam executar de maneira estritamente seqüencial, devido ao disparo das tarefas antes do previsto. Este trabalho então, apresenta um estudo das abordagens de flexibilização de SGWfs, visando encontrar maneiras de prover antecipação de tarefas. O principal objetivo do trabalho é verificar a melhoria de desempenho em termos de tempo de execução dos processos que se pode obter utilizando a antecipação de tarefas Para tal, foi desenvolvido um simulador que suporta a antecipação de tarefas e foram conduzidas simulações, que mostraram os ganhos e alguns padrões de comportamento da utilização da antecipação de tarefas. Para possibilitar o uso da antecipação em processos reais foram realizadas alterações na ferramenta de definição de processos Amaya Workflow e na máquina de workflow do projeto CEMT.
Resumo:
O uso de Internet para a distribuição de fluxos de vídeo tem se mostrado uma tendência atual e traz consigo grandes desafios. O alicerce sobre qual a Internet está fundamentada, comutação por pacotes e arquitetura cliente-servidor, não proporciona as melhores condições para este tipo de serviço. A arquitetura P2P (peer-to-peer) vem sendo considerada como infraestrutura para a distribuição de fluxos de vídeo na Internet. A idéia básica da distribuição de vídeo com o suporte de P2P é a de que os vários nós integrantes da rede sobreposta distribuem e encaminham pedaços de vídeo de forma cooperativa, dividindo as tarefas, e colocando à disposição da rede seus recursos locais. Dentro deste contexto, é importante investigar o que ocorre com a qualidade do serviço de distribuição de vídeo quando a infraestrutura provida pelas redes P2P é contaminada por nós que não estejam dispostos a cooperar, já que a base desta arquitetura é a cooperação. Neste trabalho, inicialmente é feito um estudo para verificar o quanto a presença de nós não-cooperativos pode afetar a qualidade da aplicação de distribuição de fluxo de vídeo em uma rede P2P. Com base nos resultados obtidos, é proposto um mecanismo de incentivo à cooperação para que seja garantida uma boa qualidade de vídeo aos nós cooperativos e alguma punição aos nós não-cooperativos. Os testes e avaliações foram realizados utilizando-se o simulador PeerSim.
Resumo:
The incorporate of industrial automation in the medical are requires mechanisms to safety and efficient establishment of communication between biomedical devices. One solution to this problem is the MP-HA (Multicycles Protocol to Hospital Automation) that down a segmented network by beds coordinated by an element called Service Provider. The goal of this work is to model this Service Provider and to do performance analysis of the activities executed by in establishment and maintenance of hospital networks
Resumo:
Em um treino discriminativo, há diversas variáveis que podem afetar a precisão da aquisição do repertório. Uma variável pouco analisada é o número de escolhas apresentado nas tentativas discretas de treino, buscando verificar em que situações o controle discriminativo pode ser mais facilmente estabelecido. Este trabalho tem como objetivo geral descrever os efeitos da manipulação do número de escolhas sobre o desempenho em tarefas de discriminação simples em macacos-prego (Cebus cf. apella). No Experimento I, os sujeitos foram submetidos a um treino discriminativo com três tipos diferentes de tentativas (2, 4 e 9 escolhas). Um teste de controle de estímulos avaliou se o repertório aprendido podia ser mantido quando os estímulos utilizados nos três tipos de tentativa eram apresentados na forma de duas escolhas. No Experimento II, buscou-se adicionalmente avaliar se as respostas corretas nos treinos prévios de discriminação ocorriam em função de escolha por seleção do S+, por rejeição do S-, ou por controle misto (seleção e rejeição). Esta avaliação foi realizada através do procedimento de máscara. Os resultados do Experimento I sugerem que a exposição a um número maior de escolhas é uma estratégia eficiente para estabelecer o responder discriminado, pois o desempenho permanece mesmo quando o número de escolhas é posteriormente reduzido para dois. Os resultados obtidos no Experimento II mostram dados diferentes para os dois sujeitos. M30 apresentou controle por rejeição e preferência pela máscara e M31 apresentou controle misto no responder. O presente estudo mostra um caminho para aprofundar a análise do controle de estímulos nos estudos específicos sobre a manipulação do número de escolhas e indica que essa variável pode ser um meio eficaz de reduzir a dificuldade de aquisição de discriminações em contexto aplicado.
Resumo:
O crescimento dos serviços de banda-larga em redes de comunicações móveis tem provocado uma demanda por dados cada vez mais rápidos e de qualidade. A tecnologia de redes móveis chamada LTE (Long Term Evolution) ou quarta geração (4G) surgiu com o objetivo de atender esta demanda por acesso sem fio a serviços, como acesso à Internet, jogos online, VoIP e vídeo conferência. O LTE faz parte das especificações do 3GPP releases 8 e 9, operando numa rede totalmente IP, provendo taxas de transmissão superiores a 100 Mbps (DL), 50 Mbps (UL), baixa latência (10 ms) e compatibilidade com as versões anteriores de redes móveis, 2G (GSM/EDGE) e 3G (UMTS/HSPA). O protocolo TCP desenvolvido para operar em redes cabeadas, apresenta baixo desempenho sobre canais sem fio, como redes móveis celulares, devido principalmente às características de desvanecimento seletivo, sombreamento e às altas taxas de erros provenientes da interface aérea. Como todas as perdas são interpretadas como causadas por congestionamento, o desempenho do protocolo é ruim. O objetivo desta dissertação é avaliar o desempenho de vários tipos de protocolo TCP através de simulações, sob a influência de interferência nos canais entre o terminal móvel (UE User Equipment) e um servidor remoto. Para isto utilizou-se o software NS3 (Network Simulator versão 3) e os protocolos TCP Westwood Plus, New Reno, Reno e Tahoe. Os resultados obtidos nos testes mostram que o protocolo TCP Westwood Plus possui um desempenho melhor que os outros. Os protocolos TCP New Reno e Reno tiveram desempenho muito semelhante devido ao modelo de interferência utilizada ter uma distribuição uniforme e, com isso, a possibilidade de perdas de bits consecutivos é baixa em uma mesma janela de transmissão. O TCP Tahoe, como era de se esperar, apresentou o pior desempenho dentre todos, pois o mesmo não possui o mecanismo de fast recovery e sua janela de congestionamento volta sempre para um segmento após o timeout. Observou-se ainda que o atraso tem grande importância no desempenho dos protocolos TCP, mas até do que a largura de banda dos links de acesso e de backbone, uma vez que, no cenário testado, o gargalo estava presente na interface aérea. As simulações com erros na interface aérea, introduzido com o script de fading (desvanecimento) do NS3, mostraram que o modo RLC AM (com reconhecimento) tem um desempenho melhor para aplicações de transferência de arquivos em ambientes ruidosos do que o modo RLC UM sem reconhecimento.
Resumo:
A extração de regras de associação (ARM - Association Rule Mining) de dados quantitativos tem sido pesquisa de grande interesse na área de mineração de dados. Com o crescente aumento das bases de dados, há um grande investimento na área de pesquisa na criação de algoritmos para melhorar o desempenho relacionado a quantidade de regras, sua relevância e a performance computacional. O algoritmo APRIORI, tradicionalmente usado na extração de regras de associação, foi criado originalmente para trabalhar com atributos categóricos. Geralmente, para usá-lo com atributos contínuos, ou quantitativos, é necessário transformar os atributos contínuos, discretizando-os e, portanto, criando categorias a partir dos intervalos discretos. Os métodos mais tradicionais de discretização produzem intervalos com fronteiras sharp, que podem subestimar ou superestimar elementos próximos dos limites das partições, e portanto levar a uma representação imprecisa de semântica. Uma maneira de tratar este problema é criar partições soft, com limites suavizados. Neste trabalho é utilizada uma partição fuzzy das variáveis contínuas, que baseia-se na teoria dos conjuntos fuzzy e transforma os atributos quantitativos em partições de termos linguísticos. Os algoritmos de mineração de regras de associação fuzzy (FARM - Fuzzy Association Rule Mining) trabalham com este princípio e, neste trabalho, o algoritmo FUZZYAPRIORI, que pertence a esta categoria, é utilizado. As regras extraídas são expressas em termos linguísticos, o que é mais natural e interpretável pelo raciocício humano. Os algoritmos APRIORI tradicional e FUZZYAPRIORI são comparado, através de classificadores associativos, baseados em regras extraídas por estes algoritmos. Estes classificadores foram aplicados em uma base de dados relativa a registros de conexões TCP/IP que destina-se à criação de um Sistema de Detecção de Intrusos.
Resumo:
Métodos de otimização que utilizam condições de otimalidade de primeira e/ou segunda ordem são conhecidos por serem eficientes. Comumente, esses métodos iterativos são desenvolvidos e analisados à luz da análise matemática do espaço euclidiano n-dimensional, cuja natureza é de caráter local. Consequentemente, esses métodos levam a algoritmos iterativos que executam apenas as buscas locais. Assim, a aplicação de tais algoritmos para o cálculo de minimizadores globais de uma função não linear,especialmente não-convexas e multimodais, depende fortemente da localização dos pontos de partida. O método de Otimização Global Topográfico é um algoritmo de agrupamento, que utiliza uma abordagem baseada em conceitos elementares da teoria dos grafos, a fim de gerar bons pontos de partida para os métodos de busca local, a partir de pontos distribuídos de modo uniforme no interior da região viável. Este trabalho tem dois objetivos. O primeiro é realizar uma nova abordagem sobre método de Otimização Global Topográfica, onde, pela primeira vez, seus fundamentos são formalmente descritos e suas propriedades básicas são matematicamente comprovadas. Neste contexto, propõe-se uma fórmula semi-empírica para calcular o parâmetro chave deste algoritmo de agrupamento, e, usando um método robusto e eficiente de direções viáveis por pontos-interiores, estendemos o uso do método de Otimização Global Topográfica a problemas com restrições de desigualdade. O segundo objetivo é a aplicação deste método para a análise de estabilidade de fase em misturas termodinâmicas,o qual consiste em determinar se uma dada mistura se apresenta em uma ou mais fases. A solução deste problema de otimização global é necessária para o cálculo do equilíbrio de fases, que é um problema de grande importância em processos da engenharia, como, por exemplo, na separação por destilação, em processos de extração e simulação da recuperação terciária de petróleo, entre outros. Além disso, afim de ter uma avaliação inicial do potencial dessa técnica, primeiro vamos resolver 70 problemas testes, e então comparar o desempenho do método proposto aqui com o solver MIDACO, um poderoso software recentemente introduzido no campo da otimização global.
Resumo:
Hoje em dia, distribuições de grandes volumes de dados por redes TCP/IP corporativas trazem problemas como a alta utilização da rede e de servidores, longos períodos para conclusão e maior sensibilidade a falhas na infraestrutura de rede. Estes problemas podem ser reduzidos com utilização de redes par-a-par (P2P). O objetivo desta dissertação é analisar o desempenho do protocolo BitTorrent padrão em redes corporativas e também realizar a análise após uma modificação no comportamento padrão do protocolo BitTorrent. Nesta modificação, o rastreador identifica o endereço IP do par que está solicitando a lista de endereços IP do enxame e envia somente aqueles pertencentes à mesma rede local e ao semeador original, com o objetivo de reduzir o tráfego em redes de longa distância. Em cenários corporativos típicos, as simulações mostraram que a alteração é capaz de reduzir o consumo médio de banda e o tempo médio dos downloads, quando comparados ao BitTorrent padrão, além de conferir maior robustez à distribuição em casos de falhas em enlaces de longa distância. As simulações mostraram também que em ambientes mais complexos, com muitos clientes, e onde a restrição de banda em enlaces de longa distância provoca congestionamento e descartes, o desempenho do protocolo BitTorrent padrão pode ser semelhante a uma distribuição em arquitetura cliente-servidor. Neste último caso, a modificação proposta mostrou resultados consistentes de melhoria do desempenho da distribuição.
Resumo:
Portugal é um dos países europeus com melhor cobertura espacial e populacional de rede de autoestradas (5º entre os 27 da UE). O acentuado crescimento desta rede nos últimos anos leva a que seja necessária a utilização de metodologias de análise e avaliação da qualidade do serviço que é prestado nestas infraestruturas, relativamente às condições de circulação. Usualmente, a avaliação da qualidade de serviço é efetuada por intermédio de metodologias internacionalmente aceites, das quais se destaca a preconizada no Highway Capacity Manual (HCM). É com esta última metodologia que são habitualmente determinados em Portugal, os níveis de serviço nas diversas componentes de uma autoestrada (secções correntes, ramos de ligação e segmentos de entrecruzamento). No entanto, a sua transposição direta para a realidade portuguesa levanta algumas reservas, uma vez que os elementos que compõem o ambiente rodoviário (infraestrutura, veículo e condutor) são distintos dos da realidade norte-americana para a qual foi desenvolvida. Assim, seria útil para os atores envolvidos no setor rodoviário dispor de metodologias desenvolvidas para as condições portuguesas, que possibilitassem uma caracterização mais realista da qualidade de serviço ao nível da operação em autoestradas. No entanto, importa referir que o desenvolvimento de metodologias deste género requer uma quantidade muito significativa de dados geométricos e de tráfego, o que acarreta uma enorme necessidade de meios, quer humanos, quer materiais. Esta abordagem é assim de difícil execução, sendo por isso necessário recorrer a metodologias alternativas para a persecução deste objetivo. Ultimamente tem-se verificado o uso cada vez mais generalizado de modelos de simulação microscópica de tráfego, que simulando o movimento individual dos veículos num ambiente virtual permitem realizar análises de tráfego. A presente dissertação apresenta os resultados obtidos no desenvolvimento de uma metodologia que procura recriar, através de simuladores microscópicos de tráfego, o comportamento das correntes de tráfego em secções correntes de autoestradas com o intuito de, posteriormente, se proceder à adaptação da metodologia preconizada no HCM (na sua edição de 2000) à realidade portuguesa. Para tal, com os simuladores microscópicos utilizados (AIMSUN e VISSIM) procurou-se reproduzir as condições de circulação numa autoestrada portuguesa, de modo a que fosse possível analisar as alterações sofridas no comportamento das correntes de tráfego após a modificação dos principais fatores geométricos e de tráfego envolvidos na metodologia do HCM 2000. Para o efeito, realizou-se uma análise de sensibilidade aos simuladores de forma a avaliar a sua capacidade para representar a influência desses fatores, com vista a, numa fase posterior, se quantificar o seu efeito para a realidade nacional e dessa forma se proceder à adequação da referida metodologia ao contexto português. Em resumo, o presente trabalho apresenta as principais vantagens e limitações dos microssimuladores AIMSUN e VISSIM na modelação do tráfego de uma autoestrada portuguesa, tendo-se concluído que estes simuladores não são capazes de representar de forma explícita alguns dos fatores considerados na metodologia do HCM 2000, o que impossibilita a sua utilização como ferramenta de quantificação dos seus efeitos e consequentemente inviabiliza a adaptação dessa metodologia à realidade nacional. São, no entanto, referidas algumas indicações de como essas limitações poderão vir a ser ultrapassadas, com vista à consecução futura dessa adequação.
Resumo:
Mestrado em Engenharia Informática, Área de Especialização em Tecnologias do Conhecimento e da Decisão
Resumo:
O presente Relatório de Estágio representa o último passo para a obtenção do Grau de Mestre em Engenharia Civil – Ramo de Construções, lecionado no Instituto Superior de Engenharia do Porto (ISEP). Este relatório refere-se ao trabalho desenvolvido em estágio na entidade acolhedora Concexec – Arquitetura, Lda., através da elaboração e desenvolvimento dos projetos de térmica de edifícios referentes a duas moradias unifamiliares. Os referidos projetos foram elaborados em colaboração com a entidade patronal do estágio, precedidos de visitas aos locais das respetivas obras e análise dos respetivos projetos de especialidades considerados relevantes. Numa primeira parte do relatório está descrita a realidade da situação energética atual em Portugal, sucedida da referência e descrição de soluções construtivas disponíveis no mercado nacional que visam a melhoria da eficiência energética em edifícios de habitação. Numa segunda parte do relatório encontram-se descritos, de uma forma detalhada, os projetos de térmica de edifícios referidos e respetivas soluções alternativas, sucedidos de uma análise energética e económica que permita deduzir qual a melhor solução a ser aplicada mediante o caso. Os resultados obtidos cumpriram com todos os requisitos regulamentares estabelecidos, permitindo obter conclusões adequadas ao âmbito do presente Relatório de Estágio, cumprindo, desta forma, os objetivos que lhe foram estabelecidos. No final estão descritas as conclusões que foram obtidas durante todo o processo de pesquisa e desenvolvimento do estágio realizado.
Resumo:
Ao longo desta dissertação é apresentada a legislação em vigor em Portugal relacionada com a acústica de edifícios, bem como as normas europeias existentes. Como caso de estudo optou-se por analisar um edifício recuperado no âmbito do programa de reabilitação urbana do Porto, incidindo o estudo experimental na realização de ensaios acústicos, avaliando e validando através dos mesmos as soluções construtivas preconizadas no projeto de execução do edifício. Assim, para cada uma das soluções construtivas, realizaram-se estimativas de acordo com diferentes métodos preconizados nas normas e na bibliografia da especialidade. Efetuou-se também a avaliação acústica do edifício através do método prescrito pelo Laboratório de Engenharia Civil (LNEC), a qual reverteu numa classificação de acordo com os parâmetros considerados, a qual é apresentada no presente trabalho.
Resumo:
O objetivo geral deste trabalho é a Análise do Desempenho na Administração Pública com recurso a Rácios Financeiros (Caso do Município de Matosinhos). Neste estudo iremos fazer uma análise económica e financeira do Município de Matosinhos avaliando seu o desempenho nos períodos de 2011 a 2014 e também, iremos analisar alguns fatores que influenciam a estrutura de capital dos 12 Municípios de grande dimensão e o seu desempenho. Quanto à análise económica e financeira do Município de Matosinhos, os resultados mostram, que a curto prazo é possível afirmar que o Município de Matosinhos se encontra numa situação favorável em termos de liquidez, com uma boa margem de segurança, ou seja, consegue solver os compromissos a curto. Verifica-se que o Município de Matosinhos ao longo do quadriénio foi recorrendo cada vez menos a capitais alheios para conseguir financiar os seus ativos, tendência positiva em termos do equilíbrio da estrutura financeira municipal. Tentando confirmar a existência ou inexistência de uma relação entre a estrutura de capital (endividamento) e o desempenho (rendibilidade do ativo) com os fatores que as influenciam, foi realizada uma análise de correlação não paramétrica de Spearman com recurso ao SPSS versão 21. Ao contrário da hipótese formulada e das conclusões chegadas em grande parte dos estudos efetuados, verifica-se a existência de uma relação negativa a um nível de significância de 5%, entre o nível de endividamento e a dimensão do Município. Quanto a relação o entre o endividamento com composição do ativo e a rendibilidade do ativo, os resultados não são satisfatórios, mostram uma inexistência da relação entre o endividamento e esses fatores. Verifica-se uma correlação positiva para um nível de significância de 1% entre a rendibilidade do ativo e crescimento, ou seja, os Municípios com maior taxa de crescimento apresentam uma maior rendibilidade do ativo. Este resultado confirma-se a nossa hipótese 4. Porém, em relação a associação positiva entre a rendibilidade do Município e a sua dimensão, os resultados evidenciaram uma inexistência de qualquer relação entre as variáveis.
Resumo:
Em um mundo de intensa competição global, as alianças estratégicas tornam-se essenciais na busca por uma eficiência nos negócios. Aquelas empresas que conseguirem tirar proveito das parcerias podem alcançar o sucesso, pois podem alcançar um desempenho competitivo superior. Porém, a dificuldade está em gerir este negócio em conjunto, visto que, um elevado percentual de parcerias fracassam. Um sistema eficiente de monitoramento das questões mais importantes podem auxiliar em uma melhor gestão. O objetivo deste trabalho é avaliar o desempenho e as características de uma aliança estratégica entre empresa argentina e brasileira. Para tanto, foi utilizado um método de monitoramento da parceria, envolvendo sete variáveis: tecnologia, mercado, finanças, recursos humanos e planejamento geral, produção e cultura. A presente investigação ocorreu entre os meses de março e maio de 2001. O estudo apresenta resultados individuais e comparativos da empresa argentina Vesubio, da brasileira Industrias Integradas e da Joint Venture Vesubio do Brasil. Por fim são apresentadas implicações do estudo que poderiam ser aprofundadas em novas pesquisas na área de relacionamentos em mercados internacionais.