879 resultados para Response time (computer systems)


Relevância:

100.00% 100.00%

Publicador:

Resumo:

O risco associado a um navio em manobra pode ser avaliado pela probabilidade do movimento vertical de um ponto do navio ultrapassar um determinado limiar pré-definido. Essa excedência pode originar danos tanto no próprio navio como nas estruturas portuárias envolventes. Este trabalho surge no seguimento de um estudo efectuado no Laboratório Nacional de Engenharia Civil (LNEC), no qual foi desenvolvido um conjunto de ferramentas de avaliação da função resposta do navio quando sujeito à agitação marítima e, partindo dessas ferramentas, foi obtido um procedimento para determinação do espectro dos movimentos verticais de um ponto de um navio parado sujeito àquele estado de agitação (Rodrigues, 2010). No presente estudo, estendeu-se esse procedimento de modo a avaliar a influência da velocidade de avanço do navio no espectro dos movimentos verticais do mesmo. O percurso de entrada do “N/M Fernão Gomes” no porto da Praia da Vitória foi o caso de estudo considerado. A agitação marítima incidente no navio cobriu o período de Janeiro de 2009 a Dezembro de 2010 e foi obtida com base no modelo previsão de escala regional (WAVEWATCH III) e posteriormente transferida para o interior do porto com o recurso a modelos numéricos de propagação de ondas (SWAN e DREAMS). Foi também assumido que a altura do movimento vertical do navio segue uma distribuição de Rayleigh, a qual possibilita a determinação da altura significativa desse movimento vertical, bem como a implementação de um procedimento para determinar a probabilidade de a altura do movimento vertical do navio não exceder um limiar pré-definido e consequentemente mostrar, através da análise dos resultados, a influência da velocidade de avanço do navio. Da análise dos resultados concluiu-se que a velocidade tem uma influência significativa nos resultados. No final avaliou-se a contribuição dos resultados anteriormente determinados, para a análise do risco associado aos movimentos verticais do navio quando em manobra no porto em estudo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dissertação apresentada à Escola Superior de Comunicação Social como parte dos requisitos para obtenção de grau de mestre em Audiovisual e Multimédia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Objectives : The purpose of this article is to find out differences between surveys using paper and online questionnaires. The author has deep knowledge in the case of questions concerning opinions in the development of survey based research, e.g. the limits of postal and online questionnaires. Methods : In the physician studies carried out in 1995 (doctors graduated in 1982-1991), 2000 (doctors graduated in 1982-1996), 2005 (doctors graduated in 1982-2001), 2011 (doctors graduated in 1977-2006) and 457 family doctors in 2000, were used paper and online questionnaires. The response rates were 64%, 68%, 64%, 49% and 73%, respectively. Results : The results of the physician studies showed that there were differences between methods. These differences were connected with using paper-based questionnaire and online questionnaire and response rate. The online-based survey gave a lower response rate than the postal survey. The major advantages of online survey were short response time; very low financial resource needs and data were directly loaded in the data analysis software, thus saved time and resources associated with the data entry process. Conclusions : The current article helps researchers with planning the study design and choosing of the right data collection method.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The emergence of new business models, namely, the establishment of partnerships between organizations, the chance that companies have of adding existing data on the web, especially in the semantic web, to their information, led to the emphasis on some problems existing in databases, particularly related to data quality. Poor data can result in loss of competitiveness of the organizations holding these data, and may even lead to their disappearance, since many of their decision-making processes are based on these data. For this reason, data cleaning is essential. Current approaches to solve these problems are closely linked to database schemas and specific domains. In order that data cleaning can be used in different repositories, it is necessary for computer systems to understand these data, i.e., an associated semantic is needed. The solution presented in this paper includes the use of ontologies: (i) for the specification of data cleaning operations and, (ii) as a way of solving the semantic heterogeneity problems of data stored in different sources. With data cleaning operations defined at a conceptual level and existing mappings between domain ontologies and an ontology that results from a database, they may be instantiated and proposed to the expert/specialist to be executed over that database, thus enabling their interoperability.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A existência de estações de tratamentos de águas residuais (ETAR) é, nos dias de hoje, fundamental na medida em que permite, reduzir a poluição ambiental associada às águas e, também, a reutilização da água tratada para diversos fins. A constante necessidade de cumprir os limites de descargas nos meios recetores conduziu a um melhoramento nas técnicas e processos de tratamento de efluentes, nomeadamente, nos processos biológicos. O processo por lamas ativadas é um processo amplamente utilizado para a remoção de poluentes orgânicos presentes nas águas residuais, pelo que um estudo mais intensivo sobre estes tratamentos resultou na publicação de uma série de conceitos e pressupostos, através de modelos numéricos. A modelação numérica de processos de tratamento de águas residuais e a utilização de ferramentas de simulação numérica têm sido largamente utilizadas, a nível mundial, por exemplo em investigação, desenvolvimento de processos, atividade de consultoria e igualmente por entidades reguladoras, na medida em que os auxiliam no planeamento, dimensionamento e análise do comportamento de infraestruturas de tratamento. No presente trabalho, recorreu-se ao software de simulação GPS-X (versão 6.0) para implementar o esquema de tratamento da ETAR de Beirolas. O objetivo deste trabalho é verificar a aplicabilidade de modelos numéricos na simulação de unidades de tratamento de efluentes e avaliar a resposta dos diferentes modelos, assim como a influência na alteração de características das águas afluentes no comportamento dos modelos. Os resultados obtidos permitiram concluir que os modelos numéricos podem ser utilizados para prever a resposta dos sistemas biológicos e as suas perturbações. Conclui-se ainda que o comportamento, dos modelos estudados (ASM1, ASM2d, ASM3 e mantis), é semelhante, contudo deve-se referir que devido à complexidade do modelo e a falta de informação experimental sobre as características do efluente, não permitiram efetuar uma completa caracterização e calibração do caso de estudo, e toda a informação disponível sobre as características físico-químicas da água foram baseadas em estimativas de concentrações de carências de oxigénio e sólidos suspensos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mestrado em Engenharia Informática

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mestrado em Engenharia Electrotécnica e de Computadores

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Mecânica

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mestrado em Engenharia Mecânica. Gestão de Processos e Operações.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia de Electrónica e Telecomunicações

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Um dos temas mais debatidos na sociedade actual é a segurança. Os níveis de segurança e as ferramentas para os alcançar entram em contraponto com os métodos usados para os quebrar. Como no passado, a razão qualidade/serviço mantém-se hoje, e manter-se-á no futuro, assegurando maior segurança àqueles que melhor se protejam. Problemas simples da vida real como furtos ou uso de falsa identidade assumem no meio informático uma forma rápida e por vezes indetectável de crime organizado. Neste estudo são investigados métodos sociais e aplicações informáticas comuns para quebrar a segurança de um sistema informático genérico. Desta forma, e havendo um entendimento sobre o Modus Operandi das entidades mal-intencionadas, poderá comprovar-se a instabilidade e insegurança de um sistema informático, e, posteriormente, actuar sobre o mesmo de tal forma que fique colocado numa posição da segurança que, podendo não ser infalível, poderá estar muito melhorada. Um dos objectivos fulcrais deste trabalho é conseguir implementar e configurar um sistema completo através de um estudo de soluções de mercado, gratuitas ou comerciais, a nível da implementação de um sistema em rede com todos os serviços comuns instalados, i.e., um pacote “chave na mão” com serviços de máquinas, sistema operativo, aplicações, funcionamento em rede com serviços de correio electrónico, gestão empresarial, anti-vírus, firewall, entre outros. Será possível então evidenciar uma instância de um sistema funcional, seguro e com os serviços necessários a um sistema actual, sem recurso a terceiros, e sujeito a um conjunto de testes que contribuem para o reforço da segurança.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Actualmente verifica-se que a complexidade dos sistemas informáticos tem vindo a aumentar, fazendo parte das nossas ferramentas diárias de trabalho a utilização de sistemas informáticos e a utilização de serviços online. Neste âmbito, a internet obtém um papel de destaque junto das universidades, ao permitir que alunos e professores possam interagir mais facilmente. A internet e a educação baseada na Web vêm oferecer acesso remoto a qualquer informação independentemente da localização ou da hora. Como consequência, qualquer pessoa com uma ligação à internet, ao poder adquirir informações sobre um determinado tema junto dos maiores peritos, obtém vantagens significativas. Os laboratórios remotos são uma solução muito valorizada no que toca a interligar tecnologia e recursos humanos em ambientes que podem estar afastados no tempo ou no espaço. A criação deste tipo de laboratórios e a sua utilidade real só é possível porque as tecnologias de comunicação emergentes têm contribuído de uma forma muito relevante para melhorar a sua disponibilização à distância. A necessidade de criação de laboratórios remotos torna-se imprescindível para pesquisas relacionadas com engenharia que envolvam a utilização de recursos escassos ou de grandes dimensões. Apoiado neste conceito, desenvolveu-se um laboratório remoto para os alunos de engenharia que precisam de testar circuitos digitais numa carta de desenvolvimento de hardware configurável, permitindo a utilização deste recurso de uma forma mais eficiente. O trabalho consistiu na criação de um laboratório remoto de baixo custo, com base em linguagens de programação open source, sendo utilizado como unidade de processamento um router da ASUS com o firmware OpenWrt. Este firmware é uma distribuição Linux para sistemas embutidos. Este laboratório remoto permite o teste dos circuitos digitais numa carta de desenvolvimento de hardware configurável em tempo real, utilizando a interface JTAG. O laboratório desenvolvido tem a particularidade de ter como unidade de processamento um router. A utilização do router como servidor é uma solução muito pouco usual na implementação de laboratórios remotos. Este router, quando comparado com um computador normal, apresenta uma capacidade de processamento e memória muito inferior, embora os testes efectuados provassem que apresenta um desempenho muito adequado às expectativas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Demands for functionality enhancements, cost reductions and power savings clearly suggest the introduction of multiand many-core platforms in real-time embedded systems. However, when compared to uni-core platforms, the manycores experience additional problems, namely the lack of scalable coherence mechanisms and the necessity to perform migrations. These problems have to be addressed before such systems can be considered for integration into the realtime embedded domain. We have devised several agreement protocols which solve some of the aforementioned issues. The protocols allow the applications to plan and organise their future executions both temporally and spatially (i.e. when and where the next job will be executed). Decisions can be driven by several factors, e.g. load balancing, energy savings and thermal issues. All presented protocols are analytically described, with the particular emphasis on their respective real-time behaviours and worst-case performance. The underlying assumptions are based on the multi-kernel model and the message-passing paradigm, which constitutes the communication between the interacting instances.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Discrete time control systems require sample- and-hold circuits to perform the conversion from digital to analog. Fractional-Order Holds (FROHs) are an interpolation between the classical zero and first order holds and can be tuned to produce better system performance. However, the model of the FROH is somewhat hermetic and the design of the system becomes unnecessarily complicated. This paper addresses the modelling of the FROHs using the concepts of Fractional Calculus (FC). For this purpose, two simple fractional-order approximations are proposed whose parameters are estimated by a genetic algorithm. The results are simple to interpret, demonstrating that FC is a useful tool for the analysis of these devices.