983 resultados para Complex-order differintegrals
Resumo:
Dissertation submitted in partial fulfillment of the requirements for the Degree of Master of Science in Geospatial Technologies.
Resumo:
Standarização de um posto de trabalho não é mais que definir o melhor método de trabalho que vai ser seguido por todos os operadores que trabalham no mesmo. Uma vez definido esse método, é importante para uma empresa ter noção da produtividade que podem alcançar, dado que pode ser retirado a partir deste método, e é no seguimento disto que surge o estudo dos métodos e tempos, mais concretamente o estudo dos tempos por cronometragem. A aplicação deste estudo foi despoletada pela necessidade do IKEA Industry de Paços de Ferreira, em dar o próximo passo na standarização dos seus postos de trabalho, área a área, e da necessidade de terem uma pessoa em cada área que analisa-se o trabalho que estava a ser feito e calcula-se o tempo de cada rotina. Neste documento, é realizada uma interligação entre os conceitos teóricos que o método exige, como todo o conjunto de fórmulas, restrições, análises e ponderações, com o contexto laboral onde o mesmo foi aplicado e a estratégia desenvolvida pelo IKEA na realização do estudo. O estudo dos métodos e tempos por cronometragem, de todos os métodos existentes, pode ser considerado o mais completo e complexo, uma vez que é mais que observar, registar e retirar uma média ponderada das observações. Este método baseia-se num modelo matemático, que interliga uma série de conceitos e que tem sempre o operador em consideração, seja na avaliação e análise das tarefas que requerem mais esforço dos mesmos, físico ou psicológico, seja em termos de tempos de pausas pessoais que a lei obriga a que as empresas deem. Este detalhe, neste método, é de grande importância, uma vez que a standarização é sempre vista pelos operadores como uma punição. As desvantagens deste método estão no grau de conhecimento e capacidade de observação exigidas ao analista para o executar. Melhor dizendo, um analista que vá executar este trabalho necessita observar muito bem a rotina de trabalho e conhecer onde começa, acaba e tudo o que a ela não pertence, antes de começar a registar seja que tempos forem. Para além disso, é exigido ao analista que perceba o ritmo de trabalho dos operadores através da observação dos mesmos, de modo a que ninguém seja prejudicado. E por fim, é necessária uma grande disponibilidade da parte do analista para retirar o máximo de observações possíveis. Com o intuito de facilitar esta análise, o IKEA Industry criou um ficheiro que compila toda a informação relacionada com o método, e uma explicação de todos os parâmetros que o analista necessita ter em atenção. Esta folha de trabalho foi validada à luz do método, como é possível verificar no decorrer do documento. Um detalhe importante a referir, é que por muito fidedigno que seja este método, tal como qualquer método de standarização, a mínima alteração da rotina de trabalho invalida de imediato o tempo total da rotina, tornando necessário realizar o estudo novamente. Uma vantagem do documento criado pelo IKEA, está na rápida adaptação a estas alterações, uma vez que, caso seja acrescentado ou removido um elemento à rotina, basta alterar o documento, observar e cronometrar os operadores a executar esse novo elemento, e quase automaticamente é definido um novo tempo total padronizado na rotina. Este documento foi criado para fins académicos e de conclusão de um grau académico, mas o estudo quando aplicado na empresa deu origem a contratações, o que só por si mostra as vantagens e impacto que o mesmo pode ter em contexto laboral. Em termos de produtividade, uma vez que a sua aplicação não foi executada a tempo de ser estudada neste documento, não foi possível avaliar a mesma.
Resumo:
Nos últimos anos, a nossa sociedade sofreu alterações significativas ao nível tecnológico que têm vindo a modificar o quotidiano do cidadão e transportaram para a palma da mão um conjunto significativo de tarefas até há poucos anos impensáveis. Atualmente, torna-se possível realizar as mais simples tarefas como, a título de exemplo, efetuar um cálculo matemático, tirar fotografias ou registar numa agenda um compromisso, ou tarefas mais complexas, como por exemplo, escrever ou editar um documento, trabalhar numa folha de cálculo ou enviar um e-mail com um anexo, isto tudo com o recurso a um simples dispositivo móvel, conhecido como smartphone ou tablet. Apesar de existirem diversos tipos de apps que seriam um bom auxílio para o aumento da produtividade dos utilizadores de dispositivos móveis Android, nem todos têm conhecimento das mesmas, pelo que é importante que os utilizadores tenham conhecimentos das vantagens da utilização destes recursos e de tudo o que podem realizar com os seus dispositivos com o objetivo de aumentar a sua produtividade profissional ou pessoal. O presente estudo pretende contribuir para uma análise sobre a potencial utilização das novas tecnologias, mais propriamente estudando e recomendando apps de produtividade. Com este intuito foi criada uma app de recomendação de aplicações de produtividade com recurso a um método de sistemas de recomendação. São apresentados os resultados e as conclusões, com recurso a opiniões de potenciais utilizadores.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Informática
Resumo:
Electricity markets worldwide are complex and dynamic environments with very particular characteristics. These are the result of electricity markets’ restructuring and evolution into regional and continental scales, along with the constant changes brought by the increasing necessity for an adequate integration of renewable energy sources. The rising complexity and unpredictability in electricity markets has increased the need for the intervenient entities in foreseeing market behaviour. Market players and regulators are very interested in predicting the market’s behaviour. Market players need to understand the market behaviour and operation in order to maximize their profits, while market regulators need to test new rules and detect market inefficiencies before they are implemented. The growth of usage of simulation tools was driven by the need for understanding those mechanisms and how the involved players' interactions affect the markets' outcomes. Multi-agent based software is particularly well fitted to analyse dynamic and adaptive systems with complex interactions among its constituents, such as electricity markets. Several modelling tools directed to the study of restructured wholesale electricity markets have emerged. Still, they have a common limitation: the lack of interoperability between the various systems to allow the exchange of information and knowledge, to test different market models and to allow market players from different systems to interact in common market environments. This dissertation proposes the development and implementation of ontologies for semantic interoperability between multi-agent simulation platforms in the scope of electricity markets. The added value provided to these platforms is given by enabling them sharing their knowledge and market models with other agent societies, which provides the means for an actual improvement in current electricity markets studies and development. The proposed ontologies are implemented in MASCEM (Multi-Agent Simulator of Competitive Electricity Markets) and tested through the interaction between MASCEM agents and agents from other multi-agent based simulators. The implementation of the proposed ontologies has also required a complete restructuring of MASCEM’s architecture and multi-agent model, which is also presented in this dissertation. The results achieved in the case studies allow identifying the advantages of the novel architecture of MASCEM, and most importantly, the added value of using the proposed ontologies. They facilitate the integration of independent multi-agent simulators, by providing a way for communications to be understood by heterogeneous agents from the various systems.
Resumo:
Com o aumento de plataformas móveis disponíveis no mercado e com o constante incremento na sua capacidade computacional, a possibilidade de executar aplicações e em especial jogos com elevados requisitos de desempenho aumentou consideravelmente. O mercado dos videojogos tem assim um cada vez maior número de potenciais clientes. Em especial, o mercado de jogos massive multiplayer online (MMO) tem-se tornado muito atractivo para as empresas de desenvolvimento de jogos. Estes jogos suportam uma elevada quantidade de jogadores em simultâneo que podem estar a executar o jogo em diferentes plataformas e distribuídos por um "mundo" de jogo extenso. Para incentivar a exploração desse "mundo", distribuem-se de forma inteligente pontos de interesse que podem ser explorados pelo jogador. Esta abordagem leva a um esforço substancial no planeamento e construção desses mundos, gastando tempo e recursos durante a fase de desenvolvimento. Isto representa um problema para as empresas de desenvolvimento de jogos, e em alguns casos, e impraticável suportar tais custos para equipas indie. Nesta tese e apresentada uma abordagem para a criação de mundos para jogos MMO. Estudam-se vários jogos MMO que são casos de sucesso de modo a identificar propriedades comuns nos seus mundos. O objectivo e criar uma framework flexível capaz de gerar mundos com estruturas que respeitam conjuntos de regras definidas por game designers. Para que seja possível usar a abordagem aqui apresentada em v arias aplicações diferentes, foram desenvolvidos dois módulos principais. O primeiro, chamado rule-based-map-generator, contem a lógica e operações necessárias para a criação de mundos. O segundo, chamado blocker, e um wrapper à volta do módulo rule-based-map-generator que gere as comunicações entre servidor e clientes. De uma forma resumida, o objectivo geral e disponibilizar uma framework para facilitar a geração de mundos para jogos MMO, o que normalmente e um processo bastante demorado e aumenta significativamente o custo de produção, através de uma abordagem semi-automática combinando os benefícios de procedural content generation (PCG) com conteúdo gráfico gerado manualmente.
Resumo:
SUMMARY Sporothrix schenckiiwas reclassified as a complex encompassing six cryptic species, which calls for the reassessment of clinical and epidemiological data of these new species. We evaluated the susceptibility of Sporothrix albicans (n = 1) , S. brasiliensis (n = 6) , S. globosa (n = 1), S. mexicana(n = 1) and S. schenckii(n = 36) to terbinafine (TRB) alone and in combination with itraconazole (ITZ), ketoconazole (KTZ), and voriconazole (VRZ) by a checkerboard microdilution method and determined the enzymatic profile of these species with the API-ZYM kit. Most interactions were additive (27.5%, 32.5% and 5%) or indifferent (70%, 50% and 52.5%) for TRB+KTZ, TRB+ITZ and TRB+VRZ, respectively. Antagonisms were observed in 42.5% of isolates for the TRB+VRZ combination. Based on enzymatic profiling, the Sporothrix schenckii strains were categorized into 14 biotypes. Leucine arylamidase (LA) activity was observed only for S. albicans and S. mexicana. The species S. globosaand S. mexicanawere the only species without β-glucosidase (GS) activity. Our results may contribute to a better understanding of virulence and resistance among species of the genus Sporothrixin further studies.
Resumo:
Manipulator systems are rather complex and highly nonlinear which makes difficult their analysis and control. Classic system theory is veil known, however it is inadequate in the presence of strong nonlinear dynamics. Nonlinear controllers produce good results [1] and work has been done e. g. relating the manipulator nonlinear dynamics with frequency response [2–5]. Nevertheless, given the complexity of the problem, systematic methods which permit to draw conclusions about stability, imperfect modelling effects, compensation requirements, etc. are still lacking. In section 2 we start by analysing the variation of the poles and zeros of the descriptive transfer functions of a robot manipulator in order to motivate the development of more robust (and computationally efficient) control algorithms. Based on this analysis a new multirate controller which is an improvement of the well known “computed torque controller” [6] is announced in section 3. Some research in this area was done by Neuman [7,8] showing tbat better robustness is possible if the basic controller structure is modified. The present study stems from those ideas, and attempts to give a systematic treatment, which results in easy to use standard engineering tools. Finally, in section 4 conclusions are presented.
Resumo:
J Biol Inorg Chem (2011) 16:1241–1254 DOI 10.1007/s00775-011-0812-9
Resumo:
Biochemistry. 2008 Oct 14;47(41):10852-62. doi: 10.1021/bi801375q
Resumo:
J Biol Inorg Chem (2003) 8: 777–786 DOI 10.1007/s00775-003-0479-y
Resumo:
Dissertação para obtenção do Grau de Doutor em Bioquímica, Especialidade Bioquímica Estrutural
Resumo:
Catheter ablation is an established treatment option for symptomatic atrial fibrillation (AF), with circumferential pulmonary vein isolation being considered the cornerstone of the procedure. However, this is a complex intervention with potential major complications and with common arrhythmia recurrences. There is consensus among experts that all patients should be seen in follow-up regularly after AF ablation. To date there are limited data regarding the best methodology for routine clinical follow-up of this population. This review summarizes a contemporary insight into management of late complications following AF ablation, post-procedural anticoagulation and arrhythmia monitoring strategies, in order to prevent thromboembolic events, detect and treat arrhythmia recurrences, and discuss the use of upstream therapies after AF ablation.
Resumo:
Modelling of ventilation is strongly dependent on the physical characteristics of the building of which precise evaluation is a complex and time consuming task. In the frame of a research project, two children day care centres (CDCC) have been selected in order to measure the envelope air permeability, the flow rate of mechanical ventilation systems and indoor and outdoor temperature. The data obtained was used as input to the computer code CONTAM for ventilation simulations. The results obtained were compared with direct measurements of ventilation flow from short term measurements with CO2 tracer gas and medium term measurements with perfluorocarbon tracer (PFT) gas decay method. After validation, in order to analyse the main parameters that affect ventilation, the model was used to predict the ventilation rates for a wide range of conditions. The purpose of this assessment was to find the best practices to improve natural ventilation. A simple analytical method to predict the ventilation flow rate of rooms is also presented. The method is based on the estimation of wind effect on the room through the evaluation of an average factor and on the assessment of relevant cross section of gaps and openings combined in series or in parallel. It is shown that it may be applied with acceptable accuracy for this type of buildings when ventilation is due essentially to wind action.