531 resultados para Instant Messaging
Resumo:
A causally well-behaved solution of the localization problem for the free electron is given, with natural space-time transformation properties, in terms of Dirac's position operator x. It is shown that, although x is not an observable in the usual sense, and has no positive-energy (generalized) eigenstates, the four-vector density (rho(x, t), j(x, t)/c) is observable, and can be localized arbitrarily precisely about any point in space, at any instant of time, using only positive energy states. A suitable spin operator can be diagonalized at the same time.
Resumo:
We measured the oral and pharyngeal transit of a paste bolus in 20 patients with Chagas` disease and 21 controls. Each subject swallowed of a 10-ml paste bolus prepared with 50 ml of water and 4.5 g of instant food thickener labeled with 55.5 MBq of 99(m) technetium phytate. After the scintigraphic recording of the transit, we delineated regions of interest (ROI) corresponding to mouth, pharynx, and proximal esophagus. Time-activity curves were generated for each ROI. There was no difference between patients with Chagas` disease and controls with respect to the duration of oral and pharyngeal transit, amount of pharyngeal residue, or flux of bolus entry into the proximal esophagus. The amount of oral residue was higher in patients with Chagas` disease (median = 0.71 ml) than in controls (median = 0.45 ml). The pharyngeal clearance duration was longer in patients with Chagas` disease (median = 0.85 s) than in controls (median = 0.60 s). The oral transit duration of the patients with Chagas` disease and dysphagia (median = 0.55 s, n = 14) was shorter than the oral transit duration of chagasic patients without dysphagia (median = 0.80 s, n = 6). We conclude that when swallowing a paste bolus, patients with Chagas` disease may have an increased amount of oral residue and a longer pharyngeal clearance duration than asymptomatic volunteers.
Resumo:
In an overview of some of the central issues concerning the impact and effects of new technology in adolescence, this article questions the reality of the net generation before considering the interplay of new and old technologies, the internet as both communication and lifestyle resource, and newer technologies like text messaging and webcams.
Resumo:
A distribuição geográfica de um táxon é limitada por aspectos ecológicos e históricos. Muitas atividades humanas têm causado modificações na cobertura vegetal, o que leva à fragmentação e perda do habitat. Isso tem levado à extinção local de populações de várias espécies, alterando sua distribuição geográfica. Entre elas estão as duas espécies do gênero Brachyteles (os muriquis), que são primatas endêmicos de um dos biomas mais afetados por esses processos, a Mata Atlântica. A União Internacional para a Conservação da Natureza (UICN) é uma organização que busca conservar a biodiversidade. Entre outros critérios, utiliza o conhecimento sobre as distribuições geográficas restritas das espécies para classificá-las em categorias de ameaça de extinção, nas chamadas listas vermelhas. Para isso, utiliza parâmetros espaciais, cujos resultados indicam o risco de extinção de determinado táxon em relação à sua distribuição geográfica. Muitas vezes os cálculos desses parâmetros são realizados de maneira subjetiva, de maneira que é importante a busca de métodos que tornem as classificações mais objetivas, precisas e replicáveis. Nesse contexto, o presente trabalho testou diferentes métodos de cálculos de três parâmetros relacionados à distribuição geográfica de B. hypoxanthus e B. arachnoides. Tratam-se de espécies ameaçadas de extinção, com localidades de ocorrência bem conhecidas, que foram profundamente afetadas pela degradação da Mata Atlântica. Assim, podem ser consideradas bons modelos para essas análises. Foi construído um banco de dados de localidades de ocorrência atuais das duas espécies. Por meio de abordagens de Sistemas de Informação Geográfica (SIG), foram estimadas a Extensão de Ocorrência (EOO) através de Mínimo Polígono Convexo e α-hull e Área de Ocupação (AOO) e Subpopulações por meio de métodos de grids, buffers circulares e α-hull, em diferentes escalas espaciais. Os resultados dos cálculos desses parâmetros foram comparados para identificar as abordagens e escalas mais adequadas para a avaliação de risco de extinção. Esses resultados indicam que as listas de localidades e os mapas de distribuição disponibilizados pela UICN precisam ser atualizados. Além disso, sugerem que α-hull é uma abordagem vantajosa para EOO e o método de buffers é mais adequado para os parâmetros de AOO e Subpopulações, quando utiliza escalas espaciais menores. Também foi utilizada a ferramenta GeoCAT, para as duas espécies. Essa ferramenta, por realizar análises de EOO e AOO instantâneas e por seus resultados serem semelhantes aos de outras análises, serve como uma abordagem preliminar de risco de extinção baseado no critério de distribuição geográfica.
Resumo:
Objetivou-se, com este trabalho, realizar a calibração de três sondas capacitivas, visando a utilizá-las na definição de funções físico-hídricas e na análise da variação espacial e temporal do conteúdo (q) e do armazenamento de água, em um Argissolo Vermelho-Amarelo, cultivado com três clones de palma forrageira, no Semiárido pernambucano. O estudo foi executado numa área experimental situada em Serra Talhada, PE. Para isso, foi realizada a calibração de três sondas capacitivas, usando-se dados de densidade aparente do solo, de umidade gravimétrica e de frequências relativas, em cinco condições de umidade do solo. Aplicou-se o método do perfil instantâneo, para determinação do fluxo vertical de água, e do potencial matricial de água no solo. Em seguida, analisou-se a variação espaço-temporal do q e do armazenamento de água no solo. As medidas de frequência relativa das sondas capacitivas apresentaram elevada relação com os dados de q (R2 > 0,87). A partir do método do perfil instantâneo, foi possível determinar as funções da condutividade hidráulica e do potencial total de água no solo, em relação ao q, com elevados coeficientes de determinação (R2 > 0,91). Não houve diferenças significativas do q entre os clones de palma forrageira.
Resumo:
Este trabalho foca a comunicação entre aplicações, em especial o caso em que estas são tecnologicamente diferentes entre si. Pretende-se uma forma de as aplicações trocarem informação em segurança, abstraindo-se das suas diferenças e localização física. Para tal, é necessário um meio transversal às tecnologias/plataformas, capaz de esconder as especificidades de cada interveniente e tornar a comunicação transparente entre os seus interlocutores. Um bus de mensagens apresenta-se neste cenário como o meio de alcançar tais necessidades. O bus de mensagens desenvolvido neste projecto dispõe de mecanismos de tolerância a falhas, encaminhamento, transformação e segurança. O encaminhamento suporta comunicação ponto–a–ponto e publicador–subscritor. A transformação de mensagens pode ser feita ao nível dos tipos de dados, do formato e do transporte. Relativamente à segurança, é controlado o acesso a cada aplicação e protegida a informação trocada entre clientes. A solução implementada apresenta ainda vários pontos de extensibilidade ao nível das funcionalidades, dos comandos e dos protocolos de comunicação com os clientes. O bus de mensagens implementado foi testado e avaliado em diferentes cenários de carga, que verificam a conformidade das funcionalidades desenvolvidas e permitiram medir o seu nível de serviço.
Resumo:
A Blumlein line is a particular Pulse Forming Line, PFL, configuration that allows the generation of high-voltage sub-microsecond square pulses, with the same voltage amplitude as the dc charging voltage, into a matching load. By stacking n Blumlein lines one can multiply in theory by n the input dc voltage charging amplitude. In order to understand the operating behavior of this electromagnetic system and to further optimize its operation it is fundamental to theoretically model it, that is to calculate the voltage amplitudes at each circuit point and the time instant that happens. In order to do this, one needs to define the reflection and transmission coefficients where impedance discontinuity occurs. The experimental results of a fast solid-state switch, which discharges a three stage Blumlein stack, will be compared with theoretical ones.
Resumo:
The operation of power systems in a Smart Grid (SG) context brings new opportunities to consumers as active players, in order to fully reach the SG advantages. In this context, concepts as smart homes or smart buildings are promising approaches to perform the optimization of the consumption, while reducing the electricity costs. This paper proposes an intelligent methodology to support the consumption optimization of an industrial consumer, which has a Combined Heat and Power (CHP) facility. A SCADA (Supervisory Control and Data Acquisition) system developed by the authors is used to support the implementation of the proposed methodology. An optimization algorithm implemented in the system in order to perform the determination of the optimal consumption and CHP levels in each instant, according to the Demand Response (DR) opportunities. The paper includes a case study with several scenarios of consumption and heat demand in the context of a DR event which specifies a maximum demand level for the consumer.
Resumo:
GOAL: The manufacturing and distribution of strips of instant thin - layer chromatography with silica gel (ITLC - SG) (reference method) is currently discontinued so there is a need for an alternative method f or the determination of radiochemical purity (RCP) of 99m Tc - tetrofosmin. This study aims to compare five alternative methods proposed by the producer to determine the RCP of 99m Tc - tetrofosmin. METHODS: Nineteen vials of tetrofosmin were radiolabelled with 99m Tc and the percentages of the RCP were determined. Five different methods were compared with the standard RCP testing method (ITLC - SG, 2x20 cm): Whatman 3MM (1x10 cm) with acetone and dichloro - methane (method 1); Whatman 3MM (1x1 0 cm) with ethyl acetate (method 2); aluminum oxide - coated plastic thin - layer chromatography (TLC) plate (1x10 cm) and ethanol (method 3); Whatman 3MM (2x20 cm) with acetone and dichloro - methane (method 4); solid - phase extraction method C18 cartridge (meth od 5). RESULTS: The average values of RCP were 95,30% ± 1,28% (method 1), 93,95 ± 0,61% (method 2), 96,85% ± 0,93% (method 3), 92,94% ± 0,99% (method 4) and 96,25% ± 2,57% (method 5) (n=12 each), and 93,15% ± 1,13% for the standard method (n=19). There we re statistical significant differences in the values obtained for methods 1 (P=0,001), 3 (P=0,000) and 5 (P=0,004), and there were no statistical significant differences in the values obtained for methods 2 (P=0,113) and 4 (P=0,327). CONCLUSION: From the results obtained, methods 2 and 4 showed a higher correlation with the standard method. Unlike method 4, method 2 is less time - consuming than the reference method and can overcome the problems associated with the solvent toxicity. The remaining methods (1, 3 and 5) tended to overestimate RCP value compared to the standard method.
Resumo:
Esta tese pretende desenvolver o estudo de um padrão que utiliza um modelo de implementação fundamentado na natureza das operações que um sistema pretende executar. Estas operações são distinguidas pelo que realizam, portanto um sistema poderá ser dividido em duas grandes áreas: uma, de leitura de dados, e outra, de manipulação de dados. A maior parte dos sistemas atuais está a progredir, com o objetivo de conseguir suportar muitos utilizadores em simultâneo, e é neste aspeto que este padrão se diferencia porque vai permitir escalar, com muita facilidade e sem sobrecarga. Além disso, este estudo deverá facultar um conjunto de boas práticas e incidir sobre o facto de se pretender desenhar um sistema de raiz e não apenas em “migrar” de um sistema já existente. Ao estudar este padrão é essencial estudar e analisar a evolução da utilização futura dos sistemas, para determinar a utilidade e a aplicação crescente ou não, deste padrão. Interessa também saber, quem implementa atualmente este padrão, em que tipo de produtos, e enaltecer o seu sucesso de implementação, estimulando o desenvolvimento da sua utilização. Finalmente, demonstra-se a aplicabilidade e validade do padrão proposto, através de uma implementação modelo, com a ajuda de uma framework de forma a determinar quais as ferramentas existentes que possam ser úteis e contribuir para a implementação deste padrão. O objetivo final será demonstrar os principais componentes do sistema, como poderá prosseguir a sua evolução e como poderá ser melhorada e simplificada a comunicação entre os seus componentes, para uma utilização mais fácil, frequente e de interesse comum para todos: utilizadores e administradores.
Resumo:
A cada instante surgem novas soluções de aprendizagem, resultado da evolução tecnológica constante com que nos deparamos. Estas inovações potenciam uma transmissão do conhecimento entre o educador e o educando cada vez mais simplificada, rápida e eficiente. Alguns destes avanços têm em vista a centralização no aluno, através da delegação de tarefas e da disponibilização de conteúdos, investindo na autonomia e na auto-aprendizagem, de modo a que cada aluno crie o seu próprio método de estudo, e evolua gradualmente, com o acompanhamento de um professor ou sistema autónomo de aprendizagem. Com esta investigação, é pretendido fazer um estudo dos métodos de aprendizagem ao longo do tempo até à actualidade, enumerando algumas das ferramentas utilizadas no processo de aprendizagem, indicando os vários benefícios, bem como contrapartidas do uso das mesmas. Será também analisado um caso de estudo baseado numa destas ferramentas, descrevendo o seu funcionamento e modo de interacção entre as várias entidades participantes, apresentando os resultados obtidos. O caso de estudo consistirá na criação de um cenário específico de aprendizagem, na área da saúde, analisando-o em diferentes contextos, e evidenciando as características e benefícios de cada ambiente analisado, no processo aprendizagem. Será então demonstrado como é possível optimizar os processos de aprendizagem, utilizando ferramentas de informatização e automatização desses mesmos processos, de forma tornar o processo de ensino mais célere e eficaz, num ambiente controlável, e com as funcionalidades que a tecnologia actual permite.
Resumo:
Dissertação para obtenção do grau de Mestre em Engenharia Electrotécnica Ramo Automação e Electrónica Industrial
Resumo:
Os sistemas de tempo real modernos geram, cada vez mais, cargas computacionais pesadas e dinâmicas, começando-se a tornar pouco expectável que sejam implementados em sistemas uniprocessador. Na verdade, a mudança de sistemas com um único processador para sistemas multi- processador pode ser vista, tanto no domínio geral, como no de sistemas embebidos, como uma forma eficiente, em termos energéticos, de melhorar a performance das aplicações. Simultaneamente, a proliferação das plataformas multi-processador transformaram a programação paralela num tópico de elevado interesse, levando o paralelismo dinâmico a ganhar rapidamente popularidade como um modelo de programação. A ideia, por detrás deste modelo, é encorajar os programadores a exporem todas as oportunidades de paralelismo através da simples indicação de potenciais regiões paralelas dentro das aplicações. Todas estas anotações são encaradas pelo sistema unicamente como sugestões, podendo estas serem ignoradas e substituídas, por construtores sequenciais equivalentes, pela própria linguagem. Assim, o modo como a computação é na realidade subdividida, e mapeada nos vários processadores, é da responsabilidade do compilador e do sistema computacional subjacente. Ao retirar este fardo do programador, a complexidade da programação é consideravelmente reduzida, o que normalmente se traduz num aumento de produtividade. Todavia, se o mecanismo de escalonamento subjacente não for simples e rápido, de modo a manter o overhead geral em níveis reduzidos, os benefícios da geração de um paralelismo com uma granularidade tão fina serão meramente hipotéticos. Nesta perspetiva de escalonamento, os algoritmos que empregam uma política de workstealing são cada vez mais populares, com uma eficiência comprovada em termos de tempo, espaço e necessidades de comunicação. Contudo, estes algoritmos não contemplam restrições temporais, nem outra qualquer forma de atribuição de prioridades às tarefas, o que impossibilita que sejam diretamente aplicados a sistemas de tempo real. Além disso, são tradicionalmente implementados no runtime da linguagem, criando assim um sistema de escalonamento com dois níveis, onde a previsibilidade, essencial a um sistema de tempo real, não pode ser assegurada. Nesta tese, é descrita a forma como a abordagem de work-stealing pode ser resenhada para cumprir os requisitos de tempo real, mantendo, ao mesmo tempo, os seus princípios fundamentais que tão bons resultados têm demonstrado. Muito resumidamente, a única fila de gestão de processos convencional (deque) é substituída por uma fila de deques, ordenada de forma crescente por prioridade das tarefas. De seguida, aplicamos por cima o conhecido algoritmo de escalonamento dinâmico G-EDF, misturamos as regras de ambos, e assim nasce a nossa proposta: o algoritmo de escalonamento RTWS. Tirando partido da modularidade oferecida pelo escalonador do Linux, o RTWS é adicionado como uma nova classe de escalonamento, de forma a avaliar na prática se o algoritmo proposto é viável, ou seja, se garante a eficiência e escalonabilidade desejadas. Modificar o núcleo do Linux é uma tarefa complicada, devido à complexidade das suas funções internas e às fortes interdependências entre os vários subsistemas. Não obstante, um dos objetivos desta tese era ter a certeza que o RTWS é mais do que um conceito interessante. Assim, uma parte significativa deste documento é dedicada à discussão sobre a implementação do RTWS e à exposição de situações problemáticas, muitas delas não consideradas em teoria, como é o caso do desfasamento entre vários mecanismo de sincronização. Os resultados experimentais mostram que o RTWS, em comparação com outro trabalho prático de escalonamento dinâmico de tarefas com restrições temporais, reduz significativamente o overhead de escalonamento através de um controlo de migrações, e mudanças de contexto, eficiente e escalável (pelo menos até 8 CPUs), ao mesmo tempo que alcança um bom balanceamento dinâmico da carga do sistema, até mesmo de uma forma não custosa. Contudo, durante a avaliação realizada foi detetada uma falha na implementação do RTWS, pela forma como facilmente desiste de roubar trabalho, o que origina períodos de inatividade, no CPU em questão, quando a utilização geral do sistema é baixa. Embora o trabalho realizado se tenha focado em manter o custo de escalonamento baixo e em alcançar boa localidade dos dados, a escalonabilidade do sistema nunca foi negligenciada. Na verdade, o algoritmo de escalonamento proposto provou ser bastante robusto, não falhando qualquer meta temporal nas experiências realizadas. Portanto, podemos afirmar que alguma inversão de prioridades, causada pela sub-política de roubo BAS, não compromete os objetivos de escalonabilidade, e até ajuda a reduzir a contenção nas estruturas de dados. Mesmo assim, o RTWS também suporta uma sub-política de roubo determinística: PAS. A avaliação experimental, porém, não ajudou a ter uma noção clara do impacto de uma e de outra. No entanto, de uma maneira geral, podemos concluir que o RTWS é uma solução promissora para um escalonamento eficiente de tarefas paralelas com restrições temporais.
Resumo:
Serious games are starting to attain a higher role as tools for learning in various contexts, but in particular in areas such as education and training. Due to its characteristics, such as rules, behavior simulation and feedback to the player's actions, serious games provide a favorable learning environment where errors can occur without real life penalty and students get instant feedback from challenges. These challenges are in accordance with the intended objectives and will self-adapt and repeat according to the student’s difficulty level. Through motivating and engaging environments, which serve as base for problem solving and simulation of different situations and contexts, serious games have a great potential to aid players developing professional skills. But, how do we certify the acquired knowledge and skills? With this work we intend to propose a methodology to establish a relationship between the game mechanics of serious games and an array of competences for certification, evaluating the applicability of various aspects in the design and development of games such as the user interfaces and the gameplay, obtaining learning outcomes within the game itself. Through the definition of game mechanics combined with the necessary pedagogical elements, the game will ensure the certification. This paper will present a matrix of generic skills, based on the European Framework of Qualifications, and the definition of the game mechanics necessary for certification on tour guide training context. The certification matrix has as reference axes: skills, knowledge and competencies, which describe what the students should learn, understand and be able to do after they complete the learning process. The guides-interpreters welcome and accompany tourists on trips and visits to places of tourist interest and cultural heritage such as museums, palaces and national monuments, where they provide various information. Tour guide certification requirements include skills and specific knowledge about foreign languages and in the areas of History, Ethnology, Politics, Religion, Geography and Art of the territory where it is inserted. These skills are communication, interpersonal relationships, motivation, organization and management. This certification process aims to validate the skills to plan and conduct guided tours on the territory, demonstrate knowledge appropriate to the context and finally match a good group leader. After defining which competences are to be certified, the next step is to delineate the expected learning outcomes, as well as identify the game mechanics associated with it. The game mechanics, as methods invoked by agents for interaction with the game world, in combination with game elements/objects allows multiple paths through which to explore the game environment and its educational process. Mechanics as achievements, appointments, progression, reward schedules or status, describe how game can be designed to affect players in unprecedented ways. In order for the game to be able to certify tour guides, the design of the training game will incorporate a set of theoretical and practical tasks to acquire skills and knowledge of various transversal themes. For this end, patterns of skills and abilities in acquiring different knowledge will be identified.
Resumo:
A dynamic scheduler that supports the coexistence of guaranteed and non-guaranteed bandwidth servers is proposed. Overloads are handled by an efficient reclaiming of residual capacities originated by early completions as well as by allowing reserved capacity stealing of non-guaranteed bandwidth servers. The proposed dynamic budget accounting mechanism ensures that at a particular time the currently executing server is using a residual capacity, its own capacity or is stealing some reserved capacity, eliminating the need of additional server states or unbounded queues. The server to which the budget accounting is going to be performed is dynamically determined at the time instant when a capacity is needed. This paper describes and evaluates the proposed scheduling algorithm, showing that it can efficiently reduce the mean tardiness of periodic jobs. The achieved results become even more significant when tasks’ computation times have a large variance.