904 resultados para Full-Time Work


Relevância:

30.00% 30.00%

Publicador:

Resumo:

A Thesis submitted for the co-tutelle degree of Doctor in Physics at Universidade Nova de Lisboa and Université Pierre et Marie Curie

Relevância:

30.00% 30.00%

Publicador:

Resumo:

13th IEEE/IFIP International Conference on Embedded and Ubiquitous Computing (EUC 2015). 21 to 23, Oct, 2015, Session W1-A: Multiprocessing and Multicore Architectures. Porto, Portugal.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This work proposes a real-time algorithm to generate a trajectory for a 2 link planar robotic manipulator. The objective is to minimize the space/time ripple and the energy requirements or the time duration in the robot trajectories. The proposed method uses an off line genetic algorithm to calculate every possible trajectory between all cells of the workspace grid. The resultant trajectories are saved in several trees. Then any trajectory requested is constructed in real-time, from these trees. The article presents the results for several experiments.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Paper/Poster presented in Work in Progress Session, 28th GI/ITG International Conference on Architecture of Computing Systems (ARCS 2015). 24 to 26, Mar, 2015. Porto, Portugal.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Presented at Work in Progress Session, IEEE Real-Time Systems Symposium (RTSS 2015). 1 to 3, Dec, 2015. San Antonio, U.S.A..

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Presented at Work in Progress Session, IEEE Real-Time Systems Symposium (RTSS 2015). 1 to 3, Dec, 2015. San Antonio, U.S.A..

Relevância:

30.00% 30.00%

Publicador:

Resumo:

EMC2 finds solutions for dynamic adaptability in open systems. It provides handling of mixed criticality multicore applications in r eal-time conditions, withscalability and utmost flexibility, full-scale deployment and management of integrated tool chains, through the entire lifecycle.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This study proposes a new methodology to increase the power delivered to any load point in a radial distribution network, through the identification of new investments in order to improve the repair time. This research work is innovative and consists in proposing a full optimisation model based on mixed-integer non-linear programming considering the Pareto front technique. The goal is to achieve a reduction in repair times of the distribution networks components, while minimising the costs of that reduction as well as non-supplied energy costs. The optimisation model considers the distribution network technical constraints, the substation transformer taps, and it is able to choose the capacitor banks size. A case study based on a 33-bus distribution network is presented in order to illustrate in detail the application of the proposed methodology.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The seismic assessment of the local failure modes in existing masonry buildings is currently based on the identification of the so-called local mechanisms, often associated with the out-of-plane wall behavior, whose stability is evaluated by static force-based approaches and, more recently, by some displacement-based proposals. Local mechanisms consist of kinematic chains of masonry portions, often regarded as rigid bodies, with geometric nonlinearity and concentrated nonlinearity in predefined contact regions (unilateral no-tension behavior, possible sliding with friction). In this work, the dynamic behavior of local mechanisms is simulated through multi-body dynamics, to obtain the nonlinear response with efficient time history analyses that directly take into account the characteristics of the ground motion. The amplification/filtering effects of the structure are considered within the input motion. The proposed approach is validated with experimental results of two full-scale shaking-table tests on stone masonry buildings: a sacco-stone masonry façade tested at Laboratório Nacional de Engenharia Civil and a two-storey double-leaf masonry building tested at European Centre for Training and Research in Earthquake Engineering (EUCENTRE).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

These are the proceedings for the eighth national conference on XML, its Associated Technologies and its Applications (XATA'2010). The paper selection resulted in 33% of papers accepted as full papers, and 33% of papers accepted as short papers. While these two types of papers were distinguish during the conference, and they had different talk duration, they all had the same limit of 12 pages. We are happy that the selected papers focus both aspects of the conference: XML technologies, and XML applications. In the first group we can include the articles on parsing and transformation technologies, like “Processing XML: a rewriting system approach", “Visual Programming of XSLT from examples", “A Refactoring Model for XML Documents", “A Performance based Approach for Processing Large XML Files in Multicore Machines", “XML to paper publishing with manual intervention" and “Parsing XML Documents in Java using Annotations". XML-core related papers are also available, focusing XML tools testing on “Test::XML::Generator: Generating XML for Unit Testing" and “XML Archive for Testing: a benchmark for GuessXQ". XML as the base for application development is also present, being discussed on different areas, like “Web Service for Interactive Products and Orders Configuration", “XML Description for Automata Manipulations", “Integration of repositories in Moodle", “XML, Annotations and Database: a Comparative Study of Metadata Definition Strategies for Frameworks", “CardioML: Integrating Personal Cardiac Information for Ubiquous Diagnosis and Analysis", “A Semantic Representation of Users Emotions when Watching Videos" and “Integrating SVG and SMIL in DAISY DTB production to enhance the contents accessibility in the Open Library for Higher Education". The wide spread of subjects makes us believe that for the time being XML is here to stay what enhances the importance of gathering this community to discuss related science and technology. Small conferences are traversing a bad period. Authors look for impact and numbers and only submit their works to big conferences sponsored by the right institutions. However the group of people behind this conference still believes that spaces like this should be preserved and maintained. This 8th gathering marks the beginning of a new cycle. We know who we are, what is our identity and we will keep working to preserve that. We hope the publication containing the works of this year's edition will catch the same attention and interest of the previous editions and above all that this publication helps in some other's work. Finally, we would like to thank all authors for their work and interest in the conference, and to the scientific committee members for their review work.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Doutor em Engenharia Química e Bioquímica

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Distance learning - where students take courses (attend classes, get activities and other sort of learning materials) while being physically separated from their instructors, for larger part of the course duration - is far from being a “new event”. Since the middle of the nineteenth century, this has been done through Radio, Mail and TV, taking advantage of the full educational potential that these media resources had to offer at the time. However, in recent times we have, at our complete disposal, the “magic wonder” of communication and globalization - the Internet. Taking advantage of a whole new set of educational opportunities, with a more or less unselfish “look” to economic interests, focusing its concern on a larger and collective “welfare”, contributing to the development of a more “equitable” world, with regard to educational opportunities, the Massive Open Online Courses (MOOCs) were born and have become an important feature of the higher education in recent years. Many people have been talking about MOOCs as a potential educational revolution, which has arrived from North America, still growing and spreading, referring to its benefits and/or disadvantages. The Polytechnic Institute of Porto, also known as IPP, is a Higher Education Portuguese institution providing undergraduate and graduate studies, which has a solid history of online education and innovation through the use of technology, and it has been particularly interested and focused on MOOC developments, based on an open educational policy in order to try to implement some differentiated learning strategies to its actual students and as a way to attract future ones. Therefore, in July 2014, IPP launched the first Math MOOC on its own platform. This paper describes the requirements, the resulting design and implementation of a mathematics MOOC, which was essentially addressed to three target populations: - pre-college students or individuals wishing to update their Math skills or that need to prepare for the National Exam of Mathematics; - Higher Education students who have not attended in High School, this subject, and who feel the need to acquire basic knowledge about some of the topics covered; - High School Teachers who may use these resources with their students allowing them to develop teaching methodologies like "Flipped Classroom” (available at http://www.opened.ipp.pt/). The MOOC was developed in partnership with several professors from several schools from IPP, gathering different math competences and backgrounds to create and put to work different activities such video lectures and quizzes. We will also try to briefly discuss the advertising strategy being developed to promote this MOOC, since it is not offered through a main MOOC portal, such as Coursera or Udacity.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os sistemas de monitorização de estruturas fornecem diversas vantagens, não só no que diz respeito à durabilidade da obra, ao aumento da segurança e do conhecimento relativamente ao comportamento das estruturas ao longo do tempo, à otimização do aspeto estrutural, bem como aos aspetos económicos do processo de construção e manutenção. A monitorização deve realizar-se durante a fase de construção e/ou de exploração da obra para permitir o registo integral do seu comportamento no meio externo. Deve efetuar-se de forma contínua e automática, executando intervenções de rotina para que se possa detetar precocemente sinais de alterações, respetivamente à segurança, integridade e desempenho funcional. Assim se poderá manter a estrutura dentro de parâmetros aceitáveis de segurança. Assim, na presente dissertação será concebido um demonstrador experimental, para ser estudado em laboratório, no qual será implementado um sistema de monitorização contínuo e automático. Sobre este demonstrador será feita uma análise de diferentes grandezas em medição, tais como: deslocamentos, extensões, temperatura, rotações e acelerações. Com carácter inovador, pretende-se ainda incluir neste modelo em sintonia de medição de coordenadas GNSS com o qual se torna possível medir deslocamentos absolutos. Os resultados experimentais alcançados serão analisados e comparados com modelos numéricos. Conferem-se os resultados experimentais de natureza estática e dinâmica, com os resultados numéricos de dois modelos de elementos finitos: um de barras e outro de casca. Realizaram-se diferentes abordagens tendo em conta as características identificadas por via experimental e calculadas nos modelos numéricos para melhor ajuste e calibração dos modelos numéricos Por fim, recorre-se a algoritmos de processamento e tratamento do respetivo sinal com aplicação de filtros, que revelam melhorar com rigor o sinal, de forma a potenciar as técnicas de fusão multisensor. Pretende-se integrar o sinal GNSS com os demais sensores presentes no sistema de monitorização. As técnicas de fusão multisensor visam melhor o desempenho deste potencial sistema de medição, demonstrando as suas valências no domínio da monitorização estrutural.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A presente dissertação apresenta uma abordagem ao tema Fluência, com um desenvolvimento geral para quatro materiais: madeira, alumínio, betão e aço. No entanto, particularizou-se este estudo apenas para dois destes materiais, a madeira e o alumínio. A madeira é um material viscoelástico, logo fortemente influenciado quando submetido a uma ação constante (Fluência) sendo agravada com alterações do teor em água. Iniciou-se o estudo, com uma introdução aos objetivos principais e a revisão teórica do conhecimento da propriedade mecânica (Fluência). Efetuou-se o estudo inicial para os quatro materiais indicados. Posteriormente, fez-se avaliação do efeito mecânico sortivo durante 60 dias com sete ciclos, em provetes de dimensões 20 x 20 x 400 mm3 (escala 1:10) de madeira de Eucalyptus globulus Labill. Recorrendo ao levantamento de um conjunto de modelos numéricos, procedeu-se ao ajuste e extrapolação do comportamento, em Fluência, para distintos períodos de tempo (1, 10 e 50 anos). Os resultados obtidos demonstraram que a madeira de Eucalipto não apresenta um limite no seu comportamento em Fluência, logo instável para os 60 dias de duração de ensaio. Os diferentes modelos de Fluência (x6) apresentaram uma variabilidade crescente de resultados, de acordo com o aumento de extrapolação dos resultados. Para a espécie de madeira de Eucalipto constatou-se ainda, que o ajuste e extrapolação de deformação para 50 anos ultrapassaram os valores sugeridos pelo Eurocódigo 5. A última parte deste trabalho, incidiu sobre o desenvolvimento da metodologia do ensaio em flexão de 3 provetes de alumínio similares, cujas dimensões eram de 20 x 20 x 400mm3. O objetivo desta metodologia foi avaliar o seu comportamento em Fluência. Numa primeira fase, foi aplicada uma carga contante de 160 kN. E numa segunda fase, foi aplicada o dobro dessa carga sujeita adicionalmente a uma temperatura bastante superior à temperatura ambiente (a rondar os 50 oC). Conclusivamente verificou-se que o alumínio não apresenta deformação por Fluência, para as condições de ensaio apresentadas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nos dias de hoje, os sistemas de tempo real crescem em importância e complexidade. Mediante a passagem do ambiente uniprocessador para multiprocessador, o trabalho realizado no primeiro não é completamente aplicável no segundo, dado que o nível de complexidade difere, principalmente devido à existência de múltiplos processadores no sistema. Cedo percebeu-se, que a complexidade do problema não cresce linearmente com a adição destes. Na verdade, esta complexidade apresenta-se como uma barreira ao avanço científico nesta área que, para já, se mantém desconhecida, e isto testemunha-se, essencialmente no caso de escalonamento de tarefas. A passagem para este novo ambiente, quer se trate de sistemas de tempo real ou não, promete gerar a oportunidade de realizar trabalho que no primeiro caso nunca seria possível, criando assim, novas garantias de desempenho, menos gastos monetários e menores consumos de energia. Este último fator, apresentou-se desde cedo, como, talvez, a maior barreira de desenvolvimento de novos processadores na área uniprocessador, dado que, à medida que novos eram lançados para o mercado, ao mesmo tempo que ofereciam maior performance, foram levando ao conhecimento de um limite de geração de calor que obrigou ao surgimento da área multiprocessador. No futuro, espera-se que o número de processadores num determinado chip venha a aumentar, e como é óbvio, novas técnicas de exploração das suas inerentes vantagens têm de ser desenvolvidas, e a área relacionada com os algoritmos de escalonamento não é exceção. Ao longo dos anos, diferentes categorias de algoritmos multiprocessador para dar resposta a este problema têm vindo a ser desenvolvidos, destacando-se principalmente estes: globais, particionados e semi-particionados. A perspectiva global, supõe a existência de uma fila global que é acessível por todos os processadores disponíveis. Este fato torna disponível a migração de tarefas, isto é, é possível parar a execução de uma tarefa e resumir a sua execução num processador distinto. Num dado instante, num grupo de tarefas, m, as tarefas de maior prioridade são selecionadas para execução. Este tipo promete limites de utilização altos, a custo elevado de preempções/migrações de tarefas. Em contraste, os algoritmos particionados, colocam as tarefas em partições, e estas, são atribuídas a um dos processadores disponíveis, isto é, para cada processador, é atribuída uma partição. Por essa razão, a migração de tarefas não é possível, acabando por fazer com que o limite de utilização não seja tão alto quando comparado com o caso anterior, mas o número de preempções de tarefas decresce significativamente. O esquema semi-particionado, é uma resposta de caráter hibrido entre os casos anteriores, pois existem tarefas que são particionadas, para serem executadas exclusivamente por um grupo de processadores, e outras que são atribuídas a apenas um processador. Com isto, resulta uma solução que é capaz de distribuir o trabalho a ser realizado de uma forma mais eficiente e balanceada. Infelizmente, para todos estes casos, existe uma discrepância entre a teoria e a prática, pois acaba-se por se assumir conceitos que não são aplicáveis na vida real. Para dar resposta a este problema, é necessário implementar estes algoritmos de escalonamento em sistemas operativos reais e averiguar a sua aplicabilidade, para caso isso não aconteça, as alterações necessárias sejam feitas, quer a nível teórico quer a nível prá