68 resultados para metadata schemes


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com as dificuldades económicas que se fazem sentir nos últimos anos, tanto em Portugal como no resto do mundo, em qualquer área de negócio, a qualidade tornou-se um dos fatores de sucesso. Com um mercado cada vez com mais concorrência, os clientes procuram frequentemente a melhor qualidade do produto ou do serviço da empresa. Para isso as empresas cada vez mais apostam em fornecer um produto de qualidade através de um sistema da qualidade bem delineado, bem gerido e certificado. O presente trabalho que foi desenvolvido nesta dissertação de Mestrado consistiu na conceção e acompanhamento da Implementação do Sistema de Gestão da Qualidade (SGQ) segundo a norma NP EN ISO 9001:2008 realizada numa indústria de componentes de calçado, designada NEWCOMP, Componentes para Calçado, LDA. (NCP), localizada em S. João da Madeira. Será uma ferramenta bastante útil e estratégica para a empresa a certificação, com inúmeras vantagens e benefícios para a sua imagem. As principais razões que levaram a empresa a interessar-se pela certificação do SGQ foi, principalmente, a melhoria da qualidade dos seus produtos, satisfação dos clientes e alcançar novos mercados. A documentação elaborada do SGQ inclui a política e objetivos da qualidade, esquemas dos principais processos, manual de funções entre outros documentos considerados necessários, para utilização de todas as partes envolvidas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A evolução tecnológica das últimas décadas na área das Tecnologias da Informação e Comunicação (TIC) contribuiu para a proliferação de fontes de informação e de sistemas de partilha de recursos. As diversas redes sociais são um exemplo paradigmático de sistemas de partilha tanto de informação como de recursos (e.g. audiovisuais). Essa abundância crescente de recursos e fontes aumenta a importância de sistemas capazes de recomendar em tempo útil recursos personalizados, tendo por base o perfil e o contexto do utilizador. O objetivo deste projeto é partilhar e recomendar locais, artigos e vídeos em função do contexto do utilizador assim como proporcionar uma experiência mais rica de reprodução dos vídeos partilhados, simulando as condições de gravação dos vídeos. Este sistema teve como inspiração dois projetos anteriormente desenvolvidos de partilha e recomendação de locais, artigos e vídeos turísticos em função da localização do utilizador. O sistema desenvolvido consiste numa aplicação distribuída composta por um módulo cliente Android, que inclui a interface com o utilizador e o consumo direto de serviços externos de suporte, e um módulo servidor que controla o acesso à base de dados central e inclui o serviço de recomendação baseado no contexto do utilizador. A comunicação entre os módulos cliente e servidor utiliza um protocolo do nível de aplicação dedicado. As recomendações geradas pelo sistema têm por base o perfil de utilizador, informação contextual (posição do utilizador, data e hora atual e velocidade atual do utilizador) e podem ser geradas a pedido do utilizador ou automaticamente, caso sejam encontrados pontos de interesse de grande relevância para o utilizador. Os pontos de interesse recomendados são apresentados com recurso ao Google Maps, incluindo o período de funcionamento, artigos complementares e a reprodução imersiva dos vídeos relacionados. Essa imersão tem em consideração as condições meteorológicas, temporais e espaciais aquando da gravação do vídeo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The paper revisits the convolution operator and addresses its generalization in the perspective of fractional calculus. Two examples demonstrate the feasibility of the concept using analytical expressions and the inverse Fourier transform, for real and complex orders. Two approximate calculation schemes in the time domain are also tested.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Azores archipelago is a zone with a vast cultural heritage, presenting a building stock mainly constructed in traditional stone masonry. It is known that this type of construction exhibits poor behaviour under seismic excitations; however it is extensively used in seismic prone areas, such as this case. The 9th of July of 1998 earthquake was the last seismic event in the islands, leaving many traditional stone constructions severely damaged or totally destroyed. This scenario led to an effort by the local government of improving the seismic resistance of these constructions, with the application of several reinforcement techniques. This work aims to study some of the most used reinforcement schemes after the 1998 earthquake, and to assess their effectiveness in the mitigation of the construction’s seismic vulnerability. A brief evaluation of the cost versus benefit of these retrofitting techniques is also made, seeking to identify those that are most suitable for each building typology. Thus, it was sought to analyze the case of real structures with different geometrical and physical characteristics, by establishing a comparison between the seismic performance of reinforced and non-reinforced structures. The first section contains the analysis of a total of six reinforcement scenarios for each building chosen. Using the recorded 1998 earthquake accelerograms, a linear time-history analysis was performed for each reinforcement scenario. A comparison was then established between the maximum displacements, inter-storey drift and maximum stress obtained, in order to evaluate the global seismic response of each reinforced structure. In the second part of the work, the examination of the performance obtained in the previous section, in relation to the cost of implementing each reinforcement technique, allowed to draw conclusions concerning the viability of implementing each reinforcement method, based on the book value of the buildings in study.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

These are the proceedings for the eighth national conference on XML, its Associated Technologies and its Applications (XATA'2010). The paper selection resulted in 33% of papers accepted as full papers, and 33% of papers accepted as short papers. While these two types of papers were distinguish during the conference, and they had different talk duration, they all had the same limit of 12 pages. We are happy that the selected papers focus both aspects of the conference: XML technologies, and XML applications. In the first group we can include the articles on parsing and transformation technologies, like “Processing XML: a rewriting system approach", “Visual Programming of XSLT from examples", “A Refactoring Model for XML Documents", “A Performance based Approach for Processing Large XML Files in Multicore Machines", “XML to paper publishing with manual intervention" and “Parsing XML Documents in Java using Annotations". XML-core related papers are also available, focusing XML tools testing on “Test::XML::Generator: Generating XML for Unit Testing" and “XML Archive for Testing: a benchmark for GuessXQ". XML as the base for application development is also present, being discussed on different areas, like “Web Service for Interactive Products and Orders Configuration", “XML Description for Automata Manipulations", “Integration of repositories in Moodle", “XML, Annotations and Database: a Comparative Study of Metadata Definition Strategies for Frameworks", “CardioML: Integrating Personal Cardiac Information for Ubiquous Diagnosis and Analysis", “A Semantic Representation of Users Emotions when Watching Videos" and “Integrating SVG and SMIL in DAISY DTB production to enhance the contents accessibility in the Open Library for Higher Education". The wide spread of subjects makes us believe that for the time being XML is here to stay what enhances the importance of gathering this community to discuss related science and technology. Small conferences are traversing a bad period. Authors look for impact and numbers and only submit their works to big conferences sponsored by the right institutions. However the group of people behind this conference still believes that spaces like this should be preserved and maintained. This 8th gathering marks the beginning of a new cycle. We know who we are, what is our identity and we will keep working to preserve that. We hope the publication containing the works of this year's edition will catch the same attention and interest of the previous editions and above all that this publication helps in some other's work. Finally, we would like to thank all authors for their work and interest in the conference, and to the scientific committee members for their review work.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The purpose of this work is to present an algorithm to solve nonlinear constrained optimization problems, using the filter method with the inexact restoration (IR) approach. In the IR approach two independent phases are performed in each iteration—the feasibility and the optimality phases. The first one directs the iterative process into the feasible region, i.e. finds one point with less constraints violation. The optimality phase starts from this point and its goal is to optimize the objective function into the satisfied constraints space. To evaluate the solution approximations in each iteration a scheme based on the filter method is used in both phases of the algorithm. This method replaces the merit functions that are based on penalty schemes, avoiding the related difficulties such as the penalty parameter estimation and the non-differentiability of some of them. The filter method is implemented in the context of the line search globalization technique. A set of more than two hundred AMPL test problems is solved. The algorithm developed is compared with LOQO and NPSOL software packages.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos dias de hoje, os sistemas de tempo real crescem em importância e complexidade. Mediante a passagem do ambiente uniprocessador para multiprocessador, o trabalho realizado no primeiro não é completamente aplicável no segundo, dado que o nível de complexidade difere, principalmente devido à existência de múltiplos processadores no sistema. Cedo percebeu-se, que a complexidade do problema não cresce linearmente com a adição destes. Na verdade, esta complexidade apresenta-se como uma barreira ao avanço científico nesta área que, para já, se mantém desconhecida, e isto testemunha-se, essencialmente no caso de escalonamento de tarefas. A passagem para este novo ambiente, quer se trate de sistemas de tempo real ou não, promete gerar a oportunidade de realizar trabalho que no primeiro caso nunca seria possível, criando assim, novas garantias de desempenho, menos gastos monetários e menores consumos de energia. Este último fator, apresentou-se desde cedo, como, talvez, a maior barreira de desenvolvimento de novos processadores na área uniprocessador, dado que, à medida que novos eram lançados para o mercado, ao mesmo tempo que ofereciam maior performance, foram levando ao conhecimento de um limite de geração de calor que obrigou ao surgimento da área multiprocessador. No futuro, espera-se que o número de processadores num determinado chip venha a aumentar, e como é óbvio, novas técnicas de exploração das suas inerentes vantagens têm de ser desenvolvidas, e a área relacionada com os algoritmos de escalonamento não é exceção. Ao longo dos anos, diferentes categorias de algoritmos multiprocessador para dar resposta a este problema têm vindo a ser desenvolvidos, destacando-se principalmente estes: globais, particionados e semi-particionados. A perspectiva global, supõe a existência de uma fila global que é acessível por todos os processadores disponíveis. Este fato torna disponível a migração de tarefas, isto é, é possível parar a execução de uma tarefa e resumir a sua execução num processador distinto. Num dado instante, num grupo de tarefas, m, as tarefas de maior prioridade são selecionadas para execução. Este tipo promete limites de utilização altos, a custo elevado de preempções/migrações de tarefas. Em contraste, os algoritmos particionados, colocam as tarefas em partições, e estas, são atribuídas a um dos processadores disponíveis, isto é, para cada processador, é atribuída uma partição. Por essa razão, a migração de tarefas não é possível, acabando por fazer com que o limite de utilização não seja tão alto quando comparado com o caso anterior, mas o número de preempções de tarefas decresce significativamente. O esquema semi-particionado, é uma resposta de caráter hibrido entre os casos anteriores, pois existem tarefas que são particionadas, para serem executadas exclusivamente por um grupo de processadores, e outras que são atribuídas a apenas um processador. Com isto, resulta uma solução que é capaz de distribuir o trabalho a ser realizado de uma forma mais eficiente e balanceada. Infelizmente, para todos estes casos, existe uma discrepância entre a teoria e a prática, pois acaba-se por se assumir conceitos que não são aplicáveis na vida real. Para dar resposta a este problema, é necessário implementar estes algoritmos de escalonamento em sistemas operativos reais e averiguar a sua aplicabilidade, para caso isso não aconteça, as alterações necessárias sejam feitas, quer a nível teórico quer a nível prá

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Vivemos num mundo em constante mudança, onde a evolução tecnológica está cada vez mais presente no nosso quotidiano e as suas influências são inúmeras nas nossas vidas. Por outro lado, a vida humana é algo extremamente valioso e único pelo que a sociedade, também nessa área, tem procurado evoluir e dotar-se de novos meios e mecanismos de atuação, que possibilitem um socorro rápido e adequado em situações que possam em algum momento pôr em perigo a vida do ser humano. Pretendemos com o presente estudo, correlacionar estas duas vertentes, a do socorro á vítima para apoio á vida humana e a tecnologia no sentido de contribuir para uma formação mais distribuída mas ao mesmo tempo capaz de transmitir conhecimentos necessários á formação dos que socorrem. Para o efeito, planeamos o desenvolvimento de um Objeto de Aprendizagem (OA) denominado CiTAT (Curso Interativo de Tripulante de Ambulância de Transporte) que tem como objetivo acrescentar valor a todos os que são obrigados a frequentar o curso em regime presencial de Tripulante de Ambulância de Transporte (TAT). Após uma fase de análise do estado da arte relacionada com este tipo de formação, e após termos percebido como funciona e que tipos de recursos utilizam, analisámos temas relacionados com este tipo de formação como o “Sistema Integrado de Emergência Médica” o “Exame á Vítima”, o “Suporte Básico de Vida” e as “Emergências de Trauma”. Percebemos que a mudança de paradigma de formação das pessoas passou a ter novas formas de distribuir conhecimento em formato digital e que proporciona aos formandos um ensino distribuído em formatos de e-learning ou de b-learning. Os Objetos de Aprendizagem (OA) parecem assumir um relevo especial no ensino da área da saúde, abordando áreas temáticas e proporcionando aos seus utilizadores mecanismos de autoavaliação após a visualização dos conteúdos pedagógicos. Após o desenho do modelo concetual do CiTAT, avançamos para a produção de recursos necessários para a sua integração no OA. Após uma fase de testes e ajustes, avançamos para a sua avaliação final por parte dos utilizadores e preparamos um questionário para aferir o potencial de utilização deste tipo de soluções no ensino de TAT, atendendo ao facto de ser uma formação obrigatória e cuja recertificação é feita de três em três anos. O passo final foi a sua distribuição ao nível global, sendo o CiTAT catalogado com metadados e colocado no repositório MERLOT.