80 resultados para type tests
Resumo:
Ball rotating micro-abrasion tribometers are commonly used to carry out wear tests on thin hard coatings. In these tests, different kinds of abrasives were used, as alumina (Al2O3), silicon carbide (SiC) or diamond. In each kind of abrasive, several particle sizes can be used. Some studies were developed in order to evaluate the influence of the abrasive particle shape in the micro-abrasion process. Nevertheless, the particle size was not well correlated with the material removed amount and wear mechanisms. In this work, slurry of SiC abrasive in distilled water was used, with three different particles size. Initial surface topography was accessed by atomic force microscopy (AFM). Coating hardness measurements were performed with a micro-hardness tester. In order to evaluate the wear behaviour, a TiAlSiN thin hard film was used. The micro-abrasion tests were carried out with some different durations. The abrasive effect of the SiC particles was observed by scanning electron microscopy (SEM) both in the films (hard material) as in the substrate (soft material), after coating perforation. Wear grooves and removed material rate were compared and discussed.
Resumo:
Na atualidade, está a emergir um novo paradigma de interação, designado por Natural User Interface (NUI) para reconhecimento de gestos produzidos com o corpo do utilizador. O dispositivo de interação Microsoft Kinect foi inicialmente concebido para controlo de videojogos, para a consola Xbox360. Este dispositivo demonstra ser uma aposta viável para explorar outras áreas, como a do apoio ao processo de ensino e de aprendizagem para crianças do ensino básico. O protótipo desenvolvido visa definir um modo de interação baseado no desenho de letras no ar, e realizar a interpretação dos símbolos desenhados, usando os reconhecedores de padrões Kernel Discriminant Analysis (KDA), Support Vector Machines (SVM) e $N. O desenvolvimento deste projeto baseou-se no estudo dos diferentes dispositivos NUI disponíveis no mercado, bibliotecas de desenvolvimento NUI para este tipo de dispositivos e algoritmos de reconhecimento de padrões. Com base nos dois elementos iniciais, foi possível obter uma visão mais concreta de qual o hardware e software disponíveis indicados à persecução do objetivo pretendido. O reconhecimento de padrões constitui um tema bastante extenso e complexo, de modo que foi necessária a seleção de um conjunto limitado deste tipo de algoritmos, realizando os respetivos testes por forma a determinar qual o que melhor se adequava ao objetivo pretendido. Aplicando as mesmas condições aos três algoritmos de reconhecimento de padrões permitiu avaliar as suas capacidades e determinar o $N como o que apresentou maior eficácia no reconhecimento. Por último, tentou-se averiguar a viabilidade do protótipo desenvolvido, tendo sido testado num universo de elementos de duas faixas etárias para determinar a capacidade de adaptação e aprendizagem destes dois grupos. Neste estudo, constatou-se um melhor desempenho inicial ao modo de interação do grupo de idade mais avançada. Contudo, o grupo mais jovem foi revelando uma evolutiva capacidade de adaptação a este modo de interação melhorando progressivamente os resultados.
Resumo:
This paper describes a communication model to integrate repositories of programming problems with other e-Learning software components. The motivation for this work comes from the EduJudge project that aims to connect an existing repository of programming problems to learning management systems. When trying to use the existing repositories of learning objects we realized that they are mainly specialized search engines and lack features for integration with other e-Learning systems. With this model we intend to clarify the main features of a programming problem repository, in order to enable the design and development of software components that use it. The two main points of this model are the definition of programming problems as learning objects and the definition of the core functions exposed by the repository. In both cases, this model follows the existing specifications of the IMS standard and proposes extensions to deal with the special requirements of automatic evaluation and grading of programming exercises. In the definition of programming problems as learning objects we introduced a new schema for meta-data. This schema is used to represent meta-data related to automatic evaluation that cannot be conveniently represented using the standard: the type of automatic evaluation; the requirements of the evaluation engine; or the roles of different assets - tests cases, program solutions, etc. In the definition of the core functions we used two different web services flavours - SOAP and REST - and described each function as an operation for each type of interface. We describe also the data types of the arguments of each operation. These data types consist mainly on learning objects and their identifications, but include also usage reports and queries using XQuery.
Resumo:
The present generation of eLearning platforms values the interchange of learning objects standards. Nevertheless, for specialized domains these standards are insufficient to fully describe all the assets, especially when they are used as input for other eLearning services. To address this issue we extended an existing learning objects standard to the particular requirements of a specialized domain, namely the automatic evaluation of programming problems. The focus of this paper is the definition of programming problems as learning objects. We introduce a new schema to represent metadata related to automatic evaluation that cannot be conveniently represented using existing standards, such as: the type of automatic evaluation; the requirements of the evaluation engine; or the roles of different assets - tests cases, program solutions, etc. This new schema is being used in an interoperable repository of learning objects, called crimsonHex.
Resumo:
Standards for learning objects focus primarily on content presentation. They were already extended to support automatic evaluation but it is limited to exercises with a predefined set of answers. The existing standards lack the metadata required by specialized evaluators to handle types of exercises with an indefinite set of solutions. To address this issue we extended existing learning object standards to the particular requirements of a specialized domain. We present a definition of programming problems as learning objects that is compatible both with Learning Management Systems and with systems performing automatic evaluation of programs. The proposed definition includes metadata that cannot be conveniently represented using existing standards, such as: the type of automatic evaluation; the requirements of the valuation engine; and the roles of different assets - tests cases, program solutions, etc. We present also the EduJudge project and its main services as a case study on the use of the proposed definition of programming problems as learning objects.
Resumo:
Existe uma vasta literatura que defende a utilização do ensaio com o cone Penetrómetro ou fall cone como sendo uma alternativa razoável relativamente ao método mais tradicional na determinação do limite de liquidez, a concha de Casagrande. Com este trabalho pretende-se dar mais um contributo à temática da obtenção dos parâmetros de plasticidade dos solos, utilizando diferentes dispositivos e metodologias distintas. Para tal, selecionou-se um solo de caráter argiloso, proveniente de um barreiro da zona de Chaves, e estabeleceram-se comparações entre os valores dos limites de consistência, obtidos pela concha de Casagrande e pelo fall cone. Nesse âmbito, foi elaborada, inicialmente, uma caracterização deste tipo de solos, a definição de conceitos importantes como o de limite de liquidez, limite de plasticidade e índice de plasticidade, assim como uma descrição do funcionamento daqueles dispositivos e das variáveis associadas a cada um deles. Procedeu-se à classificação do solo, segundo três sistemas, através de ensaios de identificação e caracterização, com o objetivo de inferir acerca da composição e comportamento do mesmo. Foi também objetivo deste trabalho, estudar a potencial influência do operador, nos resultados obtidos em ambos os dispositivos. Desta forma, foi possível concluir acerca das vantagens e desvantagens de cada aparelho e definir perspetivas para trabalhos futuros.
Resumo:
A quantidade e variedade de conteúdos multimédia actualmente disponíveis cons- tituem um desafio para os utilizadores dado que o espaço de procura e escolha de fontes e conteúdos excede o tempo e a capacidade de processamento dos utilizado- res. Este problema da selecção, em função do perfil do utilizador, de informação em grandes conjuntos heterogéneos de dados é complexo e requer ferramentas específicas. Os Sistemas de Recomendação surgem neste contexto e são capazes de sugerir ao utilizador itens que se coadunam com os seus gostos, interesses ou necessidades, i.e., o seu perfil, recorrendo a metodologias de inteligência artificial. O principal objectivo desta tese é demonstrar que é possível recomendar em tempo útil conteúdos multimédia a partir do perfil pessoal e social do utilizador, recorrendo exclusivamente a fontes públicas e heterogéneas de dados. Neste sen- tido, concebeu-se e desenvolveu-se um Sistema de Recomendação de conteúdos multimédia baseado no conteúdo, i.e., nas características dos itens, no historial e preferências pessoais e nas interacções sociais do utilizador. Os conteúdos mul- timédia recomendados, i.e., os itens sugeridos ao utilizador, são provenientes da estação televisiva britânica, British Broadcasting Corporation (BBC), e estão classificados de acordo com as categorias dos programas da BBC. O perfil do utilizador é construído levando em conta o historial, o contexto, as preferências pessoais e as actividades sociais. O YouTube é a fonte do histo- rial pessoal utilizada, permitindo simular a principal fonte deste tipo de dados - a Set-Top Box (STB). O historial do utilizador é constituído pelo conjunto de vídeos YouTube e programas da BBC vistos pelo utilizador. O conteúdo dos vídeos do YouTube está classificado segundo as categorias de vídeo do próprio YouTube, sendo efectuado o mapeamento para as categorias dos programas da BBC. A informação social, que é proveniente das redes sociais Facebook e Twit- ter, é recolhida através da plataforma Beancounter. As actividades sociais do utilizador obtidas são filtradas para extrair os filmes e séries que são, por sua vez, enriquecidos semanticamente através do recurso a repositórios abertos de dados interligados. Neste caso, os filmes e séries são classificados através dos géneros da IMDb e, posteriormente, mapeados para as categorias de programas da BBC. Por último, a informação do contexto e das preferências explícitas, através da classificação dos itens recomendados, do utilizador são também contempladas. O sistema desenvolvido efectua recomendações em tempo real baseado nas actividades das redes sociais Facebook e Twitter, no historial de vídeos Youtube e de programas da BBC vistos e preferências explícitas. Foram realizados testes com cinco utilizadores e o tempo médio de resposta do sistema para criar o conjunto inicial de recomendações foi 30 s. As recomendações personalizadas são geradas e actualizadas mediante pedido expresso do utilizador.
Resumo:
Nos últimos anos têm existido bastantes pesquisas e um grande investimento quer na área da educação à distância quer ao nível das tecnologias móveis. A dada altura percebeu-se que cada vez mais poderiam ser utilizados dispositivos móveis no contexto da educação e de que estes já seriam capazes de responder às exigências necessárias para que fosse possível criar ou melhorar cenários com recursos educativos. Este trabalho tem como objetivo propor um modelo que facilite a aprendizagem em dispositivos móveis. Nesse sentido, decidiu-se que seria uma mais-valia adicionar a este projeto, a utilização da Realidade Aumentada como potenciador de melhorias no processo de aprendizagem. A Realidade Aumentada, a par do que acontece com a educação à distância e com as tecnologias móveis, é uma área alvo de constantes investigações e inovação. Apresenta como principal capacidade a interação do utilizador com vários modelos virtuais incluídos numa cena real. Esta capacidade proporciona experiências que podem contribuir para o aumento da motivação e da perceção por parte dos alunos. A forma como o utilizador interage com as aplicações móveis é vista com extrema importância, principalmente na área da educação. Aliar uma boa interação à utilização da Realidade Aumentada, é parte integrante deste trabalho. Foram estudados exemplos de interações e formas como o utilizador vive a experiência durante a utilização de aplicações que partilham o mesmo tipo de tecnologias utilizadas neste projeto. O objetivo final foca-se na criação de uma aplicação, capaz de fornecer uma experiência enriquecedora no âmbito do ensino, ligado ao tema história e que consiga fundamentar a criação de um modelo que facilite a aprendizagem utilizando plataformas móveis. Os objetivos são corroborados por um conjunto de testes efetuados à aplicação e pelos resultados obtidos através de um questionário feito a um grupo de pessoas que testaram o protótipo.
Resumo:
As estruturas coladas são geralmente projetadas para que o adesivo seja essencialmente sujeito a esforços de corte, pois neste tipo de solicitação o adesivo apresenta melhores caraterísticas mecânicas. A avaliação do comportamento ao corte pode ser realizada com o adesivo no estado maciço ou como camada fina em juntas adesivas. Os métodos que permitem avaliar o comportamento ao corte, quer para o adesivo, quer para as juntas, são: o ensaio Iosipescu ou V-Notched beam shear method, o ensaio de borboleta ou Notched plate shear method (Arcan), o ensaio de torsão, o ensaio de tração numa junta de sobreposição simples e o ensaio Thick Adherend Shear Test (TAST). Os ensaios Arcan e Iosipescu, tal como o ensaio de torção, podem ser realizados em provetes de adesivo maciço ou em juntas. O ensaio de torção é pouco utilizado, porque a aplicação do esforço de corte exige dispositivos e equipamentos de ensaios complexos. Os ensaios Arcan e Iosipescu utilizam provetes com entalhes e podem introduzir alguma dificuldade na medição precisa das deformações. O ensaio de tração numa junta de sobreposição simples é um dos métodos mais usados para caraterizar uma junta adesiva, porque é um método simples, as juntas são de fácil fabrico e pode ser realizado em máquinas universais de ensaios mecânicos. Neste ensaio os aderentes estão sujeitos a uma solicitação de tração, enquanto a camada de adesivo está sujeita a esforços de corte combinados com esforços de arrancamento. Os esforços de arrancamento resultam da própria geometria da junta na qual existe um desalinhamento das forças de tração, mesmo quando são colocados calços (reguladores de espessura) nos locais de amarração. O ensaio TAST é dos mais populares para obtenção das propriedades ao corte, uma vez que tanto as ferramentas de ensaio como o fabrico dos provetes são relativamente simples. Este ensaio é realizado em junta sendo os substratos espessos e de aço que, devido à sua elevada rigidez, contribuem para um esforço de corte praticamente puro no adesivo. Neste trabalho realizou-se o projeto e a fabricação das ferramentas, gabarit e substratos necessários para a execução de provetes TAST e ensaios utilizando diferentes adesivos.
Resumo:
Among the most important measures to prevent wild forest fires is the use of prescribed and controlled burning actions in order to reduce the availability of fuel mass. However, the impact of these activities on soil physical and chemical properties varies according to the type of both soil and vegetation and is not fully understood. Therefore, soil monitoring campaigns are often used to measure these impacts. In this paper we have successfully used three statistical data treatments - the Kolmogorov-Smirnov test followed by the ANOVA and the Kruskall-Wallis tests – to investigate the variability among the soil pH, soil moisture, soil organic matter and soil iron variables for different monitoring times and sampling procedures.
Resumo:
Consider the problem of assigning implicit-deadline sporadic tasks on a heterogeneous multiprocessor platform comprising two different types of processors—such a platform is referred to as two-type platform. We present two low degree polynomial time-complexity algorithms, SA and SA-P, each providing the following guarantee. For a given two-type platform and a task set, if there exists a task assignment such that tasks can be scheduled to meet deadlines by allowing them to migrate only between processors of the same type (intra-migrative), then (i) using SA, it is guaranteed to find such an assignment where the same restriction on task migration applies but given a platform in which processors are 1+α/2 times faster and (ii) SA-P succeeds in finding a task assignment where tasks are not allowed to migrate between processors (non-migrative) but given a platform in which processors are 1+α times faster. The parameter 0<α≤1 is a property of the task set; it is the maximum of all the task utilizations that are no greater than 1. We evaluate average-case performance of both the algorithms by generating task sets randomly and measuring how much faster processors the algorithms need (which is upper bounded by 1+α/2 for SA and 1+α for SA-P) in order to output a feasible task assignment (intra-migrative for SA and non-migrative for SA-P). In our evaluations, for the vast majority of task sets, these algorithms require significantly smaller processor speedup than indicated by their theoretical bounds. Finally, we consider a special case where no task utilization in the given task set can exceed one and for this case, we (re-)prove the performance guarantees of SA and SA-P. We show, for both of the algorithms, that changing the adversary from intra-migrative to a more powerful one, namely fully-migrative, in which tasks can migrate between processors of any type, does not deteriorate the performance guarantees. For this special case, we compare the average-case performance of SA-P and a state-of-the-art algorithm by generating task sets randomly. In our evaluations, SA-P outperforms the state-of-the-art by requiring much smaller processor speedup and by running orders of magnitude faster.
Resumo:
Consider scheduling of real-time tasks on a multiprocessor where migration is forbidden. Specifically, consider the problem of determining a task-to-processor assignment for a given collection of implicit-deadline sporadic tasks upon a multiprocessor platform in which there are two distinct types of processors. For this problem, we propose a new algorithm, LPC (task assignment based on solving a Linear Program with Cutting planes). The algorithm offers the following guarantee: for a given task set and a platform, if there exists a feasible task-to-processor assignment, then LPC succeeds in finding such a feasible task-to-processor assignment as well but on a platform in which each processor is 1.5 × faster and has three additional processors. For systems with a large number of processors, LPC has a better approximation ratio than state-of-the-art algorithms. To the best of our knowledge, this is the first work that develops a provably good real-time task assignment algorithm using cutting planes.
Resumo:
Task scheduling is one of the key mechanisms to ensure timeliness in embedded real-time systems. Such systems have often the need to execute not only application tasks but also some urgent routines (e.g. error-detection actions, consistency checkers, interrupt handlers) with minimum latency. Although fixed-priority schedulers such as Rate-Monotonic (RM) are in line with this need, they usually make a low processor utilization available to the system. Moreover, this availability usually decreases with the number of considered tasks. If dynamic-priority schedulers such as Earliest Deadline First (EDF) are applied instead, high system utilization can be guaranteed but the minimum latency for executing urgent routines may not be ensured. In this paper we describe a scheduling model according to which urgent routines are executed at the highest priority level and all other system tasks are scheduled by EDF. We show that the guaranteed processor utilization for the assumed scheduling model is at least as high as the one provided by RM for two tasks, namely 2(2√−1). Seven polynomial time tests for checking the system timeliness are derived and proved correct. The proposed tests are compared against each other and to an exact but exponential running time test.
Resumo:
Mestre em Engenharia Civil - Especialização em Estruturas
Resumo:
A par das patologias oncológicas, as doenças do foro cardíaco, em particular a doença arterial coronária, são uma das principais causas de morte nos países industrializados, devido sobretudo, à grande incidência de enfartes do miocárdio. Uma das formas de diagnóstico e avaliação desta condição passa pela obtenção de imagens de perfusão miocárdica com radionuclídeos, realizada por Tomografia por Emissão de Positrões (PET). As soluções injectáveis de [15O]-H2O, [82Rb] e [13N]-NH3 são as mais utilizadas neste tipo de exame clínico. No Instituto de Ciências Nucleares Aplicadas à Saúde (ICNAS), a existência de um ciclotrão tem permitido a produção de uma variedade de radiofármacos, com aplicações em neurologia, oncologia e cardiologia. Recentemente, surgiu a oportunidade de iniciar exames clínicos com [13N]-NH3 para avaliação da perfusão miocárdica. É neste âmbito que surge a oportunidade do presente trabalho, pois antes da sua utilização clínica é necessário realizar a optimização da produção e a validação de todo o processo segundo as normas de Boas Práticas Radiofarmacêuticas. Após uma fase de optimização do processo, procedeu-se à avaliação dos parâmetros físico-químicos e biológicos da preparação de [13N]-NH3, de acordo com as indicações da Farmacopeia Europeia (Ph. Eur.) 8.2. De acordo com as normas farmacêuticas, foram realizados 3 lotes de produção consecutivos para validação da produção de [13N]-NH3. Os resultados mostraram um produto final límpido e ausente de cor, com valores de pH dentro do limite especificado, isto é, entre 4,5 e 8,5. A pureza química das amostras foi verificada, uma vez que relativamente ao teste colorimétrico, a tonalidade da cor da solução de [13N]-NH3 não era mais intensa que a solução de referência. As preparações foram identificadas como sendo [13N]-NH3, através dos resultados obtidos por cromatografia iónica, espectrometria de radiação gama e tempo de semi-vida. Por examinação do cromatograma obtido com a solução a ser testada, observou-se que o pico principal possuia um tempo de retenção aproximadamente igual ao pico do cromatograma obtido para a solução de referência. Além disso, o espectro de radiação gama mostrou um pico de energia 0,511 MeV e um outro adicional de 1,022 MeV para os fotões gama, característico de radionuclídeos emissores de positrões. O tempo de semi-vida manteve-se dentro do intervalo indicado, entre 9 e 11 minutos. Verificou-se, igualmente, a pureza radioquímica das amostras, correspondendo um mínimo de 99% da radioactividade total ao [13N], bem como a pureza radionuclídica, observando-se uma percentagem de impurezas inferiores a 1%, 2h após o fim da síntese. Os testes realizados para verificação da esterilidade e determinação da presença de endotoxinas bacterianas nas preparações de [13N]-NH3 apresentaram-se negativos.Os resultados obtidos contribuem, assim, para a validação do método para a produção de [13N]-NH3, uma vez que cumprem os requisitos especificados nas normas europeias, indicando a obtenção de um produto seguro e com a qualidade necessária para ser administrado em pacientes para avaliação da perfusão cardíaca por PET.