894 resultados para Testing and Debugging
Resumo:
This is a research project by practice, which firstly develops a new material invention derived from natural fibres extracted from waste pineapple leaves; secondly it articulates the contemporary designer’s role in facilitating sustainable solutions through: Insights from my own material invention, PiñatexTM, which integrates the materiality of design with the immateriality of concepts and values Developing a visual model of mapping I began with these questions: ‘What are the challenges in seeking to make a new and sustainable material from the waste products of pineapple agriculture in the Philippines?’ and ‘How can a design practice link elements of materiality (artifacts) with immaterial elements (value systems) in order to improve sustainable social and economic development?’ Significant influences have been the work of Papanek1 (2003), Hawken2 (1999) and Abouleish3 (2008) and in particular the ethical business model initiated by McDonough and Braungart in Cradle to Cradle®4 (2002). My own research project is inspired by the Cradle to Cradle® model. It proposes the development of a new material, PiñatexTM which is derived from natural fibres extracted from waste pineapple leaves and could be used in a wide variety of products that are currently fabricated in leather or petroleum-based materials. The methods have comprised: Contextual reviews; case studies (SEKEM, Cradle to Cradle® and Gawad Kalinga); practical experiments in the field of natural fibres, chemistry, product development, manufacturing and prototyping, leading to an invention and a theoretical model of mapping. In addition, collaboration has taken place across scientific, technological, social, ecological, academic and business fields. The outcome is a new material based on the synchronicity between the pineapple fibres, polymers, resins and coatings specially formulated. The invention of the new material that I developed as a central part of this research by practice has a patent in the national phase (PCT/GB 2011/000802) and is in the first stages of manufacturing, commercial testing and further design input (Summer 2014). The contribution to knowledge is firstly the material, PiñatexTM, which exhibits certain key qualities, namely environmentally non-toxic, biodegradable, income-generating potential and marketability. This is alongside its intrinsic qualities as a textile product: aesthetic potential, durability and stability, which will make it suitable for the accessories, interiors and furnishing markets. The theoretical mapping system Upstream and Downstream forms a secondary contribution.
Resumo:
This experimental study focuses on a detection system at the seismic station level that should have a similar role to the detection algorithms based on the ratio STA/LTA. We tested two types of neural network: Multi-Layer Perceptrons and Support Vector Machines, trained in supervised mode. The universe of data consisted of 2903 patterns extracted from records of the PVAQ station, of the seismography network of the Institute of Meteorology of Portugal. The spectral characteristics of the records and its variation in time were reflected in the input patterns, consisting in a set of values of power spectral density in selected frequencies, extracted from a spectro gram calculated over a segment of record of pre-determined duration. The universe of data was divided, with about 60% for the training and the remainder reserved for testing and validation. To ensure that all patterns in the universe of data were within the range of variation of the training set, we used an algorithm to separate the universe of data by hyper-convex polyhedrons, determining in this manner a set of patterns that have a mandatory part of the training set. Additionally, an active learning strategy was conducted, by iteratively incorporating poorly classified cases in the training set. The best results, in terms of sensitivity and selectivity in the whole data ranged between 98% and 100%. These results compare very favorably with the ones obtained by the existing detection system, 50%.
Resumo:
Dissertação de Mestrado, Mestrado em Qualidade em Análises, Faculdade de Ciências e Tecnologia, Universidade do Algarve, 2015
Resumo:
Tese de doutoramento, Estudos de Literatura e de Cultura (Cultura e Comunicação), Universidade de Lisboa, Faculdade de Letras, 2015
Resumo:
Tese de doutoramento, Engenharia Biomédica e Biofísica, Universidade de Lisboa, Faculdade de Ciências, 2015
Resumo:
The objective of this study was to develop, test and benchmark a framework and a predictive risk model for hospital emergency readmission within 12 months. We performed the development using routinely collected Hospital Episode Statistics data covering inpatient hospital admissions in England. Three different timeframes were used for training, testing and benchmarking: 1999 to 2004, 2000 to 2005 and 2004 to 2009 financial years. Each timeframe includes 20% of all inpatients admitted within the trigger year. The comparisons were made using positive predictive value, sensitivity and specificity for different risk cut-offs, risk bands and top risk segments, together with the receiver operating characteristic curve. The constructed Bayes Point Machine using this feature selection framework produces a risk probability for each admitted patient, and it was validated for different timeframes, sub-populations and cut-off points. At risk cut-off of 50%, the positive predictive value was 69.3% to 73.7%, the specificity was 88.0% to 88.9% and sensitivity was 44.5% to 46.3% across different timeframes. Also, the area under the receiver operating characteristic curve was 73.0% to 74.3%. The developed framework and model performed considerably better than existing modelling approaches with high precision and moderate sensitivity.
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia de Eletrónica e Telecomunicações
Resumo:
Introdução: As doenças cardiovasculares são a principal causa de morte na Europa e o sedentarismo é um dos seus principais fatores de risco. Os programas de reabilitação cardiovascular (RCV) no domicílio parecem ser eficazes na tolerância ao exercício. No entanto, torna-se difícil reproduzir um protocolo de exercícios no domicílio, por se tratar de estudos pouco específicos. Objetivo: Avaliar os efeitos de um programa de exercícios específico realizado no domicílio, na tolerância ao exercício em pacientes integrados num programa RCV. Metodologia: Estudo quase experimental composto por 20 indivíduos com pelo menos um ano de enfarte agudo do miocárdio, distribuídos aleatoriamente em dois grupos: grupo experimental (GE) e grupo de controlo (GC), ambos com 10 indivíduos. O programa de RCV no domicílio (constituído por 10 exercícios) teve a duração de 8 semanas, com uma frequência de 3 vezes por semana. Avaliou-se a frequência cardíaca (FC), tensão arterial e duplo produto basais e máximos; FC de recuperação; equivalentes metabólicos (METs); velocidade; inclinação; tempo de prova e de recuperação; índice cifótico; equilíbrio; e tempo em atividade moderada a vigorosa. Resultados: Ao fim de 8 semanas de exercício o GE aumentou significativamente os MET’s (p=0,001), tensão arterial sistólica máxima (p<0,001), duplo produto máximo (p<0,001) e tempo de prova (p=0,037) e diminuiu significativamente o tempo de recuperação (p<0,001), quando comparado com o GC. Conclusão: O programa de exercícios no domicílio promoveu uma melhoria na tolerância ao exercício e parece ter melhorado o equilíbrio, para a amostra em estudo.
Resumo:
Dissertação de Natureza Científica para obtenção do grau de Mestre em Engenharia Civil Perfil Estruturas
Resumo:
The performance of the Weather Research and Forecast (WRF) model in wind simulation was evaluated under different numerical and physical options for an area of Portugal, located in complex terrain and characterized by its significant wind energy resource. The grid nudging and integration time of the simulations were the tested numerical options. Since the goal is to simulate the near-surface wind, the physical parameterization schemes regarding the boundary layer were the ones under evaluation. Also, the influences of the local terrain complexity and simulation domain resolution on the model results were also studied. Data from three wind measuring stations located within the chosen area were compared with the model results, in terms of Root Mean Square Error, Standard Deviation Error and Bias. Wind speed histograms, occurrences and energy wind roses were also used for model evaluation. Globally, the model accurately reproduced the local wind regime, despite a significant underestimation of the wind speed. The wind direction is reasonably simulated by the model especially in wind regimes where there is a clear dominant sector, but in the presence of low wind speeds the characterization of the wind direction (observed and simulated) is very subjective and led to higher deviations between simulations and observations. Within the tested options, results show that the use of grid nudging in simulations that should not exceed an integration time of 2 days is the best numerical configuration, and the parameterization set composed by the physical schemes MM5–Yonsei University–Noah are the most suitable for this site. Results were poorer in sites with higher terrain complexity, mainly due to limitations of the terrain data supplied to the model. The increase of the simulation domain resolution alone is not enough to significantly improve the model performance. Results suggest that error minimization in the wind simulation can be achieved by testing and choosing a suitable numerical and physical configuration for the region of interest together with the use of high resolution terrain data, if available.
Resumo:
On-chip debug (OCD) features are frequently available in modern microprocessors. Their contribution to shorten the time-to-market justifies the industry investment in this area, where a number of competing or complementary proposals are available or under development, e.g. NEXUS, CJTAG, IJTAG. The controllability and observability features provided by OCD infrastructures provide a valuable toolbox that can be used well beyond the debugging arena, improving the return on investment rate by diluting its cost across a wider spectrum of application areas. This paper discusses the use of OCD features for validating fault tolerant architectures, and in particular the efficiency of various fault injection methods provided by enhanced OCD infrastructures. The reference data for our comparative study was captured on a workbench comprising the 32-bit Freescale MPC-565 microprocessor, an iSYSTEM IC3000 debugger (iTracePro version) and the Winidea 2005 debugging package. All enhanced OCD infrastructures were implemented in VHDL and the results were obtained by simulation within the same fault injection environment. The focus of this paper is on the comparative analysis of the experimental results obtained for various OCD configurations and debugging scenarios.
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia de Electrónica e telecomunicações
Resumo:
Mestrado em Engenharia Geotécnica e Geoambiente
Resumo:
Com o decorrer dos tempos e com a evolução da indústria, acresce a necessidade de aparecimento de novas construções e consequentemente de novos desafios geotécnicos. Para responder a estes novos reptos que a construção nos lança é necessário aprofundar o conhecimento acerca dos materiais que constituem o subsolo e estudar o seu comportamento quando sujeito a novas solicitações, como por exemplo sobrecargas, pois parte do cálculo de dimensionamento de fundações das novas construções dependerá destas características. Existem duas possíveis formas de identificar os materiais existentes no subsolo e caracterizá‐los: através de ensaios de laboratório e de ensaios in situ, sendo nestes últimos que nos iremos focar. Os ensaios in situ, para além de outros dados, permitem‐nos estimar com algum grau de incerteza a profundidade a que se encontra o horizonte com capacidade de suporte pretendida, quer se trate ou não do bedrock, e identificar o processo mais indicado para a retirada do material: através de um meio mecânico de escavação ou por recurso a explosivos. Com a realização de ensaios de sísmica de refração e igualmente recorrendo a ensaios executados com o penetrómetro dinâmico médio (DPM), tentamos dar resposta a estas incógnitas através do cruzamento dos dados obtidos. No entanto, este cruzamento de dados pode não ser completamente esclarecedor, levando ao aparecimento de novas incógnitas às quais não seja possível dar resposta recorrendo‐se unicamente à informação recolhida por meio destes dois métodos, pois poderão revelar‐se insuficientes. Contudo, existem muitos outros ensaios in situ que podem ser realizados e capazes de nos ajudar a complementar os dados inicialmente obtidos no sentido de diminuir ou até mesmo eliminar as incógnitas existentes, e desta forma poder identificar e caraterizar o material existente com o maior grau de segurança possível.
Resumo:
Os sistemas de informação integrados contribuem para a gestão eficiente das empresas, seja na organização e funcionamento internos ou nas relações externas. O mercado deste software é dominado pelas empresas que criam e distribuem sistemas proprietários. Existe uma alternativa, software livre, que disponibiliza aplicações em código aberto e maioritariamente de licença gratuita, que pode ser adaptado às necessidades das empresas. O objetivo do presente trabalho é avaliar a viabilidade de plataformas livres, de natureza vertical – OFBiz – e horizontal – Spring – como opção na escolha de um sistema de informação nas Pequenas e Médias Empresas portuguesas. Das áreas de negócio principais das organizações, foi selecionada a área de Recursos Humanos para efeitos de adaptação na aplicação OFBiz, com incidência em dois casos de uso: uma opção essencial, mas que atualmente não está prevista – Processamento de vencimentos – e outra já existente e que é avaliada em termos de necessidades de adaptação – Recrutamento. Sendo o idioma um requisito indispensável à internacionalização da aplicação, foi também analisada a sua implementação. A metodologia de investigação utilizada foi o Design Science Research, tendo sido implementado um protótipo para efeitos de teste e avaliação do projeto, com a elaboração de dois modelos: configuração e desenvolvimento. Implementado o protótipo, verificou-se que a framework vertical apresenta-se como uma alternativa mais viável do que a horizontal, pelas funcionalidades já existentes e que facilitam a adequação às necessidades de informação das Pequenas e Médias Empresas. A sua base tecnológica e de estrutura permite que a aplicação possa ser adaptada por técnicos especialistas das próprias empresas.