920 resultados para user tests
Resumo:
To determine the rabies antibody level of twenty-four hyperimmune equine sera, Standard Mouse Neutralization (SMN) and Couterimmunoelectrophoresis (CIE) tests were carried out, both at the Instituto Butantan (IB) and Instituto Panamericano de Protección de Alimentos y Zoonosis (INPPAZ). Statistical analysis has shown a correlation (r) of 0.9317 between the SMN and CIE performed at the IB, while at the INPPAZ it scored 0.974. Comparison of CIE data of both laboratories yielded a correlation of 0.845. The CIE technique has shown to be as sensitive and efficient as the SMN in titrating antirabies hyperimmune equine sera. Based on CIE results, a simple, rapid and inexpensive technique, tilers of sera antibody can be reliably estimated in SMN test.
Resumo:
As the wireless cellular market reaches competitive levels never seen before, network operators need to focus on maintaining Quality of Service (QoS) a main priority if they wish to attract new subscribers while keeping existing customers satisfied. Speech Quality as perceived by the end user is one major example of a characteristic in constant need of maintenance and improvement. It is in this topic that this Master Thesis project fits in. Making use of an intrusive method of speech quality evaluation, as a means to further study and characterize the performance of speech codecs in second-generation (2G) and third-generation (3G) technologies. Trying to find further correlation between codecs with similar bit rates, along with the exploration of certain transmission parameters which may aid in the assessment of speech quality. Due to some limitations concerning the audio analyzer equipment that was to be employed, a different system for recording the test samples was sought out. Although the new designed system is not standard, after extensive testing and optimization of the system's parameters, final results were found reliable and satisfactory. Tests include a set of high and low bit rate codecs for both 2G and 3G, where values were compared and analysed, leading to the outcome that 3G speech codecs perform better, under the approximately same conditions, when compared with 2G. Reinforcing the idea that 3G is, with no doubt, the best choice if the costumer looks for the best possible listening speech quality. Regarding the transmission parameters chosen for the experiment, the Receiver Quality (RxQual) and Received Energy per Chip to the Power Density Ratio (Ec/N0), these were subject to speech quality correlation tests. Final results of RxQual were compared to those of prior studies from different researchers and, are considered to be of important relevance. Leading to the confirmation of RxQual as a reliable indicator of speech quality. As for Ec/N0, it is not possible to state it as a speech quality indicator however, it shows clear thresholds for which the MOS values decrease significantly. The studied transmission parameters show that they can be used not only for network management purposes but, at the same time, give an expected idea to the communications engineer (or technician) of the end-to-end speech quality consequences. With the conclusion of the work new ideas for future studies come to mind. Considering that the fourth-generation (4G) cellular technologies are now beginning to take an important place in the global market, as the first all-IP network structure, it seems of great relevance that 4G speech quality should be subject of evaluation. Comparing it to 3G, not only in narrowband but also adding wideband scenarios with the most recent standard objective method of speech quality assessment, POLQA. Also, new data found on Ec/N0 tests, justifies further research studies with the intention of validating the assumptions made in this work.
Resumo:
Dissertation submitted in partial fulfilment of the requirements for the Degree of Master of Science in Geospatial Technologies.
Resumo:
Crude Toxoplasma gondii antigens represent raw material used to prepare reagents to be employed in different serologic tests for the diagnosis of toxoplasmosis, including the IgM and IgG indirect hemagglutination (IgG-HA and IgM-HA) tests. So far, the actual antigenic molecules of the parasite involved in the interaction with agglutinating anti-T. gondii antibodies in these tests are unknown. The absorption process of serum samples from toxoplasmosis patients with the IgG-HA reagent (G-toxo-HA) demonstrated that red cells from this reagent were coated with T. gondii antigens with Mr of 39, 35, 30, 27, 22 and 14 kDa. The immune-absorption process with the IgM-HA reagent (M-toxo-HA), in turn, provided antibody eluates which recognized antigenic bands of the parasite corresponding to Mr of 54, 35 and 30 kDa, implying that these antigens are coating red cells from this reagent. The identification of most relevant antigens for each type of HA reagent seems to be useful for the inspection of the raw antigenic material, as well as of reagent batches routinely produced. Moreover the present findings can be used to modify these reagents in order to improve the performance of HA tests for the diagnosis of toxoplasmosis
Resumo:
The objective of the present study is to standardize the technical variables for preparation and storage of Plasmodium falciparum and of antigen components extracted with the amphoteric detergent Zwittergent. P. falciparum obtained from in vitro culture was stored at different temperatures and for different periods of time. For each variable, antigen components of the parasite were extracted in the presence or absence of protease inhibitors and submitted or not to later dialysis. Products were stored for 15, 30 and 60 days at different temperatures and immunological activity of each extract was determined by SDS-PAGE and ELISA using positive or negative standard sera for the presence of IgG directed to blood stage antigens of P. falciparum. Antigen extracts obtained from parasites stored at -20oC up to 10 days or at -70oC for 2 months presented the best results, showing well-defined bands on SDS-PAGE and Western blots and presenting absorbance values in ELISA that permitted safe differentiation between positive and negative sera.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Informática
Resumo:
Neste trabalho faz-se uma pesquisa e análise dos conceitos associados à navegação inercial para estimar a distância percorrida por uma pessoa. Foi desenvolvida uma plataforma de hardware para implementar os algoritmos de navegação inercial e estudar a marcha humana. Os testes efetuados permitiram adaptar os algoritmos de navegação inercial para humanos e testar várias técnicas para reduzir o erro na estimativa da distância percorrida. O sistema desenvolvido é um sistema modular que permite estudar o efeito da inserção de novos sensores. Desta forma foram adaptados os algoritmos de navegação para permitir a utilização da informação dos sensores de força colocados na planta do pé do utilizador. A partir desta arquitetura foram efetuadas duas abordagens para o cálculo da distância percorrida por uma pessoa. A primeira abordagem estima a distância percorrida considerando o número de passos. A segunda abordagem faz uma estimação da distância percorrida com base nos algoritmos de navegação inercial. Foram realizados um conjunto de testes para comparar os erros na estimativa da distância percorrida pelas abordagens efetuadas. A primeira abordagem obteve um erro médio de 4,103% em várias cadências de passo. Este erro foi obtido após sintonia para o utilizador em questão. A segunda abordagem obteve um erro de 9,423%. De forma a reduzir o erro recorreu-se ao filtro de Kalman o que levou a uma redução do erro para 9,192%. Por fim, recorreu-se aos sensores de força que permitiram uma redução para 8,172%. A segunda abordagem apesar de ter um erro maior não depende do utilizador pois não necessita de sintonia dos parâmetros para estimar a distância para cada pessoa. Os testes efetuados permitiram, através dos sensores de força, testar a importância da força sentida pela planta do pé para aferir a fase do ciclo de marcha. Esta capacidade permite reduzir os erros na estimativa da distância percorrida e obter uma maior robustez neste tipo de sistemas.
Resumo:
Atualmente, os guias turísticos são constituídos por diversos módulos, nomeadamente, módulos de recomendação e de modelação do utilizador. Estes ajudam a adaptar melhor as recomendações dadas ao utilizador de acordo com as suas preferências. A necessidade de adaptar os guias turísticos às possíveis necessidades de saúde do utilizador, foi a motivação para a realização desta dissertação. Quando alguém visita um local desconhecido, considera normalmente as condições tanto de alojamento como de alimentação desse local. Contudo, se por algum motivo, necessita de cuidados de saúde, essa pessoa não se encontra preparada para isso. Assim, a recomendação de uma instituição de saúde direcionada para o turista é uma solução possível para o problema encontrado. Pretendeu-se desenvolver um módulo de recomendação híbrido no âmbito da prestação de informações relacionadas com as possíveis necessidades de saúde do turista, tendo em conta o seu perfil. Para a sua implementação seguiu-se a abordagem baseada em conteúdo e técnicas de classificação das instituições de saúde a recomendar ao utilizador. O protótipo desenvolvido foi testado com alguns utilizadores em termos de funcionalidades. Finalmente, pretende-se que o protótipo seja testado com mais utilizadores, possuidores de diversas características em termos de condições de mobilidade, historial clínico e necessidades. Estes testes irão permitir avaliar o protótipo ao nível da qualidade da recomendação prestada. Poder-se-á, assim, atingir o objetivo relativo à integração deste protótipo num sistema de recomendação de apoio ao turista utilizado pela Câmara Municipal do Porto.
Resumo:
Para o projeto de qualquer estrutura existente (edifícios, pontes, veículos, máquinas, etc.) é necessário conhecer as condições de carga, geometria e comportamento de todas as suas partes, assim como respeitar as normativas em vigor nos países nos quais a estrutura será aplicada. A primeira parte de qualquer projeto nesta área passa pela fase da análise estrutural, onde são calculadas todas as interações e efeitos de cargas sobre as estruturas físicas e os seus componentes de maneira a verificar a aptidão da estrutura para o seu uso. Inicialmente parte-se de uma estrutura de geometria simplificada, pondo de parte os elementos físicos irrelevantes (elementos de fixação, revestimentos, etc.) de maneira a simplificar o cálculo de estruturas complexas e, em função dos resultados obtidos da análise estrutural, melhorar a estrutura se necessário. A análise por elementos finitos é a ferramenta principal durante esta primeira fase do projeto. E atualmente, devido às exigências do mercado, é imprescindível o suporte computorizado de maneira a agilizar esta fase do projeto. Existe para esta finalidade uma vasta gama de programas que permitem realizar tarefas que passam pelo desenho de estruturas, análise estática de cargas, análise dinâmica e vibrações, visualização do comportamento físico (deformações) em tempo real, que permitem a otimização da estrutura em análise. Porém, estes programas demostram uma certa complexidade durante a introdução dos parâmetros, levando muitas vezes a resultados errados. Assim sendo, é essencial para o projetista ter uma ferramenta fiável e simples de usar que possa ser usada para fins de projeto de estruturas e otimização. Sobre esta base nasce este projeto tese onde se elaborou um programa com interface gráfica no ambiente Matlab® para a análise de estruturas por elementos finitos, com elementos do tipo Barra e Viga, quer em 2D ou 3D. Este programa permite definir a estrutura por meio de coordenadas, introdução de forma rápida e clara, propriedades mecânicas dos elementos, condições fronteira e cargas a aplicar. Como resultados devolve ao utilizador as reações, deformações e distribuição de tensões nos elementos quer em forma tabular quer em representação gráfica sobre a estrutura em análise. Existe ainda a possibilidade de importação de dados e exportação dos resultados em ficheiros XLS e XLSX, de maneira a facilitar a gestão de informação. Foram realizados diferentes testes e análises de estruturas de forma a validar os resultados do programa e a sua integridade. Os resultados foram todos satisfatórios e convergem para os resultados de outros programas, publicados em livros, e para cálculo a mão feitos pelo autor.
Resumo:
Com a massificação do uso da tecnologia no dia-a-dia, os sistemas de localização têm vindo a aumentar a sua popularidade, devido à grande diversidade de funcionalidades que proporcionam e aplicações a que se destinam. No entanto, a maior parte dos sistemas de posicionamento não funcionam adequadamente em ambientes indoor, impedindo o desenvolvimento de aplicações de localização nestes ambientes. Os acelerómetros são muito utilizados nos sistemas de localização inercial, pelas informações que fornecem acerca das acelerações sofridas por um corpo. Para tal, neste trabalho, recorrendo à análise do sinal de aceleração provindo de um acelerómetro, propõe-se uma técnica baseada na deteção de passos para que, em aplicações futuras, possa constituir-se como um recurso a utilizar para calcular a posição do utilizador dentro de um edifício. Neste sentido, este trabalho tem como objetivo contribuir para o desenvolvimento da análise e identificação do sinal de aceleração obtido num pé, por forma a determinar a duração de um passo e o número de passos dados. Para alcançar o objetivo de estudo foram analisados, com recurso ao Matlab, um conjunto de 12 dados de aceleração (para marcha normal, rápida e corrida) recolhidos por um sistema móvel (e provenientes de um acelerómetro). A partir deste estudo exploratório tornou-se possível apresentar um algoritmo baseado no método de deteção de pico e na utilização de filtros de mediana e Butterworth passa-baixo para a contagem de passos, que apresentou bons resultados. Por forma a validar as informações obtidas nesta fase, procedeu-se, seguidamente, à realização de um conjunto de testes experimentais a partir da recolha de 33 novos dados para a marcha e corrida. Identificaram-se o número de passos efetuados, o tempo médio de passo e da passada e a percentagem de erro como as variáveis em estudo. Obteve-se uma percentagem de erro igual a 1% para o total dos dados recolhidos de 20, 100, 500 e 1000 passos com a aplicação do método proposto para a contagem do passo. Não obstante as dificuldades observadas na análise dos sinais de aceleração relativos à corrida, o algoritmo proposto mostrou bom desempenho, conseguindo valores próximos aos esperados. Os resultados obtidos permitem afirmar que foi possível atingir-se o objetivo de estudo com sucesso. Sugere-se, no entanto, o desenvolvimento de futuras investigações de forma a alargar estes resultados em outras direções.
Resumo:
In this manuscript we tackle the problem of semidistributed user selection with distributed linear precoding for sum rate maximization in multiuser multicell systems. A set of adjacent base stations (BS) form a cluster in order to perform coordinated transmission to cell-edge users, and coordination is carried out through a central processing unit (CU). However, the message exchange between BSs and the CU is limited to scheduling control signaling and no user data or channel state information (CSI) exchange is allowed. In the considered multicell coordinated approach, each BS has its own set of cell-edge users and transmits only to one intended user while interference to non-intended users at other BSs is suppressed by signal steering (precoding). We use two distributed linear precoding schemes, Distributed Zero Forcing (DZF) and Distributed Virtual Signalto-Interference-plus-Noise Ratio (DVSINR). Considering multiple users per cell and the backhaul limitations, the BSs rely on local CSI to solve the user selection problem. First we investigate how the signal-to-noise-ratio (SNR) regime and the number of antennas at the BSs impact the effective channel gain (the magnitude of the channels after precoding) and its relationship with multiuser diversity. Considering that user selection must be based on the type of implemented precoding, we develop metrics of compatibility (estimations of the effective channel gains) that can be computed from local CSI at each BS and reported to the CU for scheduling decisions. Based on such metrics, we design user selection algorithms that can find a set of users that potentially maximizes the sum rate. Numerical results show the effectiveness of the proposed metrics and algorithms for different configurations of users and antennas at the base stations.
Resumo:
Astringency is an organoleptic property of beverages and food products resulting mainly from the interaction of salivary proteins with dietary polyphenols. It is of great importance to consumers, but the only effective way of measuring it involves trained sensorial panellists, providing subjective and expensive responses. Concurrent chemical evaluations try to screen food astringency, by means of polyphenol and protein precipitation procedures, but these are far from the real human astringency sensation where not all polyphenol–protein interactions lead to the occurrence of precipitate. Here, a novel chemical approach that tries to mimic protein–polyphenol interactions in the mouth is presented to evaluate astringency. A protein, acting as a salivary protein, is attached to a solid support to which the polyphenol binds (just as happens when drinking wine), with subsequent colour alteration that is fully independent from the occurrence of precipitate. Employing this simple concept, Bovine Serum Albumin (BSA) was selected as the model salivary protein and used to cover the surface of silica beads. Tannic Acid (TA), employed as the model polyphenol, was allowed to interact with the BSA on the silica support and its adsorption to the protein was detected by reaction with Fe(III) and subsequent colour development. Quantitative data of TA in the samples were extracted by colorimetric or reflectance studies over the solid materials. The analysis was done by taking a regular picture with a digital camera, opening the image file in common software and extracting the colour coordinates from HSL (Hue, Saturation, Lightness) and RGB (Red, Green, Blue) colour model systems; linear ranges were observed from 10.6 to 106.0 μmol L−1. The latter was based on the Kubelka–Munk response, showing a linear gain with concentrations from 0.3 to 10.5 μmol L−1. In either of these two approaches, semi-quantitative estimation of TA was enabled by direct eye comparison. The correlation between the levels of adsorbed TA and the astringency of beverages was tested by using the assay to check the astringency of wines and comparing these to the response of sensorial panellists. Results of the two methods correlated well. The proposed sensor has significant potential as a robust tool for the quantitative/semi-quantitative evaluation of astringency in wine.
Resumo:
Skin testing remains an essential diagnostic tool in modern allergy practice. A signifi cant variability has been reported regarding technical procedures, interpretation of results and documentation. This review has the aim of consolidating methodological recommendations through a critical analysis on past and recent data. This will allow a better understanding on skin prick test (SPT) history; technique; (contra-) indications; interpretation of results; diagnostic pitfalls; adverse reactions; and variability factors.
Resumo:
With the implementation of the Bologna Process several challenges have been posed to higher education institution, particularly in Portugal. One of the main implications is related to the change of the paradigm of a teacher centered education, to a paradigm that is student centered. This change implies the change of the way to assess courses in higher education institutions. Continuous and formative assessments emerged as the focus, catalyzed by electronic assessment, or e-assessment. This paper presents a case of the implementation of an e-assessment strategy, implemented in order to allow continuous, formative assessment in numerous mathematics classes using multiple-choice questions tests implement in Moodle open-source learning management system. The implementation can be considered a success.
Resumo:
With the implementation of the Bologna Process several challenges have been posed to higher education institution, particularly in Portugal. One of the main implications is related to the change of the paradigm of a teacher centered education, to a paradigm that is student centered. This change implies the change of the way to assess courses in higher education institutions. Continuous and formative assessments emerged as the focus, catalyzed by electronic assessment, or e-assessment. This paper presents a case of the implementation of an e-assessment strategy, implemented in order to allow continuous, formative assessment in numerous mathematics classes using multiple-choice questions tests implement in Moodle open-source learning management system. The implementation can be considered a success.