462 resultados para Acurácia Posicional
Resumo:
Individual lifestyle includes health and risk behaviors that can altar health status. Excess weight is a public health problem of modern civilization and there is an estimated mean prevalence of 45% in European countries. In Spain, the Murcia Region is an area of high morbidity and mortality from cardiovascular disorders. In this study we assess the differences in health and risk behaviors in ove/weight and normal weight undergraduates at the Universidad Católica San Antonio de Murcia (UCAM). Methods: Transversal design of parallel groups (overweight - cases and normal weight - control) , formed using the anthropometric technique. A questionnaire applied to a sample of 471 undergraduates of either sex, between the ages of 18 and 29 years, enrolled in 4 bachelor degree courses (ADE, CA, PER, PUB) at UCAM. We performed a standardized measurement of body mass (weight in kg), height (in meters) using a Seca® scale with calibrated stadiometer, waist and hip circumferences (in cm) with an inelastic tape and skinfolds thickness (triceps and subscapular in mm) with a Holtain® caliper, to calculate body mass index (BMI), waist-to-hip ratio (WHR) and the sum of skinfolds (SSF). We applied a lifestyle questionnaire about alcohol and tobacco consumption, knowledge and behaviors related to health indicators (arterial pressure and cholesterol), diet and physical activity. The information was collected in April and May, 2001 at the UCAM laboratory of Applied Nutrition. Statistical analysis: analysis of independent groups, contingency tables that reveal which qualitativa variables show differences and associations between the groups, Pearson's chi-square,and a significance levei of p < 0.05 followed by a residual analysis (1.96). Descriptive statistics (mean and standard deviation) were used to establish the two groups: case and contrai with 65 men and 26 women each who had BMI < 25 kg/m2. Results: A total of 65 of the men assessed (14%) and 26 (6%) of the women were overweight. Mean body mass index of the case group was 27. 78 ±: 2.83 kg/m2 in the men and 26.26 ± 1.37 kg/m2 in the women, while contrai group men had mean BMI of 22.36 ± 1.72 kg/m2, while for the women it was 20.76 ±: 2.13 kg/m2. The self-declared values of weight and height were underestimated, but with high accuracy, sensitivity and specificity. Thus, these can be used to calculate the BMI of overweight Spanish undergraduates. Regular vigorous physical activity was observed only in normal weight men. The analysis showed the following significant differences for the qualitativa variables of the two groups. The contrai group was interested in arterial hypertension, believed that they were not overweight, that they had no abdominal fat, and had not considered controlling 'fatty food consumption. Those who thought of controlling it sometimes, did so without professional help. However, part of the overweight group believed that they were overweight and had abdominal fat between average and considerable, had often or always considered controlling fatty foods and had often or always tried to control consumption with the help of professionals. They had always thought of engaging in physical activities, unlike the normal weight individuals. Nearly all (95%) of the overweight undergraduates and most (75%) of the normal weight group reported that they sometimes or always controlled fatty food ingestion. Mean physical activity was nearly twice as high in the summer than in the winter. Conclusions: The overweight undergraduates in this sample displayed a lifestyle with a greater number of healthy behaviors when compared to normal weight individuals
Resumo:
O objetivo do nosso projeto foi determinar as características dos recém nascidos com crises convulsivas internados em unidades de terapia intensiva. Foi realizada uma pesquisa multicêntrica, observacional, prospectiva, cuja população alvo foi os recém nascidos com crises convulsivas internados em unidades de terapia intensiva, envolvendo equipe multidisciplinar constituída por neurologista infantil, neonatologistas, intensivistas pediátricos, enfermeiros, técnicos de enfermagem e fisioterapêutas. As crises foram definidas pelo critério clínico, com classificação de Volpe. Variáveis relacionadas à gestação, ao parto, características dos recém nascidos, aspectos das crises convulsivas e mortalidade foram analisadas. Estatística: descritiva (freqüências, medidas de tendência central e dispersão) e análise (teste de probabilidade, teste de risco e de acurácia). Comparamos as crises clínicas entre os recém nascidos de termo e pretermo e observamos diferenças com significância estatística na idade de início das crises, mais tardia nos prematuros, na etiologia predominante: hemorragia peri-intraventricular no prematuro e encefalopatia hipóxico-isquêmica no termo e tipo clínico de crise, clônica no pretermo e sutil no termo. Os testes de acurácia utilizados para determinar se o tipo clínico de crise convulsiva é predictor da etiologia da mesma não revelaram resultados positivos. Quanto às características associadas à mortalidade de prematuros com crise convulsiva, observamos associação entre ventilação mecânica e pneumonia com a mortalidade. Existem diferenças clínicas quando comparamos os recém nascidos pretermo e de termo com crises convulsivas, confirmando dados da literatura
Resumo:
Funções de pedotransferência são regressões utilizadas para estimar atributos edáficos dependentes a partir de atributos independentes e de fácil determinação. Nesse sentido, são propostas na literatura diversas funções de pedotransferência que visam predizer a resistência do solo à penetração. Objetivou-se, portanto, com este trabalho, desenvolver e comparar a eficiência de cinco funções de pedotransferência para a curva de resistência do solo à penetração, presentes na literatura, por meio do ajuste de dados obtidos tanto com o penetrômetro de impacto (campo) quanto com o penetrômetro eletrônico (laboratório), em um Latossolo manejado sob diferentes modos (convencional e plantio direto). Foram coletadas amostras indeformadas de solo na entrelinha das culturas, nas camadas de 0-0,10, 0,10-0,20 e 0,20-0,30 m, logo após a semeadura, no florescimento e na colheita, para determinação dos atributos físico-hídricos do solo e também da resistência do solo à penetração, com o uso do penetrômetro eletrônico. A resistência do solo à penetração, obtida com o penetrômetro de impacto, foi determinada conforme a variação do conteúdo de água no solo ao longo do ciclo das culturas. As curvas ajustadas de resistência do solo à penetração tiveram a precisão e a acurácia testadas por meio de parâmetros estatísticos e foram comparadas pelo teste F. Houve sobreposição dos valores estimados pelo ajuste das curvas, evidenciando que a maneira de obtenção da resistência do solo à penetração (campo ou laboratório) não influenciou a relação entre a resistência à penetração e os atributos do solo. As equações RP = aUg b; RP = a(1-Ug)b; RP = ae bUg e RP = a + be não diferiram e foram as mais precisas e acuradas na predição da resistência do solo à penetração.
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
A acurácia da análise granulométrica depende da obtenção de suspensões de solo completamente dispersas e estáveis para possibilitar a separação das suas frações granulométricas. O objetivo do presente trabalho foi avaliar a eficácia da adição de quantidades e tamanhos de grãos de areia na fase de dispersão da análise granulométrica de solos, visando à maior acurácia na obtenção dos resultados da análise granulométrica. Os solos utilizados foram: Latossolo Vermelho eutroférrico (LVef), LatossoloVermelho acriférrico (LVwf), Latossolo Vermelho eutrófico (LVe), Argissolo Vermelho-Amarelo eutrófico (PVAe) e Nitossolo Vermelho eutroférrico (NVef). A dispersão das amostras dos solos foi realizada por meio da adição de hidróxido de sódio e agitação rotativa (60 rpm) por 16 h. O delineamento experimental adotado foi o inteiramente casualizado, com esquema fatorial 6 x 2, com três repetições. Os tratamentos foram constituídos por seis quantidades (0, 5, 10, 15, 20 e 25 g) e dois diâmetros (2,0-1,0 e 1,0-0,5 mm) de areia, adicionados na fase de dispersão da análise granulométrica dos solos. de acordo com as equações ajustadas, a adição de areia com diâmetro entre 1,0 e 0,5 mm nas quantidades de 21,4 g para LVef, 19,6 g para LVwf e 25,8 g para NVef proporciona, respectivamente para esses solos, aumentos de 50, 38 e 14,5 % nos teores de argila. No LVe e no PVAe não se justifica a adição de areia na análise granulométrica, pois esses solos não apresentaram problemas de dispersão. Os resultados demonstram que a adição de 25 g de areia, com diâmetro entre 1,0 e 0,5 mm, na fase de dispersão da análise granulométrica de solos argilosos com altos teores de óxidos de Fe e com dificuldades de dispersão, é eficiente para promover efetiva dispersão das partículas primárias do solo.
Resumo:
Para o conhecimento do comportamento físico-hídrico do solo, é fundamental a determinação da curva de retenção de água (CRA). A aquisição de dados para obtenção da CRA envolve processos demorados e custos elevados. A hipótese deste estudo foi a de que é possível determinar a CRA com menor número de tensões, reduzindo seu tempo de obtenção, sem, contudo, comprometer a acurácia dos resultados. Assim, o objetivo deste trabalho foi determinar quais tensões podem ser utilizadas para determinação da CRA de Latossolo Vermelho eutrófico de maneira acurada e em menor tempo. Foram determinados os conteúdos de água retidos em amostras de um Latossolo Vermelho eutrófico sob sistema de semeadura direta (SSD). As tensões utilizadas na determinação dos conteúdos de água foram: 0, 10, 20, 40, 60, 80, 100, 200, 300, 500, 700, 1.000, 3.000, 5.000 e 15.000 hPa. Os dados foram combinados e determinaram-se 450 CRAs ajustadas pelo modelo de van Genuchten. Os parâmetros α, m, n e Ug res, gerados pelo modelo, foram submetidos à análise de variância (teste F) e as médias comparadas pelo teste de Scott-Knott (p = 0,05). A hipótese deste estudo foi confirmada, ou seja, é possível determinar a CRA com menor número de tensões, reduzindo seu tempo de obtenção em até cinco vezes, sem, contudo, comprometer a acurácia dos resultados. A tensão de 15.000 hPa deve estar contida na combinação de tensões a serem utilizadas para determinação da curva característica de retenção de água, quando se emprega o modelo matemático de van Genuchten para ajuste dos dados. As curvas características de retenção de água do solo, definidas com as combinações de tensões (0, 60, 700 e 15.000 hPa), (0, 80, 700 e 15.000 hPa), (0, 100, 1.000 e 15.000 hPa), (0, 20, 60, 100, 700 e 15.000 hPa), (0, 80, 300, 700 e 15.000 hPa) e (0, 100, 300, 1.000 e 15.000 hPa), sendo os dados ajustados ao modelo de van Genuchten, proporcionaram estimativas dos conteúdos de água, retidos no Latossolo Vermelho eutrófico sob sistema de semeadura direta, com a mesma acurácia, quando comparada à curva de referência partindo-se de um conjunto de 15 valores de tensões.
Resumo:
O objetivo deste estudo foi investigar, por meio de dados simulados, o efeito da heterogeneidade de variância residual entre grupos de contemporâneos (GC) sobre as avaliações genéticas de bovinos de corte, e comparar o uso de uma avaliação genética ponderada (R¹Isigmae²) em relação à avaliação que pressupõe homogeneidade de variância (R=Isigmae²). A característica estudada foi ganho de peso pós-desmame corrigido para 345 dias, sendo esta simulada com variância fenotípica de 300 kg² e herdabilidade igual a 0,4. A estrutura de um conjunto real de dados foi utilizada para fornecer os GC e os pais referentes às observações de cada animal. Cinco níveis de heterogeneidade de variância residual foram considerados de forma que os componentes de variância fossem, na média, iguais aos da situação de homogeneidade de variância. Na medida em que níveis mais acentuados de heterogeneidade de variância residual foram considerados, os animais foram selecionados dos GC com maior variabilidade, especialmente com pressão de seleção intensa. em relação à consistência de predição, os produtos e as vacas tiveram seus valores genéticos preditos mais afetados pela heterogeneidade de variância residual do que os touros. O fator de ponderação utilizado reduziu, mas não eliminou o efeito da heterogeneidade de variância. As avaliações genéticas ponderadas apresentaram resultados iguais ou superiores àqueles obtidos pelas avaliações que assumiram homogeneidade de variância. Mesmo quando não necessário, o uso de avaliações ponderadas produziu resultados não inferiores às avaliações que assumiram homogeneidade de variância.
Resumo:
The present study aims to analyse, in different levels of demand, what is the best layout strategy to adopt for the small metallic shipbuilding. To achieve this purpose, three simulation models are developed for analyze these production strategies under the positional, cellular and linear layouts. By the use of a simulation tool for compare the scenarios, Chwif and Medina (2010) and Law (2009)´s methodologies were adapted that includes three phases: conception, implementation and analysis. In conception real systems were represented by process mapping according to time, material resources and human resources variables required for each step of the production process. All of this information has been transformed in the cost variable. Data were collected from three different production systems, two located in Natal RN with cellular and positional layouts and one located in Belém-PA with linear layout. In the implementation phase, the conceptual models were converted in computacional models through the tool Rockwell Software Arena ® 13.5 and then validated. In the analysis stage the production of 960 ships in a year vessels were simulated for each layout noting that, for a production of until 80 units positional layout is the most recommended, between 81 and 288 units the cellular layout and more than 289 units the linear layout
Resumo:
The use of the maps obtained from remote sensing orbital images submitted to digital processing became fundamental to optimize conservation and monitoring actions of the coral reefs. However, the accuracy reached in the mapping of submerged areas is limited by variation of the water column that degrades the signal received by the orbital sensor and introduces errors in the final result of the classification. The limited capacity of the traditional methods based on conventional statistical techniques to solve the problems related to the inter-classes took the search of alternative strategies in the area of the Computational Intelligence. In this work an ensemble classifiers was built based on the combination of Support Vector Machines and Minimum Distance Classifier with the objective of classifying remotely sensed images of coral reefs ecosystem. The system is composed by three stages, through which the progressive refinement of the classification process happens. The patterns that received an ambiguous classification in a certain stage of the process were revalued in the subsequent stage. The prediction non ambiguous for all the data happened through the reduction or elimination of the false positive. The images were classified into five bottom-types: deep water; under-water corals; inter-tidal corals; algal and sandy bottom. The highest overall accuracy (89%) was obtained from SVM with polynomial kernel. The accuracy of the classified image was compared through the use of error matrix to the results obtained by the application of other classification methods based on a single classifier (neural network and the k-means algorithm). In the final, the comparison of results achieved demonstrated the potential of the ensemble classifiers as a tool of classification of images from submerged areas subject to the noise caused by atmospheric effects and the water column
Resumo:
Simulations based on cognitively rich agents can become a very intensive computing task, especially when the simulated environment represents a complex system. This situation becomes worse when time constraints are present. This kind of simulations would benefit from a mechanism that improves the way agents perceive and react to changes in these types of environments. In other worlds, an approach to improve the efficiency (performance and accuracy) in the decision process of autonomous agents in a simulation would be useful. In complex environments, and full of variables, it is possible that not every information available to the agent is necessary for its decision-making process, depending indeed, on the task being performed. Then, the agent would need to filter the coming perceptions in the same as we do with our attentions focus. By using a focus of attention, only the information that really matters to the agent running context are perceived (cognitively processed), which can improve the decision making process. The architecture proposed herein presents a structure for cognitive agents divided into two parts: 1) the main part contains the reasoning / planning process, knowledge and affective state of the agent, and 2) a set of behaviors that are triggered by planning in order to achieve the agent s goals. Each of these behaviors has a runtime dynamically adjustable focus of attention, adjusted according to the variation of the agent s affective state. The focus of each behavior is divided into a qualitative focus, which is responsible for the quality of the perceived data, and a quantitative focus, which is responsible for the quantity of the perceived data. Thus, the behavior will be able to filter the information sent by the agent sensors, and build a list of perceived elements containing only the information necessary to the agent, according to the context of the behavior that is currently running. Based on the human attention focus, the agent is also dotted of a affective state. The agent s affective state is based on theories of human emotion, mood and personality. This model serves as a basis for the mechanism of continuous adjustment of the agent s attention focus, both the qualitative and the quantative focus. With this mechanism, the agent can adjust its focus of attention during the execution of the behavior, in order to become more efficient in the face of environmental changes. The proposed architecture can be used in a very flexibly way. The focus of attention can work in a fixed way (neither the qualitative focus nor the quantitaive focus one changes), as well as using different combinations for the qualitative and quantitative foci variation. The architecture was built on a platform for BDI agents, but its design allows it to be used in any other type of agents, since the implementation is made only in the perception level layer of the agent. In order to evaluate the contribution proposed in this work, an extensive series of experiments were conducted on an agent-based simulation over a fire-growing scenario. In the simulations, the agents using the architecture proposed in this work are compared with similar agents (with the same reasoning model), but able to process all the information sent by the environment. Intuitively, it is expected that the omniscient agent would be more efficient, since they can handle all the possible option before taking a decision. However, the experiments showed that attention-focus based agents can be as efficient as the omniscient ones, with the advantage of being able to solve the same problems in a significantly reduced time. Thus, the experiments indicate the efficiency of the proposed architecture
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
Activities that use Global Navigation Satellite System (GNSS) are countless and the most used one is the Global Positioning System (GPS) developed by the United States. In precision agriculture there are demands for static and cinematic positioning with distinct levels of accuracy for different applications; nevertheless cinematic performance data are not available as manufacturers of GPS receivers present only static performance information. For this reason it was developed an instrumented vehicle to test a methodology of performance evaluation of GPS receivers in kinematic conditions, which is representative to agricultural operations. A set of instrumentation was composed and used for collecting data under variable speed and rotation direction. Tests were conducted showing that the methodology allows to measure accuracy and precision, but improvements have to be implemented on the instrumentation equipment for long term tests.
Resumo:
Visual Odometry is the process that estimates camera position and orientation based solely on images and in features (projections of visual landmarks present in the scene) extraced from them. With the increasing advance of Computer Vision algorithms and computer processing power, the subarea known as Structure from Motion (SFM) started to supply mathematical tools composing localization systems for robotics and Augmented Reality applications, in contrast with its initial purpose of being used in inherently offline solutions aiming 3D reconstruction and image based modelling. In that way, this work proposes a pipeline to obtain relative position featuring a previously calibrated camera as positional sensor and based entirely on models and algorithms from SFM. Techniques usually applied in camera localization systems such as Kalman filters and particle filters are not used, making unnecessary additional information like probabilistic models for camera state transition. Experiments assessing both 3D reconstruction quality and camera position estimated by the system were performed, in which image sequences captured in reallistic scenarios were processed and compared to localization data gathered from a mobile robotic platform
Resumo:
O Laboratório de Sistemas Inteligentes do Departamento de Engenharia de Computação e Automação da Universidade Federal do Rio Grande do Norte - UFRN -tem como um de seus projetos de pesquisa -Robosense -a construção de uma plataforma robótica móvel. Trata-se de um robô provido de duas rodas, acionadas de forma diferencial, dois braços, com 5 graus de liberdade cada, um cinturão de sonares e uma cabeça estéreo. Como objetivo principal do projeto Robosense, o robô deverá ser capaz de navegar por todo o prédio do LECA, desviando de obstáculos. O sistema de navegação do robô, responsável pela geração e seguimento de rotas, atuará em malha fechada. Ou seja, sensores serão utilizados pelo sistema com o intuito de informar ao robô a sua pose atual, incluindo localização e a configuração de seus recursos. Encoders (sensores especiais de rotação) foram instalados nas rodas, bem como em todos os motores dos dois braços da cabeça estéreo. Sensores de fim-de-curso foram instalados em todas as juntas da cabeça estéreo para que seja possível sua pré-calibração. Sonares e câmeras também farão parte do grupo de sensores utilizados no projeto. O robô contará com uma plataforma composta por, a princípio, dois computadores ligados a um barramento único para uma operação em tempo real, em paralelo. Um deles será responsável pela parte de controle dos braços e de sua navegação, tomando como base as informações recebidas dos sensores das rodas e dos próximos objetivos do robô. O outro computador processará todas as informações referentes à cabeça estéreo do robô, como as imagens recebidas das câmeras. A utilização de técnicas de imageamento estéreo torna-se necessária, pois a informação de uma única imagem não determina unicamente a posição de um dado ponto correspondente no mundo. Podemos então, através da utilização de duas ou mais câmeras, recuperar a informação de profundidade da cena. A cabeça estéreo proposta nada mais é que um artefato físico que deve dar suporte a duas câmeras de vídeo, movimentá-las seguindo requisições de programas (softwares) apropriados e ser capaz de fornecer sua pose atual. Fatores como velocidade angular de movimentação das câmeras, precisão espacial e acurácia são determinantes para o eficiente resultado dos algoritmos que nesses valores se baseiam
Resumo:
Nowadays, classifying proteins in structural classes, which concerns the inference of patterns in their 3D conformation, is one of the most important open problems in Molecular Biology. The main reason for this is that the function of a protein is intrinsically related to its spatial conformation. However, such conformations are very difficult to be obtained experimentally in laboratory. Thus, this problem has drawn the attention of many researchers in Bioinformatics. Considering the great difference between the number of protein sequences already known and the number of three-dimensional structures determined experimentally, the demand of automated techniques for structural classification of proteins is very high. In this context, computational tools, especially Machine Learning (ML) techniques, have become essential to deal with this problem. In this work, ML techniques are used in the recognition of protein structural classes: Decision Trees, k-Nearest Neighbor, Naive Bayes, Support Vector Machine and Neural Networks. These methods have been chosen because they represent different paradigms of learning and have been widely used in the Bioinfornmatics literature. Aiming to obtain an improvment in the performance of these techniques (individual classifiers), homogeneous (Bagging and Boosting) and heterogeneous (Voting, Stacking and StackingC) multiclassification systems are used. Moreover, since the protein database used in this work presents the problem of imbalanced classes, artificial techniques for class balance (Undersampling Random, Tomek Links, CNN, NCL and OSS) are used to minimize such a problem. In order to evaluate the ML methods, a cross-validation procedure is applied, where the accuracy of the classifiers is measured using the mean of classification error rate, on independent test sets. These means are compared, two by two, by the hypothesis test aiming to evaluate if there is, statistically, a significant difference between them. With respect to the results obtained with the individual classifiers, Support Vector Machine presented the best accuracy. In terms of the multi-classification systems (homogeneous and heterogeneous), they showed, in general, a superior or similar performance when compared to the one achieved by the individual classifiers used - especially Boosting with Decision Tree and the StackingC with Linear Regression as meta classifier. The Voting method, despite of its simplicity, has shown to be adequate for solving the problem presented in this work. The techniques for class balance, on the other hand, have not produced a significant improvement in the global classification error. Nevertheless, the use of such techniques did improve the classification error for the minority class. In this context, the NCL technique has shown to be more appropriated