462 resultados para Acurácia Posicional
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior
Elaboração e validação de escala diagramática para quantificação da mancha alvo em folhas de acerola
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Traditional applications of feature selection in areas such as data mining, machine learning and pattern recognition aim to improve the accuracy and to reduce the computational cost of the model. It is done through the removal of redundant, irrelevant or noisy data, finding a representative subset of data that reduces its dimensionality without loss of performance. With the development of research in ensemble of classifiers and the verification that this type of model has better performance than the individual models, if the base classifiers are diverse, comes a new field of application to the research of feature selection. In this new field, it is desired to find diverse subsets of features for the construction of base classifiers for the ensemble systems. This work proposes an approach that maximizes the diversity of the ensembles by selecting subsets of features using a model independent of the learning algorithm and with low computational cost. This is done using bio-inspired metaheuristics with evaluation filter-based criteria
Resumo:
OBJETIVO: Verificar os desempenhos perceptual-auditivo e ortográfico de escolares no que se refere à identificação de contrastes entre as fricativas do Português Brasileiro, e investigar em que medida esses dois tipos de desempenhos se relacionam. MÉTODOS: Foram analisados dados de desempenho perceptual-auditivo e de desempenho ortográfico extraídos de 20 crianças das duas primeiras séries do ensino fundamental de uma escola pública do município de Mallet (PR). A coleta de dados de percepção auditiva foi feita com base no Instrumento de Avaliação da Percepção de Fala (PERCEFAL), com o uso do software Perceval. Já a coleta de dados de ortografia foi feita por meio de um ditado das mesmas palavras que compõem o instrumento PERCEFAL. RESULTADOS: Foram observadas: maior acurácia perceptual-auditiva do que ortográfica; tendência de menor tempo de resposta e de menor variabilidade nos acertos perceptuais-auditivos do que nos erros; não correspondência de erros de percepção-auditiva e ortografia, já que, na percepção, o maior percentual de erros envolveu o ponto de articulação das fricativas, enquanto que, na ortografia, o maior percentual envolveu o vozeamento. CONCLUSÃO: Embora se mostrem relacionados, os desempenhos perceptual-auditivo e ortográfico não apresentam correspondência termo a termo. Portanto, na prática clínica, a atenção deve-se voltar não apenas para os aspectos que aproximam esses dois desempenhos, mas, também, para os aspectos que os diferenciam.
Resumo:
Committees of classifiers may be used to improve the accuracy of classification systems, in other words, different classifiers used to solve the same problem can be combined for creating a system of greater accuracy, called committees of classifiers. To that this to succeed is necessary that the classifiers make mistakes on different objects of the problem so that the errors of a classifier are ignored by the others correct classifiers when applying the method of combination of the committee. The characteristic of classifiers of err on different objects is called diversity. However, most measures of diversity could not describe this importance. Recently, were proposed two measures of the diversity (good and bad diversity) with the aim of helping to generate more accurate committees. This paper performs an experimental analysis of these measures applied directly on the building of the committees of classifiers. The method of construction adopted is modeled as a search problem by the set of characteristics of the databases of the problem and the best set of committee members in order to find the committee of classifiers to produce the most accurate classification. This problem is solved by metaheuristic optimization techniques, in their mono and multi-objective versions. Analyzes are performed to verify if use or add the measures of good diversity and bad diversity in the optimization objectives creates more accurate committees. Thus, the contribution of this study is to determine whether the measures of good diversity and bad diversity can be used in mono-objective and multi-objective optimization techniques as optimization objectives for building committees of classifiers more accurate than those built by the same process, but using only the accuracy classification as objective of optimization
Resumo:
OBJETIVO: Determinar a acurácia das variáveis: tempo de escada (tTE), potência de escada (PTE), teste de caminhada (TC6) e volume expiratório forçado (VEF1) utilizando o consumo máximo de oxigênio (VO2máx) como padrão-ouro. MÉTODOS: Os testes foram realizados em 51 pacientes. O VEF1 foi obtido através da espirometria. O TC6 foi realizado em corredor plano de 120m. O TE foi realizado em escada de 6 lances obtendo-se tTE e PTE. O VO2máx foi obtido por ergoespirometria, utilizando o protocolo de Balke. Foram calculados a correlação linear de Pearson (r) e os valores de p, entre VO2máx e variáveis. Para o cálculo da acurácia, foram obtidos os pontos de corte, através da curva característica operacional (ROC). A estatística Kappa (k) foi utilizada para cálculo da concordância. RESULTADOS: Obteve-se as acurácias: tTE - 86%, TC6 - 80%, PTE - 71%, VEF1(L) - 67%, VEF1% - 63%. Para o tTE e TC6 combinados em paralelo, obteve-se sensibilidade de 93,5% e em série, especificidade de 96,4%. CONCLUSÃO: O tTE foi a variável que apresentou a melhor acurácia. Quando combinados o tTE e TC6 podem ter especificidade e sensibilidade próxima de 100%. Estes testes deveriam ser mais usados rotineiramente, especialmente quando a ergoespirometria para a medida de VO2máx não é disponível.
Resumo:
O diagnóstico da trombose venosa profunda sintomática está bem estabelecido com o uso do mapeamento dúplex, que apresenta sensibilidade de 100% e especificidade de 98%, para trombose venosa profunda proximal, e sensibilidade de 94% e especificidade de 75%, para distal. Na trombose venosa profunda recente e assintomática, o diagnóstico com o mapeamento dúplex ainda não está bem estabelecido, mostrando uma queda na acurácia desse método diagnóstico. Essa queda é devida ao fato de o trombo recente não ser oclusivo, apresentar a mesma ecogenicidade do sangue e uma consistência diminuída, prejudicando o teste da compressibilidade, que é o mais sensível para diagnóstico da trombose venosa profunda. Nesta revisão, serão revistos artigos publicados que avaliaram a acurácia do mapeamento dúplex no diagnóstico da trombose venosa profunda assintomática.
Resumo:
A avaliação clínica dos membros inferiores na insuficiência venosa por si só não identifica os sistemas envolvidos ou os níveis anatômicos, sendo necessários exames complementares. Esses exames podem ser invasivos ou não-invasivos. Os invasivos, como flebografia e pressão venosa ambulatória, apesar de terem boa acurácia, trazem desconforto e complicações. Dentre os não-invasivos, destacam-se: Doppler ultra-som de ondas contínuas, fotopletismografia, pletismografia a ar e mapeamento dúplex. O Doppler ultra-som avalia a velocidade do fluxo sangüíneo de maneira indireta. A fotopletismografia avalia o tempo de reenchimento venoso, fornecendo um parâmetro objetivo de quantificação do refluxo venoso. A pletismografia a ar permite quantificar a redução ou não da capacitância, o refluxo e o desempenho da bomba muscular da panturrilha. O dúplex é considerado padrão-ouro dentre os não-invasivos, porque permite uma avaliação quantitativa e qualitativa, fornecendo informações anatômicas e funcionais, dando avaliação mais completa e detalhada dos sistemas venosos profundo e superficial.
Resumo:
The aim of this work was to describe the methodological procedures that were mandatory to develop a 3D digital imaging of the external and internal geometry of the analogue outcrops from reservoirs and to build a Virtual Outcrop Model (VOM). The imaging process of the external geometry was acquired by using the Laser Scanner, the Geodesic GPS and the Total Station procedures. On the other hand, the imaging of the internal geometry was evaluated by GPR (Ground Penetrating Radar).The produced VOMs were adapted with much more detailed data with addition of the geological data and the gamma ray and permeability profiles. As a model for the use of the methodological procedures used on this work, the adapted VOM, two outcrops, located at the east part of the Parnaiba Basin, were selected. On the first one, rocks from the aeolian deposit of the Piaui Formation (Neo-carboniferous) and tidal flat deposits from the Pedra de Fogo Formation (Permian), which arises in a large outcrops located between Floriano and Teresina (Piauí), are present. The second area, located at the National Park of Sete Cidades, also at the Piauí, presents rocks from the Cabeças Formation deposited in fluvial-deltaic systems during the Late Devonian. From the data of the adapted VOMs it was possible to identify lines, surfaces and 3D geometry, and therefore, quantify the geometry of interest. Among the found parameterization values, a table containing the thickness and width, obtained in canal and lobes deposits at the outcrop Paredão and Biblioteca were the more relevant ones. In fact, this table can be used as an input for stochastic simulation of reservoirs. An example of the direct use of such table and their predicted radargrams was the identification of the bounding surface at the aeolian sites from the Piauí Formation. In spite of such radargrams supply only bi-dimensional data, the acquired lines followed of a mesh profile were used to add a third dimension to the imaging of the internal geometry. This phenomenon appears to be valid for all studied outcrops. As a conclusion, the tool here presented can became a new methodology in which the advantages of the digital imaging acquired from the Laser Scanner (precision, accuracy and speed of acquisition) were combined with the Total Station procedure (precision) using the classical digital photomosaic technique
Resumo:
This paper presents models of parameters of Sea Surface Layer (SSL), such as chlorophyll-a, sea surface temperature (SST), Primary Productivity (PP) and Total Suspended Matter (TSM) for the region adjacent to the continental shelf of Rio Grande do Norte (RN), Brazil. Concentrations of these parameters measured in situ were compared in time quasi-synchronous with images AQUA-MODIS between the years 2003 to 2011. Determination coefficients between samples in situ and bands reflectance sensor AQUA-MODIS were representative. From that, concentrations of SSL parameters were acquired for the continental shelf of the RN (eastern and northern) analyzing the geographic distribution of variation of these parameters between the years 2009-2012. Geographical and seasonal variations mainly influenced by global climate phenomena such as El Niño and La Niña, were found through the analysis of AQUA-MODIS images by Principal Components Analysis (PCA). Images show qualitatively the variance and availability of TSM in the regions, as well as their relationship with coastal erosion hotspots, monitored along the coast of the RN. In one of the areas identified as being of limited availability of TSM, we developed a methodology for assessment and evaluation of Digital Elevation Models (DEM) of beach surfaces (emerged and submerged sections) from the integration of topographic and bathymetric data measured in situ and accurately georeferenced compatible to studies of geomorphology and coastal dynamics of short duration. The methodology consisted of surveys with GNSS positioning operated in cinematic relative mode involved in topographic and bathymetric executed in relation to the stations of the geodetic network of the study area, which provided geodetic link to the Brazilian Geodetic System (GBS), univocal , fixed, and relatively stable over time. In this study Ponta Negra Beach, Natal / RN, was identified as a region with low variance and availability of MPS in the region off, as characterized by intense human occupation and intense coastal erosion in recent decades, which presents potential of the proposed methodology for accuracy and productivity, and the progress achieved in relation to the classical methods of surveying beach profiles
Resumo:
INTRODUÇÃO: Os métodos de genotipagem do vírus da hepatite C têm sido muito discutidos. O objetivo deste trabalho foi comparar as metodologias de hibridização reversa e sequenciamento direto para a genotipagem do vírus da hepatite C. MÉTODOS: Noventa e uma amostras de plasma de pacientes assistidos na Faculdade de Medicina de Botucatu da Universidade Estadual Paulista foram utilizadas. A genotipagem por hibridização reversa foi realizada utilizando o kit comercial INNO-LiPA® v.1.0. O sequenciamento direto foi efetuado em sequenciador automático utilizando protocolos in house. RESULTADOS: A genotipagem por sequenciamento direto mostrou-se eficiente na resolução dos resultados inconclusivos pelo kit comercial. O kit mostrou resultados errôneos em relação à subtipagem viral. Além disso, a genotipagem por sequenciamento direto revelou um erro do kit com relação à determinação genotípica questionando a eficiência do método também para a identificação do genótipo viral. CONCLUSÕES: A genotipagem realizada por meio de sequenciamento direto permite uma maior acurácia na classificação viral quando comparada à hibridização reversa.
Resumo:
A degeneração hepatocerebral adquirida (AHD) e a degeneração hepatolenticular podem ter apresentações clínicas semelhantes, mas quando uma doença hepática crônica e achados motores atípicos coexistem, a distinção entre AHD e encefalopatia hepática (HE) pode ser ainda mais complicada. Descrevemos três casos de AHD (dois tendo HE) com diferentes achados em neuroimagem, doenças hepáticas distintas e apresentações motoras semelhantes, todos com hipertensão arterial e perda de peso antes das manifestações motoras. O diagnóstico e a fisiopatologia são comentados e comparados com relatos prévios. Concluímos que existem muitas correlações entre HE, degeneração hepatolenticular e AHD, mas a sobreposição de HE e AHD pode ser mais comum dependendo do conhecimento clínico e da acurácia dos critérios diagnósticos adotados para cada enfermidade. Como a AHD não é considerada prioridade na lista de transplante hepático, o prognóstico dos pacientes com AHD permanece ruim, e a interrupção do fluxo nos shunts portossistêmicos deve ser sempre considerada.
Resumo:
Atualmente, há diferentes definições de implicações fuzzy aceitas na literatura. Do ponto de vista teórico, esta falta de consenso demonstra que há discordâncias sobre o real significado de "implicação lógica" nos contextos Booleano e fuzzy. Do ponto de vista prático, isso gera dúvidas a respeito de quais "operadores de implicação" os engenheiros de software devem considerar para implementar um Sistema Baseado em Regras Fuzzy (SBRF). Uma escolha ruim destes operadores pode implicar em SBRF's com menor acurácia e menos apropriados aos seus domínios de aplicação. Uma forma de contornar esta situação e conhecer melhor os conectivos lógicos fuzzy. Para isso se faz necessário saber quais propriedades tais conectivos podem satisfazer. Portanto, a m de corroborar com o significado de implicação fuzzy e corroborar com a implementação de SBRF's mais apropriados, várias leis Booleanas têm sido generalizadas e estudadas como equações ou inequações nas lógicas fuzzy. Tais generalizações são chamadas de leis Boolean-like e elas não são comumente válidas em qualquer semântica fuzzy. Neste cenário, esta dissertação apresenta uma investigação sobre as condições suficientes e necessárias nas quais três leis Booleanlike like — y ≤ I(x, y), I(x, I(y, x)) = 1 e I(x, I(y, z)) = I(I(x, y), I(x, z)) — se mantém válidas no contexto fuzzy, considerando seis classes de implicações fuzzy e implicações geradas por automorfismos. Além disso, ainda no intuito de implementar SBRF's mais apropriados, propomos uma extensão para os mesmos
Resumo:
This work discusses the application of techniques of ensembles in multimodal recognition systems development in revocable biometrics. Biometric systems are the future identification techniques and user access control and a proof of this is the constant increases of such systems in current society. However, there is still much advancement to be developed, mainly with regard to the accuracy, security and processing time of such systems. In the search for developing more efficient techniques, the multimodal systems and the use of revocable biometrics are promising, and can model many of the problems involved in traditional biometric recognition. A multimodal system is characterized by combining different techniques of biometric security and overcome many limitations, how: failures in the extraction or processing the dataset. Among the various possibilities to develop a multimodal system, the use of ensembles is a subject quite promising, motivated by performance and flexibility that they are demonstrating over the years, in its many applications. Givin emphasis in relation to safety, one of the biggest problems found is that the biometrics is permanently related with the user and the fact of cannot be changed if compromised. However, this problem has been solved by techniques known as revocable biometrics, which consists of applying a transformation on the biometric data in order to protect the unique characteristics, making its cancellation and replacement. In order to contribute to this important subject, this work compares the performance of individual classifiers methods, as well as the set of classifiers, in the context of the original data and the biometric space transformed by different functions. Another factor to be highlighted is the use of Genetic Algorithms (GA) in different parts of the systems, seeking to further maximize their eficiency. One of the motivations of this development is to evaluate the gain that maximized ensembles systems by different GA can bring to the data in the transformed space. Another relevant factor is to generate revocable systems even more eficient by combining two or more functions of transformations, demonstrating that is possible to extract information of a similar standard through applying different transformation functions. With all this, it is clear the importance of revocable biometrics, ensembles and GA in the development of more eficient biometric systems, something that is increasingly important in the present day
Resumo:
OBJETIVO: O objetivo geral foi detectar fatores ambliopigênicos em uma população de pré-escolares, utilizando exames refratométricos e o PhotoScreenerTM (PS) e o objetivo específico foi verificar se a avaliação feita com o PS é útil como método de triagem em campanhas de prevenção de ambliopia em crianças. MÉTODOS: Foi realizado um estudo observacional, prospectivo, de janeiro a dezembro de 2007, avaliando-se 227 crianças pré-escolares, com o intuito de detectar, através da aplicação de um questionário, exames refratométricos e fotografias utilizando o PS, a presença de fatores causadores de ambliopia na população de estudo. Todas as crianças foram avaliadas pelo PS. em seguida, todas as crianças foram submetidas à cicloplegia , sendo avaliadas usando refrator automático Shin Nippon®. As crianças detectadas como portadoras de problemas oculares receberam prescrição óptica, segundo os critérios: hipermetropia maior que +1,50 D, miopia maior que -1,00 D e astigmatismo maior que 1,00 D. Analisaram-se os dados através do teste de concordância de Goodman, estatística descritiva e estudo da especificidade e sensibilidade ao emprego do PS, comparando os resultados com ele obtidos, com os resultados dos outros métodos de avaliação oftalmológica. RESULTADOS: A distribuição entre os sexos foi semelhante, sendo que a maioria das crianças apresentava quatro ou cinco anos de idade. A sensibilidade (S) do PS, comparando-se o resultado obtido neste aparelho com o autorrefrator sob cicloplegia, foi de 50,9%. Já a especificidade foi de 78,9%; valor preditivo positivo 70%; valor preditivo negativo 62,5% e acurácia 65,1%. CONCLUSÕES: Das 101 crianças cujas fotografias tiradas através do PS puderam ser analisadas satisfatoriamente, trinta e seis apresentavam erro refrativo que necessitou de correção. O PS, quando comparado com equivalente esférico do autorrefrator sob cicloplegia, é um método razoável de triagem, embora a sensibilidade não seja boa. Um ponto positivo a ser ressaltado é o considerável valor de especificidade.