793 resultados para WHIM DESCRIPTORS


Relevância:

10.00% 10.00%

Publicador:

Resumo:

We present a method for predicting protein folding class based on global protein chain description and a voting process. Selection of the best descriptors was achieved by a computer-simulated neural network trained on a data base consisting of 83 folding classes. Protein-chain descriptors include overall composition, transition, and distribution of amino acid attributes, such as relative hydrophobicity, predicted secondary structure, and predicted solvent exposure. Cross-validation testing was performed on 15 of the largest classes. The test shows that proteins were assigned to the correct class (correct positive prediction) with an average accuracy of 71.7%, whereas the inverse prediction of proteins as not belonging to a particular class (correct negative prediction) was 90-95% accurate. When tested on 254 structures used in this study, the top two predictions contained the correct class in 91% of the cases.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diferentes abordagens teóricas têm sido utilizadas em estudos de sistemas biomoleculares com o objetivo de contribuir com o tratamento de diversas doenças. Para a dor neuropática, por exemplo, o estudo de compostos que interagem com o receptor sigma-1 (Sig-1R) pode elucidar os principais fatores associados à atividade biológica dos mesmos. Nesse propósito, estudos de Relações Quantitativas Estrutura-Atividade (QSAR) utilizando os métodos de regressão por Mínimos Quadrados Parciais (PLS) e Rede Neural Artificial (ANN) foram aplicados a 64 antagonistas do Sig-1R pertencentes à classe de 1-arilpirazóis. Modelos PLS e ANN foram utilizados com o objetivo de descrever comportamentos lineares e não lineares, respectivamente, entre um conjunto de descritores e a atividade biológica dos compostos selecionados. O modelo PLS foi obtido com 51 compostos no conjunto treinamento e 13 compostos no conjunto teste (r² = 0,768, q² = 0,684 e r²teste = 0,785). Testes de leave-N-out, randomização da atividade biológica e detecção de outliers confirmaram a robustez e estabilidade dos modelos e mostraram que os mesmos não foram obtidos por correlações ao acaso. Modelos também foram gerados a partir da Rede Neural Artificial Perceptron de Multicamadas (MLP-ANN), sendo que a arquitetura 6-12-1, treinada com as funções de transferência tansig-tansig, apresentou a melhor resposta para a predição da atividade biológica dos compostos (r²treinamento = 0,891, r²validação = 0,852 e r²teste = 0,793). Outra abordagem foi utilizada para simular o ambiente de membranas sinápticas utilizando bicamadas lipídicas compostas por POPC, DOPE, POPS e colesterol. Os estudos de dinâmica molecular desenvolvidos mostraram que altas concentrações de colesterol induzem redução da área por lipídeo e difusão lateral e aumento na espessura da membrana e nos valores de parâmetro de ordem causados pelo ordenamento das cadeias acil dos fosfolipídeos. As bicamadas lipídicas obtidas podem ser usadas para simular interações entre lipídeos e pequenas moléculas ou proteínas contribuindo para as pesquisas associadas a doenças como Alzheimer e Parkinson. As abordagens usadas nessa tese são essenciais para o desenvolvimento de novas pesquisas em Química Medicinal Computacional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As ideias políticas e filosóficas que influenciaram a criação da regra da legalidade penal e do princípio da ofensividade têm origem no Iluminismo. Principalmente durante a Idade Média e o Antigo Regime, confundia-se crime com pecado e as pessoas podiam ser punidas por mero capricho do soberano, sem que existisse lei. As arbitrariedades eram gritantes. A finalidade de ambas as teorias surgidas no período da Ilustração, portanto ao pregarem que era necessária a existência de lei prévia para que alguém fosse punido (regra da legalidade) e que o crime pressupunha uma lesão a direito ou bem jurídico de terceiro (princípio da ofensividade) , era a mesma: limitar o poder punitivo. No entanto, a regra da legalidade penal foi muito mais absorvida pelo discurso dogmático-jurídico do que o princípio da ofensividade, sendo oportuno, pois, analisar as razões pelas quais isso ocorreu. Algumas delas serão analisadas neste estudo como, por exemplo, a ausência de previsão explícita desse princípio nas Constituições, a suposta incompatibilidade desse princípio com a separação de poderes e com a própria regra da legalidade penal e a insegurança jurídica que a aplicação de princípios poderia gerar. Além disso, há um fator político de destaque: a consolidação da burguesia exigia a imposição de limites formais ao poder estatal, mas não limites materiais. Outro fator importante foi o advento do positivismo criminológico, no final do século XIX, que, ao confundir crime com doença, retornou ao paradigma do direito penal do autor que havia vigorado na Idade Média. Finalmente, para demonstrar o que impediu a consolidação do princípio da ofensividade especificamente no Brasil, será analisada a influência da doutrina europeia na dogmática nacional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract. Speckle is being used as a characterization tool for the analysis of the dynamics of slow-varying phenomena occurring in biological and industrial samples at the surface or near-surface regions. The retrieved data take the form of a sequence of speckle images. These images contain information about the inner dynamics of the biological or physical process taking place in the sample. Principal component analysis (PCA) is able to split the original data set into a collection of classes. These classes are related to processes showing different dynamics. In addition, statistical descriptors of speckle images are used to retrieve information on the characteristics of the sample. These statistical descriptors can be calculated in almost real time and provide a fast monitoring of the sample. On the other hand, PCA requires a longer computation time, but the results contain more information related to spatial–temporal patterns associated to the process under analysis. This contribution merges both descriptions and uses PCA as a preprocessing tool to obtain a collection of filtered images, where statistical descriptors are evaluated on each of them. The method applies to slow-varying biological and industrial processes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No estudo das comunidades florestais, estabelecer a importância relativa dos fatores que definem a composição e a distribuição das espécies é um desafio. Em termos de gradientes ambientais o estudo das respostas das espécies arbóreas são essenciais para a compreensão dos processos ecológicos e decisões de conservação. Neste sentido, para contribuir com a elucidação dos processos ecológicos nas principais formações florestais do Estado de São Paulo (Floresta Ombrófila Densa de Terras Baixas, Floresta Ombrófila Densa Submontana, Floresta Estacional Semidecidual e Savana Florestada) este trabalho objetivou responder as seguintes questões: (I) a composição florística e a abundância das espécies arbóreas, em cada unidade fitogeográfica, variam conforme o gradiente edáfico e topográfico?; (II) características do solo e topografia podem influenciar na previsibilidade de ocorrência de espécies arbóreas de ampla distribuição em diferentes tipos vegetacionais? (III) existe relação entre o padrão de distribuição espacial de espécies arbóreas e os parâmetros do solo e topografia? O trabalho foi realizado em parcelas alocadas em unidades de conservação (UC) que apresentaram trechos representativos, em termos de conservação e tamanho, das quatro principais formações florestais presentes no Estado de São Paulo. Em cada UC foram contabilizados os indivíduos arbóreos (CAP ≥ 15 cm), topografia, dados de textura e atributos químicos dos solos em uma parcela de 10,24 ha, subdividida em 256 subparcelas. Análises de correspodência canônica foram aplicadas para estabelecer a correspondência entre a abundância das espécies e o gradiente ambiental (solo e topografia). O método TWINSPAN modificado foi aplicado ao diagrama de ordenação da CCA para avaliar a influência das variáveis ambientais (solo e topografia) na composição de espécies. Árvores de regressão \"ampliadas\" (BRT) foram ajustadas para a predição da ocorrência das espécies segundo as variáveis de solo e topografia. O índice de Getis-Ord (G) foi utilizado para determinar a autocorrelação espacial das variáveis ambientais utilizadas nos modelos de predição da ocorrência das espécies. Nas unidades fitogeográficas analisadas, a correspondência entre o gradiente ambiental (solo e topografia) e a abundância das espécies foi significativa, especialmente na Savana Florestada onde observou-se a maior relação. O solo e a topografia também se relacionaram com a semelhança na composição florística das subparcelas, com exceção da Floresta Estacional Semicidual (EEC). As principais variáveis de solo e topografia relacionadas a flora em cada UC foram: (1) Na Floresta Ombrófila Densa de Terras Baixas (PEIC) - teor de alumínio na camada profunda (Al (80-100 cm)) que pode refletir os teor de Al na superfície, acidez do solo (pH(H2O) (5-25 cm)) e altitude, que delimitou as áreas alagadas; (2) Na Floresta Ombrófila Densa Submontana (PECB) - altitude, fator que, devido ao relevo acidentado, influencia a temperatura e incidência de sol no sub-bosque; (3) Na Savana Florestada (EEA) - fertilidade, tolerância ao alumínio e acidez do solo. Nos modelos de predição BRT, as variáveis químicas dos solos foram mais importantes do que a textura, devido à pequena variação deste atributo no solo nas áreas amostradas. Dentre as variáveis químicas dos solos, a capacidade de troca catiônica foi utilizada para prever a ocorrência das espécies nas quatro formações florestais, sendo particularmente importante na camada mais profunda do solo da Floresta Ombrófila Densa de Terras Baixas (PEIC). Quanto à topografia, a altitude foi inserida na maioria dos modelos e apresentou diferentes influências sobre as áreas de estudo. De modo geral, para presença das espécies de ampla distribuição observou-se uma mesma tendência quando à associação com os atributos dos solos, porém com amplitudes dos descritores edáficos que variaram de acordo com a área de estudo. A ocorrência de Guapira opposita e Syagrus romanzoffiana, cujo padrão variou conforme a escala, foi explicada por variáveis com padrões espaciais agregados que somaram entre 30% e 50% de importância relativa no modelo BRT. A presença de A. anthelmia, cujo padrão também apresentou certo nível de agregação, foi associada apenas a uma variável com padrão agregado, a altitude (21%), que pode ter exercido grande influência na distribuição da espécie ao delimitar áreas alagadas. T. guianensis se associou a variáveis ambientais preditoras com padrão espacial agregado que somaram cerca de 70% de importância relativa, o que deve ter sido suficiente para estabelecer o padrão agregado em todas as escalas. No entanto, a influência dos fatores ambientais no padrão de distribuição da espécie não depende apenas do ótimo ambiental da espécie, mas um resultado da interação espécie-ambiente. Concluiu-se que: (I) características edáficas e topográficas explicaram uma pequena parcela da composição florística, em cada unidade fitogeográfica, embora a ocorrência de algumas espécies tenha se associado ao gradiente edáfico e topográfico; (II) a partir de características dos solos e da topografia foi possível prever a presença de espécies arbóreas, que apresentaram particularidades em relação a sua associação com o solo de cada fitofisionomia; (III) a partir de associações descritivas o solo e a topografia influenciam o padrão de distribuição espacial das espécies, na proporção em que contribuem para a presença das mesmas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Applied colorimetry is an important module in the program of the elective subject "Colour Science: industrial applications”. This course is taught in the Optics and Optometry Degree and it has been used as a testing for the application of new teaching and assessment techniques consistent with the new European Higher Education Area. In particular, the main objective was to reduce the attendance to lessons and encourage the individual and collective work of students. The reason for this approach is based on the idea that students are able to work at their own learning pace. Within this dynamic work, we propose online lab practice based on Excel templates that our research group has developed ad-hoc for different aspects of colorimetry, such as conversion to different colour spaces, calculation of perceptual descriptors (hue, saturation, lightness), calculation of colour differences, colour matching dyes, etc. The practice presented in this paper is focused on the learning of colour differences. The session is based on a specific Excel template to compute the colour differences and to plot different graphs with these colour differences defined at different colour spaces: CIE ΔE, CIE ΔE94 and the CIELAB colour space. This template is implemented on a website what works by addressing the student work at a proper and organized way. The aim was to unify all the student work from a website, therefore the student is able to learn in an autonomous and sequential way and in his own pace. To achieve this purpose, all the tools, links and documents are collected for each different proposed activity to achieve guided specific objectives. In the context of educational innovation, this type of website is normally called WebQuest. The design of a WebQuest is established according to the criteria of usability and simplicity. There are great advantages of using WebQuests versus the toolbox “Campus Virtual” available in the University of Alicante. The Campus Virtual is an unfriendly environment for this specific purpose as the activities are organized in different sectors depending on whether the activity is a discussion, an activity, a self-assessment or the download of materials. With this separation, it is more difficult that the student follows an organized sequence. However, our WebQuest provides a more intuitive graphical environment, and besides, all the tasks and resources needed to complete them are grouped and organized according to a linear sequence. In this way, the student guided learning is optimized. Furthermore, with this simplification, the student focuses on learning and not to waste resources. Finally, this tool has a wide set of potential applications: online courses of colorimetry applied for postgraduate students, Open Course Ware, etc.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Paper submitted to the 43rd International Symposium on Robotics (ISR), Taipei, Taiwan, August 29-31, 2012.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Feature vectors can be anything from simple surface normals to more complex feature descriptors. Feature extraction is important to solve various computer vision problems: e.g. registration, object recognition and scene understanding. Most of these techniques cannot be computed online due to their complexity and the context where they are applied. Therefore, computing these features in real-time for many points in the scene is impossible. In this work, a hardware-based implementation of 3D feature extraction and 3D object recognition is proposed to accelerate these methods and therefore the entire pipeline of RGBD based computer vision systems where such features are typically used. The use of a GPU as a general purpose processor can achieve considerable speed-ups compared with a CPU implementation. In this work, advantageous results are obtained using the GPU to accelerate the computation of a 3D descriptor based on the calculation of 3D semi-local surface patches of partial views. This allows descriptor computation at several points of a scene in real-time. Benefits of the accelerated descriptor have been demonstrated in object recognition tasks. Source code will be made publicly available as contribution to the Open Source Point Cloud Library.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introducción. La especialización de las revistas se desprende de la clasificación que reciben en bases de datos y de los términos utilizados en su información pública (denominación, temática declarada y público destinatario). La especialización se manifiesta en la imagen proyectada por la revista y es decisiva para su elección y consideración; también indica el grado de consolidación del campo científico. Se adopta el enfoque de la Comunicación Estratégica. Metodología. Se realiza un análisis de contenido de las variables mencionadas en las webs y de las categorías de clasificación en IN-RECS, Dialnet, Carhus Plus+, RESH, DICE, MIAR e ISOC. La muestra está compuesta por 63 revistas académicas españolas de Comunicación. Resultados y conclusiones. La mayoría de revistas (80%) utiliza descriptores generalistas coincidentes con el campo científico o área de conocimiento. El 57% de revistas menciona subdisciplinas concretas manifestando un grado de especialización mayor. Se verifica que las denominaciones utilizadas por las bases de datos para nombrar el campo científico y el área de conocimiento presentan cierto desorden y no observan criterios comunes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJETIVO: Analizar la opinión que los usuarios tienen sobre alimentos genéticamente modificados y su información en el etiquetado. MÉTODOS: Realizada revisión sistemática de la literatura científica sobre los alimentos transgénicos y el etiquetado a partir de la consulta de las bases de datos bibliográficas: Medline (vía PubMed), EMBASE, ISIWeb of Knowledge, Cochrane Library Plus, FSTA, LILACS, CINAHL y AGRICOLA. Los descriptores seleccionados fueron: «organisms, genetically modified» y «food labeling». La búsqueda se realizó desde la primera fecha disponible hasta junio de 2012, seleccionando los artículos pertinentes escritos en inglés, portugués y castellano. RESULTADOS: Se seleccionaron 40 artículos. En todos ellos, se debía haber realizado una intervención poblacional enfocada al conocimiento de los consumidores sobre los alimentos genéticamente modificados y su necesidad, o no, de incluir información en el etiquetado. El consumidor expresa su preferencia por el producto no-genéticamente modificado, y apunta que está dispuesto a pagar algo más por él, pero, en definitiva compra el artículo que está a mejor precio en un mercado que acoge las nuevas tecnologías. En 18 artículos la población se mostraba favorable a su etiquetado obligatorio y seis al etiquetado voluntario; siete trabajos demostraban el poco conocimiento de la población sobre los transgénicos y, en tres, la población subestimó la cantidad que consumía. En todo caso, se observó la influencia del precio del producto genéticamente modificado. CONCLUSIONES: La etiqueta debe ser homogénea y aclarar el grado de tolerancia en humanos de alimentos genéticamente modificados en comparación con los no modificados. Asimismo, debe dejar claro su composición, o no, de alimento genéticamente modificado y la forma de producción de estos artículos de consumo. La etiqueta también debe ir acompañada de un sello de certificación de una agencia del estado y datos para contacto. El consumidor expresa su preferencia por el producto no-genéticamente modificado pero señaló que acaba comprando el artículo que está a mejor precio en un mercado que acoge las nuevas tecnologías.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

3D sensors provides valuable information for mobile robotic tasks like scene classification or object recognition, but these sensors often produce noisy data that makes impossible applying classical keypoint detection and feature extraction techniques. Therefore, noise removal and downsampling have become essential steps in 3D data processing. In this work, we propose the use of a 3D filtering and down-sampling technique based on a Growing Neural Gas (GNG) network. GNG method is able to deal with outliers presents in the input data. These features allows to represent 3D spaces, obtaining an induced Delaunay Triangulation of the input space. Experiments show how the state-of-the-art keypoint detectors improve their performance using GNG output representation as input data. Descriptors extracted on improved keypoints perform better matching in robotics applications as 3D scene registration.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Existen diferentes tratamientos para reducir el sobrepeso y la obesidad; no obstante, los resultados de los tratamientos sobre la pérdida de peso tienen una expresión muy heterogénea. Objetivo: Determinar las unidades de medida más utilizadas en los tratamientos de pérdida de peso, mediante la revisión de artículos científicos. Método: Se ha realizado una revisión sistemática de los últimos 5 años en CINHAL, Proquest y Scopus. Se han seleccionado los artículos publicados en inglés, francés y español. Los criterios de inclusión han sido: artículos de tratamiento únicamente dietético del sobrepeso en humanos. Los criterios de exclusión: tratamientos no dietéticos, enfermedades metabólicas, menos de 50 pacientes y menos de 8 semanas de tratamiento. La revisión ha sido realizada por dos investigadores independientes. Resultados y discusión: De 854 artículos, sólo 61 cumplían con los criterios establecidos. Estos se agruparon en 5 subgrupos, según expresaban la pérdida, en kilos o en porcentajes. Los resultados muestran falta de homogeneidad en la expresión de dicha pérdida. Conclusiones: Existe una gran heterogeneidad en la expresión de los resultados de los tratamientos de pérdida de peso; la dieta es una de las herramientas menos usadas; el análisis de los ensayos clínicos de intervención refleja una alta calidad en los sujetos mayores de 18 años, destacando la carencia de este tipo de líneas de investigación en los menores de esa edad. Por ello, se deberían estandarizar las magnitudes de expresión del éxito de dichos tratamientos y aumentar las líneas de investigación sobre este tema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper presents a method for the fast calculation of a robot’s egomotion using visual features. The method is part of a complete system for automatic map building and Simultaneous Location and Mapping (SLAM). The method uses optical flow to determine whether the robot has undergone a movement. If so, some visual features that do not satisfy several criteria are deleted, and then egomotion is calculated. Thus, the proposed method improves the efficiency of the whole process because not all the data is processed. We use a state-of-the-art algorithm (TORO) to rectify the map and solve the SLAM problem. Additionally, a study of different visual detectors and descriptors has been conducted to identify which of them are more suitable for the SLAM problem. Finally, a navigation method is described using the map obtained from the SLAM solution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A set of terms, definitions, and recommendations is provided for use in the classification of coordination polymers, networks, and metal–organic frameworks (MOFs). A hierarchical terminology is recommended in which the most general term is coordination polymer. Coordination networks are a subset of coordination polymers and MOFs a further subset of coordination networks. One of the criteria an MOF needs to fulfill is that it contains potential voids, but no physical measurements of porosity or other properties are demanded per se. The use of topology and topology descriptors to enhance the description of crystal structures of MOFs and 3D-coordination polymers is furthermore strongly recommended.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The semantic localization problem in robotics consists in determining the place where a robot is located by means of semantic categories. The problem is usually addressed as a supervised classification process, where input data correspond to robot perceptions while classes to semantic categories, like kitchen or corridor. In this paper we propose a framework, implemented in the PCL library, which provides a set of valuable tools to easily develop and evaluate semantic localization systems. The implementation includes the generation of 3D global descriptors following a Bag-of-Words approach. This allows the generation of fixed-dimensionality descriptors from any type of keypoint detector and feature extractor combinations. The framework has been designed, structured and implemented to be easily extended with different keypoint detectors, feature extractors as well as classification models. The proposed framework has also been used to evaluate the performance of a set of already implemented descriptors, when used as input for a specific semantic localization system. The obtained results are discussed paying special attention to the internal parameters of the BoW descriptor generation process. Moreover, we also review the combination of some keypoint detectors with different 3D descriptor generation techniques.