161 resultados para extractor
Resumo:
This study aimed to evaluate the antioxidant potential and fatty acid profile of gabiroba (Campomanesia xanthocarpa Berg) seeds. In order to obtain the extract, the seeds were dried, crushed, and subjected to sequential extraction by maceration and percolation in a modified soxhlet extractor using solvent polarity gradient composed of hexane, chloroform, ethyl acetate, and alcohol, respectively. The extraction time was six hours. The ethanol extract showed the highest antioxidant potential, given by the EC50 value and the amount of total phenolic compounds. High amounts of unsaturated fatty acids were found in the oil studied, especially the oleic acid.
Resumo:
Abstract In this study, our aim was to consider the production of fish crackers using Carassius gibelio and to investigate the fatty acid profile and sensory quality of the fish crackers. Fish cracker mixture with a ratio 3.5:1.5 (minced fish/wheat starch) was obtained. Based on the total minced fish and starch level, 1.75% salt, 0.25% black pepper, 2% sunflower oil, 1% baking powder and 10% cold water (4 °C) were added and stirred until a homogenous mixture was obtained. The mixture was compressed in an extractor and baked. The moisture content of minced fish (CMF), cracker dough (CD) and crackers (CCr) was 77.73 ± 0.14%, 63.10 ± 2.18% and 7.95 ± 0.67% respectively. The n6/n3 ratio of crackers was 2.61 ± 0.20, PUFA/SFA ratio 2.28 ± 0.06 and DHA/EPA ratio 1.81 ± 0.01. The overall acceptability score obtained by the sensory evaluation of panelists was very high (8.09 ± 0.25).
Resumo:
As reactive extraction grown more and more popular in a variety of technological applications, optimizing its performance becomes more and more important. The process of complex formation is affected by a great number of both physical and chemical properties of all the components involved, and sometimes their interference with one another makes improving the effectiveness of such processes very difficult. In this Master’s Theses, the processes of complex formation between the aqueous phase - represented by copper sulfate water solution, and organic phase – represented by Acorga M5640 solvent extractor, were studied in order to establish the effect these components have on reactive extraction performance and to determine which step is bottlenecking the process the most.
Resumo:
Ce travail porte sur la construction d’un corpus étalon pour l’évaluation automatisée des extracteurs de termes. Ces programmes informatiques, conçus pour extraire automatiquement les termes contenus dans un corpus, sont utilisés dans différentes applications, telles que la terminographie, la traduction, la recherche d’information, l’indexation, etc. Ainsi, leur évaluation doit être faite en fonction d’une application précise. Une façon d’évaluer les extracteurs consiste à annoter toutes les occurrences des termes dans un corpus, ce qui nécessite un protocole de repérage et de découpage des unités terminologiques. À notre connaissance, il n’existe pas de corpus annoté bien documenté pour l’évaluation des extracteurs. Ce travail vise à construire un tel corpus et à décrire les problèmes qui doivent être abordés pour y parvenir. Le corpus étalon que nous proposons est un corpus entièrement annoté, construit en fonction d’une application précise, à savoir la compilation d’un dictionnaire spécialisé de la mécanique automobile. Ce corpus rend compte de la variété des réalisations des termes en contexte. Les termes sont sélectionnés en fonction de critères précis liés à l’application, ainsi qu’à certaines propriétés formelles, linguistiques et conceptuelles des termes et des variantes terminologiques. Pour évaluer un extracteur au moyen de ce corpus, il suffit d’extraire toutes les unités terminologiques du corpus et de comparer, au moyen de métriques, cette liste à la sortie de l’extracteur. On peut aussi créer une liste de référence sur mesure en extrayant des sous-ensembles de termes en fonction de différents critères. Ce travail permet une évaluation automatique des extracteurs qui tient compte du rôle de l’application. Cette évaluation étant reproductible, elle peut servir non seulement à mesurer la qualité d’un extracteur, mais à comparer différents extracteurs et à améliorer les techniques d’extraction.
Resumo:
Les travaux entrepris dans le cadre de la présente thèse portent sur l’analyse de l’équivalence terminologique en corpus parallèle et en corpus comparable. Plus spécifiquement, nous nous intéressons aux corpus de textes spécialisés appartenant au domaine du changement climatique. Une des originalités de cette étude réside dans l’analyse des équivalents de termes simples. Les bases théoriques sur lesquelles nous nous appuyons sont la terminologie textuelle (Bourigault et Slodzian 1999) et l’approche lexico-sémantique (L’Homme 2005). Cette étude poursuit deux objectifs. Le premier est d’effectuer une analyse comparative de l’équivalence dans les deux types de corpus afin de vérifier si l’équivalence terminologique observable dans les corpus parallèles se distingue de celle que l’on trouve dans les corpus comparables. Le deuxième consiste à comparer dans le détail les équivalents associés à un même terme anglais, afin de les décrire et de les répertorier pour en dégager une typologie. L’analyse détaillée des équivalents français de 343 termes anglais est menée à bien grâce à l’exploitation d’outils informatiques (extracteur de termes, aligneur de textes, etc.) et à la mise en place d’une méthodologie rigoureuse divisée en trois parties. La première partie qui est commune aux deux objectifs de la recherche concerne l’élaboration des corpus, la validation des termes anglais et le repérage des équivalents français dans les deux corpus. La deuxième partie décrit les critères sur lesquels nous nous appuyons pour comparer les équivalents des deux types de corpus. La troisième partie met en place la typologie des équivalents associés à un même terme anglais. Les résultats pour le premier objectif montrent que sur les 343 termes anglais analysés, les termes présentant des équivalents critiquables dans les deux corpus sont relativement peu élevés (12), tandis que le nombre de termes présentant des similitudes d’équivalence entre les corpus est très élevé (272 équivalents identiques et 55 équivalents non critiquables). L’analyse comparative décrite dans ce chapitre confirme notre hypothèse selon laquelle la terminologie employée dans les corpus parallèles ne se démarque pas de celle des corpus comparables. Les résultats pour le deuxième objectif montrent que de nombreux termes anglais sont rendus par plusieurs équivalents (70 % des termes analysés). Il est aussi constaté que ce ne sont pas les synonymes qui forment le groupe le plus important des équivalents, mais les quasi-synonymes. En outre, les équivalents appartenant à une autre partie du discours constituent une part importante des équivalents. Ainsi, la typologie élaborée dans cette thèse présente des mécanismes de l’équivalence terminologique peu décrits aussi systématiquement dans les travaux antérieurs.
Resumo:
L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.
Resumo:
A new procedure for the classification of lower case English language characters is presented in this work . The character image is binarised and the binary image is further grouped into sixteen smaller areas ,called Cells . Each cell is assigned a name depending upon the contour present in the cell and occupancy of the image contour in the cell. A data reduction procedure called Filtering is adopted to eliminate undesirable redundant information for reducing complexity during further processing steps . The filtered data is fed into a primitive extractor where extraction of primitives is done . Syntactic methods are employed for the classification of the character . A decision tree is used for the interaction of the various components in the scheme . 1ike the primitive extraction and character recognition. A character is recognized by the primitive by primitive construction of its description . Openended inventories are used for including variants of the characters and also adding new members to the general class . Computer implementation of the proposal is discussed at the end using handwritten character samples . Results are analyzed and suggestions for future studies are made. The advantages of the proposal are discussed in detail .
Resumo:
A finales del siglo XIX y principios del siglo XX la provincia de Vizcaya despuntó en el contexto internacional como importe centro extractor de mineral de hierro y como relevante foco productor siderometalúrgico. Las explotaciones mineras se adueñaron de los Montes de Triano y las fábricas conquistaron las márgenes del Río Nervión, arrastrando tras de sí una densa marea humana. Alojar a esa población se convirtió en una cuestión de primer orden. Paralelamente, las instituciones estatales desbordadas por problemas similares en otros puntos de la geografía española, idearon y pusieron en práctica un complejo engranaje administrativo para erigir las primeras viviendas sociales. Así, las denominadas Casas Baratas fueron la respuesta oficial a la insuficiencia de vivienda obrera y Vizcaya fue una de las provincias donde mayor desarrollo tuvieron este tipo de propuestas constructivas. De este modo, la presente investigación comienza indagando sobre el origen de la problemática en Bilbao y la Cuenca del Bajo Nervión, para después repasar las medidas adoptadas por el Estado y la Diputación de Vizcaya en esta materia. Hecho esto, se da paso a un concienzudo repaso de las características principales de la edificación de Casas Baratas en toda la provincia de Vizcaya, descendiendo, posteriormente, a la realidad de Bilbao, Baracaldo, Sestao, Portugalete, Guecho y Erandio, haciendo hincapié en las inquietudes locales. El estudio finaliza con un ejercicio comparativo con las Casas Baratas de Barcelona, Sabadell y Tarrasa, estableciéndose similitudes y divergencias con el foco industrial más importante del momento en el panorama nacional.
Laboratory simulation of terrestrial meteorite weathering using the Bensour (LL6) ordinary chondrite
Resumo:
Laboratory dissolution experiments using the LL6 ordinary chondrite Bensour demonstrate that meteoritic minerals readily react with distilled water at low temperatures, liberating ions into solution and forming reaction products. Three experiments were performed, all for 68 days and at atmospheric fO(2) but using a range of water/rock ratios and different ternperatures. Experiments I and 2 were batch experiments and undertaken at room temperature, whereas in experiment 3, condensed boiling water was dripped onto meteorite subsamples within a Soxhlet extractor. Solutions from experiment 1 were chemically analyzed at the end of the experiment, whereas aliquots were extracted from experiments 2 and 3 for analysis at regular intervals. In all three experiments, a very significant proportion of the Na, Cl, and K within the Bensour subsamples entered solution, demonstrating that chlorapatite and feldspar were especially susceptible to dissolution. Concentrations of Mg, Al, Si, Ca, and Fe in solution were strongly affected by the precipitation of reaction products and Mg and Ca may also have been removed by sorption. Calculations predict saturation of experimental solutions with respect to Al hydroxides, Fe oxides, and Fe (oxy)hydroxides, which would have frequently been accompanied by hydrous aluminosilicates. Some reaction products were identified and include silica, a Mg-rich silicate, Fe oxides, and Fe (oxy)hydroxides. The implications of these results are that even very short periods of subaerial exposure of ordinary chondrites will lead to dissolution of primary minerals and crystallization of weathering products that are likely to include aluminosilicates and silicates, Mg-Ca carbonates, and sulfates in addition to the ubiquitous Fe oxides and (oxy)hydroxides.
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
A reciclagem agrícola do lodo de esgoto tem provocado o acúmulo de metais pesados no solo e na água, podendo atingir níveis tóxicos e causar danos às plantas cultivadas, aos animais e ao homem, por meio da cadeia trófica. Neste intuito foi desenvolvido o presente experimento, em condições de campo, entre 2000 e 2002, onde foram avaliados os efeitos da aplicação de lodo de esgoto por dois anos, sobre a extração de metais de transição (essenciais e não) pelo extrator DTPA em um Latossolo Vermelho distrófico (LVd) de textura média. As concentrações dos elementos metálicos: Mn, Fe, Cd, Ni, Co, Pb e Cr não foram detectados pelo método da absorção atômica na solução obtida com o extrator DTPA. A aplicação de lodo de esgoto causou inicialmente pequena elevação no pH do solo, posteriormente a diminuição do mesmo, e manteve-se próximo ao original. Foi possível concluir que, com a aplicação consecutiva do lodo, os teores extraíveis de Fe e Mn nas amostras de solos aumentaram gradativamente nos dois anos agrícolas, com as doses do lodo de esgoto aplicado, época de amostragens, e foram superiores ao tratamento testemunha. O extrator apresentou capacidade restrita para avaliação da fitodisponibilidade dos metais pesados decorrentes das baixas concentrações nas amostras de solo.
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
The objective of this work was to assess the functionality of the glycolytic pathways in the bacterium Xylella fastidiosa. To this effect, the enzymes phosphoglucose isomerase, aldolase, glyceraldehyde-3-phosphate dehydrogenase and pyruvate kinase of the glycolytic pathway, and glucose 6-phosphate dehydrogenase of the Entner-Doudoroff pathway were studied, followed by cloning and expression studies of the enolase gene and determination of its activity. These studies showed that X. fastidiosa does not use the glycolytic pathway to metabolize carbohydrates, which explains the increased duplication time of this phytopatogen. Recombinant enolase was expressed as inclusion bodies and solubilized with urea (most efficient extractor), Triton X-100, and TCA. Enolase extracted from X. fastidiosa and from chicken muscle and liver is irreversibly inactivated by urea. The purification of enolase was partial and resulted in a low yield. No enzymatic activity was detected for either recombinant and native enolases, aldolase, and glyceraldehyde-3-phosphate dehydrogenase, suggesting that X. fastidiosa uses the Entner-Doudoroff pathway to produce pyruvate. Evidence is presented supporting the idea that the regulation of genes and the presence of isoforms with regulation patterns might make it difficult to understand the metabolism of carbohydrates in X. fastidiosa.
Resumo:
The sewage sludge used for agricultural purposes provides many benefits to soil, but it contain harmful elements to environment, that infers in a great attention on its use. The aim of this work was to evaluate the effects of successive applications of sewage sludge on heavy metals accumulation (cadmium, chromium and lead) in samples of soils and corn plants, as well as evaluate the chemicals extractants efficiency in estimate the phyto disponibility of those elements. The experiment was conducted in randomized blocks design in the 2007/08 season, with 4 treatments (0, 5, 10 and 20 Mg ha-1 of sewage sludge) and 5 replicates. It was evaluated: the quantities available of Cd, Cr and Pb in soil by Melich-1, Melich-3 and DTPA extractants; the quantities extracted by corn plants; and the correlation between the disposition and quantities of those metals on whole plants, diagnosis leaves and corn grains. The application of sewage sludge for eleven consecutive years has not showed increase in total quantity nor availability of Cr, Cd and Pb in the evaluated soils. The extractor Melich-1 was the only one that showed significant correlation for availability of Cd, Cr and Pb in soil and corn plants. The correlation of metal availability in soil x leaf diagnosis was significant only for Pb with the Melich-3 and DTPA extractants
Resumo:
The increasing demand for high performance wireless communication systems has shown the inefficiency of the current model of fixed allocation of the radio spectrum. In this context, cognitive radio appears as a more efficient alternative, by providing opportunistic spectrum access, with the maximum bandwidth possible. To ensure these requirements, it is necessary that the transmitter identify opportunities for transmission and the receiver recognizes the parameters defined for the communication signal. The techniques that use cyclostationary analysis can be applied to problems in either spectrum sensing and modulation classification, even in low signal-to-noise ratio (SNR) environments. However, despite the robustness, one of the main disadvantages of cyclostationarity is the high computational cost for calculating its functions. This work proposes efficient architectures for obtaining cyclostationary features to be employed in either spectrum sensing and automatic modulation classification (AMC). In the context of spectrum sensing, a parallelized algorithm for extracting cyclostationary features of communication signals is presented. The performance of this features extractor parallelization is evaluated by speedup and parallel eficiency metrics. The architecture for spectrum sensing is analyzed for several configuration of false alarm probability, SNR levels and observation time for BPSK and QPSK modulations. In the context of AMC, the reduced alpha-profile is proposed as as a cyclostationary signature calculated for a reduced cyclic frequencies set. This signature is validated by a modulation classification architecture based on pattern matching. The architecture for AMC is investigated for correct classification rates of AM, BPSK, QPSK, MSK and FSK modulations, considering several scenarios of observation length and SNR levels. The numerical results of performance obtained in this work show the eficiency of the proposed architectures