902 resultados para Application method
Resumo:
This work describes a methodology for converting a specialized dictionary into a learner’s dictionary. The dictionary to which we apply our conversion method is the DiCoInfo, Dictionnaire fondamental de l’informatique et de l’Internet. We focus on changes affecting the presentation of data categories. What is meant by specialized dictionary for learners, in our case, is a dictionary covering the field of computer science and Internet meeting our users’ needs in communicative and cognitive situations. Our dictionary is aimed at learners’ of the computing language. We start by presenting a detailed description of four dictionaries for learners. We explain how the observations made on these resources have helped us in developing our methodology.In order to develop our methodology, first, based on Bergenholtz and Tarp’s works (Bergenholtz 2003; Tarp 2008; Fuertes Olivera and Tarp 2011), we defined the type of users who may use our dictionary. Translators are our first intended users. Other users working in the fields related to translation are also targeted: proofreaders, technical writers, interpreters. We also determined the use situations of our dictionary. It aims to assist the learners in solving text reception and text production problems (communicative situations) and in studying the terminology of computing (cognitive situations). Thus, we could establish its lexicographical functions: communicative and cognitive functions. Then, we extracted 50 articles from the DiCoInfo to which we applied a number of changes in different aspects: the layout, the presentation of data, the navigation and the use of multimedia. The changes were made according to two fundamental parameters: 1) simplification of the presentation; 2) lexicographic functions (which include the intended users and user’s situations). In this way, we exploited the widgets offered by the technology to update the interface and layout. Strategies have been developed to organize a large number of lexical links in a simpler way. We associated these links with examples showing their use in specific contexts. Multimedia as audio pronunciation and illustrations has been used.
Resumo:
L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.
Resumo:
Le cancer du sein est le cancer le plus fréquent chez la femme. Il demeure la cause de mortalité la plus importante chez les femmes âgées entre 35 et 55 ans. Au Canada, plus de 20 000 nouveaux cas sont diagnostiqués chaque année. Les études scientifiques démontrent que l'espérance de vie est étroitement liée à la précocité du diagnostic. Les moyens de diagnostic actuels comme la mammographie, l'échographie et la biopsie comportent certaines limitations. Par exemple, la mammographie permet de diagnostiquer la présence d’une masse suspecte dans le sein, mais ne peut en déterminer la nature (bénigne ou maligne). Les techniques d’imagerie complémentaires comme l'échographie ou l'imagerie par résonance magnétique (IRM) sont alors utilisées en complément, mais elles sont limitées quant à la sensibilité et la spécificité de leur diagnostic, principalement chez les jeunes femmes (< 50 ans) ou celles ayant un parenchyme dense. Par conséquent, nombreuses sont celles qui doivent subir une biopsie alors que leur lésions sont bénignes. Quelques voies de recherche sont privilégiées depuis peu pour réduire l`incertitude du diagnostic par imagerie ultrasonore. Dans ce contexte, l’élastographie dynamique est prometteuse. Cette technique est inspirée du geste médical de palpation et est basée sur la détermination de la rigidité des tissus, sachant que les lésions en général sont plus rigides que le tissu sain environnant. Le principe de cette technique est de générer des ondes de cisaillement et d'en étudier la propagation de ces ondes afin de remonter aux propriétés mécaniques du milieu via un problème inverse préétabli. Cette thèse vise le développement d'une nouvelle méthode d'élastographie dynamique pour le dépistage précoce des lésions mammaires. L'un des principaux problèmes des techniques d'élastographie dynamiques en utilisant la force de radiation est la forte atténuation des ondes de cisaillement. Après quelques longueurs d'onde de propagation, les amplitudes de déplacement diminuent considérablement et leur suivi devient difficile voir impossible. Ce problème affecte grandement la caractérisation des tissus biologiques. En outre, ces techniques ne donnent que l'information sur l'élasticité tandis que des études récentes montrent que certaines lésions bénignes ont les mêmes élasticités que des lésions malignes ce qui affecte la spécificité de ces techniques et motive la quantification de d'autres paramètres mécaniques (e.g.la viscosité). Le premier objectif de cette thèse consiste à optimiser la pression de radiation acoustique afin de rehausser l'amplitude des déplacements générés. Pour ce faire, un modèle analytique de prédiction de la fréquence de génération de la force de radiation a été développé. Une fois validé in vitro, ce modèle a servi pour la prédiction des fréquences optimales pour la génération de la force de radiation dans d'autres expérimentations in vitro et ex vivo sur des échantillons de tissu mammaire obtenus après mastectomie totale. Dans la continuité de ces travaux, un prototype de sonde ultrasonore conçu pour la génération d'un type spécifique d'ondes de cisaillement appelé ''onde de torsion'' a été développé. Le but est d'utiliser la force de radiation optimisée afin de générer des ondes de cisaillement adaptatives, et de monter leur utilité dans l'amélioration de l'amplitude des déplacements. Contrairement aux techniques élastographiques classiques, ce prototype permet la génération des ondes de cisaillement selon des parcours adaptatifs (e.g. circulaire, elliptique,…etc.) dépendamment de la forme de la lésion. L’optimisation des dépôts énergétiques induit une meilleure réponse mécanique du tissu et améliore le rapport signal sur bruit pour une meilleure quantification des paramètres viscoélastiques. Il est aussi question de consolider davantage les travaux de recherches antérieurs par un appui expérimental, et de prouver que ce type particulier d'onde de torsion peut mettre en résonance des structures. Ce phénomène de résonance des structures permet de rehausser davantage le contraste de déplacement entre les masses suspectes et le milieu environnant pour une meilleure détection. Enfin, dans le cadre de la quantification des paramètres viscoélastiques des tissus, la dernière étape consiste à développer un modèle inverse basé sur la propagation des ondes de cisaillement adaptatives pour l'estimation des paramètres viscoélastiques. L'estimation des paramètres viscoélastiques se fait via la résolution d'un problème inverse intégré dans un modèle numérique éléments finis. La robustesse de ce modèle a été étudiée afin de déterminer ces limites d'utilisation. Les résultats obtenus par ce modèle sont comparés à d'autres résultats (mêmes échantillons) obtenus par des méthodes de référence (e.g. Rheospectris) afin d'estimer la précision de la méthode développée. La quantification des paramètres mécaniques des lésions permet d'améliorer la sensibilité et la spécificité du diagnostic. La caractérisation tissulaire permet aussi une meilleure identification du type de lésion (malin ou bénin) ainsi que son évolution. Cette technique aide grandement les cliniciens dans le choix et la planification d'une prise en charge adaptée.
Resumo:
Cette thèse est divisée en trois chapitres. Le premier explique comment utiliser la méthode «level-set» de manière rigoureuse pour faire la simulation de feux de forêt en utilisant comme modèle physique pour la propagation le modèle de l'ellipse de Richards. Le second présente un nouveau schéma semi-implicite avec une preuve de convergence pour la solution d'une équation de type Hamilton-Jacobi anisotrope. L'avantage principal de cette méthode est qu'elle permet de réutiliser des solutions à des problèmes «proches» pour accélérer le calcul. Une autre application de ce schéma est l'homogénéisation. Le troisième chapitre montre comment utiliser les méthodes numériques des deux premiers chapitres pour étudier l'influence de variations à petites échelles dans la vitesse du vent sur la propagation d'un feu de forêt à l'aide de la théorie de l'homogénéisation.
Resumo:
La marche occupe un rôle important dans la vie quotidienne. Ce processus apparaît comme facile et naturel pour des gens en bonne santé. Cependant, différentes sortes de maladies (troubles neurologiques, musculaires, orthopédiques...) peuvent perturber le cycle de la marche à tel point que marcher devient fastidieux voire même impossible. Ce projet utilise l'application de Poincaré pour évaluer l'asymétrie de la marche d'un patient à partir d'une carte de profondeur acquise avec un senseur Kinect. Pour valider l'approche, 17 sujets sains ont marché sur un tapis roulant dans des conditions différentes : marche normale et semelle de 5 cm d'épaisseur placée sous l'un des pieds. Les descripteurs de Poincaré sont appliqués de façon à évaluer la variabilité entre un pas et le cycle complet de la marche. Les résultats montrent que la variabilité ainsi obtenue permet de discriminer significativement une marche normale d'une marche avec semelle. Cette méthode, à la fois simple à mettre en oeuvre et suffisamment précise pour détecter une asymétrie de la marche, semble prometteuse pour aider dans le diagnostic clinique.
Inference for nonparametric high-frequency estimators with an application to time variation in betas
Resumo:
We consider the problem of conducting inference on nonparametric high-frequency estimators without knowing their asymptotic variances. We prove that a multivariate subsampling method achieves this goal under general conditions that were not previously available in the literature. We suggest a procedure for a data-driven choice of the bandwidth parameters. Our simulation study indicates that the subsampling method is much more robust than the plug-in method based on the asymptotic expression for the variance. Importantly, the subsampling method reliably estimates the variability of the Two Scale estimator even when its parameters are chosen to minimize the finite sample Mean Squared Error; in contrast, the plugin estimator substantially underestimates the sampling uncertainty. By construction, the subsampling method delivers estimates of the variance-covariance matrices that are always positive semi-definite. We use the subsampling method to study the dynamics of financial betas of six stocks on the NYSE. We document significant variation in betas within year 2006, and find that tick data captures more variation in betas than the data sampled at moderate frequencies such as every five or twenty minutes. To capture this variation we estimate a simple dynamic model for betas. The variance estimation is also important for the correction of the errors-in-variables bias in such models. We find that the bias corrections are substantial, and that betas are more persistent than the naive estimators would lead one to believe.
Resumo:
Réalisé en cotutelle avec Aix Marseille Université.
Resumo:
This work envisages the fermentation of prawn shell waste into a more nutritious product with simpler components for application as a feed ingredient in aquaculture. This product would be a rich source of protein along with chitin, minerals, vitamins and N-acetyl glucosamine. A brief description of the various processing (chemical and bioprocess) methods employed for chitin, chitosan and single sell protein preparations from shell waste. It deals with the isolation of micro flora associated with prawn shell degradation. It describes the methods adopted for fermentation of prawn shell degradation and fermentation of prawn shell waste with the selected highly chitinoclastic strains. The comparison of SSF and SmF for each selected strain in terms of enrichment of protein, lipid and carbohydrate in the fermented product was done. Detailed analysis of product quality is discussed. The feed for mulation and feeding experiment explained in detail. Statistical analysis of various biogrowth parameters was done with Duncan’s multiple range test. Very briefly explains 28 days of feeding experiment. A method for the complete utilization of shell waste explains with the help of experiments.
Resumo:
This thesis deals with the synthesis and charcterisation of some supported transition metal complexes and their catalytic properties. Two industrially important reactions were carried out: i) cyclohexanol oxidation and ii) hydrodesulphurization of diesel. Thesis is divided into nine chapters. An overview of the heterogenised homogeneous systems is given in Chapter 1. Chapter 2 deals with the materials and methods used for the preparation and characterisation. Details regarding the synthesis and characterisation of zeolite encapsulated transition metal complexes are given in Chapter 3 to Chapter 7. In Chapter 8, the results of catalytic activity studies of the cyclohexanol oxidation using the zeolite encapsulated complexes are presented. Details of preparation of hydrodesulphurization catalysts through the molecular designed dispersion method, their characterization and catalytic activity studies are presented in Chapter 9. References are given at the end of the thesis.
Resumo:
A simple method based on laser beam deflection to study the variation of diffusion coefficient with concentration in a solution is presented. When a properly fanned out laser beam is passed through a rectangular cell filled with solution having concentration gradient, the emergent beam traces out a curved pattern on a screen. By taking measurements on the pattern at different concentrations, the variation of diffusion coefficient with concentration can be determined.
Resumo:
This thesis presents a detailed account of a cost - effective approach towards enhanced production of alkaline protease at profitable levels using different fermentation designs employing cheap agro-industrial residues. It involves the optimisation of process parameters for the production of a thermostable alkaline protease by Vibrio sp. V26 under solid state, submerged and biphasic fermentations, production of the enzyme using cell immobilisation technology and the application of the crude enzyme on the deproteinisation of crustacean waste.The present investigation suggests an economic move towards Improved production of alkaline protease at gainful altitudes employing different fermentation designs utilising inexpensive agro-industrial residues. Moreover, the use of agro-industrial and other solid waste substrates for fermentation helps to provide a substitute in conserving the already dwindling global energy resources. Another alternative for accomplishing economically feasible production is by the use of immobilisation technique. This method avoids the wasteful expense of continually growing microorganisms. The high protease producing potential of the organism under study ascertains their exploitation in the utilisation and management of wastes. However, strain improvement studies for the production of high yielding variants using mutagens or by gene transfer are required before recommending them to Industries.Industries, all over the world, have made several attempts to exploit the microbial diversity of this planet. For sustainable development, it is essential to discover, develop and defend this natural prosperity. The Industrial development of any country is critically dependent on the intellectual and financial investment in this area. The need of the hour is to harness the beneficial uses of microbes for maximum utilisation of natural resources and technological yields. Owing to the multitude of applications in a variety of industrial sectors, there has always been an increasing demand for novel producers and resources of alkaline proteases as well as for innovative methods of production at a commercial altitude. This investigation forms a humble endeavour towards this perspective and bequeaths hope and inspiration for inventions to follow.
Resumo:
Nano structured noble metals have very important applications in diverse fields as photovoltaics, catalysis, electronic and magnetic devices, etc. Here, we report the application of dual beam thermal lens technique for the determination of the effect of silver sol on the absolute fluorescence quantum yield (FQY) of the laser dye rhodamine 6G. A 532 nm radiation from a diode pumped solid state laser was used as the excitation source. It has been observed that the presence of silver sol decreases the fluorescence quantum efficiency. This is expected to have a very important consequence in enhancing Raman scattering which is an important spectrochemical tool that provides information on molecular structures. We have also observed that the presence of silver sol can enhance the thermal lens signal which makes the detection of the signal easier at any concentration.
Resumo:
The present study aimed at the utlisation of microbial organisms for the
production of good quality chitin and chitosan. The three strains used for the
study were Lactobacillus plantarum, Lactobacililus brevis and Bacillus subtilis.
These strains were selected on the basis of their acid producing ability to reduce
the pH of the fermenting substrates to prevent spoilage and thus caused
demineralisation of the shell. Besides, the proteolytic enzymes in these strains
acted on proteinaceous covering of shrimp and thus caused deprotenisation of
shrimp shell waste. Thus the two processes involved in chitin production can be
affected to certain extent using bacterial fermentation of shrimp shell.Optimization parameters like fermentation period, quantity of inoculum,
type of sugar, concentration of sugar etc. for fermentation with three different
strains were studied. For these, parameters like pH, Total titrable acidity (TTA),
changes in sugar concentration, changes in microbial count, sensory changes
etc. were studied.Fermentation study with Lactobacillus plantarum was continued with 20%
w/v jaggery broth for 15 days. The inoculum prepared yislded a cell
concentration of approximately 108 CFU/ml. In the present study, lactic acid and
dilute hydrochloric acid were used for initial pH adjustment because; without
adjusting the initial pH, it took more than 5 hours for the lactic acid bacteria to
convert glucose to lactic acid and during this delay spoilage occurred due to
putrefying enzymes active at neutral or higher pH. During the fermentation study,
pH first decreased in correspondence with increase in TTA values. This showed
a clear indication of acid production by the strain. This trend continued till their
proteolytic activity showed an increasing trend. When the available sugar source
started depleting, proteolytic activity also decreased and pH increased. This was
clearly reflected in the sensory evaluation results. Lactic acid treated samples
showed greater extent of demineralization and deprotenisation at the end of
fermentation study than hydrochloric acid treated samples. It can be due to the
effect of strong hydrochloric acid on the initial microbial count, which directly
affects the fermentation process. At the end of fermentation, about 76.5% of ash was removed in lactic acid treated samples and 71.8% in hydrochloric acid
treated samples; 72.8% of proteins in lactic acid treated samples and 70.6% in
hydrochloric acid treated samples.The residual protein and ash in the fermented residue were reduced to
permissible limit by treatment with 0.8N HCI and 1M NaOH. Characteristics of
chitin like chitin content, ash content, protein content, % of N- acetylation etc.
were studied. Quality characteristics like viscosity, degree of deacetylation and
molecular weight of chitosan prepared were also compared. The chitosan
samples prepared from lactic acid treated showed high viscosity than HCI treated
samples. But degree of deacetylation is more in HCI treated samples than lactic
acid treated ones. Characteristics of protein liquor obtained like its biogenic
composition, amino acid composition, total volatile base nitrogen, alpha amino
nitrogen etc. also were studied to find out its suitability as animal feed
supplement.Optimization of fermentation parameters for Lactobacillus brevis
fermentation study was also conducted and parameters were standardized. Then
detailed fermentation study was done in 20%wlv jaggery broth for 17 days. Also
the effect of two different acid treatments (mild HCI and lactic acid) used for initial
pH adjustment on chitin production were also studied. In this study also trend of
changes in pH. changes in sugar concentration ,microbial count changes were
similar to Lactobacillus plantarum studies. At the end of fermentation, residual
protein in the samples were only 32.48% in HCI treated samples and 31.85% in
lactic acid treated samples. The residual ash content was about 33.68% in HCI
treated ones and 32.52% in lactic acid treated ones. The fermented residue was
converted to chitin with good characteristics by treatment with 1.2MNaOH and
1NHCI.Characteristics of chitin samples prepared were studied and extent of Nacetylation
was about 84% in HCI treated chitin and 85%in lactic acid treated
ones assessed from FTIR spectrum. Chitosan was prepared from these samples
by usual chemical method and its extent of solubility, degree of deacetylation,
viscosity and molecular weight etc were studied. The values of viscosity and
molecular weight of the samples prepared were comparatively less than the
chitosan prepared by Lactobacillus plantarum fermentation. Characteristics of protein liquor obtained were analyzed to determine its quality and is suitability as
animal feed supplement.Another strain used for the study was Bacillus subtilis and fermentation
was carried out in 20%w/v jaggery broth for 15 days. It was found that Bacillus
subtilis was more efficient than other Lactobacillus species for deprotenisation
and demineralization. This was mainly due to the difference in the proteolytic
nature of the strains. About 84% of protein and 72% of ash were removed at the
end of fermentation. Considering the statistical significance (P
Resumo:
The most common and conventional method for removing turbidity from water is by coagulating with alum or iron salts, and settling the precipitate in suitably designed clarifiers followed by filtration. But the sludge produced is bulky, difficult to dewater and accumulates in the dumping grounds causing environmental problems. Synthetic polymers such as polyacrylamide and polyethyleneoxide have been investigated for their ability to remove turbidity. They overcome many of the disadvantages of conventional methods, but are cost—effective only when rapid flocculation and reduction in sludge volume are demanded. Considering the aforementioned situation, it was felt that more easily available and eco-friendly materials must be developed for removing turbidity from water. The results of our studies in this direction are presented in this thesis. The thesis comprises of nine chapters, with a common bibliography at the end. Chapter 1 gives an introduction to the nature of turbidity and colour usually present in water. Chapter 2 discusses the nature and availability of the principal material used in these studies, namely chitosan. Chapters 3 to 8, which deal with the actual experimental work, are further subdivided into (a) introduction, (b) materials and methods, (c) results and discussion and (d) conclusions. Chapter 9 summarises the entire work so as to put the results and conclusions into proper perspective.