949 resultados para Multi microprocessor applications


Relevância:

30.00% 30.00%

Publicador:

Resumo:

An experiment conducted in the field the action of mancozeb, a fungicide of multi-site action was tested, to control soybean rust caused by Phakopsora pachyrhizi. Its performance was compared to that of the mixture cyproconazole (DMI) + azoxystrobin (QoI). The soybean cultivar NA 7337 RR was used with a population of 400,000 plants/ha cultivated in 20m2 plots. Treatments consisted of mancozeb levels (1.5 and 2.0 kg/ha) applied four, six and eight times. The DMI + QoI mixture was applied three times at 0.3 L/ha + Nimbus. Rust severity was assessed six times in the plots and data were integrated as the area under the disease progress curve (AUDPC). The plots were harvested and grain yield was expressed as kg/ha. Data on AUDPC and yield were subjected to analysis of variance and means compared according to Turkey's test (p = 0.005). Treatments with mancozeb were superior to DMI + QoI mixture both for rust control and grain yield. Four applications of 2.0 k/ha mancozeb were more efficient than three applications of the mixture used as standard. Mancozeb has the potential to be added to fungicide mixtures in the establishment of soybean rust anti-resistance strategy.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The development of cost efficient, selective and sustainable chemical processes for production of chiral building blocks is of great importance in synthetic and industrial organic chemistry. One way to reach these objectives is to carry out several reactions steps in one vessel at one time. Furthermore, when this kind of one-pot multi step reactions are catalyzed by heterogeneous chemo- and bio-catalysts, which can be separated from the reaction products by filtration, practical access to chiral small molecules for further utilization can be obtained. The initial reactions studied in this thesis are the two step dynamic kinetic resolution of rac-2-hydroxy-1-indanone and the regioselective hydrogenation of 1,2-indanedione. These reactions are then combined in a new heterogeneously catalyzed one-pot reaction sequence enabling simple recovery of the catalysts by filtration, facilitating simple reaction product isolation. Conclusively, the readily available 1,2-indanedione is by the presented one-pot sequence, utilizing heterogeneous enzyme and transition metal based catalysts, transferred with high regio- and stereoselectivity to a useful chiral vicinal hydroxyl ketone structure. Additional and complementary investigation of homogeneous half-sandwich ruthenium complexes for catalyzing the epimerization of chiral secondary alcohols of five natural products containing additional non-functionalized stereocenters was conducted. In principle, this kind of epimerization reactions of single stereocenters could be utilized for converting inexpensive starting materials, containing other stereogenic centers, into diastereomeric mixtures from which more valuable compounds can be isolated by traditional isolation techniques.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ce mémoire s'intéresse à la vision par ordinateur appliquée à des projets d'art technologique. Le sujet traité est la calibration de systèmes de caméras et de projecteurs dans des applications de suivi et de reconstruction 3D en arts visuels et en art performatif. Le mémoire s'articule autour de deux collaborations avec les artistes québécois Daniel Danis et Nicolas Reeves. La géométrie projective et les méthodes de calibration classiques telles que la calibration planaire et la calibration par géométrie épipolaire sont présentées pour introduire les techniques utilisées dans ces deux projets. La collaboration avec Nicolas Reeves consiste à calibrer un système caméra-projecteur sur tête robotisée pour projeter des vidéos en temps réel sur des écrans cubiques mobiles. En plus d'appliquer des méthodes de calibration classiques, nous proposons une nouvelle technique de calibration de la pose d'une caméra sur tête robotisée. Cette technique utilise des plans elliptiques générés par l'observation d'un seul point dans le monde pour déterminer la pose de la caméra par rapport au centre de rotation de la tête robotisée. Le projet avec le metteur en scène Daniel Danis aborde les techniques de calibration de systèmes multi-caméras. Pour son projet de théâtre, nous avons développé un algorithme de calibration d'un réseau de caméras wiimotes. Cette technique basée sur la géométrie épipolaire permet de faire de la reconstruction 3D d'une trajectoire dans un grand volume à un coût minime. Les résultats des techniques de calibration développées sont présentés, de même que leur utilisation dans des contextes réels de performance devant public.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le Problème de Tournées de Véhicules (PTV) est une clé importante pour gérér efficacement des systèmes logistiques, ce qui peut entraîner une amélioration du niveau de satisfaction de la clientèle. Ceci est fait en servant plus de clients dans un temps plus court. En terme général, il implique la planification des tournées d'une flotte de véhicules de capacité donnée basée à un ou plusieurs dépôts. Le but est de livrer ou collecter une certain quantité de marchandises à un ensemble des clients géographiquement dispersés, tout en respectant les contraintes de capacité des véhicules. Le PTV, comme classe de problèmes d'optimisation discrète et de grande complexité, a été étudié par de nombreux au cours des dernières décennies. Étant donné son importance pratique, des chercheurs dans les domaines de l'informatique, de la recherche opérationnelle et du génie industrielle ont mis au point des algorithmes très efficaces, de nature exacte ou heuristique, pour faire face aux différents types du PTV. Toutefois, les approches proposées pour le PTV ont souvent été accusées d'être trop concentrées sur des versions simplistes des problèmes de tournées de véhicules rencontrés dans des applications réelles. Par conséquent, les chercheurs sont récemment tournés vers des variantes du PTV qui auparavant étaient considérées trop difficiles à résoudre. Ces variantes incluent les attributs et les contraintes complexes observés dans les cas réels et fournissent des solutions qui sont exécutables dans la pratique. Ces extensions du PTV s'appellent Problème de Tournées de Véhicules Multi-Attributs (PTVMA). Le but principal de cette thèse est d'étudier les différents aspects pratiques de trois types de problèmes de tournées de véhicules multi-attributs qui seront modélisés dans celle-ci. En plus, puisque pour le PTV, comme pour la plupart des problèmes NP-complets, il est difficile de résoudre des instances de grande taille de façon optimale et dans un temps d'exécution raisonnable, nous nous tournons vers des méthodes approcheés à base d’heuristiques.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse porte sur la capacité à détecter des compagnons de faible intensité en présence de bruit de tavelures dans le contexte de l’imagerie à haute gamme dynamique pour l’astronomie spatiale. On s’intéressera plus particulièrement à l’imagerie spectrale différentielle (ISD) obtenue en utilisant un étalon Fabry-Pérot comme filtre accordable. Les performances d’un tel filtre accordable sont présentées dans le cadre du Tunable Filter Imager (TFI), instrument conçu pour le télescope spatial James Webb (JWST). La capacité de l’étalon à supprimer les tavelures avec ISD est démontrée expérimentalement grâce à un prototype de l’étalon installé sur un banc de laboratoire. Les améliorations de contraste varient en fonction de la séparation, s’étendant d’un facteur 10 pour les séparations supérieures à 11 lambda/D jusqu’à un facteur 60 à 5 lambda/D. Ces résultats sont cohérents avec une étude théorique qui utilise un modèle basé sur la propagation de Fresnel pour montrer que les performances de suppression de tavelures sont limitées par le banc optique et non pas par l’étalon. De plus, il est démontré qu’un filtre accordable est une option séduisante pour l’imagerie à haute gamme dynamique combinée à la technique ISD. Une seconde étude basée sur la propagation de Fresnel de l’instrument TFI et du télescope, a permis de définir les performances de la technique ISD combinée avec un étalon pour l’astronomie spatiale. Les résultats prévoient une amélioration de contraste de l’ordre de 7 jusqu’à 100, selon la configuration de l’instrument. Une comparaison entre ISD et la soustraction par rotation a également été simulée. Enfin, la dernière partie de ce chapitre porte sur les performances de la technique ISD dans le cadre de l’instrument Near-Infrared Imager and Slitless Spectrograph (NIRISS), conçu pour remplacer TFI comme module scientifique à bord du Fine Guidance Sensor du JWST. Cent quatre objets localisés vers la région centrale de la nébuleuse d’Orion ont été caractérisés grâce à un spectrographe multi-objet, de basse résolution et multi-bande (0.85-2.4 um). Cette étude a relevé 7 nouvelles naines brunes et 4 nouveaux candidats de masse planétaire. Ces objets sont utiles pour déterminer la fonction de masse initiale sous-stellaire et pour évaluer les modèles atmosphériques et évolutifs futurs des jeunes objets stellaires et sous-stellaires. Combinant les magnitudes en bande H mesurées et les valeurs d’extinction, les objets classifiés sont utilisés pour créer un diagramme de Hertzsprung-Russell de cet amas stellaire. En accord avec des études antérieures, nos résultats montrent qu’il existe une seule époque de formation d’étoiles qui a débuté il y a environ 1 million d’années. La fonction de masse initiale qui en dérive est en accord avec des études antérieures portant sur d’autres amas jeunes et sur le disque galactique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle entre l'Université de Montréal et l'Université de Technologie de Troyes

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le présent mémoire est subdivisé en deux principaux sujets. Le premier porte sur le développement d’une hydrolyse de thiazolidines assistée par micro-ondes en vue d’obtenir des cystéines a-substituées. Le second est axé sur le développement d’une méthodologie pour la synthèse catalytique énantiosélective d’alkylidènecyclopropanes 1,1-di-accepteurs. Dans un premier temps, les rôles et les utilités des acides aminés quaternaires, plus spécifiquement des cystéines a-substituées, seront abordés, puis une revue des différentes méthodes énantiosélectives pour accéder à ces unités sera effectuée. Par la suite, le développement d’une méthode rapide et efficace d’hydrolyse sous irradiation aux micro-ondes de thiazolines sera présenté. Finalement, les études menant à l’application de cette méthode à la synthèse de cystéines -substituées sur grande échelle au moyen de réacteurs en écoulement dynamique et à haut criblage seront détaillées. Dans la seconde partie, les applications ainsi que les synthèses générales des alkylidènecyclopropanes en synthèse organique seront décrites. Plus particulièrement, les applications spécifiques des alkylidènecyclopropanes 1,1-di-accepteurs ainsi que leurs synthèses seront traitées de manière exhaustive. Par la suite, le développement d’une méthodologie énantiosélective catalytique pour la synthèse d’alkylidènecyclopropanes 1,1-di-accepteurs sera présenté. L’extension de cette méthodologie à la synthèse de dérivés cyclopropanes et cyclopropènes, ainsi que l’application de réactions stéréospécifiques pour les alkylidènecyclopropanes 1,1-di-accepteurs seront brièvement discutées.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les décisions de localisation sont souvent soumises à des aspects dynamiques comme des changements dans la demande des clients. Pour y répondre, la solution consiste à considérer une flexibilité accrue concernant l’emplacement et la capacité des installations. Même lorsque la demande est prévisible, trouver le planning optimal pour le déploiement et l'ajustement dynamique des capacités reste un défi. Dans cette thèse, nous nous concentrons sur des problèmes de localisation avec périodes multiples, et permettant l'ajustement dynamique des capacités, en particulier ceux avec des structures de coûts complexes. Nous étudions ces problèmes sous différents points de vue de recherche opérationnelle, en présentant et en comparant plusieurs modèles de programmation linéaire en nombres entiers (PLNE), l'évaluation de leur utilisation dans la pratique et en développant des algorithmes de résolution efficaces. Cette thèse est divisée en quatre parties. Tout d’abord, nous présentons le contexte industriel à l’origine de nos travaux: une compagnie forestière qui a besoin de localiser des campements pour accueillir les travailleurs forestiers. Nous présentons un modèle PLNE permettant la construction de nouveaux campements, l’extension, le déplacement et la fermeture temporaire partielle des campements existants. Ce modèle utilise des contraintes de capacité particulières, ainsi qu’une structure de coût à économie d’échelle sur plusieurs niveaux. L'utilité du modèle est évaluée par deux études de cas. La deuxième partie introduit le problème dynamique de localisation avec des capacités modulaires généralisées. Le modèle généralise plusieurs problèmes dynamiques de localisation et fournit de meilleures bornes de la relaxation linéaire que leurs formulations spécialisées. Le modèle peut résoudre des problèmes de localisation où les coûts pour les changements de capacité sont définis pour toutes les paires de niveaux de capacité, comme c'est le cas dans le problème industriel mentionnée ci-dessus. Il est appliqué à trois cas particuliers: l'expansion et la réduction des capacités, la fermeture temporaire des installations, et la combinaison des deux. Nous démontrons des relations de dominance entre notre formulation et les modèles existants pour les cas particuliers. Des expériences de calcul sur un grand nombre d’instances générées aléatoirement jusqu’à 100 installations et 1000 clients, montrent que notre modèle peut obtenir des solutions optimales plus rapidement que les formulations spécialisées existantes. Compte tenu de la complexité des modèles précédents pour les grandes instances, la troisième partie de la thèse propose des heuristiques lagrangiennes. Basées sur les méthodes du sous-gradient et des faisceaux, elles trouvent des solutions de bonne qualité même pour les instances de grande taille comportant jusqu’à 250 installations et 1000 clients. Nous améliorons ensuite la qualité de la solution obtenue en résolvent un modèle PLNE restreint qui tire parti des informations recueillies lors de la résolution du dual lagrangien. Les résultats des calculs montrent que les heuristiques donnent rapidement des solutions de bonne qualité, même pour les instances où les solveurs génériques ne trouvent pas de solutions réalisables. Finalement, nous adaptons les heuristiques précédentes pour résoudre le problème industriel. Deux relaxations différentes sont proposées et comparées. Des extensions des concepts précédents sont présentées afin d'assurer une résolution fiable en un temps raisonnable.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En apprentissage automatique, domaine qui consiste à utiliser des données pour apprendre une solution aux problèmes que nous voulons confier à la machine, le modèle des Réseaux de Neurones Artificiels (ANN) est un outil précieux. Il a été inventé voilà maintenant près de soixante ans, et pourtant, il est encore de nos jours le sujet d'une recherche active. Récemment, avec l'apprentissage profond, il a en effet permis d'améliorer l'état de l'art dans de nombreux champs d'applications comme la vision par ordinateur, le traitement de la parole et le traitement des langues naturelles. La quantité toujours grandissante de données disponibles et les améliorations du matériel informatique ont permis de faciliter l'apprentissage de modèles à haute capacité comme les ANNs profonds. Cependant, des difficultés inhérentes à l'entraînement de tels modèles, comme les minima locaux, ont encore un impact important. L'apprentissage profond vise donc à trouver des solutions, en régularisant ou en facilitant l'optimisation. Le pré-entraînnement non-supervisé, ou la technique du ``Dropout'', en sont des exemples. Les deux premiers travaux présentés dans cette thèse suivent cette ligne de recherche. Le premier étudie les problèmes de gradients diminuants/explosants dans les architectures profondes. Il montre que des choix simples, comme la fonction d'activation ou l'initialisation des poids du réseaux, ont une grande influence. Nous proposons l'initialisation normalisée pour faciliter l'apprentissage. Le second se focalise sur le choix de la fonction d'activation et présente le rectifieur, ou unité rectificatrice linéaire. Cette étude a été la première à mettre l'accent sur les fonctions d'activations linéaires par morceaux pour les réseaux de neurones profonds en apprentissage supervisé. Aujourd'hui, ce type de fonction d'activation est une composante essentielle des réseaux de neurones profonds. Les deux derniers travaux présentés se concentrent sur les applications des ANNs en traitement des langues naturelles. Le premier aborde le sujet de l'adaptation de domaine pour l'analyse de sentiment, en utilisant des Auto-Encodeurs Débruitants. Celui-ci est encore l'état de l'art de nos jours. Le second traite de l'apprentissage de données multi-relationnelles avec un modèle à base d'énergie, pouvant être utilisé pour la tâche de désambiguation de sens.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Analog-to digital Converters (ADC) have an important impact on the overall performance of signal processing system. This research is to explore efficient techniques for the design of sigma-delta ADC,specially for multi-standard wireless tranceivers. In particular, the aim is to develop novel models and algorithms to address this problem and to implement software tools which are avle to assist the designer's decisions in the system-level exploration phase. To this end, this thesis presents a framework of techniques to design sigma-delta analog to digital converters.A2-2-2 reconfigurable sigma-delta modulator is proposed which can meet the design specifications of the three wireless communication standards namely GSM,WCDMA and WLAN. A sigma-delta modulator design tool is developed using the Graphical User Interface Development Environment (GUIDE) In MATLAB.Genetic Algorithm(GA) based search method is introduced to find the optimum value of the scaling coefficients and to maximize the dynamic range in a sigma-delta modulator.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Photoconductivity (PC) processes may be the most suitable technique for obtaining information about the states in the gap. It finds applications in photovoItaics, photo detection and radiation measurements. The main task in the area of photovoltaics, is to increase the efficiency of the device and also to develop new materials with good optoelectronic properties useful for energy conversion, keeping the idea of cost effectiveness. Photoconduction includes generation and recombination of carriers and their transport to the electrodes. So thermal relaxation process, charge carrier statistics, effects of electrodes and several mechanisms of recombination are involved in photoconductivity.A major effect of trapping is to make the experimentally observed decay time of photocurrent, longer than carrier lifetime. If no trapping centers are present, then observed photocurrent will decay in the same way as the density of free carriers and the observed decay time will be equal to carrier lifetime. If the density of free carriers is much less than density of trapped carriers, the entire decay of photocurrent is effectively dominated by the rate of trap emptying rather than by the rate of recombination.In the present study, the decay time of carriers was measured using photoconductive decay (PCD) technique. For the measurements, the film was loaded in a liquid Helium cryostat and the temperature was controlled using Lakshore Auto tuning temperature controller (Model 321). White light was used to illuminate the required area of the sample. Heat radiation from the light source was avoided by passing the light beam through a water filter. The decay current. after switching off the illumination. was measured using a Kiethely 2000 multi meter. Sets of PCD measurements were taken varying sample temperature, sample preparation temperature, thickness of the film, partial pressure of Oxygen and concentration of a particular element in a compound. Decay times were calculated using the rate window technique, which is a decay sampling technique particularly suited to computerized analysis. For PCD curves with two well-defined regions, two windows were chosen, one at the fast decay region and the other at the slow decay region. The curves in a particular window were exponentially fitted using Microsoft Excel 2000 programme. These decay times were plotted against sample temperature and sample preparation temperature to study the effect of various defects in the film. These studies were done in order to optimize conditions of preparation technique so as to get good photosensitive samples. useful for photovoltaic applications.Materials selected for the study were CdS, In2Se3, CuIn2Se3 and CuInS2• Photoconductivity studies done on these samples are organised in six chapters including introduction and conclusion.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Multi-component reactions are effective in building complex molecules in a single step in a minimum amount of time and with facile isolation procedures; they have high economy1–7 and thus have become a powerful synthetic strategy in recent years.8–10 The multicomponent protocols are even more attractive when carried out in aqueous medium. Water offers several benefits, including control over exothermicity, and the isolation of products can be carried out by single phase separation technique. Pyranopyrazoles are a biologically important class of heterocyclic compounds and in particular dihydropyrano[2,3-c]pyrazoles play an essential role in promoting biological activity and represent an interesting template in medicinal chemistry. Heterocyclic compounds bearing the 4-H pyran unit have received much attention in recent years as they constitute important precursors for promising drugs.11–13 Pyrano[2,3-c]pyrazoles exhibit analgesic,14 anti-cancer,15 anti-microbial and anti-inflammatory16 activity. Furthermore dihydropyrano[2,3-c]pyrazoles show molluscidal activity17,18 and are used in a screening kit for Chk 1 kinase inhibitor activity.19,20 They also find applications as pharmaceutical ingredients and bio-degradable agrochemicals.21–29 Junek and Aigner30 first reported the synthesis of pyrano[2,3-c]pyrazole derivatives from 3-methyl-1-phenylpyrazolin-5-one and tetracyanoethylene in the presence of triethylamine. Subsequently, a number of synthetic approaches such as the use of triethylamine,31 piperazine,32 piperidine,33 N-methylmorpholine in ethanol,34 microwave irradiation,35,36 solvent-free conditions,37–39 cyclodextrins (CDs),40 different bases in water,41 γ -alumina,42 and l-proline43 have been reported for the synthesis of 6-amino-4-alkyl/aryl-3-methyl- 2,4-dihydropyrano[2,3-c]pyrazole-5-carbonitriles. Recently, tetraethylammonium bromide (TEABr) has emerged as mild, water-tolerant, eco-friendly and inexpensive catalyst. To the best of our knowledge, quaternary ammonium salts, more specifically TEABr, have notbeen used as catalysts for the synthesis of pyrano[2,3-c]pyrazoles, and we decided to investigate the application of TEABr as a catalyst for the synthesis of a series of pyrazole-fused pyran derivatives via multi-component reactions

Relevância:

30.00% 30.00%

Publicador:

Resumo:

For the scientific and commercial utilization of Ocean resources, the role of intelligent underwater robotic systems are of great importance. Scientific activities like Marine Bio-technology, Hydrographic mapping, and commercial applications like Marine mining, Ocean energy, fishing, aquaculture, cable laying and pipe lining are a few utilization of ocean resources. As most of the deep undersea exploration are beyond the reachability of divers and also as the use of operator controlled and teleoperated Remotely Operated Vehicles (ROVs) and Diver Transport Vehicles (DTVs) turn out to be highly inefficient, it is essential to have a fully automated system capable providing stable control and communication links for the unstructured undersea environment.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The Support Vector Machine (SVM) is a new and very promising classification technique developed by Vapnik and his group at AT&T Bell Labs. This new learning algorithm can be seen as an alternative training technique for Polynomial, Radial Basis Function and Multi-Layer Perceptron classifiers. An interesting property of this approach is that it is an approximate implementation of the Structural Risk Minimization (SRM) induction principle. The derivation of Support Vector Machines, its relationship with SRM, and its geometrical insight, are discussed in this paper. Training a SVM is equivalent to solve a quadratic programming problem with linear and box constraints in a number of variables equal to the number of data points. When the number of data points exceeds few thousands the problem is very challenging, because the quadratic form is completely dense, so the memory needed to store the problem grows with the square of the number of data points. Therefore, training problems arising in some real applications with large data sets are impossible to load into memory, and cannot be solved using standard non-linear constrained optimization algorithms. We present a decomposition algorithm that can be used to train SVM's over large data sets. The main idea behind the decomposition is the iterative solution of sub-problems and the evaluation of, and also establish the stopping criteria for the algorithm. We present previous approaches, as well as results and important details of our implementation of the algorithm using a second-order variant of the Reduced Gradient Method as the solver of the sub-problems. As an application of SVM's, we present preliminary results we obtained applying SVM to the problem of detecting frontal human faces in real images.