868 resultados para Multi microprocessor applications
Resumo:
Le présent mémoire est subdivisé en deux principaux sujets. Le premier porte sur le développement d’une hydrolyse de thiazolidines assistée par micro-ondes en vue d’obtenir des cystéines a-substituées. Le second est axé sur le développement d’une méthodologie pour la synthèse catalytique énantiosélective d’alkylidènecyclopropanes 1,1-di-accepteurs. Dans un premier temps, les rôles et les utilités des acides aminés quaternaires, plus spécifiquement des cystéines a-substituées, seront abordés, puis une revue des différentes méthodes énantiosélectives pour accéder à ces unités sera effectuée. Par la suite, le développement d’une méthode rapide et efficace d’hydrolyse sous irradiation aux micro-ondes de thiazolines sera présenté. Finalement, les études menant à l’application de cette méthode à la synthèse de cystéines -substituées sur grande échelle au moyen de réacteurs en écoulement dynamique et à haut criblage seront détaillées. Dans la seconde partie, les applications ainsi que les synthèses générales des alkylidènecyclopropanes en synthèse organique seront décrites. Plus particulièrement, les applications spécifiques des alkylidènecyclopropanes 1,1-di-accepteurs ainsi que leurs synthèses seront traitées de manière exhaustive. Par la suite, le développement d’une méthodologie énantiosélective catalytique pour la synthèse d’alkylidènecyclopropanes 1,1-di-accepteurs sera présenté. L’extension de cette méthodologie à la synthèse de dérivés cyclopropanes et cyclopropènes, ainsi que l’application de réactions stéréospécifiques pour les alkylidènecyclopropanes 1,1-di-accepteurs seront brièvement discutées.
Resumo:
Les décisions de localisation sont souvent soumises à des aspects dynamiques comme des changements dans la demande des clients. Pour y répondre, la solution consiste à considérer une flexibilité accrue concernant l’emplacement et la capacité des installations. Même lorsque la demande est prévisible, trouver le planning optimal pour le déploiement et l'ajustement dynamique des capacités reste un défi. Dans cette thèse, nous nous concentrons sur des problèmes de localisation avec périodes multiples, et permettant l'ajustement dynamique des capacités, en particulier ceux avec des structures de coûts complexes. Nous étudions ces problèmes sous différents points de vue de recherche opérationnelle, en présentant et en comparant plusieurs modèles de programmation linéaire en nombres entiers (PLNE), l'évaluation de leur utilisation dans la pratique et en développant des algorithmes de résolution efficaces. Cette thèse est divisée en quatre parties. Tout d’abord, nous présentons le contexte industriel à l’origine de nos travaux: une compagnie forestière qui a besoin de localiser des campements pour accueillir les travailleurs forestiers. Nous présentons un modèle PLNE permettant la construction de nouveaux campements, l’extension, le déplacement et la fermeture temporaire partielle des campements existants. Ce modèle utilise des contraintes de capacité particulières, ainsi qu’une structure de coût à économie d’échelle sur plusieurs niveaux. L'utilité du modèle est évaluée par deux études de cas. La deuxième partie introduit le problème dynamique de localisation avec des capacités modulaires généralisées. Le modèle généralise plusieurs problèmes dynamiques de localisation et fournit de meilleures bornes de la relaxation linéaire que leurs formulations spécialisées. Le modèle peut résoudre des problèmes de localisation où les coûts pour les changements de capacité sont définis pour toutes les paires de niveaux de capacité, comme c'est le cas dans le problème industriel mentionnée ci-dessus. Il est appliqué à trois cas particuliers: l'expansion et la réduction des capacités, la fermeture temporaire des installations, et la combinaison des deux. Nous démontrons des relations de dominance entre notre formulation et les modèles existants pour les cas particuliers. Des expériences de calcul sur un grand nombre d’instances générées aléatoirement jusqu’à 100 installations et 1000 clients, montrent que notre modèle peut obtenir des solutions optimales plus rapidement que les formulations spécialisées existantes. Compte tenu de la complexité des modèles précédents pour les grandes instances, la troisième partie de la thèse propose des heuristiques lagrangiennes. Basées sur les méthodes du sous-gradient et des faisceaux, elles trouvent des solutions de bonne qualité même pour les instances de grande taille comportant jusqu’à 250 installations et 1000 clients. Nous améliorons ensuite la qualité de la solution obtenue en résolvent un modèle PLNE restreint qui tire parti des informations recueillies lors de la résolution du dual lagrangien. Les résultats des calculs montrent que les heuristiques donnent rapidement des solutions de bonne qualité, même pour les instances où les solveurs génériques ne trouvent pas de solutions réalisables. Finalement, nous adaptons les heuristiques précédentes pour résoudre le problème industriel. Deux relaxations différentes sont proposées et comparées. Des extensions des concepts précédents sont présentées afin d'assurer une résolution fiable en un temps raisonnable.
Resumo:
En apprentissage automatique, domaine qui consiste à utiliser des données pour apprendre une solution aux problèmes que nous voulons confier à la machine, le modèle des Réseaux de Neurones Artificiels (ANN) est un outil précieux. Il a été inventé voilà maintenant près de soixante ans, et pourtant, il est encore de nos jours le sujet d'une recherche active. Récemment, avec l'apprentissage profond, il a en effet permis d'améliorer l'état de l'art dans de nombreux champs d'applications comme la vision par ordinateur, le traitement de la parole et le traitement des langues naturelles. La quantité toujours grandissante de données disponibles et les améliorations du matériel informatique ont permis de faciliter l'apprentissage de modèles à haute capacité comme les ANNs profonds. Cependant, des difficultés inhérentes à l'entraînement de tels modèles, comme les minima locaux, ont encore un impact important. L'apprentissage profond vise donc à trouver des solutions, en régularisant ou en facilitant l'optimisation. Le pré-entraînnement non-supervisé, ou la technique du ``Dropout'', en sont des exemples. Les deux premiers travaux présentés dans cette thèse suivent cette ligne de recherche. Le premier étudie les problèmes de gradients diminuants/explosants dans les architectures profondes. Il montre que des choix simples, comme la fonction d'activation ou l'initialisation des poids du réseaux, ont une grande influence. Nous proposons l'initialisation normalisée pour faciliter l'apprentissage. Le second se focalise sur le choix de la fonction d'activation et présente le rectifieur, ou unité rectificatrice linéaire. Cette étude a été la première à mettre l'accent sur les fonctions d'activations linéaires par morceaux pour les réseaux de neurones profonds en apprentissage supervisé. Aujourd'hui, ce type de fonction d'activation est une composante essentielle des réseaux de neurones profonds. Les deux derniers travaux présentés se concentrent sur les applications des ANNs en traitement des langues naturelles. Le premier aborde le sujet de l'adaptation de domaine pour l'analyse de sentiment, en utilisant des Auto-Encodeurs Débruitants. Celui-ci est encore l'état de l'art de nos jours. Le second traite de l'apprentissage de données multi-relationnelles avec un modèle à base d'énergie, pouvant être utilisé pour la tâche de désambiguation de sens.
Resumo:
Analog-to digital Converters (ADC) have an important impact on the overall performance of signal processing system. This research is to explore efficient techniques for the design of sigma-delta ADC,specially for multi-standard wireless tranceivers. In particular, the aim is to develop novel models and algorithms to address this problem and to implement software tools which are avle to assist the designer's decisions in the system-level exploration phase. To this end, this thesis presents a framework of techniques to design sigma-delta analog to digital converters.A2-2-2 reconfigurable sigma-delta modulator is proposed which can meet the design specifications of the three wireless communication standards namely GSM,WCDMA and WLAN. A sigma-delta modulator design tool is developed using the Graphical User Interface Development Environment (GUIDE) In MATLAB.Genetic Algorithm(GA) based search method is introduced to find the optimum value of the scaling coefficients and to maximize the dynamic range in a sigma-delta modulator.
Resumo:
Photoconductivity (PC) processes may be the most suitable technique for obtaining information about the states in the gap. It finds applications in photovoItaics, photo detection and radiation measurements. The main task in the area of photovoltaics, is to increase the efficiency of the device and also to develop new materials with good optoelectronic properties useful for energy conversion, keeping the idea of cost effectiveness. Photoconduction includes generation and recombination of carriers and their transport to the electrodes. So thermal relaxation process, charge carrier statistics, effects of electrodes and several mechanisms of recombination are involved in photoconductivity.A major effect of trapping is to make the experimentally observed decay time of photocurrent, longer than carrier lifetime. If no trapping centers are present, then observed photocurrent will decay in the same way as the density of free carriers and the observed decay time will be equal to carrier lifetime. If the density of free carriers is much less than density of trapped carriers, the entire decay of photocurrent is effectively dominated by the rate of trap emptying rather than by the rate of recombination.In the present study, the decay time of carriers was measured using photoconductive decay (PCD) technique. For the measurements, the film was loaded in a liquid Helium cryostat and the temperature was controlled using Lakshore Auto tuning temperature controller (Model 321). White light was used to illuminate the required area of the sample. Heat radiation from the light source was avoided by passing the light beam through a water filter. The decay current. after switching off the illumination. was measured using a Kiethely 2000 multi meter. Sets of PCD measurements were taken varying sample temperature, sample preparation temperature, thickness of the film, partial pressure of Oxygen and concentration of a particular element in a compound. Decay times were calculated using the rate window technique, which is a decay sampling technique particularly suited to computerized analysis. For PCD curves with two well-defined regions, two windows were chosen, one at the fast decay region and the other at the slow decay region. The curves in a particular window were exponentially fitted using Microsoft Excel 2000 programme. These decay times were plotted against sample temperature and sample preparation temperature to study the effect of various defects in the film. These studies were done in order to optimize conditions of preparation technique so as to get good photosensitive samples. useful for photovoltaic applications.Materials selected for the study were CdS, In2Se3, CuIn2Se3 and CuInS2• Photoconductivity studies done on these samples are organised in six chapters including introduction and conclusion.
Resumo:
Multi-component reactions are effective in building complex molecules in a single step in a minimum amount of time and with facile isolation procedures; they have high economy1–7 and thus have become a powerful synthetic strategy in recent years.8–10 The multicomponent protocols are even more attractive when carried out in aqueous medium. Water offers several benefits, including control over exothermicity, and the isolation of products can be carried out by single phase separation technique. Pyranopyrazoles are a biologically important class of heterocyclic compounds and in particular dihydropyrano[2,3-c]pyrazoles play an essential role in promoting biological activity and represent an interesting template in medicinal chemistry. Heterocyclic compounds bearing the 4-H pyran unit have received much attention in recent years as they constitute important precursors for promising drugs.11–13 Pyrano[2,3-c]pyrazoles exhibit analgesic,14 anti-cancer,15 anti-microbial and anti-inflammatory16 activity. Furthermore dihydropyrano[2,3-c]pyrazoles show molluscidal activity17,18 and are used in a screening kit for Chk 1 kinase inhibitor activity.19,20 They also find applications as pharmaceutical ingredients and bio-degradable agrochemicals.21–29 Junek and Aigner30 first reported the synthesis of pyrano[2,3-c]pyrazole derivatives from 3-methyl-1-phenylpyrazolin-5-one and tetracyanoethylene in the presence of triethylamine. Subsequently, a number of synthetic approaches such as the use of triethylamine,31 piperazine,32 piperidine,33 N-methylmorpholine in ethanol,34 microwave irradiation,35,36 solvent-free conditions,37–39 cyclodextrins (CDs),40 different bases in water,41 γ -alumina,42 and l-proline43 have been reported for the synthesis of 6-amino-4-alkyl/aryl-3-methyl- 2,4-dihydropyrano[2,3-c]pyrazole-5-carbonitriles. Recently, tetraethylammonium bromide (TEABr) has emerged as mild, water-tolerant, eco-friendly and inexpensive catalyst. To the best of our knowledge, quaternary ammonium salts, more specifically TEABr, have notbeen used as catalysts for the synthesis of pyrano[2,3-c]pyrazoles, and we decided to investigate the application of TEABr as a catalyst for the synthesis of a series of pyrazole-fused pyran derivatives via multi-component reactions
Resumo:
For the scientific and commercial utilization of Ocean resources, the role of intelligent underwater robotic systems are of great importance. Scientific activities like Marine Bio-technology, Hydrographic mapping, and commercial applications like Marine mining, Ocean energy, fishing, aquaculture, cable laying and pipe lining are a few utilization of ocean resources. As most of the deep undersea exploration are beyond the reachability of divers and also as the use of operator controlled and teleoperated Remotely Operated Vehicles (ROVs) and Diver Transport Vehicles (DTVs) turn out to be highly inefficient, it is essential to have a fully automated system capable providing stable control and communication links for the unstructured undersea environment.
Resumo:
The Support Vector Machine (SVM) is a new and very promising classification technique developed by Vapnik and his group at AT&T Bell Labs. This new learning algorithm can be seen as an alternative training technique for Polynomial, Radial Basis Function and Multi-Layer Perceptron classifiers. An interesting property of this approach is that it is an approximate implementation of the Structural Risk Minimization (SRM) induction principle. The derivation of Support Vector Machines, its relationship with SRM, and its geometrical insight, are discussed in this paper. Training a SVM is equivalent to solve a quadratic programming problem with linear and box constraints in a number of variables equal to the number of data points. When the number of data points exceeds few thousands the problem is very challenging, because the quadratic form is completely dense, so the memory needed to store the problem grows with the square of the number of data points. Therefore, training problems arising in some real applications with large data sets are impossible to load into memory, and cannot be solved using standard non-linear constrained optimization algorithms. We present a decomposition algorithm that can be used to train SVM's over large data sets. The main idea behind the decomposition is the iterative solution of sub-problems and the evaluation of, and also establish the stopping criteria for the algorithm. We present previous approaches, as well as results and important details of our implementation of the algorithm using a second-order variant of the Reduced Gradient Method as the solver of the sub-problems. As an application of SVM's, we present preliminary results we obtained applying SVM to the problem of detecting frontal human faces in real images.
Resumo:
Speaker(s): Prof. David Evans Organiser: Dr Tim Chown Time: 22/05/2014 10:45-11:45 Location: B53/4025 Abstract Secure multi-party computation enables two (or more) participants to reliably compute a function that depends on both of their inputs, without revealing those inputs to the other party or needing to trust any other party. It could enable two people who meet at a conference to learn who they known in common without revealing any of their other contacts, or allow a pharmaceutical company to determine the correct dosage of a medication based on a patient’s genome without compromising the privacy of the patient. A general solution to this problem has been known since Yao's pioneering work in the 1980s, but only recently has it become conceivable to use this approach in practice. Over the past few years, my research group has worked towards making secure computation practical for real applications. In this talk, I'll provide a brief introduction to secure computation protocols, describe the techniques we have developed to design scalable and efficient protocols, and share some recent results on improving efficiency and how secure computing applications are developed.
Resumo:
Las comunicaciones móviles, no aparecen a nivel comercial sino hasta finales del siglo XX. Las redes móviles terrestres se iniciaron en ámbitos restringidos para el establecimiento de comunicaciones en tareas de despacho, para la gestión de las actividades de flotas de vehículos en aplicaciones tales como servicios de policía, mantenimiento de servicios públicos de distribución de agua, gas, electricidad, servicios de emergencia, ambulancias, etc. Radiobúsquedas, redes móviles privadas o Trunking, y sistemas de telefonía móvil mejorados fueron el siguiente paso. Después llegó la telefonía móvil digital, las agendas personales, miniordenadores, laptops y un sinfín de dispositivos dispuestos a conectarse vía radio con otros dispositivos o redes. Y finalmente la unión entre comunicaciones móviles e Internet, el verdadero punto de inflexión tanto para uno como para otro. En la actualidad, las técnicas digitales para las comunicaciones móviles, permiten la utilización de nuevos métodos de acceso, como son las de acceso múltiple por división en el tiempo (Time Division Multiple Access, TDMA), con técnicas de banda estrecha, y el acceso múltiple por división de código (Code Division Multiple Access, CDMA) con técnicas de espectro ensanchado. Las primeras sufren un conocido problema denominado propagación multi-trayectoria Básicamente este fenómeno consiste en que la señal que llega al receptor se compone de la suma de un conjunto de señales idénticas en amplitud pero con fases distintas. En el peor caso la señal en el receptor puede llegar a ser nula, produciéndose un fenómeno de fading importante. Las técnicas de espectro ensanchado (CDMA) no sufren este tipo de problemas.
Resumo:
En les xarxes IP/MPLS sobre WDM on es transporta gran quantitat d'informacio, la capacitat de garantir que el trafic arriba al node de desti ha esdevingut un problema important, ja que la fallada d'un element de la xarxa pot resultar en una gran quantitat d'informacio perduda. Per garantir que el trafic afectat per una fallada arribi al node desti, s'han definit nous algoritmes d'encaminament que incorporen el coneixement de la proteccio en els dues capes: l'optica (WDM) i la basada en paquets (IP/MPLS). D'aquesta manera s'evita reservar recursos per protegir el trafic a les dues capes. Els nous algoritmes resulten en millor us dels recursos de la xarxa, ofereixen rapid temps de recuperacio, eviten la duplicacio de recursos i disminueixen el numero de conversions del trafic de senyal optica a electrica.
Resumo:
Muchas de las nuevas aplicaciones emergentes de Internet tales como TV sobre Internet, Radio sobre Internet,Video Streamming multi-punto, entre otras, necesitan los siguientes requerimientos de recursos: ancho de banda consumido, retardo extremo-a-extremo, tasa de paquetes perdidos, etc. Por lo anterior, es necesario formular una propuesta que especifique y provea para este tipo de aplicaciones los recursos necesarios para su buen funcionamiento. En esta tesis, proponemos un esquema de ingeniería de tráfico multi-objetivo a través del uso de diferentes árboles de distribución para muchos flujos multicast. En este caso, estamos usando la aproximación de múltiples caminos para cada nodo egreso y de esta forma obtener la aproximación de múltiples árboles y a través de esta forma crear diferentes árboles multicast. Sin embargo, nuestra propuesta resuelve la fracción de la división del tráfico a través de múltiples árboles. La propuesta puede ser aplicada en redes MPLS estableciendo rutas explícitas en eventos multicast. En primera instancia, el objetivo es combinar los siguientes objetivos ponderados dentro de una métrica agregada: máxima utilización de los enlaces, cantidad de saltos, el ancho de banda total consumido y el retardo total extremo-a-extremo. Nosotros hemos formulado esta función multi-objetivo (modelo MHDB-S) y los resultados obtenidos muestran que varios objetivos ponderados son reducidos y la máxima utilización de los enlaces es minimizada. El problema es NP-duro, por lo tanto, un algoritmo es propuesto para optimizar los diferentes objetivos. El comportamiento que obtuvimos usando este algoritmo es similar al que obtuvimos con el modelo. Normalmente, durante la transmisión multicast los nodos egresos pueden salir o entrar del árbol y por esta razón en esta tesis proponemos un esquema de ingeniería de tráfico multi-objetivo usando diferentes árboles para grupos multicast dinámicos. (en el cual los nodos egresos pueden cambiar durante el tiempo de vida de la conexión). Si un árbol multicast es recomputado desde el principio, esto podría consumir un tiempo considerable de CPU y además todas las comuicaciones que están usando el árbol multicast serán temporalmente interrumpida. Para aliviar estos inconvenientes, proponemos un modelo de optimización (modelo dinámico MHDB-D) que utilice los árboles multicast previamente computados (modelo estático MHDB-S) adicionando nuevos nodos egreso. Usando el método de la suma ponderada para resolver el modelo analítico, no necesariamente es correcto, porque es posible tener un espacio de solución no convexo y por esta razón algunas soluciones pueden no ser encontradas. Adicionalmente, otros tipos de objetivos fueron encontrados en diferentes trabajos de investigación. Por las razones mencionadas anteriormente, un nuevo modelo llamado GMM es propuesto y para dar solución a este problema un nuevo algoritmo usando Algoritmos Evolutivos Multi-Objetivos es propuesto. Este algoritmo esta inspirado por el algoritmo Strength Pareto Evolutionary Algorithm (SPEA). Para dar una solución al caso dinámico con este modelo generalizado, nosotros hemos propuesto un nuevo modelo dinámico y una solución computacional usando Breadth First Search (BFS) probabilístico. Finalmente, para evaluar nuestro esquema de optimización propuesto, ejecutamos diferentes pruebas y simulaciones. Las principales contribuciones de esta tesis son la taxonomía, los modelos de optimización multi-objetivo para los casos estático y dinámico en transmisiones multicast (MHDB-S y MHDB-D), los algoritmos para dar solución computacional a los modelos. Finalmente, los modelos generalizados también para los casos estático y dinámico (GMM y GMM Dinámico) y las propuestas computacionales para dar slución usando MOEA y BFS probabilístico.
Resumo:
Context-aware multimodal interactive systems aim to adapt to the needs and behavioural patterns of users and offer a way forward for enhancing the efficacy and quality of experience (QoE) in human-computer interaction. The various modalities that constribute to such systems each provide a specific uni-modal response that is integratively presented as a multi-modal interface capable of interpretation of multi-modal user input and appropriately responding to it through dynamically adapted multi-modal interactive flow management , This paper presents an initial background study in the context of the first phase of a PhD research programme in the area of optimisation of data fusion techniques to serve multimodal interactivite systems, their applications and requirements.
Resumo:
This study addresses three issues: spatial downscaling, calibration, and combination of seasonal predictions produced by different coupled ocean-atmosphere climate models. It examines the feasibility Of using a Bayesian procedure for producing combined, well-calibrated downscaled seasonal rainfall forecasts for two regions in South America and river flow forecasts for the Parana river in the south of Brazil and the Tocantins river in the north of Brazil. These forecasts are important for national electricity generation management and planning. A Bayesian procedure, referred to here as forecast assimilation, is used to combine and calibrate the rainfall predictions produced by three climate models. Forecast assimilation is able to improve the skill of 3-month lead November-December-January multi-model rainfall predictions over the two South American regions. Improvements are noted in forecast seasonal mean values and uncertainty estimates. River flow forecasts are less skilful than rainfall forecasts. This is partially because natural river flow is a derived quantity that is sensitive to hydrological as well as meteorological processes, and to human intervention in the form of reservoir management.