952 resultados para Multicast application level


Relevância:

30.00% 30.00%

Publicador:

Resumo:

De nombreux problèmes pratiques qui se posent dans dans le domaine de la logistique, peuvent être modélisés comme des problèmes de tournées de véhicules. De façon générale, cette famille de problèmes implique la conception de routes, débutant et se terminant à un dépôt, qui sont utilisées pour distribuer des biens à un nombre de clients géographiquement dispersé dans un contexte où les coûts associés aux routes sont minimisés. Selon le type de problème, un ou plusieurs dépôts peuvent-être présents. Les problèmes de tournées de véhicules sont parmi les problèmes combinatoires les plus difficiles à résoudre. Dans cette thèse, nous étudions un problème d’optimisation combinatoire, appartenant aux classes des problèmes de tournées de véhicules, qui est liée au contexte des réseaux de transport. Nous introduisons un nouveau problème qui est principalement inspiré des activités de collecte de lait des fermes de production, et de la redistribution du produit collecté aux usines de transformation, pour la province de Québec. Deux variantes de ce problème sont considérées. La première, vise la conception d’un plan tactique de routage pour le problème de la collecte-redistribution de lait sur un horizon donné, en supposant que le niveau de la production au cours de l’horizon est fixé. La deuxième variante, vise à fournir un plan plus précis en tenant compte de la variation potentielle de niveau de production pouvant survenir au cours de l’horizon considéré. Dans la première partie de cette thèse, nous décrivons un algorithme exact pour la première variante du problème qui se caractérise par la présence de fenêtres de temps, plusieurs dépôts, et une flotte hétérogène de véhicules, et dont l’objectif est de minimiser le coût de routage. À cette fin, le problème est modélisé comme un problème multi-attributs de tournées de véhicules. L’algorithme exact est basé sur la génération de colonnes impliquant un algorithme de plus court chemin élémentaire avec contraintes de ressources. Dans la deuxième partie, nous concevons un algorithme exact pour résoudre la deuxième variante du problème. À cette fin, le problème est modélisé comme un problème de tournées de véhicules multi-périodes prenant en compte explicitement les variations potentielles du niveau de production sur un horizon donné. De nouvelles stratégies sont proposées pour résoudre le problème de plus court chemin élémentaire avec contraintes de ressources, impliquant dans ce cas une structure particulière étant donné la caractéristique multi-périodes du problème général. Pour résoudre des instances de taille réaliste dans des temps de calcul raisonnables, une approche de résolution de nature heuristique est requise. La troisième partie propose un algorithme de recherche adaptative à grands voisinages où de nombreuses nouvelles stratégies d’exploration et d’exploitation sont proposées pour améliorer la performances de l’algorithme proposé en termes de la qualité de la solution obtenue et du temps de calcul nécessaire.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse est divisée en trois chapitres. Le premier explique comment utiliser la méthode «level-set» de manière rigoureuse pour faire la simulation de feux de forêt en utilisant comme modèle physique pour la propagation le modèle de l'ellipse de Richards. Le second présente un nouveau schéma semi-implicite avec une preuve de convergence pour la solution d'une équation de type Hamilton-Jacobi anisotrope. L'avantage principal de cette méthode est qu'elle permet de réutiliser des solutions à des problèmes «proches» pour accélérer le calcul. Une autre application de ce schéma est l'homogénéisation. Le troisième chapitre montre comment utiliser les méthodes numériques des deux premiers chapitres pour étudier l'influence de variations à petites échelles dans la vitesse du vent sur la propagation d'un feu de forêt à l'aide de la théorie de l'homogénéisation.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We study the spectrum and magnetic properties of double quantum dots in the lowest Landau level for different values of the hopping and Zeeman parameters by means of exact diagonalization techniques in systems of N=6 and 7 electrons and a filling factor close to 2. We compare our results with those obtained in double quantum layers and single quantum dots. The Kohn theorem is also discussed.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Zur Senkung von Kosten werden in vielen Unternehmen Dienstleistungen, die nicht zur Kernkompetenz gehören, an externe Dienstleister ausgelagert. Dieser Prozess wird auch als Outsourcing bezeichnet. Die dadurch entstehenden Abhängigkeiten zu den externen Dienstleistern werden mit Hilfe von Service Level Agreements (SLAs) vertraglich geregelt. Die Aufgabe des Service Level Managements (SLM) ist es, die Einhaltung der vertraglich fixierten Dienstgüteparameter zu überwachen bzw. sicherzustellen. Für eine automatische Bearbeitung ist daher eine formale Spezifikation von SLAs notwendig. Da der Markt eine Vielzahl von unterschiedlichen SLM-Werkzeugen hervorgebracht hat, entstehen in der Praxis Probleme durch proprietäre SLA-Formate und fehlende Spezifikationsmethoden. Daraus resultiert eine Werkzeugabhängigkeit und eine limitierte Wiederverwendbarkeit bereits spezifizierter SLAs. In der vorliegenden Arbeit wird ein Ansatz für ein plattformunabhängiges Service Level Management entwickelt. Ziel ist eine Vereinheitlichung der Modellierung, so dass unterschiedliche Managementansätze integriert und eine Trennung zwischen Problem- und Technologiedomäne erreicht wird. Zudem wird durch die Plattformunabhängigkeit eine hohe zeitliche Stabilität erstellter Modelle erreicht. Weiteres Ziel der Arbeit ist, die Wiederverwendbarkeit modellierter SLAs zu gewährleisten und eine prozessorientierte Modellierungsmethodik bereitzustellen. Eine automatisierte Etablierung modellierter SLAs ist für eine praktische Nutzung von entscheidender Relevanz. Zur Erreichung dieser Ziele werden die Prinzipien der Model Driven Architecture (MDA) auf die Problemdomäne des Service Level Managements angewandt. Zentrale Idee der Arbeit ist die Definition von SLA-Mustern, die konfigurationsunabhängige Abstraktionen von Service Level Agreements darstellen. Diese SLA-Muster entsprechen dem Plattformunabhängigen Modell (PIM) der MDA. Durch eine geeignete Modelltransformation wird aus einem SLA-Muster eine SLA-Instanz generiert, die alle notwendigen Konfigurationsinformationen beinhaltet und bereits im Format der Zielplattform vorliegt. Eine SLA-Instanz entspricht damit dem Plattformspezifischen Modell (PSM) der MDA. Die Etablierung der SLA-Instanzen und die daraus resultierende Konfiguration des Managementsystems entspricht dem Plattformspezifischen Code (PSC) der MDA. Nach diesem Schritt ist das Managementsystem in der Lage, die im SLA vereinbarten Dienstgüteparameter eigenständig zu überwachen. Im Rahmen der Arbeit wurde eine UML-Erweiterung definiert, die eine Modellierung von SLA-Mustern mit Hilfe eines UML-Werkzeugs ermöglicht. Hierbei kann die Modellierung rein graphisch als auch unter Einbeziehung der Object Constraint Language (OCL) erfolgen. Für die praktische Realisierung des Ansatzes wurde eine Managementarchitektur entwickelt, die im Rahmen eines Prototypen realisiert wurde. Der Gesamtansatz wurde anhand einer Fallstudie evaluiert.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ab initio self-consistent DFS calculations are performed for five different symmetric atomic systems from Ar-Ar to Pb-Pb. The level structure for the {2p_\pi}-{2p_\sigma} crossing as function of the united atomic charge Z_u is studied and interpreted. Manybody effects, spin-orbit splitting, direct relativistic effects as well as indirect relativistic effects are differently important for different Z_u. For the I-I system a comparison with other calculations is given.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Calculations of the level width \gamma( L_1) and the f_12 and f_13 Coster-Kronig yields for atomic zinc have been performed with Dirac-Fock wave functions. For \gamma(L_1), a large deviation between theory and evaluated data exists. We include the incomplete orthogonality of the electron orbitals as well as the interchannel interaction of the decaying states. Orbital relaxation reduces the total rates in all groups of the electron-emission spectrum by about 10-20 %. Different, however, is the effect of the continuum interaction. The L_1-L_23X Coster-Kronig part of the spectrum is definitely reduced in its intensity, whereas the MM and MN spectra are slightly enhanced. This results in a reduction of Coster-Kronig yields, where for medium and heavy elements considerable discrepancies have been found in comparison to relativistic theory. Briefly, we discuss the consequences of our calculations for heavier elements.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

One-electron energy levels and wavelengths have been calculated for Na-like ions whose nuclei carry quarks with additional charges ±e/3, ±2e/3. The calculations are based on relativistic self-consistent field procedures. The deviations from experimental values exhibit regularities which allow an extrapolation for the wavelengths of 3s - 3p, 3s - 4p, 3p - 3d, and 3p - 4s transitions for the nuclear charge Z = 11± 1/3, ±2/3. A number of transitions are found in the region of visible light which could be used in an optical search for quark atoms.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this report, we discuss the application of global optimization and Evolutionary Computation to distributed systems. We therefore selected and classified many publications, giving an insight into the wide variety of optimization problems which arise in distributed systems. Some interesting approaches from different areas will be discussed in greater detail with the use of illustrative examples.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The use of renewable primary products as co-substrate or single substrate for biogas production has increased consistently over the last few years. Maize silage is the preferential energy crop used for fermentation due to its high methane (CH4) yield per hectare. Equally, the by-product, namely biogas slurry (BS), is used with increasing frequency as organic fertilizer to return nutrients to the soil and to maintain or increase the organic matter stocks and soil fertility. Studies concerning the application of energy crop-derived BS on the carbon (C) and nitrogen (N) mineralization dynamics are scarce. Thus, this thesis focused on the following objectives: I) The determination of the effects caused by rainfall patterns on the C and N dynamics from two contrasting organic fertilizers, namely BS from maize silage and composted cattle manure (CM), by monitoring emissions of nitrous oxide (N2O), carbon dioxide (CO2) and CH4 as well as leaching losses of C and N. II) The investigation of the impact of differences in soil moisture content after the application of BS and temperature on gaseous emissions (CO2, N2O and CH4) and leaching of C and N compounds. III) A comparison of BS properties obtained from biogas plants with different substrate inputs and operating parameters and their effect on C and N dynamics after application to differently textured soils with varying application rates and water contents. For the objectives I) and II) two experiments (experiment I and II) using undisturbed soil cores of a Haplic Luvisol were carried out. Objective III) was studied on a third experiment (experiment III) with disturbed soil samples. During experiment I three rainfall patterns were implemented including constant irrigation, continuous irrigation with periodic heavy rainfall events, and partial drying with rewetting periods. Biogas slurry and CM were applied at a rate of 100 kg N ha-1. During experiment II constant irrigation and an irrigation pattern with partial drying with rewetting periods were carried out at 13.5°C and 23.5°C. The application of BS took place either directly before a rewetting period or one week after the rewetting period stopped. Experiment III included two soils of different texture which were mixed with ten BS’s originating from ten different biogas plants. Treatments included low, medium and high BS-N application rates and water contents ranging from 50% to 100% of water holding capacity (WHC). Experiment I and II showed that after the application of BS cumulative N2O emissions were 4 times (162 mg N2O-N m-2) higher compared to the application of CM caused by a higher content of mineral N (Nmin) in the form of ammonium (NH4+) in the BS. The cumulative emissions of CO2, however, were on the same level for both fertilizers indicating similar amounts of readily available C after composting and fermentation of organic material. Leaching losses occurred predominantly in the mineral form of nitrate (NO3-) and were higher in BS amended soils (9 mg NO3--N m-2) compared to CM amended soils (5 mg NO3--N m-2). The rainfall pattern in experiment I and II merely affected the temporal production of C and N emissions resulting in reduced CO2 and enhanced N2O emissions during stronger irrigation events, but showed no effect on the cumulative emissions. Overall, a significant increase of CH4 consumption under inconstant irrigation was found. The time of fertilization had no effect on the overall C and N dynamics. Increasing temperature from 13.5°C to 23.5°C enhanced the CO2 and N2O emissions by a factor of 1.7 and 3.7, respectively. Due to the increased microbial activity with increasing temperature soil respiration was enhanced. This led to decreasing oxygen (O2) contents which in turn promoted denitrification in soil due to the extension of anaerobic microsites. Leaching losses of NO3- were also significantly affected by increasing temperature whereas the consumption of CH4 was not affected. The third experiment showed that the input materials of biogas plants affected the properties of the resulting BS. In particular the contents of DM and NH4+ were determined by the amount of added plant biomass and excrement-based biomass, respectively. Correlations between BS properties and CO2 or N2O emissions were not detected. Solely the ammonia (NH3) emissions showed a positive correlation with NH4+ content in BS as well as a negative correlation with the total C (Ct) content. The BS-N application rates affected the relative CO2 emissions (% of C supplied with BS) when applied to silty soil as well as the relative N2O emissions (% of N supplied with BS) when applied to sandy soil. The impacts on the C and N dynamics induced by BS application were exceeded by the differences induced by soil texture. Presumably, due to the higher clay content in silty soils, organic matter was stabilized by organo-mineral interactions and NH4+ was adsorbed at the cation exchange sites. Different water contents induced highest CO2 emissions and therefore optimal conditions for microbial activity at 75% of WHC in both soils. Cumulative nitrification was also highest at 75% and 50% of WHC whereas the relative N2O emissions increased with water content and showed higher N2O losses in sandy soils. In summary it can be stated that the findings of the present thesis confirmed the high fertilizer value of BS’s, caused by high concentrations of NH4+ and labile organic compounds such as readily available carbon. These attributes of BS’s are to a great extent independent of the input materials of biogas plants. However, considerably gaseous and leaching losses of N may occur especially at high moisture contents. The emissions of N2O after field application corresponded with those of animal slurries.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The present study examines the level of pure technical and scale efficiencies of cassava production system including its sub-processes (that is production and processing stages) of 278 cassava farmers/processors from three regions of Delta State, Nigeria by applying Two-Stage Data Envelopment Analysis (DEA) approach. Results reveal that pure technical efficiency (PTE) is significantly lower at the production stage 0.41 vs 0.55 for the processing stage, but scale efficiency (SE) is high at both stages (0.84 and 0.87), implying that productivity can be improved substantially by reallocation of resources and adjusting operation size. The socio-economic determinants exert differential impacts on PTE and SE at each stage. Overall, education, experience and main occupation as farmer significantly improve SE while subsistence pressure reduces it. Extension contact significantly improves SE at the processing stage but reduces PTE and SE overall. Inverse size-PTE and size-SE relationships exist in cassava production system. In other words, large/medium farms are technically and scale inefficient. Gender gap exists in performance. Male farmers are technically efficient at processing stage but scale inefficient overall. Farmers in northern region are technically efficient. Investments in education, extension services and infrastructure are suggested as policy options to improve the cassava sector in Nigeria.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We are investigating how to program robots so that they learn from experience. Our goal is to develop principled methods of learning that can improve a robot's performance of a wide range of dynamic tasks. We have developed task-level learning that successfully improves a robot's performance of two complex tasks, ball-throwing and juggling. With task- level learning, a robot practices a task, monitors its own performance, and uses that experience to adjust its task-level commands. This learning method serves to complement other approaches, such as model calibration, for improving robot performance.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The dynamic power requirement of CMOS circuits is rapidly becoming a major concern in the design of personal information systems and large computers. In this work we present a number of new CMOS logic families, Charge Recovery Logic (CRL) as well as the much improved Split-Level Charge Recovery Logic (SCRL), within which the transfer of charge between the nodes occurs quasistatically. Operating quasistatically, these logic families have an energy dissipation that drops linearly with operating frequency, i.e., their power consumption drops quadratically with operating frequency as opposed to the linear drop of conventional CMOS. The circuit techniques in these new families rely on constructing an explicitly reversible pipelined logic gate, where the information necessary to recover the energy used to compute a value is provided by computing its logical inverse. Information necessary to uncompute the inverse is available from the subsequent inverse logic stage. We demonstrate the low energy operation of SCRL by presenting the results from the testing of the first fully quasistatic 8 x 8 multiplier chip (SCRL-1) employing SCRL circuit techniques.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Brightness judgments are a key part of the primate brain's visual analysis of the environment. There is general consensus that the perceived brightness of an image region is based not only on its actual luminance, but also on the photometric structure of its neighborhood. However, it is unclear precisely how a region's context influences its perceived brightness. Recent research has suggested that brightness estimation may be based on a sophisticated analysis of scene layout in terms of transparency, illumination and shadows. This work has called into question the role of low-level mechanisms, such as lateral inhibition, as explanations for brightness phenomena. Here we describe experiments with displays for which low-level and high-level analyses make qualitatively different predictions, and with which we can quantitatively assess the trade-offs between low-level and high-level factors. We find that brightness percepts in these displays are governed by low-level stimulus properties, even when these percepts are inconsistent with higher-level interpretations of scene layout. These results point to the important role of low-level mechanisms in determining brightness percepts.