883 resultados para Theory of proportion and its application


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mode of access: Internet.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We report first experimental demonstration on the non-transparent characteristic of FWM using NRZ-DPSK, RZ-DPSK, CSRZ-DPSK, and CSRZ signals. One potential non-transparency application of 40Gbit/s CSRZ-to-RZ format conversion is experimentally demonstrated. © 2008 IEEE.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This thesis presents a simplified state-variable method to solve for the nonstationary response of linear MDOF systems subjected to a modulated stationary excitation in both time and frequency domains. The resulting covariance matrix and evolutionary spectral density matrix of the response may be expressed as a product of a constant system matrix and a time-dependent matrix, the latter can be explicitly evaluated for most envelopes currently prevailing in engineering. The stationary correlation matrix of the response may be found by taking the limit of the covariance response when a unit step envelope is used. The reliability analysis can then be performed based on the first two moments of the response obtained.

The method presented facilitates obtaining explicit solutions for general linear MDOF systems and is flexible enough to be applied to different stochastic models of excitation such as the stationary models, modulated stationary models, filtered stationary models, and filtered modulated stationary models and their stochastic equivalents including the random pulse train model, filtered shot noise, and some ARMA models in earthquake engineering. This approach may also be readily incorporated into finite element codes for random vibration analysis of linear structures.

A set of explicit solutions for the response of simple linear structures subjected to modulated white noise earthquake models with four different envelopes are presented as illustration. In addition, the method has been applied to three selected topics of interest in earthquake engineering, namely, nonstationary analysis of primary-secondary systems with classical or nonclassical dampings, soil layer response and related structural reliability analysis, and the effect of the vertical components on seismic performance of structures. For all the three cases, explicit solutions are obtained, dynamic characteristics of structures are investigated, and some suggestions are given for aseismic design of structures.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A model of graphite which is easy to comprehend and simple to implement for the simulation of scanning tunneling microscopy (STM) images is described. This model simulates the atomic density of graphite layers, which in turn correlates with the local density of states. The mechanism and construction of such a model is explained with all the necessary details which have not been explicitly reported before. This model is applied to the investigation of rippling fringes which have been experimentally observed on a superlattice, and it is found that the rippling fringes are not related to the superlattice itself. A superlattice with abnormal topmost layers interaction is simulated, and the result affirms the validity of the moiré rotation pattern assumption. The "odd-even" transition along the atomic rows of a superlattice is simulated, and the simulation result shows that when there is more than one rotated layer at the top, the "odd-even" transition will not be manifest. ©2005 The Japan Society of Applied Physics.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The World Wide Web (WWW or Web) is growing rapidly on the Internet. Web users want fast response time and easy access to a enormous variety of information across the world. Thus, performance is becoming a main issue in the Web. Fractals have been used to study fluctuating phenomena in many different disciplines, from the distribution of galaxies in astronomy to complex physiological control systems. The Web is also a complex, irregular, and random system. In this paper, we look at the document reference pattern at Internet Web servers and use fractal-based models to understand aspects (e.g. caching schemes) that affect the Web performance.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Delivering sufficient dose to tumours while sparing surrounding tissue is one of the primary challenges of radiotherapy, and in common practice this is typically achieved by using highly penetrating MV photon beams and spatially shaping dose. However, there has been a recent increase in interest in the possibility of using contrast agents with high atomic number to enhance the dose deposited in tumours when used in conjunction with kV x-rays, which see a significant increase in absorption due to the heavy element's high-photoelectric cross-section at such energies. Unfortunately, the introduction of such contrast agents significantly complicates the comparison of different source types for treatment efficacy, as the dose deposited now depends very strongly on the exact composition of the spectrum, making traditional metrics such as beam quality less valuable. To address this, a 'figure of merit' is proposed, which yields a value which enables the direct comparison of different source types for tumours at different depths inside a patient. This figure of merit is evaluated for a 15 MV LINAC source and two 150 kVp sources (both of which make use of a tungsten target, one with conventional aluminium filtration, while the other uses a more aggressive thorium filter) through analytical methods as well as numerical models, considering tissue treated with a realistic concentration and uptake ratio of gold nanoparticle contrast agents (10 mg ml(-1) concentration in 'tumour' volume, 10: 1 uptake ratio). Finally, a test case of human neck phantom is considered with a similar contrast agent to compare the abstract figure to a more realistic treatment situation. Good agreement was found both between the different approaches to calculate the figure of merit, and between the figure of merit and the effectiveness in a more realistic patient scenario. Together, these observations suggest that there is the potential for contrast-enhanced kilovoltage radiation to be a useful therapeutic tool for a number of classes of tumour on dosimetric considerations alone, and they point to the need for further research in this area.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.