995 resultados para DEPENDENT QUANTUM PROBLEMS
Resumo:
Gonadal somatic cell and adrenocortical endocrine tumors are rare. The incidence of adrenocortical carcinomas is only 1-2/1000000 a year. However, they are aggressive, especially in adulthood and currently surgery is the only curative treatment. Cytotoxic agents are in use in advanced cancers, but side effects and multidrug resistance are often problems. Thus there is a need for novel curative treatment methods. In contrast, ovarian granulosa cell tumors and testicular Leydig cell tumors are usually benign, especially at a younger age. The aim of the present thesis was to study a novel targeted treatment method through luteinizing hormone/chorionic gonadotropin receptor (LHCGR) in a transgenic mouse tumor model. The cytotoxic agent was lytic peptide Hecate-CGbeta conjugate where 23 amino acid Hecate, a synthetic form of honeybee venom melittin, was conjugated to 15 amino acid fragment of human chorionic gonadotropin β subunit. Lytic peptides are known to act only on negatively charged cells, such as bacteria and cancer cells and hereby, due to hCGbeta fragment, the conjugate is able to bind directly to LHCGR bearing cancer cells, saving the healthy ones. The experiments were carried out in inhibin-alpha-Simian Virus 40-T-antigen transgenic mice that are known to express LHCGR-bearing gonadal tumors, namely Leydig and granulosa cell tumors by 100% penetrance. If the mice are gonadectomized prepubertally they form adrenocortical tumors instead. Transgenic and wild type mice were treated for three consecutive weeks with control vehicle, Hecate or Hecate-CGbeta conjugate. GnRH antagonist or estradiol was given to a group of mice with or without Hecate-CGbeta conjugate to analyze the additive role of gonadotropin blockage in adrenocortical tumor treatment efficacy. Hecate-CGbeta conjugate was able to diminish the gonadal and adrenal tumor size effectively in males. No treatment related side effects were found. Gonadotropin blockage through GnRH antagonist was the best treatment in female adrenal tumors. The mode of cell death by Hecate-CGbeta conjugate was proven to be through necrosis. LHCGR and GATA-4 were co-expressed in tumors, where the treatment down-regulated their expression simultaneously, suggesting their possible use as tumor markers. In conclusion, the present thesis showed that Hecate-CGbeta conjugate targets its action selectively through LHCGR and selectively kills the LHCGR bearing tumor cells. It works both in gonadal somatic and in ectopic LHCGR bearing adrenal tumors. These results establish a more general principle that receptors expressed ectopically in malignant cells can be exploited in targeted cytotoxic therapies without affecting the normal healthy cells.
Resumo:
Statistical analyses of measurements that can be described by statistical models are of essence in astronomy and in scientific inquiry in general. The sensitivity of such analyses, modelling approaches, and the consequent predictions, is sometimes highly dependent on the exact techniques applied, and improvements therein can result in significantly better understanding of the observed system of interest. Particularly, optimising the sensitivity of statistical techniques in detecting the faint signatures of low-mass planets orbiting the nearby stars is, together with improvements in instrumentation, essential in estimating the properties of the population of such planets, and in the race to detect Earth-analogs, i.e. planets that could support liquid water and, perhaps, life on their surfaces. We review the developments in Bayesian statistical techniques applicable to detections planets orbiting nearby stars and astronomical data analysis problems in general. We also discuss these techniques and demonstrate their usefulness by using various examples and detailed descriptions of the respective mathematics involved. We demonstrate the practical aspects of Bayesian statistical techniques by describing several algorithms and numerical techniques, as well as theoretical constructions, in the estimation of model parameters and in hypothesis testing. We also apply these algorithms to Doppler measurements of nearby stars to show how they can be used in practice to obtain as much information from the noisy data as possible. Bayesian statistical techniques are powerful tools in analysing and interpreting noisy data and should be preferred in practice whenever computational limitations are not too restrictive.
Resumo:
Wood contains only a very small amount of lipophilic extractives, commonly known as wood pitch. The pitch is known to cause severe problems in papermaking processes. The amount of pitch in process waters can be decreased by seasoning of the raw material prior to pulping, pulp washing, removal of pitch by flotation, adsorption of pitch onto various mineral surfaces, and retention of pitch to the fibre material by cationic polymers. The aim of this study was to determine the influence of pH on some of the methods used for pitch control. Experiments were performed using laboratory-made wood pitch emulsions with varying pH, salt concentration, hemicellulose concentration and pitch composition. These emulsions were used to study the phase distribution of resin and fatty acids, the colloidal stability of pitch with and without steric stabilisation by galactoglucomannans, and the interactions between wood pitch and mineral particles. Purification of unbleached and peroxidebleached mill process water was performed by froth flotation in combination with a foaming agent. The distribution of resin and fatty acids (RFAs) between colloidal pitch droplets and the water phase was very dependent on pH. At pH 3, almost all of the RFAs were attached to the pitch droplets, while increasing the pH led to increasing concentration of dissolved RFAs in the water phase. The presence of salt shifted the release of RFAs towards higher pH, while lower ratio of neutral pitch in the emulsion resulted in release of RFAs at lower pH. It was also seen that the dissolution and adsorption of RFAs at sudden pHchanges takes place very quickly. Colloidal pitch was more stable against electrolyte-induced aggregation at higher pH, due to its higher anionic charge. The concentration of cationic polymers needed to aggregate colloidal pitch also increased with increasing pH. The surface characteristics of solid particles, such as amount of charged groups, were very important for understanding their interactions with colloidal wood pitch. Water-soluble galactoglucomannans stabilised the colloidal pitch sterically against aggregation, but could not completely prevent interactions between wood pitch and hydrophilic particles. Froth flotation of unbleached and peroxidebleached process water showed that the pitch could be removed more effectively and selectively at low pH, compared to at neutral pH. The pitch was removed more effectively, using lower concentrations of foaming agent, from peroxide-bleached water than from unbleached water. The results show that pH has a major impact on various pulping and papermaking processes. It determines the anionic charge of the colloidal pitch and the solubility of certain pitch components. Because of this, the pH influences the effectiveness of pitch retention and removal of pitch. The results indicate that pitch problems could be diminished by acknowledging the importance of pH in various papermaking processes.
Resumo:
The thesis is devoted to a theoretical study of resonant tunneling phenomena in semiconductor heterostructures and nanostructures. It considers several problems relevant to modern solid state physics. Namely these are tunneling between 2D electron layers with spin-orbit interaction, tunnel injection into molecular solid material, resonant tunnel coupling of a bound state with continuum and resonant indirect exchange interaction mediated by a remote conducting channel. A manifestation of spin-orbit interaction in the tunneling between two 2D electron layers is considered. General expression is obtained for the tunneling current with account of Rashba and Dresselhaus types of spin-orbit interaction and elastic scattering. It is demonstrated that the tunneling conductance is very sensitive to relation between Rashba and Dresselhaus contributions and opens possibility to determine the spin-orbit interaction parameters and electron quantum lifetime in direct tunneling experiments with no external magnetic field applied. A microscopic mechanism of hole injection from metallic electrode into organic molecular solid (OMS) in high electric field is proposed for the case when the molecules ionization energy exceeds work function of the metal. It is shown that the main contribution to the injection current comes from direct isoenergetic transitions from localized states in OMS to empty states in the metal. Strong dependence of the injection current on applied voltage originates from variation of the number of empty states available in the metal rather than from distortion of the interface barrier. A theory of tunnel coupling between an impurity bound state and the 2D delocalized states in the quantum well (QW) is developed. The problem is formulated in terms of Anderson-Fano model as configuration interaction between the carrier bound state at the impurity and the continuum of delocalized states in the QW. An effect of this interaction on the interband optical transitions in the QW is analyzed. The results are discussed regarding the series of experiments on the GaAs structures with a -Mn layer. A new mechanism of ferromagnetism in diluted magnetic semiconductor heterosructures is considered, namely the resonant enhancement of indirect exchange interaction between paramagnetic centers via a spatially separated conducting channel. The underlying physical model is similar to the Ruderman-Kittel-Kasuya-Yosida (RKKY) interaction; however, an important difference relevant to the low-dimensional structures is a resonant hybridization of a bound state at the paramagnetic ion with the continuum of delocalized states in the conducting channel. An approach is developed, which unlike RKKY is not based on the perturbation theory and demonstrates that the resonant hybridization leads to a strong enhancement of the indirect exchange. This finding is discussed in the context of the known experimental data supporting the phenomenon.
Resumo:
Four problems of physical interest have been solved in this thesis using the path integral formalism. Using the trigonometric expansion method of Burton and de Borde (1955), we found the kernel for two interacting one dimensional oscillators• The result is the same as one would obtain using a normal coordinate transformation, We next introduced the method of Papadopolous (1969), which is a systematic perturbation type method specifically geared to finding the partition function Z, or equivalently, the Helmholtz free energy F, of a system of interacting oscillators. We applied this method to the next three problems considered• First, by summing the perturbation expansion, we found F for a system of N interacting Einstein oscillators^ The result obtained is the same as the usual result obtained by Shukla and Muller (1972) • Next, we found F to 0(Xi)f where A is the usual Tan Hove ordering parameter* The results obtained are the same as those of Shukla and Oowley (1971), who have used a diagrammatic procedure, and did the necessary sums in Fourier space* We performed the work in temperature space• Finally, slightly modifying the method of Papadopolous, we found the finite temperature expressions for the Debyecaller factor in Bravais lattices, to 0(AZ) and u(/K/ j,where K is the scattering vector* The high temperature limit of the expressions obtained here, are in complete agreement with the classical results of Maradudin and Flinn (1963) .
Resumo:
Methods for both partial and full optimization of wavefunction parameters are explored, and these are applied to the LiH molecule. A partial optimization can be easily performed with little difficulty. But to perform a full optimization we must avoid a wrong minimum, and deal with linear-dependency, time step-dependency and ensemble-dependency problems. Five basis sets are examined. The optimized wavefunction with a 3-function set gives a variational energy of -7.998 + 0.005 a.u., which is comparable to that (-7.990 + 0.003) 1 of Reynold's unoptimized \fin ( a double-~ set of eight functions). The optimized wavefunction with a double~ plus 3dz2 set gives ari energy of -8.052 + 0.003 a.u., which is comparable with the fixed-node energy (-8.059 + 0.004)1 of the \fin. The optimized double-~ function itself gives an energy of -8.049 + 0.002 a.u. Each number above was obtained on a Bourrghs 7900 mainframe computer with 14 -15 hrs CPU time.
Resumo:
La théorie de l'information quantique étudie les limites fondamentales qu'imposent les lois de la physique sur les tâches de traitement de données comme la compression et la transmission de données sur un canal bruité. Cette thèse présente des techniques générales permettant de résoudre plusieurs problèmes fondamentaux de la théorie de l'information quantique dans un seul et même cadre. Le théorème central de cette thèse énonce l'existence d'un protocole permettant de transmettre des données quantiques que le receveur connaît déjà partiellement à l'aide d'une seule utilisation d'un canal quantique bruité. Ce théorème a de plus comme corollaires immédiats plusieurs théorèmes centraux de la théorie de l'information quantique. Les chapitres suivants utilisent ce théorème pour prouver l'existence de nouveaux protocoles pour deux autres types de canaux quantiques, soit les canaux de diffusion quantiques et les canaux quantiques avec information supplémentaire fournie au transmetteur. Ces protocoles traitent aussi de la transmission de données quantiques partiellement connues du receveur à l'aide d'une seule utilisation du canal, et ont comme corollaires des versions asymptotiques avec et sans intrication auxiliaire. Les versions asymptotiques avec intrication auxiliaire peuvent, dans les deux cas, être considérées comme des versions quantiques des meilleurs théorèmes de codage connus pour les versions classiques de ces problèmes. Le dernier chapitre traite d'un phénomène purement quantique appelé verrouillage: il est possible d'encoder un message classique dans un état quantique de sorte qu'en lui enlevant un sous-système de taille logarithmique par rapport à sa taille totale, on puisse s'assurer qu'aucune mesure ne puisse avoir de corrélation significative avec le message. Le message se trouve donc «verrouillé» par une clé de taille logarithmique. Cette thèse présente le premier protocole de verrouillage dont le critère de succès est que la distance trace entre la distribution jointe du message et du résultat de la mesure et le produit de leur marginales soit suffisamment petite.
Conventional and Reciprocal Approaches to the Forward and Inverse Problems of Electroencephalography
Resumo:
Le problème inverse en électroencéphalographie (EEG) est la localisation de sources de courant dans le cerveau utilisant les potentiels de surface sur le cuir chevelu générés par ces sources. Une solution inverse implique typiquement de multiples calculs de potentiels de surface sur le cuir chevelu, soit le problème direct en EEG. Pour résoudre le problème direct, des modèles sont requis à la fois pour la configuration de source sous-jacente, soit le modèle de source, et pour les tissues environnants, soit le modèle de la tête. Cette thèse traite deux approches bien distinctes pour la résolution du problème direct et inverse en EEG en utilisant la méthode des éléments de frontières (BEM): l’approche conventionnelle et l’approche réciproque. L’approche conventionnelle pour le problème direct comporte le calcul des potentiels de surface en partant de sources de courant dipolaires. D’un autre côté, l’approche réciproque détermine d’abord le champ électrique aux sites des sources dipolaires quand les électrodes de surfaces sont utilisées pour injecter et retirer un courant unitaire. Le produit scalaire de ce champ électrique avec les sources dipolaires donne ensuite les potentiels de surface. L’approche réciproque promet un nombre d’avantages par rapport à l’approche conventionnelle dont la possibilité d’augmenter la précision des potentiels de surface et de réduire les exigences informatiques pour les solutions inverses. Dans cette thèse, les équations BEM pour les approches conventionnelle et réciproque sont développées en utilisant une formulation courante, la méthode des résidus pondérés. La réalisation numérique des deux approches pour le problème direct est décrite pour un seul modèle de source dipolaire. Un modèle de tête de trois sphères concentriques pour lequel des solutions analytiques sont disponibles est utilisé. Les potentiels de surfaces sont calculés aux centroïdes ou aux sommets des éléments de discrétisation BEM utilisés. La performance des approches conventionnelle et réciproque pour le problème direct est évaluée pour des dipôles radiaux et tangentiels d’excentricité variable et deux valeurs très différentes pour la conductivité du crâne. On détermine ensuite si les avantages potentiels de l’approche réciproquesuggérés par les simulations du problème direct peuvent êtres exploités pour donner des solutions inverses plus précises. Des solutions inverses à un seul dipôle sont obtenues en utilisant la minimisation par méthode du simplexe pour à la fois l’approche conventionnelle et réciproque, chacun avec des versions aux centroïdes et aux sommets. Encore une fois, les simulations numériques sont effectuées sur un modèle à trois sphères concentriques pour des dipôles radiaux et tangentiels d’excentricité variable. La précision des solutions inverses des deux approches est comparée pour les deux conductivités différentes du crâne, et leurs sensibilités relatives aux erreurs de conductivité du crâne et au bruit sont évaluées. Tandis que l’approche conventionnelle aux sommets donne les solutions directes les plus précises pour une conductivité du crâne supposément plus réaliste, les deux approches, conventionnelle et réciproque, produisent de grandes erreurs dans les potentiels du cuir chevelu pour des dipôles très excentriques. Les approches réciproques produisent le moins de variations en précision des solutions directes pour différentes valeurs de conductivité du crâne. En termes de solutions inverses pour un seul dipôle, les approches conventionnelle et réciproque sont de précision semblable. Les erreurs de localisation sont petites, même pour des dipôles très excentriques qui produisent des grandes erreurs dans les potentiels du cuir chevelu, à cause de la nature non linéaire des solutions inverses pour un dipôle. Les deux approches se sont démontrées également robustes aux erreurs de conductivité du crâne quand du bruit est présent. Finalement, un modèle plus réaliste de la tête est obtenu en utilisant des images par resonace magnétique (IRM) à partir desquelles les surfaces du cuir chevelu, du crâne et du cerveau/liquide céphalorachidien (LCR) sont extraites. Les deux approches sont validées sur ce type de modèle en utilisant des véritables potentiels évoqués somatosensoriels enregistrés à la suite de stimulation du nerf médian chez des sujets sains. La précision des solutions inverses pour les approches conventionnelle et réciproque et leurs variantes, en les comparant à des sites anatomiques connus sur IRM, est encore une fois évaluée pour les deux conductivités différentes du crâne. Leurs avantages et inconvénients incluant leurs exigences informatiques sont également évalués. Encore une fois, les approches conventionnelle et réciproque produisent des petites erreurs de position dipolaire. En effet, les erreurs de position pour des solutions inverses à un seul dipôle sont robustes de manière inhérente au manque de précision dans les solutions directes, mais dépendent de l’activité superposée d’autres sources neurales. Contrairement aux attentes, les approches réciproques n’améliorent pas la précision des positions dipolaires comparativement aux approches conventionnelles. Cependant, des exigences informatiques réduites en temps et en espace sont les avantages principaux des approches réciproques. Ce type de localisation est potentiellement utile dans la planification d’interventions neurochirurgicales, par exemple, chez des patients souffrant d’épilepsie focale réfractaire qui ont souvent déjà fait un EEG et IRM.
Resumo:
Cette thèse porte sur les phénomènes critiques survenant dans les modèles bidimensionnels sur réseau. Les résultats sont l'objet de deux articles : le premier porte sur la mesure d'exposants critiques décrivant des objets géométriques du réseau et, le second, sur la construction d'idempotents projetant sur des modules indécomposables de l'algèbre de Temperley-Lieb pour la chaîne de spins XXZ. Le premier article présente des expériences numériques Monte Carlo effectuées pour une famille de modèles de boucles en phase diluée. Baptisés "dilute loop models (DLM)", ceux-ci sont inspirés du modèle O(n) introduit par Nienhuis (1990). La famille est étiquetée par les entiers relativement premiers p et p' ainsi que par un paramètre d'anisotropie. Dans la limite thermodynamique, il est pressenti que le modèle DLM(p,p') soit décrit par une théorie logarithmique des champs conformes de charge centrale c(\kappa)=13-6(\kappa+1/\kappa), où \kappa=p/p' est lié à la fugacité du gaz de boucles \beta=-2\cos\pi/\kappa, pour toute valeur du paramètre d'anisotropie. Les mesures portent sur les exposants critiques représentant la loi d'échelle des objets géométriques suivants : l'interface, le périmètre externe et les liens rouges. L'algorithme Metropolis-Hastings employé, pour lequel nous avons introduit de nombreuses améliorations spécifiques aux modèles dilués, est détaillé. Un traitement statistique rigoureux des données permet des extrapolations coïncidant avec les prédictions théoriques à trois ou quatre chiffres significatifs, malgré des courbes d'extrapolation aux pentes abruptes. Le deuxième article porte sur la décomposition de l'espace de Hilbert \otimes^nC^2 sur lequel la chaîne XXZ de n spins 1/2 agit. La version étudiée ici (Pasquier et Saleur (1990)) est décrite par un hamiltonien H_{XXZ}(q) dépendant d'un paramètre q\in C^\times et s'exprimant comme une somme d'éléments de l'algèbre de Temperley-Lieb TL_n(q). Comme pour les modèles dilués, le spectre de la limite continue de H_{XXZ}(q) semble relié aux théories des champs conformes, le paramètre q déterminant la charge centrale. Les idempotents primitifs de End_{TL_n}\otimes^nC^2 sont obtenus, pour tout q, en termes d'éléments de l'algèbre quantique U_qsl_2 (ou d'une extension) par la dualité de Schur-Weyl quantique. Ces idempotents permettent de construire explicitement les TL_n-modules indécomposables de \otimes^nC^2. Ceux-ci sont tous irréductibles, sauf si q est une racine de l'unité. Cette exception est traitée séparément du cas où q est générique. Les problèmes résolus par ces articles nécessitent une grande variété de résultats et d'outils. Pour cette raison, la thèse comporte plusieurs chapitres préparatoires. Sa structure est la suivante. Le premier chapitre introduit certains concepts communs aux deux articles, notamment une description des phénomènes critiques et de la théorie des champs conformes. Le deuxième chapitre aborde brièvement la question des champs logarithmiques, l'évolution de Schramm-Loewner ainsi que l'algorithme de Metropolis-Hastings. Ces sujets sont nécessaires à la lecture de l'article "Geometric Exponents of Dilute Loop Models" au chapitre 3. Le quatrième chapitre présente les outils algébriques utilisés dans le deuxième article, "The idempotents of the TL_n-module \otimes^nC^2 in terms of elements of U_qsl_2", constituant le chapitre 5. La thèse conclut par un résumé des résultats importants et la proposition d'avenues de recherche qui en découlent.
Resumo:
Le problème de tournées de véhicules (VRP), introduit par Dantzig and Ramser en 1959, est devenu l'un des problèmes les plus étudiés en recherche opérationnelle, et ce, en raison de son intérêt méthodologique et de ses retombées pratiques dans de nombreux domaines tels que le transport, la logistique, les télécommunications et la production. L'objectif général du VRP est d'optimiser l'utilisation des ressources de transport afin de répondre aux besoins des clients tout en respectant les contraintes découlant des exigences du contexte d’application. Les applications réelles du VRP doivent tenir compte d’une grande variété de contraintes et plus ces contraintes sont nombreuse, plus le problème est difficile à résoudre. Les VRPs qui tiennent compte de l’ensemble de ces contraintes rencontrées en pratique et qui se rapprochent des applications réelles forment la classe des problèmes ‘riches’ de tournées de véhicules. Résoudre ces problèmes de manière efficiente pose des défis considérables pour la communauté de chercheurs qui se penchent sur les VRPs. Cette thèse, composée de deux parties, explore certaines extensions du VRP vers ces problèmes. La première partie de cette thèse porte sur le VRP périodique avec des contraintes de fenêtres de temps (PVRPTW). Celui-ci est une extension du VRP classique avec fenêtres de temps (VRPTW) puisqu’il considère un horizon de planification de plusieurs jours pendant lesquels les clients n'ont généralement pas besoin d’être desservi à tous les jours, mais plutôt peuvent être visités selon un certain nombre de combinaisons possibles de jours de livraison. Cette généralisation étend l'éventail d'applications de ce problème à diverses activités de distributions commerciales, telle la collecte des déchets, le balayage des rues, la distribution de produits alimentaires, la livraison du courrier, etc. La principale contribution scientifique de la première partie de cette thèse est le développement d'une méta-heuristique hybride dans la quelle un ensemble de procédures de recherche locales et de méta-heuristiques basées sur les principes de voisinages coopèrent avec un algorithme génétique afin d’améliorer la qualité des solutions et de promouvoir la diversité de la population. Les résultats obtenus montrent que la méthode proposée est très performante et donne de nouvelles meilleures solutions pour certains grands exemplaires du problème. La deuxième partie de cette étude a pour but de présenter, modéliser et résoudre deux problèmes riches de tournées de véhicules, qui sont des extensions du VRPTW en ce sens qu'ils incluent des demandes dépendantes du temps de ramassage et de livraison avec des restrictions au niveau de la synchronization temporelle. Ces problèmes sont connus respectivement sous le nom de Time-dependent Multi-zone Multi-Trip Vehicle Routing Problem with Time Windows (TMZT-VRPTW) et de Multi-zone Mult-Trip Pickup and Delivery Problem with Time Windows and Synchronization (MZT-PDTWS). Ces deux problèmes proviennent de la planification des opérations de systèmes logistiques urbains à deux niveaux. La difficulté de ces problèmes réside dans la manipulation de deux ensembles entrelacés de décisions: la composante des tournées de véhicules qui vise à déterminer les séquences de clients visités par chaque véhicule, et la composante de planification qui vise à faciliter l'arrivée des véhicules selon des restrictions au niveau de la synchronisation temporelle. Auparavant, ces questions ont été abordées séparément. La combinaison de ces types de décisions dans une seule formulation mathématique et dans une même méthode de résolution devrait donc donner de meilleurs résultats que de considérer ces décisions séparément. Dans cette étude, nous proposons des solutions heuristiques qui tiennent compte de ces deux types de décisions simultanément, et ce, d'une manière complète et efficace. Les résultats de tests expérimentaux confirment la performance de la méthode proposée lorsqu’on la compare aux autres méthodes présentées dans la littérature. En effet, la méthode développée propose des solutions nécessitant moins de véhicules et engendrant de moindres frais de déplacement pour effectuer efficacement la même quantité de travail. Dans le contexte des systèmes logistiques urbains, nos résultats impliquent une réduction de la présence de véhicules dans les rues de la ville et, par conséquent, de leur impact négatif sur la congestion et sur l’environnement.
Resumo:
The fluorescence spectrum of the schiff base obtained from salicylaldehyde and 2-aminophenol is studied using an argon-ion laser as the excitation source and its fluorescence quantum yield (Qf) is determined using a thermal lens method. This is a nondestructive technique that gives the absolute value of Qf without the need for a fluorescence standard. The quantum-yield values are calculated for various concentrations of the solution in chloroform and also for various excitation wavelengths. The value of Qf is relatively high, and is concentration dependent. The maximum value of Qf obtained is nearly 0.78. The high value of the fluorescence quantum yield will render the schiff base useful as a fluorescent marker for biological applications. Photostability and gain studies will assess its suitability as a laser dye.
Resumo:
In this article we present size dependent spectroscopic observations of nanocolloids of ZnO. ZnO is reported to show two emission bands, an ultraviolet (UV) emission band and another in the green region. Apart from the known band gap 380 nm and impurity 530 nm emissions, we have found some peculiar features in the fluorescence spectra that are consistent with the nanoparticle size distribution. Results show that additional emissions at 420 and 490 nm are developed with particle size. The origin of the visible band emission is discussed. The mechanism of the luminescence suggests that UV luminescence of ZnO colloid is related to the transition from conduction band edge to valence band, and visible luminescence is caused by the transition from deep donor level to valence band due to oxygen vacancies and by the transition from conduction band to deep acceptor level due to impurities and defect states. A correlation analysis between the particle size and spectroscopic observations is also discussed.
Resumo:
We have carried out a systematic analysis of the transverse dipole spin response of a large-size quantum dot within time-dependent current density functional theory. Results for magnetic fields corresponding to integer filling factors are reported, as well as a comparison with the longitudinal dipole spin response. As in the two-dimensional electron gas, the spin response at high-spin magnetization is dominated by a low-energy transverse mode.
Resumo:
We have employed time-dependent local-spin density-functional theory to analyze the multipole spin and charge density excitations in GaAs-AlxGa1-xAs quantum dots. The on-plane transferred momentum degree of freedom has been taken into account, and the wave-vector dependence of the excitations is discussed. In agreement with previous experiments, we have found that the energies of these modes do not depend on the transferred wave vector, although their intensities do. Comparison with a recent resonant Raman scattering experiment [C. Schüller et al., Phys. Rev. Lett. 80, 2673 (1998)] is made. This allows us to identify the angular momentum of several of the observed modes as well as to reproduce their energies
Resumo:
The role of effective mass and dielectric mismatches on chemical potentials and addition energies of many-electron multishell quantum dots (QDs) is explored within the framework of a recent extension of the spin density functional theory. It is shown that although the gross electronic density is located in the wells of these multishell QDs, taking position-dependent effective mass and dielectric constant into account can lead to the appearance of relevant differences in chemical potential and addition energies as compared to standard calculations in which the effective mass and the dielectric constant of the well is assumed for the whole multishell structure.