981 resultados para C-0(GAMMA, X) SPACES


Relevância:

100.00% 100.00%

Publicador:

Resumo:

The Bi2Sr2CaCu20g single crystal with a superconducting transition temperature equal to 90 ± 2 K was prepared. The irreversibility line of the single crystal for a mgnetic field direction along the c-axis and T* in the ab-plane was determined. The reduced temperature (l - T ) is proportional to H 1.1 for fields below 004 T and proportional to HO.09 for fields above 0.4 T. The zero temperature upper critical field Hc2(0) and coherence length ~ (0) were determined from the magnetization meaurements to be H-lC2=35.9T , H//C2=31.2T, ~c(0)=35.0 A, and ~ab(0)=32.5A,and from the magnetoresistance measurements to be H-lc2 = 134.6T , H//C2=55.5T '~c(0)=38.1 A, and ~ab(0)=2404 A for both directions of the applied magnetic field. The results obtained for Hc2(0) and ~(O) are not reliable due to the rounding that the single crystal exhibits in the magnetization and magnetoresistance curves. The magnetization relaxation of the single crystal was investigated, and was found to be logarithmic in time, and the relaxation rate increases with temperature up to 50 -60 K, then decreases at higher temperatures.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The effect that plants {Typha latifolia) as well as root-bed medium physical and chemical characteristics have on the treatment of primary treated domestic wastewater within a vertical flow constructed wetland system was investigated. Five sets of cells, with two cells in each set, were used. Each cell was made of concrete and measured 1 .0 m X 1 .0 m and was 1.3 m deep. Four different root-bed media were tested : Queenston Shale, Fonthill Sand, Niagara Shale and a Michigan Sand. Four of the sets contained plants and a single type of root-bed medium. The influence of plants was tested by operating a Queenston Shale set without plants. Due to budget constraints no replicates were constructed. All of the sets were operated independently and identically for twenty-eight months. Twelve months of data are presented here, collected after 16 months of continuous operation. Root-bed medium type did not influence BOD5 removal. All of the sets consistently met Ontario Ministry of Environment (MOE) requirements (<25 mg/L) for BOD5 throughout the year. The 12 month average BOD5 concentration from all sets with plants was below 2.36 mg/L. All of the sets were within MOE discharge requirements (< 25 mg/L) for suspended solids with set effluent concentrations ranging from 1.53 to 14.80 mg/L. The Queenston Shale and Fonthill Sand media removed the most suspended solids while the Niagara Shale set produced suspended solids. The set containing Fonthill Sand was the only series to meet MOE discharge requirements (< Img/L) for total phosphorus year-round with a twelve month mean effluent concentration of 0.23 mg/L. Year-round all of the root-bed media were well below MOE discharge requirements (< 20mg/L in winter and < 10 mg/L in sumnner) for ammonium. The Queenston Shale and Fonthill Sand sets removed the most total nitrogen. Plants had no effect on total nitrogen removal, but did influence how nitrogen was cycled within the system. Plants increased the removal of suspended solids by 14%, BOD5 by 10% and total phosphorus by 22%. Plants also increased the amount of dissolved oxygen that entered the system. During the plant growing season removal of total phosphorus was better in all sets with plants regardless of media type. The sets containing Queenston Shale and Fonthill Sand media achieved the best results and plants in the Queenston Shale set increased treatment efficiency for every parameter except nitrogen. Vertical flow wetland sewage treatment systems can be designed and built to consistently meet MOE discharge requirements year-round for BOD5, suspended solids, total phosphorus and ammonium. This system Is generally superior to the free water systems and sub-surface horizontal flow systems in cold climate situations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le diabète insipide néphrogénique (DIN) autosomal peut être causé par les mutations du gène codant pour le canal à eau aquaporine-2 (AQP2). Un modèle couramment utilisé pour l’étude des protéines membranaires telle l’AQP2 est l’expression hétérologue dans les ovocytes de Xenopus laevis. Malheureusement, les techniques déjà existantes de purification de membranes plasmiques sont soit trop longues, trop difficiles ou demandent trop de matériel, ne permettent pas l’analyse adéquate du ciblage des formes sauvage comme mutantes, un élément crucial de ce type d’étude. Nous avons donc dans un premier temps mis au point une technique rapide et efficace de purification de membranes plasmiques qui combine la digestion partielle de la membrane vitelline, sa polymérisation à la membrane plasmique suivi de centrifugations à basse vitesse pour récolter les membranes purifiées. Nous avons utilisé cette technique dans l’étude de deux nouveaux cas familiaux de patients hétérozygotes possédant les mutations V24A et R187C dans un cas et K228E et R187C dans le second cas. Pour chaque mutation, nous avons analysé autant les éléments de fonctionnalité que les paramètres d’expression des protéines mutantes. Les expériences de perméabilité membranaire démontrent que les ovocytes exprimant AQP2-V24A (Pf = 16.3 ± 3.5 x 10-4 cm/s, 10 ng) et AQP2- K228E (Pf = 19.9 ± 7.0 x 10-4 cm/s, 10 ng) ont des activités similaires à celle exprimant la forme native (Pf = 14.4 ± 5.5 x 10-4 cm/s, 1 ng), tandis que AQP2- R187C (Pf = 2.6 ± 0.6 x 10-4 cm/s, 10 ng) ne semble avoir aucune activité comme ce qui est observé chez les ovocytes non-injectés (Pf = 2.8 ± 1.0 x 10-4 cm/s). Les études de co-expression ont démontré un effet d’additivité lorsque AQP2-V24A et -K228E sont injectées avec la forme native et un effet s’apparentant à la dominance négative lorsque AQP2-R187C est injecté avec la forme native, avec AQP2-V24A ou avec –K228E. Les résultats obtenus par immunobuvardage représente bien ce qui a été démontré précédemment, on remarque la présence des mutations K228E, V24A et la forme sauvage à la membrane plasmique, contrairement à la mutation R187C. Cependant, lorsque les mutations sont exprimées dans des cellules mIMCD-3, il n’y a qu’une faible expression à la membrane de la forme –K228E et une absence totale des formes –V24A et –R187C à la membrane plasmique, contrairement à la forme native. Les résultats de nos études démontrent que tout dépendant du système d’expression les formes –K228E et –V24A peuvent être utiles dans l’étude des problèmes d’adressage à la membrane à l’aide de chaperonne chimique. De plus, la forme –R187C démontre des difficultés d’adressage qui devront être étudiées afin de mieux comprendre la synthèse des formes natives.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’objectif principal de cette recherche est de contribuer au développement de biocapteurs commerciaux utilisant des surfaces de papier comme matrices d’immobilisation, capables de produire un signal colorimétrique perceptible dans les limites sensorielles humaines. Ce type de biocapteur, appelé papier bioactif, pourrait servir par exemple à la détection de substances toxiques ou d’organismes pathogènes. Pour atteindre l’objectif énoncé, ce travail propose l’utilisation de systèmes enzymatiques microencapsulés couchés sur papier. Les enzymes sont des catalyseurs biologiques dotés d’une haute sélectivité, et capables d'accélérer la vitesse de certaines réactions chimiques spécifiques jusqu’à des millions des fois. Les enzymes sont toutefois des substances très sensibles qui perdent facilement leur fonctionnalité, raison pour laquelle il faut les protéger des conditions qui peuvent les endommager. La microencapsulation est une technique qui permet de protéger les enzymes sans les isoler totalement de leur environnement. Elle consiste à emprisonner les enzymes dans une sphère poreuse de taille micrométrique, faite de polymère, qui empêche l’enzyme de s’echapper, mais qui permet la diffusion de substrats à l'intérieur. La microencapsulation utilisée est réalisée à partir d’une émulsion contenant un polymère dissous dans une phase aqueuse avec l’enzyme désirée. Un agent réticulant est ensuite ajouté pour provoquer la formation d'un réseau polymérique à la paroi des gouttelettes d'eau dans l'émulsion. Le polymère ainsi réticulé se solidifie en enfermant l’enzyme à l'intérieur de la capsule. Par la suite, les capsules enzymatiques sont utilisées pour donner au papier les propriétés de biocapteur. Afin d'immobiliser les capsules et l'enzyme sur le papier, une méthode courante dans l’industrie du papier connu sous le nom de couchage à lame est utilisée. Pour ce faire, les microcapsules sont mélangées avec une sauce de couchage qui sera appliquée sur des feuilles de papier. Les paramètres de viscosité i de la sauce et ceux du couchage ont été optimisés afin d'obtenir un couchage uniforme répondant aux normes de l'industrie. Les papiers bioactifs obtenus seront d'abord étudiés pour évaluer si les enzymes sont toujours actives après les traitements appliqués; en effet, tel que mentionné ci-dessus, les enzymes sont des substances très sensibles. Une enzyme très étudiée et qui permet une évaluation facile de son activité, connue sous le nom de laccase, a été utilisée. L'activité enzymatique de la laccase a été évaluée à l’aide des techniques analytiques existantes ou en proposant de nouvelles techniques d’analyse développées dans le laboratoire du groupe Rochefort. Les résultats obtenus démontrent la possibilité d’inclure des systèmes enzymatiques microencapsulés sur papier par couchage à lame, et ce, en utilisant des paramètres à grande échelle, c’est à dire des surfaces de papier de 0.75 x 3 m2 modifiées à des vitesses qui vont jusqu’à 800 m/min. Les biocapteurs ont retenu leur activité malgré un séchage par évaporation de l’eau à l’aide d’une lampe IR de 36 kW. La microencapsulation s’avère une technique efficace pour accroître la stabilité d’entreposage du biocapteur et sa résistance à l’exposition au NaN3, qui est un inhibiteur connu de ce biocapteur. Ce projet de recherche fait partie d'un effort national visant à développer et à mettre sur le marché des papiers bioactifs; il est soutenu par Sentinel, un réseau de recherche du CRSNG.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Gowers, dans son article sur les matrices quasi-aléatoires, étudie la question, posée par Babai et Sos, de l'existence d'une constante $c>0$ telle que tout groupe fini possède un sous-ensemble sans produit de taille supérieure ou égale a $c|G|$. En prouvant que, pour tout nombre premier $p$ assez grand, le groupe $PSL_2(\mathbb{F}_p)$ (d'ordre noté $n$) ne posséde aucun sous-ensemble sans produit de taille $c n^{8/9}$, il y répond par la négative. Nous allons considérer le probléme dans le cas des groupes compacts finis, et plus particuliérement des groupes profinis $SL_k(\mathbb{Z}_p)$ et $Sp_{2k}(\mathbb{Z}_p)$. La premiére partie de cette thése est dédiée à l'obtention de bornes inférieures et supérieures exponentielles pour la mesure suprémale des ensembles sans produit. La preuve nécessite d'établir préalablement une borne inférieure sur la dimension des représentations non-triviales des groupes finis $SL_k(\mathbb{Z}/(p^n\mathbb{Z}))$ et $Sp_{2k}(\mathbb{Z}/(p^n\mathbb{Z}))$. Notre théoréme prolonge le travail de Landazuri et Seitz, qui considérent le degré minimal des représentations pour les groupes de Chevalley sur les corps finis, tout en offrant une preuve plus simple que la leur. La seconde partie de la thése à trait à la théorie algébrique des nombres. Un polynome monogéne $f$ est un polynome unitaire irréductible à coefficients entiers qui endengre un corps de nombres monogéne. Pour un nombre premier $q$ donné, nous allons montrer, en utilisant le théoréme de densité de Tchebotariov, que la densité des nombres premiers $p$ tels que $t^q -p$ soit monogéne est supérieure ou égale à $(q-1)/q$. Nous allons également démontrer que, quand $q=3$, la densité des nombres premiers $p$ tels que $\mathbb{Q}(\sqrt[3]{p})$ soit non monogéne est supérieure ou égale à $1/9$.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La leptospirose est une zoonose à distribution mondiale dont la prévalence chez le chat varie géographiquement de 4.8% à 35%. Bien que l’exposition féline à Leptospira spp. soit rapportée dans des études sérologiques, les conséquences cliniques de cette maladie chez le chat sont peu connues. Le but principal de cette étude était de comparer le statut sérologique et de porteur (PCR urinaire) de Leptospira spp. entre des chats sains et des chats atteints de maladie rénale (insulte rénale aigue et maladie rénale chronique de stades IIb, III et IV). Une étude préliminaire pour valider la sensibilité et la spécificité analytiques de la PCR de Leptospira spp. réalisée par le Laboratoire de Diagnostic Moléculaire de la FMV sur l’urine de chat a été effectuée. La validation in vitro a démontré que la technique de PCR est efficace pour déterminer la présence de leptospires pathogènes dans l’urine du chat. Dans le cadre de l’étude principale, 251 chats ont été recrutés entre janvier 2010 et mars 2012,. De ceux-ci, 240 ont été inclus et divisés en 2 groupes (chats sains (C=125) et chats atteints de maladie rénale (MR=115) en se basant sur un examen physique ainsi que sur des résultats d’hématologie, de biochimie et d’analyse d’urine. Tous les chats recrutés ont également été examinés sérologiquement par test de micro-agglutination pour la présence d’anticorps contre Leptospira spp. (résultat considéré positif si ≥1 :100) et par PCR pour la présence de Leptospira spp. dans l’urine. Le pourcentage prédit de séropositivité pour Leptospira spp. était significativement plus élevé chez les chats atteints de maladie rénale (13,7%) que chez les chats sains (5%) (p=0,02). Les sérovars impliqués étaient Pomona (n=16), Bratislava (n=8) et Grippotyphosa (n=1). De plus, les chats séropositifs pour Pomona présentaient des titres significativement plus élevés que pour les autres sérovars (p=0,04). L’excrétion de Leptospira spp. a été confirmée par PCR dans l’urine de huit chats. Des 26 chats séropositifs, quatre (C=2, MR=2) se sont également révélés PCR positifs. La prévalence a été plus élevée chez les chats du groupe MR (5.3%; 6/113) lorsque comparée à celle du groupe C (1.6%; 2/125), mais cette différence ne s’est pas révélée statistiquement significative (C=0,9% , MR= 5,5% ; p = 0,09). L’âge, le sexe et le milieu de vie (urbain versus rural) n’ont pas influencé le statut sérologique ou d’excrétion pour Leptospira spp. Le pourcentage prédit de séropositivité était significativement plus élevée chez les chasseurs (p<0.01) et pendant les mois de juin à août (p=0.02). La présence d’un autre chat à la maison a également significativement augmenté ce pourcentage (p<0.01), mais la présence d’un chien ne l’a pas influencé. Lors de l’évaluation du PCR par le modèle GGE, seules les variables « contact avec raton laveur » et « contact avec mouffettes » sont ressorties statistiquement significatives (p≤0.03). Le rôle que joue Leptospira spp. comme agent étiologique de maladie rénale chez le chat demeure incertain. Toutefois, la différence significative de statut sérologique entre les chats sains et les chats atteints de maladie rénale suggère que la leptospirose pourrait être une cause sous-diagnostiquée de maladie rénale chez cette espèce. Dans cette étude, plusieurs porteurs asymptomatiques ont été identifiés, ce qui suggère que l’espèce féline puisse être un acteur sous-estimé dans la transmission de la bactérie aux humains.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduction : L’inconfort causé par les appareils orthodontiques peut significativement affecter la coopération des patients dans leur traitement. La douleur, ainsi que la détérioration de la fonction (mastication, élocution) sont reconnus comme les déterminants majeurs de la coopération des patients traités par appareils amovibles. Invisalign® se positionne comme une alternative esthétique aux multiples inconforts observés lors des traitements fixes avec boîtiers. À ce jour, peu d’études ont cherché à comparer la douleur (quantitativement et qualitativement) perçue entre cette technique et celle avec boîtiers fixes sur une longue période. Objectif : L’objectif de la présente étude est d’évaluer la douleur ressentie par les patients qui suivent un traitement orthodontique avec coquilles correctrices Invisalign® et de la comparer avec celle des patients qui suivent un traitement orthodontique conventionnel avec des boîtiers fixes. Matériels et Méthodes: L’étude compte 70 patients (29 garçons, 41 filles), moyenne d’âge de 16 ans [11 à 30]. Les trois sous-groupes sont Invisalign® (n=31), boîtiers Damon (n=19) et boîtiers Speed (n=20). Les groupes avec boîtiers (Damon et Speed) sont les 2 groupes de l’étude menée au sein de la clinique d’Orthodontie de l’Université de Montréal en 2011 qui comparait la perception de la douleur durant le traitement orthodontique entre boîtiers auto-ligaturants passifs et actifs. L’étude a été organisée en 4 phases correspondant à l’insertion des 4 premiers fils pour les groupes avec boîtiers (Phase 1: 0,016" Supercable, Phase 2: 0,016" CuNiTi, Phase 3: 0,016"x0,022" CuNiTi, Phase 4: 0,019"x0,025" CuNiTi) et à l’insertion des coquilles 1, 4, 7 et 10 pour le groupe Invisalign®. À l’aide d’un questionnaire, l’étude évalue pour chaque phase l’ampleur (grâce à une échelle visuelle analogue EVA), la durée et la localisation de la douleur à 6 différents points (T1: immédiatement après l’insertion, T2: 5h après, T3: 24h après, T4: 3 jours après, T5: une semaine après, T6: 2 semaines après). Résultats: À T1Ph3 le pourcentage de patients rapportant de la douleur était plus élevé avec Damon qu’avec Invisalign® (p=0,032) (Damon=55,6% ; Invisalign®=23,3%) mais il n’y avait pas de différence avec le groupe Speed (p=0,114). Les patients avec Invisalign® rapportaient significativement moins d’irritation des tissus mous (muqueuses, gencives) que les patients avec des boîtiers. Pour les résultats des EVA, les différences étaient statistiquement significatives à 2 temps : T3Ph1 (Médiane Invisalign®=33,31, Médiane Speed=49,47; p=0,025) et T3Ph4 (Médiane Invisalign®=13,15, Médiane Damon=27,28; p=0,014). Pour la majorité des patients la douleur ne nécessitait pas la prise de médicament et il n’y avait pas de différence significative entre les groupes sur ce point. La qualité de vie était légèrement affectée lors de la première phase et moindrement pour le groupe Invisalign® que pour les groupes avec boîtiers. Pour les patients Invisalign®, la douleur atteignait son niveau le plus élevé entre 5 et 24 heures après l’insertion de la première coquille, et diminuait en intensité et en durée à chaque phase. Conclusion: La perception de la douleur lors d’un traitement orthodontique avec Invisalign® est inférieure à celle ressentie lors d’un traitement avec des boîtiers fixes. Cette méthode de traitement est donc une thérapie attirante pour les patients désirant un traitement esthétique et relativement confortable.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Spinel systems with the composition of Cu 1−x Zn x Cr 2 O 4 [x = 0 CCr, x = 0.25 CZCr-1, x = 0.5 CZCr-2, x = 0.75 CZCr-3 and x = 1 ZCr] were prepared by homogeneous co-precipitation method and were characterized by X-ray diffraction (XRD) and FT-IR spectroscopy. Elemental analysis was done by EDX, and surface area measurements by the BET method. The redox behavior of these catalysts in cyclohexane oxidation at 243 K using TBHP as oxidant was examined. Cyclohexanone was the major product over all catalysts with some cyclohexanol. 69.2% selectivity to cyclohexanol and cyclohexanone at 23% conversion of cyclohexane was realized over zinc chromite spinels in 10 h.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die Arbeit stellt einen strukturellen Rahmen zur Einordnung sowohl bisheriger als auch zukünftiger organisationstheoretischer und DV-technologischer Entwicklungen zur Umsetzung eines Computer Integrated Business (CIB) bereit. Dazu analysiert sie bisherige Ansätze und zukünftige Perspektiven eines CIB mittels theoretischer und empirischer Bearbeitungsverfahren. Die Notwendigkeit zur Unternehmensintegration ergibt sich aus dem betriebswirtschaftlichen Konzept der Arbeitsteilung, über die das Phänomen der Economies of Scale erschlossen wird. Die Arbeitsteilung wurde zum Gestaltungskonzept in den Fabriken der industriellen Revolution. Komplexe Arbeitsgänge wurden in spezialisierte Teilaufgaben zerlegt und nach Möglichkeit auf maschinelle bzw. technologische Potentiale übertragen. Die Zielsetzung lag zunächst in der Automatisierung des Materialflusses, während der Informationsfluss noch lange Zeit im Hintergrund stand. Mittlerweile ermöglichen leistungsfähige DV-Systeme auch die Automatisierung des Informationsflusses und damit die DV-gestützte Integration des Unternehmens, die den Kern des CIB-Konzeptes darstellt. Das CIB-Konzept wurde Ende der achtziger Jahre am Fraunhofer-Institut für Arbeitswirtschaft und Organisation als Erweiterung des Computer Integrated Manufacturing (CIM) für Industrieunternehmen von Bullinger geprägt, jedoch in seiner Zielsetzung als Modell zur Totalintegration von Unternehmen danach nicht maßgeblich weiterentwickelt. Vielmehr wurden in der Folgezeit überwiegend Teilintegrationslösungen diskutiert, wie z. B. Konzepte zur Integration der Fertigung oder zur Unterstützung der Teamarbeit. Der Aspekt der umfassenden, unternehmensinternen Integration rückte Mitte der neunziger Jahre durch die an Popularität gewinnende Internet-Technologie an den Rand der wissenschaftlichen Diskussion. Erst nach dem Zusammenbruch der ersten Internet-Euphorie und der anschließenden wirtschaftlichen Rezession gewann das Integrationsthema am Anfang dieses Jahrzehnts mit Hinblick auf dadurch mögliche Kostenvorteile wieder an Bedeutung. Die Diskussion wurde jedoch mit starkem technologischem Fokus geführt (z. B. zum Thema Enterprise Application Integration) und Aspekte der Unternehmensorganisation wurden bestenfalls grob, jedoch nicht im Detail diskutiert. Die vorliegende Arbeit bearbeitet die CIB-Thematik umfassend sowohl aus unternehmensorganisatorischer als auch DV-technologischer Sicht und bewegt sich deshalb interdisziplinär zwischen den Wissenschaftsbereichen der Betriebswirtschaft und der Informatik. Die Untersuchung wird vor dem Hintergrund einer sozio-technologischen Unternehmensorganisation geführt, in der DV-technologische Potentiale neben humanen Potentialen zur Erreichung der Unternehmensziele eingesetzt werden. DV-technologische Potentiale übernehmen darin einerseits Integrationsaufgaben und werden andererseits aber selbst zum Integrationsziel. Die Herausforderung für die Unternehmensführung besteht in der Konfiguration des CIB und im Finden eines Gleichgewichts zwischen Arbeitsteilung und Integration auf der einen sowie humanen und technologischen Potentialen auf der anderen Seite, letztendlich aber auch in der Automatisierung der Integration. Die Automatisierung der Integration stellt mit Hinblick auf die durch Umweltveränderungen bedingte Konfigurationsanpassung ein bisher konzeptionell nur ansatzweise gelöstes Problem dar. Der technologischen Integrationsarchitektur sowie den verwendeten Methoden des Prozessdesigns und der Software-Entwicklung kommt bei der Lösung dieses Problems eine hohe Bedeutung zu. Über sie bestimmt sich die Anpassungsfähigkeit und geschwindigkeit des CIB. Es kann vermutet werden, dass eine Lösung jedoch erst erreicht wird, wenn sich die Unternehmensorganisation vom Konzept der zentralen Koordination abwendet und stattdessen an dezentralen Koordinationsmechanismen unter Verwendung ultrastabiler Anpassungsprogramme orientiert, wie sie z. B. in der Biologie bei Insektenkulturen untersucht wurden.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The modification of the two center screened electronic Coulomb potential due to relativistic kinematical effects is investigated in the Coulomb gauge. Both nuclear and electronic charges were approximated by Gaussian distributions. For ion velocities v/c =0.1 the effect may roughly be approximated by a 0.1% increase in the effective strength for the monopole term of the two center potential. Thus for ion kinetic energies not exceeding a few MeV/nucleon this relativistic contribution induces small effects on the binding energy of the 1 \omega-electrons except for super critical charges.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Self-consistent relativistic Dirac-Hartree-Fock calculations have been made of some lowlying electronic energies for the atoms of all elements in ground-state ds^2 electron configurations. The results indicate that, contrary to some previous estimates, the ground electronic state of atomic Lr could be in either the 5f^14 6d7s^2 or the 5f^14 7p 7s^2 electron configuration. The separation between the lowest energy level of the 5f^14 6d7s^2 configuration and the lowest energy level of the 5f^14 7p7s^2 configuration is estimated to be (0 ± 3) x 10^3 cm^-1 for atomic Lr.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Distributed systems are one of the most vital components of the economy. The most prominent example is probably the internet, a constituent element of our knowledge society. During the recent years, the number of novel network types has steadily increased. Amongst others, sensor networks, distributed systems composed of tiny computational devices with scarce resources, have emerged. The further development and heterogeneous connection of such systems imposes new requirements on the software development process. Mobile and wireless networks, for instance, have to organize themselves autonomously and must be able to react to changes in the environment and to failing nodes alike. Researching new approaches for the design of distributed algorithms may lead to methods with which these requirements can be met efficiently. In this thesis, one such method is developed, tested, and discussed in respect of its practical utility. Our new design approach for distributed algorithms is based on Genetic Programming, a member of the family of evolutionary algorithms. Evolutionary algorithms are metaheuristic optimization methods which copy principles from natural evolution. They use a population of solution candidates which they try to refine step by step in order to attain optimal values for predefined objective functions. The synthesis of an algorithm with our approach starts with an analysis step in which the wanted global behavior of the distributed system is specified. From this specification, objective functions are derived which steer a Genetic Programming process where the solution candidates are distributed programs. The objective functions rate how close these programs approximate the goal behavior in multiple randomized network simulations. The evolutionary process step by step selects the most promising solution candidates and modifies and combines them with mutation and crossover operators. This way, a description of the global behavior of a distributed system is translated automatically to programs which, if executed locally on the nodes of the system, exhibit this behavior. In our work, we test six different ways for representing distributed programs, comprising adaptations and extensions of well-known Genetic Programming methods (SGP, eSGP, and LGP), one bio-inspired approach (Fraglets), and two new program representations called Rule-based Genetic Programming (RBGP, eRBGP) designed by us. We breed programs in these representations for three well-known example problems in distributed systems: election algorithms, the distributed mutual exclusion at a critical section, and the distributed computation of the greatest common divisor of a set of numbers. Synthesizing distributed programs the evolutionary way does not necessarily lead to the envisaged results. In a detailed analysis, we discuss the problematic features which make this form of Genetic Programming particularly hard. The two Rule-based Genetic Programming approaches have been developed especially in order to mitigate these difficulties. In our experiments, at least one of them (eRBGP) turned out to be a very efficient approach and in most cases, was superior to the other representations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In dieser Arbeit wurde ein gemischt-ganzzahliges lineares Einsatzoptimierungsmodell für Kraftwerke und Speicher aufgebaut und für die Untersuchung der Energieversorgung Deutschlands im Jahre 2050 gemäß den Leitstudie-Szenarien 2050 A und 2050 C ([Nitsch und Andere, 2012]) verwendet, in denen erneuerbare Energien einen Anteil von über 85 % an der Stromerzeugung haben und die Wind- und Solarenergie starke Schwankungen der durch steuerbare Kraftwerke und Speicher zu deckenden residualen Stromnachfrage (Residuallast) verursachen. In Szenario 2050 A sind 67 TWh Wasserstoff, die elektrolytisch aus erneuerbarem Strom zu erzeugen sind, für den Verkehr vorgesehen. In Szenario 2050 C ist kein Wasserstoff für den Verkehr vorgesehen und die effizientere Elektromobilität hat einen Anteil von 100% am Individualverkehr. Daher wird weniger erneuerbarer Strom zur Erreichung desselben erneuerbaren Anteils im Verkehrssektor benötigt. Da desweiteren Elektrofahrzeuge Lastmanagementpotentiale bieten, weisen die Residuallasten der Szenarien eine unterschiedliche zeitliche Charakteristik und Jahressumme auf. Der Schwerpunkt der Betrachtung lag auf der Ermittlung der Auslastung und Fahrweise des in den Szenarien unterstellten ’Kraftwerks’-parks bestehend aus Kraftwerken zur reinen Stromerzeugung, Kraft-Wärme-Kopplungskraftwerken, die mit Wärmespeichern, elektrischen Heizstäben und Gas-Backupkesseln ausgestattet sind, Stromspeichern und Wärmepumpen, die durch Wärmespeicher zum Lastmanagment eingesetzt werden können. Der Fahrplan dieser Komponenten wurde auf minimale variable Gesamtkosten der Strom- und Wärmeerzeugung über einen Planungshorizont von jeweils vier Tagen hin optimiert. Das Optimierungsproblem wurde mit dem linearen Branch-and-Cut-Solver der software CPLEX gelöst. Mittels sogenannter rollierender Planung wurde durch Zusammensetzen der Planungsergebnisse für überlappende Planungsperioden der Kraftwerks- und Speichereinsatz für die kompletten Szenariojahre erhalten. Es wurde gezeigt, dass der KWK-Anteil an der Wärmelastdeckung gering ist. Dies wurde begründet durch die zeitliche Struktur der Stromresiduallast, die wärmeseitige Dimensionierung der Anlagen und die Tatsache, dass nur eine kurzfristige Speicherung von Wärme vorgesehen war. Die wärmeseitige Dimensionierung der KWK stellte eine Begrenzung des Deckungsanteils dar, da im Winter bei hoher Stromresiduallast nur wenig freie Leistung zur Beladung der Speicher zur Verfügung stand. In den Berechnungen für das Szenario 2050 A und C lag der mittlere Deckungsanteil der KWK an der Wärmenachfrage von ca. 100 TWh_th bei 40 bzw. 60 %, obwohl die Auslegung der KWK einen theoretischen Anteil von über 97 % an der Wärmelastdeckung erlaubt hätte, gäbe es die Beschränkungen durch die Stromseite nicht. Desweiteren wurde die CO2-Vermeidungswirkung der KWK-Wärmespeicher und des Lastmanagements mit Wärmepumpen untersucht. In Szenario 2050 A ergab sich keine signifikante CO2-Vermeidungswirkung der KWK-Wärmespeicher, in Szenario 2050 C hingegen ergab sich eine geringe aber signifikante CO2-Einsparung in Höhe von 1,6 % der Gesamtemissionen der Stromerzeugung und KWK-gebundenen Wärmeversorgung. Das Lastmanagement mit Wärmepumpen vermied Emissionen von 110 Tausend Tonnen CO2 (0,4 % der Gesamtemissionen) in Szenario A und 213 Tausend Tonnen in Szenario C (0,8 % der Gesamtemissionen). Es wurden darüber hinaus Betrachtungen zur Konkurrenz zwischen solarthermischer Nahwärme und KWK bei Einspeisung in dieselben Wärmenetze vorgenommen. Eine weitere Einschränkung der KWK-Erzeugung durch den Einspeisevorrang der Solarthermie wurde festgestellt. Ferner wurde eine untere Grenze von 6,5 bzw. 8,8 TWh_th für die in den Szenarien mindestens benötigte Wasserstoff-Speicherkapazität ermittelt. Die Ergebnisse dieser Arbeit legen nahe, das technisch-ökonomische Potential von Langzeitwärmespeichern für eine bessere Integration von KWK ins System zu ermitteln bzw. generell nach geeigneteren Wärmesektorszenarien zu suchen, da deutlich wurde, dass für die öffentliche Wärmeversorgung die KWK in Kombination mit Kurzzeitwärmespeicherung, Gaskesseln und elektrischen Heizern keine sehr effektive CO2 -Reduktion in den Szenarien erreicht. Es sollte dabei z.B. untersucht werden, ob ein multivalentes System aus KWK, Wärmespeichern und Wärmepumpen eine ökonomisch darstellbare Alternative sein könnte und im Anschluss eine Betrachtung der optimalen Anteile von KWK, Wärmepumpen und Solarthermie im Wärmemarkt vorgenommen werden.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Biogasgüllen haben bezüglich ihrer Wirkung auf die Bodenfruchtbarkeit, das Pflanzenwachstum und die Umwelt, Vor- und Nachteile. Als Folge der intensiven Nutzung von Biogas zur Energieerzeugung wurde die Biogasgülle eine der wichtigsten organischen Dünger, mit zunehmender Relevanz für den konventionellen aber auch den ökologischen Landbau. Aufgrund der frühen Entwicklung von Biogas und dem Einsatz von Biogasgüllen in der ökologischen Landwirtschaft in den achtziger Jahren im Nord-Osten Baden-Württembergs sind heute Ackerflächen vorhanden, die seit mehr als 25 Jahren mit Biogasgülle gedüngt werden. Somit bestand hier eine Möglichkeit, Informationen über die Langzeiteffekte von Biogasgüllen auf Parameter der Bodenfruchtbarkeit in der ökologischen, landwirtschaftlichen Praxis zu erlangen. Im ersten Projekt wurde daher eine On-Farm Boden- und Gülleprobenahme durchgeführt. Ziel war es, Parameter der Bodenfruchtbarkeit wie die mikrobielle Aktivität (Basalatmung), den mikrobiellen Biomasse C und N, pilzliches Ergosterol, mikrobielle Residuen (Aminozucker), organischen C, gesamt N und den pH-Wert im Boden auf fünf Flächenpaaren des biologisch-dynamischen Landbaus zu messen. Die sich daraus ergebende Hypothese war hierbei, dass der langjährige Einsatz von Biogasgülle im Vergleich zu Rohgüllen keinen Effekt auf die organische Bodensubstanz und die mikrobiellen Eigenschaften des Bodens hat, da die negativen Effekte wie zum Beispiel der reduzierte C-Input durch positive Effekte wie z.B. die erhöhte Nährstoffverfügbarkeit für Pflanzen kompensiert wird. Die Ergebnisse zeigten, dass die Langzeitanwendung von Biogasgülle keinen negativen Einfluss auf die C- und N-Vorräte im Boden hatte. Der Einsatz von Biogasgülle führte jedoch zu einem engeren Verhältnis von mikrobiellem C zu organischem C im Boden, was auf eine reduzierte C-Verfügbarkeit für Mikroorganismen im Vergleich zu Rohgüllen schließen lässt. Die Biogasgülleanwendung führte zu einer tendenziellen Abnahme der mikrobiellen Residuen, wobei die unterschiedlichen Tongehalte der untersuchten Flächen mögliche signifikante Gülleeffekte auf die mikrobiellen Eigenschaften verdeckt haben. Es gab keine generellen Effekte der Biogasgülle auf das Verhältnis von Pilzen zu Bakterien, wohingegen ein zunehmender Tongehalt eine signifikante Verlagerung in Richtung der Bakterien verursachte. Die Übereinstimmung der erhobenen Daten aller angewendeten Methoden weist auf die starke Aussagekraft dieser On-Farm Studie zum Vergleich benachbarter Flächen hin. Im Anschluss an das On-Farm Projekt, in dem die Langzeitwirkung von Biogasgülle auf den Boden untersucht wurde, sollten die Auswirkungen der Düngung mit unterschiedlichen Biogas-und Rohgüllen unter kontrollierten Bedingungen geprüft werden. Daher wurde ein 70-tägiger Gewächshausversuch mit den Güllen der biologisch-dynamischen Betriebe auf einem tonigen Schluff und unter Weidelgras (Lolium multiflorum, var. Ligrande) durchgeführt. Ziel war es, die Effekte unterschiedlicher Güllen auf das Pflanzenwachstum und die mikrobiellen Eigenschaften im Boden und an Wurzeln zu untersuchen. Die Düngung erhöhte die durchschnittliche oberirdische Pflanzenbiomasse um 69% unter Biogasgülle und um 36% unter Rohgülle im Vergleich zur ungedüngten Kontrolle. Zwischen der oberirdischen Biomasse und dem zugeführten NH4-N wurde ein stark linearer Zusammenhang festgestellt. Im Gegensatz zu den Biogasgüllen gab es unter den Rohgüllen einen signifikanten Anstieg des mikrobiellen Biomasse C und N um etwa 25% verglichen zur ungedüngten Kontrollvariante. Der Einsatz von Biogasgüllen führte gegenüber der Rohgülle und Kontrolle zu geringeren Ergosterolgehalten im Boden, was ein engeres Verhältnis von Ergosterol zu mikrobieller Biomasse C zur Folge hatte. Bezogen auf die Wurzeltrockenmasse verringerte die Düngung die Konzentrationen der Aminozucker Muraminsäure, Galaktosamin und Glukosamin um 24, 29 und 37%, gleichzeitig wurde jedoch kein Einfluss auf die Ergosterolgehalte festgestellt. Dies war höchstwahrscheinlich Folge der reduzierten Kolonisierung mit arbuskulärer Mykorrhiza in Gegenwart ausreichend verfügbarer Pflanzennährstoffen. Um einen Eindruck über die mikrobielle Biomasse und die mikrobielle Gemeinschaft in Biogas- und Rohgüllen zu bekommen, wurde ein drittes Projekt durchgeführt. Die von den 6 biologisch-dynamischen Betrieben erhaltenen Güllen wurden auf ihre Ergosterol- und Aminozuckerkonzentrationen untersucht. Hierbei entstand eine zuverlässige und präzise Methode zur Bestimmung von Ergosterol in Biogas- und Roghüllen. Die Biogasgüllen enthielten signifikant geringere Konzentrationen an Ergosterol (-34%), MurN (-42%), GalN (-32%) und pilzlichem GlcN (-40%) im Vergleich zu den Rohgüllen. Die durchschnittlichen Verhältnisse von pilzlichem GlcN zu Ergosterol (50) und pilzlichem C zu bakteriellem C (0.29) zeigten keine signifikanten Unterschiede zwischen den Gülletypen. Die durchschnittliche Konzentration von mikrobiellem C war in Biogasgülle signifikant geringer als in Rohgülle. Demzufolge lag der Anteil des mikrobiellen C am organischen C bei 3.6% in den Biogasgüllen und 5.7% in den Rohgüllen. Zwischen dem mikrobiellen C der Güllen und deren Faser- und Aschegehalte, sowie den pH-Werten und den CN Verhältnissen konnten nicht-lineare Zusammenhänge festgestellt werden.