946 resultados para Tell and show routine
Resumo:
We study general properties of the Landau-gauge Gribov ghost form factor sigma(p(2)) for SU(N-c) Yang-Mills theories in the d-dimensional case. We find a qualitatively different behavior for d = 3, 4 with respect to the d = 2 case. In particular, considering any (sufficiently regular) gluon propagator D(p(2)) and the one-loop-corrected ghost propagator, we prove in the 2d case that the function sigma(p(2)) blows up in the infrared limit p -> 0 as -D(0) ln(p(2)). Thus, for d = 2, the no-pole condition sigma(p(2)) < 1 (for p(2) > 0) can be satisfied only if the gluon propagator vanishes at zero momentum, that is, D(0) = 0. On the contrary, in d = 3 and 4, sigma(p(2)) is finite also if D(0) > 0. The same results are obtained by evaluating the ghost propagator G(p(2)) explicitly at one loop, using fitting forms for D(p(2)) that describe well the numerical data of the gluon propagator in two, three and four space-time dimensions in the SU(2) case. These evaluations also show that, if one considers the coupling constant g(2) as a free parameter, the ghost propagator admits a one-parameter family of behaviors (labeled by g(2)), in agreement with previous works by Boucaud et al. In this case the condition sigma(0) <= 1 implies g(2) <= g(c)(2), where g(c)(2) is a "critical" value. Moreover, a freelike ghost propagator in the infrared limit is obtained for any value of g(2) smaller than g(c)(2), while for g(2) = g(c)(2) one finds an infrared-enhanced ghost propagator. Finally, we analyze the Dyson-Schwinger equation for sigma(p(2)) and show that, for infrared-finite ghost-gluon vertices, one can bound the ghost form factor sigma(p(2)). Using these bounds we find again that only in the d = 2 case does one need to impose D(0) = 0 in order to satisfy the no-pole condition. The d = 2 result is also supported by an analysis of the Dyson-Schwinger equation using a spectral representation for the ghost propagator. Thus, if the no-pole condition is imposed, solving the d = 2 Dyson-Schwinger equations cannot lead to a massive behavior for the gluon propagator. These results apply to any Gribov copy inside the so-called first Gribov horizon; i.e., the 2d result D(0) = 0 is not affected by Gribov noise. These findings are also in agreement with lattice data.
Resumo:
Well-established statistical approaches such as transition-state theory based on high-level calculated potential energy profiles are unable to account for the selectivity observed in the gas-phase OH- + CH3ONO2 reaction. This reaction can undergo bimolecular nucleophilic displacement at either the carbon center (S(N)2@C) or the nitrogen center (S(N)2@N) as well as a proton abstraction followed by dissociation (E(CO)2) pathway. Direct dynamics simulations yield an S(N)2:E(CO)2 product ratio in close agreement with experiment and show that the lack of reactivity at the nitrogen atom is due to the highly negative electrostatic potential generated by the oxygen atoms in the ONO2 group that scatters the incoming OH-. In addition to these dynamical effects, the nonstatistical behavior of these reactions is attributed to the absence of equilibrated reactant complexes and to the large number of recrossings, which might be present in several ion-molecule gas-phase reactions.
Resumo:
Abstract Background The gene coding for the uncharacterized protein PAB1135 in the archaeon Pyrococcus abyssi is in the same operon as the ribonuclease P (RNase P) subunit Rpp30. Findings Here we report the expression, purification and structural analysis of PAB1135. We analyzed the interaction of PAB1135 with RNA and show that it binds efficiently double-stranded RNAs in a non-sequence specific manner. We also performed molecular modeling of the PAB1135 structure using the crystal structure of the protein Af2318 from Archaeoglobus fulgidus (2OGK) as the template. Conclusions Comparison of this model has lead to the identification of a region in PAB1135 that could be involved in recognizing double-stranded RNA.
Resumo:
The hormone oxytocin is released by the neuropituitary gland through stimulation of the neurons of the supraoptic and paraventricular nuclei of the hypothalamus. In order to determine the physiological concentrations of this hormone in domestic cats, blood samples were collected from 15 male animals (Felis silvestris catus) during the pre- and post-puberty periods (at four and eight months of age, respectively). Oxytocin determination was accomplished by radioimmunoassay. The average oxytocin concentrations measured in the pre- and post-puberty periods were 2.54±0.24 (μg/dL) and 2.53±0.28 (μg/dL), respectively, and there were no statistical differences between these measurements. Because there are few literature on the analysis of this hormone, especially in the case of male Felis silvestris catus, more studies on the influence of oxytocin on the physiology and reproduction of this species should be conducted under maintenance and situations of stress (such as transportation), and other routine events.
Resumo:
The pantropical family Eriocaulaceae includes ten genera and c. 1,400 species, with diversity concentrated in the New World. The last complete revision of the family was published more than 100 years ago, and until recently the generic and infrageneric relationships were poorly resolved. However, a multi-disciplinary approach over the last 30 years, using morphological and anatomical characters, has been supplemented with additional data from palynology, chemistry, embryology, population genetics, cytology and, more recently, molecular phylogenetic studies. This led to a reassessment of phylogenetic relationships within the family. In this paper we present new data for the ITS and trnL-F regions, analysed separately and in combination, using maximum parsimony and Bayesian inference. The data confirm previous results, and show that many characters traditionally used for differentiating and circumscribing the genera within the family are homoplasious. A new generic key with characters from various sources and reflecting the current taxonomic changes is presented.
Resumo:
The use of type Ia supernovae as distance estimators has shown that about 75% of the energy content of the universe has a negative equation of state parameter and thus, drives the acceleration of the universe. Constraining the exact nature of this energy is one of the main goals in cosmology. As the statistics of observed high-redshift supernovae increases, systematic effects become the limiting factor to pursue such investigations, thus deeper understanding of the physical properties of SNe is of great importance. In this thesis we investigate spectral homogeneity and diversity of local and high redshift supernovae. Special emphasis has been given to the analysis of optical spectra of local peculiar supernovae 1999aa and 1999ac. The study of the spectra of SN 1999aa pointed out that this SN could be a link between the extreme peculiar SN 1991T and normal SNe. Moreover, the identification of a high velocity component of Ca II and possibly of a low velocity component of C III suggests some degree of asphericity in the ejecta of this supernova. Evidence for a deflagration of a C+O white dwarf was found in the early spectra of SN 1999ac. The spectral proprieties of a vast sample of local SNe are also studied by means of newly introduced spectral indicators. These were used to possibly improve the intrinsic spread of SN peak magnitudes to 0.15 mag, independently of light curve parameters. The first quantitative comparison between local and high redshift supernova is carried out. No evidence for extreme peculiar sub-luminous SNe was found in our data set including 13 SNe with redshift range z=0.279-0.912. Furthermore, SN2002fd (z=0.279) was found to show spectral characteristics similar to SN 1991T/SN 1999aa-like supernovae. We also present a feasibility study of the Hubble diagram in rest frame I-band up to z~0.5, and show the possibility to probe the presence of intergalactic dust, which could possibly mimic the effect of dark energy in the Hubble diagram.
Resumo:
Se il lavoro dello storico è capire il passato come è stato compreso dalla gente che lo ha vissuto, allora forse non è azzardato pensare che sia anche necessario comunicare i risultati delle ricerche con strumenti propri che appartengono a un'epoca e che influenzano la mentalità di chi in quell'epoca vive. Emergenti tecnologie, specialmente nell’area della multimedialità come la realtà virtuale, permettono agli storici di comunicare l’esperienza del passato in più sensi. In che modo la storia collabora con le tecnologie informatiche soffermandosi sulla possibilità di fare ricostruzioni storiche virtuali, con relativi esempi e recensioni? Quello che maggiormente preoccupa gli storici è se una ricostruzione di un fatto passato vissuto attraverso la sua ricreazione in pixels sia un metodo di conoscenza della storia che possa essere considerato valido. Ovvero l'emozione che la navigazione in una realtà 3D può suscitare, è un mezzo in grado di trasmettere conoscenza? O forse l'idea che abbiamo del passato e del suo studio viene sottilmente cambiato nel momento in cui lo si divulga attraverso la grafica 3D? Da tempo però la disciplina ha cominciato a fare i conti con questa situazione, costretta soprattutto dall'invasività di questo tipo di media, dalla spettacolarizzazione del passato e da una divulgazione del passato parziale e antiscientifica. In un mondo post letterario bisogna cominciare a pensare che la cultura visuale nella quale siamo immersi sta cambiando il nostro rapporto con il passato: non per questo le conoscenze maturate fino ad oggi sono false, ma è necessario riconoscere che esiste più di una verità storica, a volte scritta a volte visuale. Il computer è diventato una piattaforma onnipresente per la rappresentazione e diffusione dell’informazione. I metodi di interazione e rappresentazione stanno evolvendo di continuo. Ed è su questi due binari che è si muove l’offerta delle tecnologie informatiche al servizio della storia. Lo scopo di questa tesi è proprio quello di esplorare, attraverso l’utilizzo e la sperimentazione di diversi strumenti e tecnologie informatiche, come si può raccontare efficacemente il passato attraverso oggetti tridimensionali e gli ambienti virtuali, e come, nel loro essere elementi caratterizzanti di comunicazione, in che modo possono collaborare, in questo caso particolare, con la disciplina storica. La presente ricerca ricostruisce alcune linee di storia delle principali fabbriche attive a Torino durante la seconda guerra mondiale, ricordando stretta relazione che esiste tra strutture ed individui e in questa città in particolare tra fabbrica e movimento operaio, è inevitabile addentrarsi nelle vicende del movimento operaio torinese che nel periodo della lotta di Liberazione in città fu un soggetto politico e sociale di primo rilievo. Nella città, intesa come entità biologica coinvolta nella guerra, la fabbrica (o le fabbriche) diventa il nucleo concettuale attraverso il quale leggere la città: sono le fabbriche gli obiettivi principali dei bombardamenti ed è nelle fabbriche che si combatte una guerra di liberazione tra classe operaia e autorità, di fabbrica e cittadine. La fabbrica diventa il luogo di "usurpazione del potere" di cui parla Weber, il palcoscenico in cui si tengono i diversi episodi della guerra: scioperi, deportazioni, occupazioni .... Il modello della città qui rappresentata non è una semplice visualizzazione ma un sistema informativo dove la realtà modellata è rappresentata da oggetti, che fanno da teatro allo svolgimento di avvenimenti con una precisa collocazione cronologica, al cui interno è possibile effettuare operazioni di selezione di render statici (immagini), di filmati precalcolati (animazioni) e di scenari navigabili interattivamente oltre ad attività di ricerca di fonti bibliografiche e commenti di studiosi segnatamente legati all'evento in oggetto. Obiettivo di questo lavoro è far interagire, attraverso diversi progetti, le discipline storiche e l’informatica, nelle diverse opportunità tecnologiche che questa presenta. Le possibilità di ricostruzione offerte dal 3D vengono così messe a servizio della ricerca, offrendo una visione integrale in grado di avvicinarci alla realtà dell’epoca presa in considerazione e convogliando in un’unica piattaforma espositiva tutti i risultati. Divulgazione Progetto Mappa Informativa Multimediale Torino 1945 Sul piano pratico il progetto prevede una interfaccia navigabile (tecnologia Flash) che rappresenti la pianta della città dell’epoca, attraverso la quale sia possibile avere una visione dei luoghi e dei tempi in cui la Liberazione prese forma, sia a livello concettuale, sia a livello pratico. Questo intreccio di coordinate nello spazio e nel tempo non solo migliora la comprensione dei fenomeni, ma crea un maggiore interesse sull’argomento attraverso l’utilizzo di strumenti divulgativi di grande efficacia (e appeal) senza perdere di vista la necessità di valicare le tesi storiche proponendosi come piattaforma didattica. Un tale contesto richiede uno studio approfondito degli eventi storici al fine di ricostruire con chiarezza una mappa della città che sia precisa sia topograficamente sia a livello di navigazione multimediale. La preparazione della cartina deve seguire gli standard del momento, perciò le soluzioni informatiche utilizzate sono quelle fornite da Adobe Illustrator per la realizzazione della topografia, e da Macromedia Flash per la creazione di un’interfaccia di navigazione. La base dei dati descrittivi è ovviamente consultabile essendo contenuta nel supporto media e totalmente annotata nella bibliografia. È il continuo evolvere delle tecnologie d'informazione e la massiccia diffusione dell’uso dei computer che ci porta a un cambiamento sostanziale nello studio e nell’apprendimento storico; le strutture accademiche e gli operatori economici hanno fatto propria la richiesta che giunge dall'utenza (insegnanti, studenti, operatori dei Beni Culturali) di una maggiore diffusione della conoscenza storica attraverso la sua rappresentazione informatizzata. Sul fronte didattico la ricostruzione di una realtà storica attraverso strumenti informatici consente anche ai non-storici di toccare con mano quelle che sono le problematiche della ricerca quali fonti mancanti, buchi della cronologia e valutazione della veridicità dei fatti attraverso prove. Le tecnologie informatiche permettono una visione completa, unitaria ed esauriente del passato, convogliando tutte le informazioni su un'unica piattaforma, permettendo anche a chi non è specializzato di comprendere immediatamente di cosa si parla. Il miglior libro di storia, per sua natura, non può farlo in quanto divide e organizza le notizie in modo diverso. In questo modo agli studenti viene data l'opportunità di apprendere tramite una rappresentazione diversa rispetto a quelle a cui sono abituati. La premessa centrale del progetto è che i risultati nell'apprendimento degli studenti possono essere migliorati se un concetto o un contenuto viene comunicato attraverso più canali di espressione, nel nostro caso attraverso un testo, immagini e un oggetto multimediale. Didattica La Conceria Fiorio è uno dei luoghi-simbolo della Resistenza torinese. Il progetto è una ricostruzione in realtà virtuale della Conceria Fiorio di Torino. La ricostruzione serve a arricchire la cultura storica sia a chi la produce, attraverso una ricerca accurata delle fonti, sia a chi può poi usufruirne, soprattutto i giovani, che, attratti dall’aspetto ludico della ricostruzione, apprendono con più facilità. La costruzione di un manufatto in 3D fornisce agli studenti le basi per riconoscere ed esprimere la giusta relazione fra il modello e l’oggetto storico. Le fasi di lavoro attraverso cui si è giunti alla ricostruzione in 3D della Conceria: . una ricerca storica approfondita, basata sulle fonti, che possono essere documenti degli archivi o scavi archeologici, fonti iconografiche, cartografiche, ecc.; . La modellazione degli edifici sulla base delle ricerche storiche, per fornire la struttura geometrica poligonale che permetta la navigazione tridimensionale; . La realizzazione, attraverso gli strumenti della computer graphic della navigazione in 3D. Unreal Technology è il nome dato al motore grafico utilizzato in numerosi videogiochi commerciali. Una delle caratteristiche fondamentali di tale prodotto è quella di avere uno strumento chiamato Unreal editor con cui è possibile costruire mondi virtuali, e che è quello utilizzato per questo progetto. UnrealEd (Ued) è il software per creare livelli per Unreal e i giochi basati sul motore di Unreal. E’ stata utilizzata la versione gratuita dell’editor. Il risultato finale del progetto è un ambiente virtuale navigabile raffigurante una ricostruzione accurata della Conceria Fiorio ai tempi della Resistenza. L’utente può visitare l’edificio e visualizzare informazioni specifiche su alcuni punti di interesse. La navigazione viene effettuata in prima persona, un processo di “spettacolarizzazione” degli ambienti visitati attraverso un arredamento consono permette all'utente una maggiore immersività rendendo l’ambiente più credibile e immediatamente codificabile. L’architettura Unreal Technology ha permesso di ottenere un buon risultato in un tempo brevissimo, senza che fossero necessari interventi di programmazione. Questo motore è, quindi, particolarmente adatto alla realizzazione rapida di prototipi di una discreta qualità, La presenza di un certo numero di bug lo rende, però, in parte inaffidabile. Utilizzare un editor da videogame per questa ricostruzione auspica la possibilità di un suo impiego nella didattica, quello che le simulazioni in 3D permettono nel caso specifico è di permettere agli studenti di sperimentare il lavoro della ricostruzione storica, con tutti i problemi che lo storico deve affrontare nel ricreare il passato. Questo lavoro vuole essere per gli storici una esperienza nella direzione della creazione di un repertorio espressivo più ampio, che includa gli ambienti tridimensionali. Il rischio di impiegare del tempo per imparare come funziona questa tecnologia per generare spazi virtuali rende scettici quanti si impegnano nell'insegnamento, ma le esperienze di progetti sviluppati, soprattutto all’estero, servono a capire che sono un buon investimento. Il fatto che una software house, che crea un videogame di grande successo di pubblico, includa nel suo prodotto, una serie di strumenti che consentano all'utente la creazione di mondi propri in cui giocare, è sintomatico che l'alfabetizzazione informatica degli utenti medi sta crescendo sempre più rapidamente e che l'utilizzo di un editor come Unreal Engine sarà in futuro una attività alla portata di un pubblico sempre più vasto. Questo ci mette nelle condizioni di progettare moduli di insegnamento più immersivi, in cui l'esperienza della ricerca e della ricostruzione del passato si intreccino con lo studio più tradizionale degli avvenimenti di una certa epoca. I mondi virtuali interattivi vengono spesso definiti come la forma culturale chiave del XXI secolo, come il cinema lo è stato per il XX. Lo scopo di questo lavoro è stato quello di suggerire che vi sono grosse opportunità per gli storici impiegando gli oggetti e le ambientazioni in 3D, e che essi devono coglierle. Si consideri il fatto che l’estetica abbia un effetto sull’epistemologia. O almeno sulla forma che i risultati delle ricerche storiche assumono nel momento in cui devono essere diffuse. Un’analisi storica fatta in maniera superficiale o con presupposti errati può comunque essere diffusa e avere credito in numerosi ambienti se diffusa con mezzi accattivanti e moderni. Ecco perchè non conviene seppellire un buon lavoro in qualche biblioteca, in attesa che qualcuno lo scopra. Ecco perchè gli storici non devono ignorare il 3D. La nostra capacità, come studiosi e studenti, di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio che il 3D porta con sè, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Una ricostruzione storica può essere molto utile dal punto di vista educativo non sono da chi la visita ma, anche da chi la realizza. La fase di ricerca necessaria per la ricostruzione non può fare altro che aumentare il background culturale dello sviluppatore. Conclusioni La cosa più importante è stata la possibilità di fare esperienze nell’uso di mezzi di comunicazione di questo genere per raccontare e far conoscere il passato. Rovesciando il paradigma conoscitivo che avevo appreso negli studi umanistici, ho cercato di desumere quelle che potremo chiamare “leggi universali” dai dati oggettivi emersi da questi esperimenti. Da punto di vista epistemologico l’informatica, con la sua capacità di gestire masse impressionanti di dati, dà agli studiosi la possibilità di formulare delle ipotesi e poi accertarle o smentirle tramite ricostruzioni e simulazioni. Il mio lavoro è andato in questa direzione, cercando conoscere e usare strumenti attuali che nel futuro avranno sempre maggiore presenza nella comunicazione (anche scientifica) e che sono i mezzi di comunicazione d’eccellenza per determinate fasce d’età (adolescenti). Volendo spingere all’estremo i termini possiamo dire che la sfida che oggi la cultura visuale pone ai metodi tradizionali del fare storia è la stessa che Erodoto e Tucidide contrapposero ai narratori di miti e leggende. Prima di Erodoto esisteva il mito, che era un mezzo perfettamente adeguato per raccontare e dare significato al passato di una tribù o di una città. In un mondo post letterario la nostra conoscenza del passato sta sottilmente mutando nel momento in cui lo vediamo rappresentato da pixel o quando le informazioni scaturiscono non da sole, ma grazie all’interattività con il mezzo. La nostra capacità come studiosi e studenti di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio sottinteso al 3D, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Le esperienze raccolte nelle pagine precedenti ci portano a pensare che in un futuro non troppo lontano uno strumento come il computer sarà l’unico mezzo attraverso cui trasmettere conoscenze, e dal punto di vista didattico la sua interattività consente coinvolgimento negli studenti come nessun altro mezzo di comunicazione moderno.
Resumo:
Investigations on formation and specification of neural precursor cells in the central nervous system of the Drosophila melanogaster embryoSpecification of a unique cell fate during development of a multicellular organism often is a function of its position. The Drosophila central nervous system (CNS) provides an ideal system to dissect signalling events during development that lead to cell specific patterns. Different cell types in the CNS are formed from a relatively few precursor cells, the neuroblasts (NBs), which delaminate from the neurogenic region of the ectoderm. The delamination occurs in five waves, S1-S5, finally leading to a subepidermal layer consisting of about 30 NBs, each with a unique identity, arranged in a stereotyped spatial pattern in each hemisegment. This information depends on several factors such as the concentrations of various morphogens, cell-cell interactions and long range signals present at the position and time of its birth. The early NBs, delaminating during S1 and S2, form an orthogonal array of four rows (2/3,4,5,6/7) and three columns (medial, intermediate, and lateral) . However, the three column and four row-arrangement pattern is only transitory during early stages of neurogenesis which is obscured by late emerging (S3-S5) neuroblasts (Doe and Goodman, 1985; Goodman and Doe, 1993). Therefore the aim of my study has been to identify novel genes which play a role in the formation or specification of late delaminating NBs.In this study the gene anterior open or yan was picked up in a genetic screen to identity novel and yet unidentified genes in the process of late neuroblast formation and specification. I have shown that the gene yan is responsible for maintaining the cells of the neuroectoderm in an undifferentiated state by interfering with the Notch signalling mechanism. Secondly, I have studied the function and interactions of segment polarity genes within a certain neuroectodermal region, namely the engrailed (en) expressing domain, with regard to the fate specification of a set of late neuroblasts, namely NB 6-4 and NB 7-3. I have dissected the regulatory interaction of the segment polarity genes wingless (wg), hedgehog (hh) and engrailed (en) as they maintain each others expression to show that En is a prerequisite for neurogenesis and show that the interplay of the segmentation genes naked (nkd) and gooseberry (gsb), both of which are targets of wingless (wg) activity, leads to differential commitment of NB 7-3 and NB 6-4 cell fate. I have shown that in the absence of either nkd or gsb one NB fate is replaced by the other. However, the temporal sequence of delamination is maintained, suggesting that formation and specification of these two NBs are under independent control.
Resumo:
Questa tesi ricostruisce la storia della giurisprudenza italiana che ha riguardato la legittimità o meno dell’impiego della diagnosi genetica preimpianto nell’ambito della procreazione medicalmente assistita, dall’emanazione della legge 40 del 2004 a tutt’oggi. Ed in particolare questa tesi si prefigge due obiettivi: uno, individuare ed illustrare le tipologie di argomenti utilizzati dal giurista-interprete per giudicare della legittimità o meno della pratica della diagnosi preimpianto degli embrioni prodotti, mediante le tecniche relative alla procreazione assistita; l’altro obiettivo, mostrare sia lo scontro fra i differenti argomenti, sia le ragioni per le quali prevalgono gli argomenti usati per legittimare la pratica della diagnosi preimpianto. Per raggiungere questi obiettivi, e per mostrare in maniera fenomenologica come avviene l’interpretazione giuridica in materia di diagnosi preimpianto, si è fatto principalmente riferimento alla visione che ha della detta interpretazione la prospettiva ermeneutica (concepita originariamente sul piano teoretico, quale ermeneutica filosofica, da H.G. Gadamer; divulgata ed approfondita sul piano giusfilosofico e della teoria dell’interpretazione giudica in Italia, fra gli altri, da F. Viola e G. Zaccaria). Così, in considerazione dei vari argomenti utilizzati per valutare la legittimità o meno della pratica della diagnosi preimpianto, i motivi per i quali in ultimo il giurista-interprete per giudicare ragionevolmente, deve ritenere legittima la pratica della diagnosi preimpianto sono i seguenti. I principi superiori dell’ordinamento e talune direttive giuridiche fondamentali dell’ordinamento, elaborate della giurisprudenza, le quali costituiscono la concretizzazione di detti principi e di una serie di disposizioni normative fondamentali per disciplinare il fenomeno procreativo, depongono per la legittimità della diagnosi preimpianto. Le tipologie degli argomenti impiegati per avallare la legittimità della diagnosi preimpianto attengono al tradizionale repertorio argomentativo a cui attinge il giurista, mentre la stessa cosa non si può dire per gli argomenti usati per negare la legittimità della diagnosi. Talune tipologie di argomenti utilizzate per negare la legittimità della diagnosi preimpianto costituiscono delle fallacie logiche, per esempio l’argomento del pendio scivoloso, e soprattutto le tipologie degli argomenti utilizzati per sostenere la legittimità della diagnosi preimpianto sono per lo più caratterizzate dalla ragionevolezza ed applicate per lo più opportunamente. Poi, si può osservare che: determinati argomenti, associati dal giurista-interprete ai principi i quali depongono per l’illegittimità della diagnosi preimpianto, facendo leva sulla categoria della possibilità, ed equiparando attualità e possibilità, privilegiano l’immaginazione alla realtà e portano a risultati interpretativi non razionalmente fondati; mentre gli argomenti associati dal giurista-interprete ai principi i quali depongono per la legittimità della diagnosi preimpianto, facendo leva sulla categoria della attualità, e tenendo ben distinte attualità e possibilità, privilegiano l’osservazione della realtà e portano a risultati razionalmente fondati.
Resumo:
This thesis presents new methods to simulate systems with hydrodynamic and electrostatic interactions. Part 1 is devoted to computer simulations of Brownian particles with hydrodynamic interactions. The main influence of the solvent on the dynamics of Brownian particles is that it mediates hydrodynamic interactions. In the method, this is simulated by numerical solution of the Navier--Stokes equation on a lattice. To this end, the Lattice--Boltzmann method is used, namely its D3Q19 version. This model is capable to simulate compressible flow. It gives us the advantage to treat dense systems, in particular away from thermal equilibrium. The Lattice--Boltzmann equation is coupled to the particles via a friction force. In addition to this force, acting on {it point} particles, we construct another coupling force, which comes from the pressure tensor. The coupling is purely local, i.~e. the algorithm scales linearly with the total number of particles. In order to be able to map the physical properties of the Lattice--Boltzmann fluid onto a Molecular Dynamics (MD) fluid, the case of an almost incompressible flow is considered. The Fluctuation--Dissipation theorem for the hybrid coupling is analyzed, and a geometric interpretation of the friction coefficient in terms of a Stokes radius is given. Part 2 is devoted to the simulation of charged particles. We present a novel method for obtaining Coulomb interactions as the potential of mean force between charges which are dynamically coupled to a local electromagnetic field. This algorithm scales linearly, too. We focus on the Molecular Dynamics version of the method and show that it is intimately related to the Car--Parrinello approach, while being equivalent to solving Maxwell's equations with freely adjustable speed of light. The Lagrangian formulation of the coupled particles--fields system is derived. The quasi--Hamiltonian dynamics of the system is studied in great detail. For implementation on the computer, the equations of motion are discretized with respect to both space and time. The discretization of the electromagnetic fields on a lattice, as well as the interpolation of the particle charges on the lattice is given. The algorithm is as local as possible: Only nearest neighbors sites of the lattice are interacting with a charged particle. Unphysical self--energies arise as a result of the lattice interpolation of charges, and are corrected by a subtraction scheme based on the exact lattice Green's function. The method allows easy parallelization using standard domain decomposition. Some benchmarking results of the algorithm are presented and discussed.
Resumo:
Particle concentration is a principal factor that affects erosion rate of solid surfaces under particle impact, such as pipe bends in pneumatic conveyors; it is well known that a reduction in the specific erosion rate occurs under high particle concentrations, a phenomenon referred to as the “shielding effect”. The cause of shielding is believed to be increased likelihood of inter-particulate collisions, the high collision probability between incoming and rebounding particles reducing the frequency and the severity of particle impacts on the target surface. In this study, the effects of particle concentration on erosion of a mild steel bend surface have been investigated in detail using three different particulate materials on an industrial scale pneumatic conveying test rig. The materials were studied so that two had the same particle density but very different particle size, whereas two had very similar particle size but very different particle density. Experimental results confirm the shielding effect due to high particle concentration and show that the particle density has a far more significant influence than the particle size, on the magnitude of the shielding effect. A new method of correcting for change in erosivity of the particles in repeated handling, to take this factor out of the data, has been established, and appears to be successful. Moreover, a novel empirical model of the shielding effects has been used, in term of erosion resistance which appears to decrease linearly when the particle concentration decreases. With the model it is possible to find the specific erosion rate when the particle concentration tends to zero, and conversely predict how the specific erosion rate changes at finite values of particle concentration; this is critical to enable component life to be predicted from erosion tester results, as the variation of the shielding effect with concentration is different in these two scenarios. In addition a previously unreported phenomenon has been recorded, of a particulate material whose erosivity has steadily increased during repeated impacts.
Resumo:
Non-Equilibrium Statistical Mechanics is a broad subject. Grossly speaking, it deals with systems which have not yet relaxed to an equilibrium state, or else with systems which are in a steady non-equilibrium state, or with more general situations. They are characterized by external forcing and internal fluxes, resulting in a net production of entropy which quantifies dissipation and the extent by which, by the Second Law of Thermodynamics, time-reversal invariance is broken. In this thesis we discuss some of the mathematical structures involved with generic discrete-state-space non-equilibrium systems, that we depict with networks in all analogous to electrical networks. We define suitable observables and derive their linear regime relationships, we discuss a duality between external and internal observables that reverses the role of the system and of the environment, we show that network observables serve as constraints for a derivation of the minimum entropy production principle. We dwell on deep combinatorial aspects regarding linear response determinants, which are related to spanning tree polynomials in graph theory, and we give a geometrical interpretation of observables in terms of Wilson loops of a connection and gauge degrees of freedom. We specialize the formalism to continuous-time Markov chains, we give a physical interpretation for observables in terms of locally detailed balanced rates, we prove many variants of the fluctuation theorem, and show that a well-known expression for the entropy production due to Schnakenberg descends from considerations of gauge invariance, where the gauge symmetry is related to the freedom in the choice of a prior probability distribution. As an additional topic of geometrical flavor related to continuous-time Markov chains, we discuss the Fisher-Rao geometry of nonequilibrium decay modes, showing that the Fisher matrix contains information about many aspects of non-equilibrium behavior, including non-equilibrium phase transitions and superposition of modes. We establish a sort of statistical equivalence principle and discuss the behavior of the Fisher matrix under time-reversal. To conclude, we propose that geometry and combinatorics might greatly increase our understanding of nonequilibrium phenomena.
Resumo:
The development and characterization of biomolecule sensor formats based on the optical technique Surface Plasmon Resonance (SPR) Spectroscopy and electrochemical methods were investigated. The study can be divided into two parts of different scope. In the first part new novel detection schemes for labeled targets were developed on the basis of the investigations in Surface-plamon Field Enhanced Spectroscopy (SPFS). The first one is SPR fluorescence imaging formats, Surface-plamon Field Enhanced Fluorescence Microscopy (SPFM). Patterned self assembled monolayers (SAMs) were prepared and used to direct the spatial distribution of biomolecules immobilized on surfaces. Here the patterned monolayers would serve as molecular templates to secure different biomolecules to known locations on a surface. The binding processed of labeled target biomolecules from solution to sensor surface were visually and kinetically recorded by the fluorescence microscope, in which fluorescence was excited by the evanescent field of propagating plasmon surface polaritons. The second format which also originates from SPFS technique, Surface-plamon Field Enhanced Fluorescence Spectrometry (SPFSm), concerns the coupling of a fluorometry to normal SPR setup. A spectrograph mounted in place of photomultiplier or microscope can provide the information of fluorescence spectrum as well as fluorescence intensity. This study also firstly demonstrated the analytical combination of surface plasmon enhanced fluorescence detection with analyte tagged by semiconducting nano- crystals (QDs). Electrochemically addressable fabrication of DNA biosensor arrays in aqueous environment was also developed. An electrochemical method was introduced for the directed in-situ assembly of various specific oligonucleotide catcher probes onto different sensing elements of a multi-electrode array in the aqueous environment of a flow cell. Surface plasmon microscopy (SPM) is utilized for the on-line recording of the various functionalization steps. Hybridization reactions between targets from solution to the different surface-bound complementary probes are monitored by surface-plasmon field-enhanced fluorescence microscopy (SPFM) using targets that are either labeled with organic dyes or with semiconducting quantum dots for color-multiplexing. This study provides a new approach for the fabrication of (small) DNA arrays and the recording and quantitative evaluation of parallel hybridization reactions. In the second part of this work, the ideas of combining the SP optical and electrochemical characterization were extended to tethered bilayer lipid membrane (tBLM) format. Tethered bilayer lipid membranes provide a versatile model platform for the study of many membrane related processes. The thiolipids were firstly self-assembled on ultraflat gold substrates. Fusion of the monolayers with small unilamellar vesicles (SUVs) formed the distal layer and the membranes thus obtained have the sealing properties comparable to those of natural membranes. The fusion could be monitored optically by SPR as an increase in reflectivity (thickness) upon formation of the outer leaflet of the bilayer. With EIS, a drop in capacitance and a steady increase in resistance could be observed leading to a tightly sealing membrane with low leakage currents. The assembly of tBLMs and the subsequent incorporation of membrane proteins were investigated with respect to their potential use as a biosensing system. In the case of valinomycin the potassium transport mediated by the ion carrier could be shown by a decrease in resistance upon increasing potassium concentration. Potential mediation of membrane pores could be shown for the ion channel forming peptide alamethicin (Alm). It was shown that at high positive dc bias (cis negative) Alm channels stay at relatively low conductance levels and show higher permeability to potassium than to tetramethylammonium. The addition of inhibitor amiloride can partially block the Alm channels and results in increase of membrane resistance. tBLMs are robust and versatile model membrane architectures that can mimic certain properties of biological membranes. tBLMs with incorporated lipopolysaccharide (LPS) and lipid A mimicking bacteria membranes were used to probe the interactions of antibodies against LPS and to investigate the binding and incorporation of the small antimicrobial peptide V4. The influence of membrane composition and charge on the behavior of V4 was also probed. This study displays the possibility of using tBLM platform to record and valuate the efficiency or potency of numerous synthesized antimicrobial peptides as potential drug candidates.
Resumo:
Die alkoholische Leberzirrhose ist eine anerkannte Indikation für eine Lebertransplantation. Die Prognose dieser Patientengruppe ist bei sicherer Langzeitabstinenz besser als diejenige von Patienten mit einer Leberzirrhose anderer Genese. Jeglicher Alkoholkonsum stellt eine absolute Kontraindikation für eine Transplantation dar. In vielen Ländern gibt es die Forderung nach einer sechsmonatigen Alkoholabstinenz sowie einer guten Compliance vor der Lebertransplantation. Zu deren Überprüfung stehen in der Praxis meist methodisch unzureichende Standards zur Verfügung. Mit der seit den 80er Jahren in der Rechtsmedizin etablierten Alkoholbegleitstoff-Analyse werden die Serumkonzentrationen von Ethanol und anderen Alkoholen und Begleitstoffen, wie z.B. dem Methanol, bestimmt. Methanol ist ein sensitiver und spezifischer Indikator für einen rezenten Alkoholkonsum, da es aufgrund von kompetitiver Hemmung der ADH durch exogen herbeigeführtes (konsumiertes) Ethanol im Serum akkumuliert. Die Alkoholbegleitstoff-Analyse eignet sich im klinischen Alltag zur Überprüfung eines rezenten Alkoholkonsums bei Patienten mit Alkoholismushintergrund. rnIn dieser Studie wurde der Methanoltest standardisiert bei 41 Patienten mit einer ALC auf der Warteliste für eine LTx angewandt. Es wurde bei 32 von 92 Blutuntersuchungen ein Rückfall nachgewiesen, während die Selbstauskunft und der Ethanoltest jeweils nur in 3 Fällen positiv ausfielen. Der Methanoltest wies also in 29 Fällen (1/3) einen rezenten Alkoholkonsum nach, der weder in der Selbstauskunft noch durch den Ethanoltest aufgedeckt worden war.rnEs konnte gezeigt werden, dass der Methanoltest als Bestandteil der Alkoholbegleitstoff-Analyse für die Überprüfung des Abstinenzverhaltens von Patienten mit alkoholtoxischer Leberzirrhose auf der Warteliste vor Transplantation besser geeignet ist als die Selbstauskunft und der direkte Nachweis von Ethanol im Blut der Patienten. In der Praxis zeigte sich, dass mit einer unangekündigten Untersuchung mehr Rückfälle diagnostiziert werden können als bei länger im Voraus geplanten Routine-Untersuchungsterminen. rn
Resumo:
In this thesis several models are treated, which are relevant for ultracold fermionic quantum gases loaded onto optical lattices. In particular, imbalanced superfluid Fermi mixtures, which are considered as the best way to realize Fulde-Ferrell-Larkin-Ovchinnikov (FFLO) states experimentally, and antiferromagnetic states, whose experimental realization is one of the next major goals, are examined analytically and numerically with the use of appropriate versions of the Hubbard model.rnrnThe usual Bardeen-Cooper-Schrieffer (BCS) superconductor is known to break down in a magnetic field with a strength exceeding the size of the superfluid gap. A spatially inhomogeneous spin-imbalanced superconductor with a complex order parameter known as FFLO-state is predicted to occur in translationally invariant systems. Since in ultracold quantum gases the experimental setups have a limited size and a trapping potential, we analyze the realistic situation of a non-translationally invariant finite sized Hubbard model for this purpose. We first argue analytically, why the order parameter should be real in a system with continuous coordinates, and map our statements onto the Hubbard model with discrete coordinates defined on a lattice. The relevant Hubbard model is then treated numerically within mean field theory. We show that the numerical results agree with our analytically derived statements and we simulate various experimentally relevant systems in this thesis.rnrnAnalogous calculations are presented for the situation at repulsive interaction strength where the N'eel state is expected to be realized experimentally in the near future. We map our analytical results obtained for the attractive model onto corresponding results for the repulsive model. We obtain a spatially invariant unit vector defining the direction of the order parameter as a consequence of the trapping potential, which is affirmed by our mean field numerical results for the repulsive case. Furthermore, we observe domain wall formation, antiferromagnetically induced density shifts, and we show the relevant role of spin-imbalance for antiferromagnetic states.rnrnSince the first step for understanding the physics of the examined models was the application of a mean field approximation, we analyze the effect of including the second order terms of the weak coupling perturbation expansion for the repulsive model. We show that our results survive the influence of quantum fluctuations and show that the renormalization factors for order parameters and critical temperatures lead to a weaker influence of the fluctuations on the results in finite sized systems than on the results in the thermodynamical limit. Furthermore, in the context of second order theory we address the question whether results obtained in the dynamical mean field theory (DMFT), which is meanwhile a frequently used method for describing trapped systems, survive the effect of the non-local Feynman diagrams neglected in DMFT.