651 resultados para Alte Pinakothek.
Resumo:
AbstractDie wissenschaftsgeschichtliche Analyse einbandhistorischer Forschungsliteratur bietet einen kritischen Überblick zum Thema Buchschließen und Buchbeschläge, wie sie am abendländischen, als Holzdeckelband gearbeiteten Gebrauchseinband bis gegen Ende des 16. Jh. verwendet wurden. Die etwa 120 Jahre alte Forschungsliteratur wird auf Grund des spezifischen Erkenntnisinteresses der Autoren und ihrer politischen, wirtschaftlichen und kulturellen Standortgebundenheit systematisiert, so daß deutlich gemacht werden kann, welche Berufsgruppen und damit verbundene Fragestellungen die Erforschung des Themas Schließe und Beschlag im besonderen und die Einbandforschung im allgemeinen dominierten. Für eine zukünftige selbständige praxisorientierte sowie handwerks- und buchgeschichtliche Betrachtung des Themenkomplexes Buchschließe und -beschlag im Rahmen einbandwissenschaftlicher Forschung werden Aufgaben, Ziele und Methoden dargelegt. Ziel ist es, in einem interdisziplinären und internationalen Gemeinschaftswerk den Themenkomplex zu untersuchen und dessen Ergebnisse als Beitrag für die Lokalisierung und Datierung von Einbänden zu prüfen. Es werden fünf Methoden vorgestellt, ihre Grenzen diskutiert und die Notwendigkeit ihrer allseitigen Verknüpfung nahegelegt. Der Frage nach den Herstellern von Buchschließen und -beschlägen wird auf Grund neuer Quellenfunde und Analyse von Ständebüchern, Enzyklopädien, Sach- und Realwörterbüchern sowie Buchbinderfachbüchern am Beispiel des städtischen Raumes Nürnberg nachgegangen. Für dieses Zentrum eines hochdifferenzierten metallverarbeitenden Gewerbes und regen Buchbinder-handwerks im 15. und 16. Jh. kann wahrscheinlich gemacht werden, daß sich spätestens um die Mitte des 16. Jh. das sog. Klausurmachen als eine Spezialarbeit von den Tätigkeiten der Gürtler gelöst hatte und von einzelnen sog. Klausurmachern ausgeführt wurde; doch waren diese in keinem eigenen, der strengen städtischen Kontrolle unterstellten Handwerk organisiert. Noch vor Ablauf des 17. Jh. war die Handwerkstätigkeit des Klausurmachens dem sog. geschenkten Handwerk der Gürtler offiziell zugehörig. Als Quintessenz der Arbeit wird eine These zur Entwicklung der Buchschlie-ße am Gebrauchseinband des Mittelalters vorgestellt, die Ausgangspunkt für eine zukünftige Forschung sein kann.
Resumo:
Die vorliegende Dissertation ist eine molekulargenetische Studie an humanem neolithischem Skelettmaterial. Im zentralen Blickpunkt stand die Bestimmung der Variabilität der mitochondrialen Haplogruppen einer frühneolithischen Stichprobe aus drei unterschiedlichen Kulturkreisen, welche die Linearbandkeramik (LBK und AVK), die Körös-Kultur und eine Sammelkategorie osteuropäischer spätmeso- und frühneolithischer Kulturen umfasste. Im Vergleich dieser Gruppen untereinander sowie mit Rezentdaten moderner Populationen aus vergleichbaren Gebieten Mittel- und Osteuropas sowie dem Nahen Osten sollten bestehende Modelle und Hypothesen zur Neolithisierung Mitteleuropas geprüft werden. Insgesamt konnte für 43 neolithische Individuen aus 16 Fundorten der reproduzierbare Nachweis endogener DNA erbracht werden. Eine eindeutige Haplogruppenbestimmung konnte durch die Sequenzierung vier überlappender Fragmente der mitochondrialen Hypervariablen Region I sowie durch RFLP-Analyse zusätzlicher charakteristischer Nukleotidpositionen für alle 43 Individuen durchgeführt werden. Die neolithischen Individuen der Linearbandkeramik sowie der Körös-Kultur zeigten eine hohe Diversität an bekannten europäischen Haplogruppen, wohingegen die kleinere Stichprobe aus dem Gebiet Osteuropas eine auffällige Homogenität aufwies. Neben Frequenzunterschieden zur modernen mitteleuropäischen Bevölkerung war innerhalb der LBK/AVK-Stichprobe eine hohe Frequenz der Haplogruppe N1a festzustellen, welche nicht in den beiden anderen neolithischen Stichproben zu finden war und auch in der heutigen Rezentbevölkerung Eurasiens und Nordafrikas nur mit einer durchschnittlichen Frequenz von 0,2% vertreten ist. Innerhalb der Individuen der Körös-Kultur fanden sich zwei Haplotypen, welche heute nicht in Europa bekannt sind, dagegen jedoch in Süd- bzw. Nordostasien gehäuft vorkommen. Die Ergebnisse der aDNA-Analysen bestätigten im Wesentlichen das komplexe Bild der Neolithischen Transition in Mitteleuropa und konnten die, für diesen Raum postulierte, Hypothese der leap frog colonization weitestgehend unterstützen. Auch für den geographischen Vergleichsraum des nördlichen Osteuropa konnten Parallelen zur etablierten Sichtweise der archäologischen Forschung zu diesem Gebiet und den vorliegenden Ergebnissen der aDNA-Analysen aufgezeigt werden. Die zeitlich verzögerte Annahme der neolithischen Lebensweise im waldreichen nördlichen Osteuropa spiegelt sich in der reduzierten Diversität an mtDNA-Haplogruppen wider. Die vorliegende Dissertation konnte nicht nur durch die Ergebnisse der Haplogruppen-Bestimmung, sondern vor allem durch die umfangreichen und elaborierten Reproduktions- und Authentifizierungprotokolle deutlich machen, dass der Nachweis von humaner alter DNA trotz der allgegenwärtigen, methodenimmanenten Kontaminationsgefahr unter streng kontrollierten Bedingungen möglich ist. Gleichermaßen konnte veranschaulicht werden, dass die aDNA-Analyse wertvolle Hinweise auf das genetische status quo einer Population liefern kann, welche nicht bzw. nur in sehr eingeschränkten Maße von rezenten DNA-Daten abgeleitet werden können. Als sekundäres Ergebnis erlaubte der bislang größte vorliegende Datensatz von ~2500 Klonsequenzen zudem einen detaillierten Einblick in Häufigkeiten und Verteilungsmuster von post mortem Sequenzveränderungen. Es konnten für den mitochondrialen Bereich der Nukleotidpositionen 15997-16409 so genannte hot bzw. cold spots definiert werden, welche für die Auswertung und Interpretation von zukünftigen Sequenzierungen der Hypervariablen Region I des mt-Genoms von entscheidender Bedeutung sein werden.
Resumo:
Numerosi lavori apparsi sulla letteratura scientifica negli ultimi decenni hanno evidenziato come, dall’inizio del XX secolo, la temperatura media globale sia aumentata. Tale fenomeno si è fatto più evidente dagli anni ’80, infatti ognuno degli ultimi tre decenni risulta più caldo dei precedenti. L’Europa e l’area mediterranea sono fra le regioni in cui il riscaldamento risulta più marcato, soprattutto per le temperature massime (dal 1951 sono cresciute di +0.39 °C per decennio) che hanno mostrato trend maggiori delle minime. Questo comportamento è stato osservato anche a scala nazionale (+0.25°C/dec per le massime e +0.20°C/dec per le minime). Accanto all’aumento dei valori medi è stato osservato un aumento (diminuzione) degli eventi di caldo (freddo) estremo, studiati attraverso la definizione di alcuni indici basati sui percentili delle distribuzioni. Resta aperto il dibattito su quali siano le cause delle variazioni negli eventi estremi: se le variazioni siano da attribuire unicamente ad un cambiamento nei valori medi, quindi ad uno shift rigido della distribuzione, o se parte del segnale sia dovuto ad una variazione nella forma della stessa, con un conseguente cambiamento nella variabilità. In questo contesto si inserisce la presente tesi con l’obiettivo di studiare l’andamento delle temperature giornaliere sul Trentino-Alto-Adige a partire dal 1926, ricercando cambiamenti nella media e negli eventi estremi in due fasce altimetriche. I valori medi delle temperature massime e minime hanno mostrato un evidente riscaldamento sull’intero periodo specialmente per le massime a bassa quota (`0.13 ̆ 0.03 °C/dec), con valori più alti per la primavera (`0.22 ̆ 0.05 °C/dec) e l’estate (`0.17 ̆ 0.05 °C/dec). Questi trends sono maggiori dopo il 1980 e non significativi in precedenza. L’andamento del numero di giorni con temperature al di sopra e al di sotto delle soglie dei percentili più estremi (stimate sull’intero periodo) indica un chiaro aumento degli estremi caldi, con valori più alti per le massime ad alta quota ( fino a +26.8% per il 99-esimo percentile) e una diminuzione degli estremi freddi (fino a -8.5% per il primo percentile delle minime a bassa quota). Inoltre, stimando anno per anno le soglie di un set di percentili e confrontando i loro trend con quelli della mediana, si è osservato, unicamente per le massime, un trend non uniforme verso temperature più alte, con i percentili più bassi (alti) caratterizzati da trend inferiori (superiori) rispetto a quello della mediana, suggerendo un allargamento della PDF.
Resumo:
Abbiamo sintetizzato un nuovo sistema nanogranulare consistente di nanoparticelle di magnetite inserite in idrossiapatite carbonata biomimetica per possibili future prospettive nell'ambito del tissue engineering osseo. Sono stati sintetizzati e studiati tre campioni nanogranulari, uno composto di nanoparticelle di magnetite e due composti di idrossiapatite contenenti magnetite per circa lo 0.8wt.% ed il 4wt.%. Le nanoparticelle di magnetite e il materiale composto sono stati analizzati tramite diffrazione a raggi X (XRD), spettroscopia all'infrarosso (FT-IR) e microscopia in trasmissione elettronica (TEM). Queste analisi hanno fornito informazioni sulla struttura delle nanoparticelle, come il size medio di circa 6 nm e hanno rivelato, sulla loro superficie, la presenza di gruppi idrossilici che incentivano la crescita successiva della fase di idrossiapatite, realizzando una struttura nanocristallina lamellare. I primi studi magnetici, condotti tramite un magnetometro SQUID, hanno mostrato che sia le nanoparticelle as-prepared sia quelle ricoperte di idrossiapatite sono superparamagnetiche a T=300K ma che il rilassamento della magnetizzazione è dominato da interazioni magnetiche dipolari di intensità confrontabile all'interno dei tre campioni. I valori di magnetizzazione più bassi di quelli tipici per la magnetite bulk ci hanno portato ad ipotizzare un possibile fenomeno di canting superficiale per gli spin delle nanoparticelle, fenomeno presente e documentato in letteratura. Nei tre campioni, quello di sole nanoparticelle di magnetite e quelli di idrossiapatite a diverso contenuto di magnetite, si forma uno stato collettivo bloccato a temperature inferiori a circa 20K. Questi risultati indicano che le nanoparticelle di magnetite tendono a formare agglomerati già nello stato as-prepared che sostanzialmente non vengono alterati con la crescita di idrossiapatite, coerentemente con la possibile formazione di legami idrogeno elettrostatici tra i gruppi idrossilici superficiali. L'analisi Mossbauer del campione di magnetite as-prepared ha mostrato un comportamento bimodale nelle distribuzioni dei campi iperfini presenti alle varie temperature. Passando dalle basse alle alte temperature lo spettro collassa in un doppietto, coerentemente con il passaggio dallo stato bloccato allo stato superparamagnetico per il sistema.
Resumo:
Nei prossimi anni sia il Large Hadron Collider al CERN che i relativi esperimenti saranno oggetto di programmi di upgrade. Per i rivelatori una delle motivazioni dell’upgrade è l’invecchiamento che inevitabilmente ne peggiorerebbe le prestazioni in mancanza di interventi. Si sono studiati gli effetti dell’invecchiamentO del rivelatore di muoni a grande angolo di CMS sulla ricostruzione di eventi H→ 4μ: un canale centrale nel programma futuro di fisica delle alte energie e la cui identificazione è affidata essenzialmente al rivelatore di muoni. Benchè la ridondanza, insita nel progetto del rivelatore, riduca l’impatto dell’inefficienza locale sui risultati finali, si è osservato dalla simulazione che, mentre il 30% di hit persi si traduce nella perdita dell’8% di eventi H→4μ, il 30% di camere non funzionanti causa un perdita di eventi che può arrivare al 27%. Poichè la disattivazione di un’intera camera può essere l’effetto del danneggiamento dell’elettronica di lettura, la quale è attualmente situata nella caverna sperimentale ed esposta quindi alle radiazioni, questi risultati potrebbero indicare la necessità di prevedere nel programma di upgrade la sostituzione dell’elettronica con nuovi dispositivi da collocarsi fuori della caverna, al riparo dalle radiazioni.
Resumo:
L'analisi accurata del processo di combustione è un aspetto sempre più influente nello sviluppo di un motore a combustione interna. In particolare il fenomeno della detonazione pone dei limiti sull'efficienza dei motori ad accensione comandata. Il rapporto di compressione è limitato in fase di progettazione dello sviluppo motore, lasciando al controllo dell'anticipo di accensione il compito di ridurre le problematiche di una combustione anomala. Nella seguente tesi si vuole implementare una metodologia per la valutazione dell'insorgere e dello sviluppo della detonazione in base alle condizioni di funzionamento del motore per differenti miscele di combustibili. Il metodo consiste nell'affiancare la cinetica chimica tabulata al risolutore CFD, \textsc{KIVA-3}. La cinetica chimica permette di determinare la velocità di reazione per differenti specie durante l'ossidazione a partire da precise condizioni ambiente. Il solutore CFD potrebbe risolvere questo tipo di problema ma utilizzare dei modelli con più reazioni chimiche richiede dei tempi di simulazioni troppo elevati. La cinetica chimica tabulata consiste nella determinazione ed estrapolazione dei dati relativi all'evoluzione della detonazione utilizzando schemi cinetici con centinaia o migliaia di reazioni. In seguito alla determinazione della miscela desiderata sono state eseguite delle simulazioni utilizzando il solutore Cantera per la determinazione dell'evoluzione dell'ossigeno. E' stata scelta questa grandezza come indicatore del progresso della detonazione poiché fornisce un'indicazione sullo stato di avanzamento delle reazioni. Successivamente i dati ricavati sono stati forniti al solutore CFD, tramite il quale sono state effettuate delle simulazioni per verificare i risultati ottenuti nella valutazione del comportamento di un motore ad alte prestazioni.
Resumo:
Lo scopo di questa tesi è illustrare il paradigma dell’inflazione cosmologica descrivendo in particolare la teoria dell’inflazione R^2. In una prima sezione si fa riferimento al contesto della relatività generale per descrivere l’universo su larga scala. Vengono prese in esame le ipotesi utilizzate per ottenere il modello standard della cosmologia e le principali proprietà che da esso possono essere ricavate. Si focalizza quindi l’analisi sulla descrizione dell’universo primordiale da cui traggono origine le ipotesi dell’esistenza dell’epoca inflazionaria esponendo, in particolare, come questa teoria riesca a risolvere i problemi della piattezza e dell’orizzonte cosmologico. Viene poi descritto come la fase di espansione esponenziale richiesta da queste ipotesi possa essere generata dalla presenza di un campo scalare φ specifico. Particolare risalto è dato alla descrizione dell’approssimazione di ”slow-roll” ed ai vincoli sul numero di ”e-folding”. Una seconda sezione mostra l’applicazione dell’analisi generale esposta in precedenza al modello di inflazione di Starobinsky. A tal fine sono descritte le caratteristiche delle teorie della gravità f(R) con particolare attenzione alle trasformazioni conformi e scelta del frame. Attraverso l’esposizione delle equazioni di campo cosmologiche nella teoria della gravità R^2 si mostra come il processo di espansione inflazionaria dell’universo nelle sue fasi iniziali possa essere descritto da un comportamento non standard della gravità ad alte energie. Sono riportati i risultati principali ottenuti con questa teoria nel frame di Jordan e in quello di Einstein. La conclusione descrive in sintesi lo stato attuale delle osservazioni sperimentali e come queste abbiano un legame stretto con la teoria delle perturbazioni cosmologiche. In particolare, presentando i risultati ottenuti nel contesto dell’inflazione R^2 ed esponendo gli ultimi dati raccolti dall’esperimento Planck, si analizza come il modello sia in accordo con i dati sperimentali attualmente disponibili.
Resumo:
Il fotovoltaico (FV) costituisce il modo più diretto di conversione dell’energia solare in energia elettrica e si basa sull’effetto osservato da Becquerel nel 1839. Si può affermare che tale effetto è rimasto una curiosità di laboratorio dalla metà del XIX secolo fino al 1954, quando la prima cella solare in silicio con un’efficienza di conversione del 6% fu costruita ai Laboratori Bell. Da allora la ricerca in questo settore ha sperimentato una crescita costante ed oggi si può contare su tecnologie mature, in grado di sviluppare alte prestazioni in via di ulteriore miglioramento. Le celle tandem costituiscono ora il migliore esempio di dispositivi fotovoltaici in grado di convertire buona parte della potenza irraggiata dal sole. Aumentare l’efficienza con le celle tandem significa sfruttare le differenti lunghezze d’onda dello spettro solare. Questi dispositivi sono infatti costruiti impilando semiconduttori, disponendoli dal basso in modo crescente secondo i loro valori di energia di gap. A partire dall’analisi delle caratteristiche principali della radiazione solare e del principio di funzionamento delle celle fotovoltaiche, questo lavoro si propone di mettere in evidenza le potenzialità della tecnologia a multigiunzione, che ha già dimostrato rilevanti capacità di ottimizzazione delle prestazioni delle celle solari, facendo ben sperare per il futuro.
Resumo:
L’avvento delle tecniche di imaging volumetrico, quali la CT (Computed Tomography) e la MRI (Magnetic Resonance Investigation), ha portato ad un crescente interesse verso applicazioni di guida chirurgica che utilizzano processi di allineamento delle immagini diagnostiche provenienti da diverse modalità e di tecniche che ne permettono la visualizzazione in sala operatoria, in modo da fornire al chirurgo il maggior numero di informazioni cliniche possibili durante un intervento. Il crescente interesse verso questo tipo di applicazioni è dovuto anche allo sviluppo di dispositivi di imaging intra-operatorio quali archi a C-mobili radiologici, PC ad alte prestazioni e convertitori A/D 3D con precisione clinicamente accettabile. Questi ultimi due hanno conseguentemente portato a sviluppare ed implementare software dedicati alla pianificazione di un intervento chirurgico, permettendo quindi di elaborare digitalmente le immagini diagnostiche e ricostruire un modello che rappresenta l’effettiva anatomia del paziente. Questo processo nel suo complesso ha portato allo sviluppo di quelli che oggi vengono chiamati sistemi di navigazione chirurgica, abbreviati talvolta in IGSS (Imaging-Guided Surgery Systems), sistemi ovvero che permettono di utilizzare immagini pre-operatorie come guida durante la pratica chirurgica, caratterizzando quindi nuovi metodi di approccio alla chirurgia, le IGS (Image-Guided Surgery) appunto.
Resumo:
Lo scopo dell'elaborato di tesi è l'analisi, progettazione e sviluppo di un prototipo di una infrastruttura cloud in grado di gestire un grande flusso di eventi generati da dispositivi mobili. Questi utilizzano informazioni come la posizione assunta e il valore dei sensori locali di cui possono essere equipaggiati al fine di realizzare il proprio funzionamento. Le informazioni così ottenute vengono trasmesse in modo da ottenere una rete di device in grado di acquisire autonomamente informazioni sull'ambiente ed auto-organizzarsi. La costruzione di tale struttura si colloca in un più ampio ambito di ricerca che punta a integrare metodi per la comunicazione ravvicinata con il cloud al fine di permettere la comunicazione tra dispositivi vicini in qualsiasi situazione che si potrebbe presentare in una situazione reale. A definire le specifiche della infrastruttura e quindi a impersonare il ruolo di committente è stato il relatore, Prof. Mirko Viroli, mentre lo sviluppo è stato portato avanti da me e dal correlatore, Ing. Pietro Brunetti. Visti gli studi precedenti riguardanti il cloud computing nell'area dei sistemi complessi distribuiti, Brunetti ha dato il maggiore contributo nella fase di analisi del problema e di progettazione mentre la parte riguardante la effettiva gestione degli eventi, le computazioni in cloud e lo storage dei dati è stata maggiormente affrontata da me. In particolare mi sono occupato dello studio e della implementazione del backend computazionale, basato sulla tecnologia Apache Storm, della componente di storage dei dati, basata su Neo4j, e della costruzione di un pannello di visualizzazione basato su AJAX e Linkurious. A questo va aggiunto lo studio su Apache Kafka, utilizzato come tecnologia per realizzare la comunicazione asincrona ad alte performance tra le componenti. Si è reso necessario costruire un simulatore al fine di condurre i test per verificare il funzionamento della infrastruttura prototipale e per saggiarne l'effettiva scalabilità, considerato il potenziale numero di dispositivi da sostenere che può andare dalle decine alle migliaia. La sfida più importante riguarda la gestione della vicinanza tra dispositivi e la possibilità di scalare la computazione su più macchine. Per questo motivo è stato necessario far uso di tecnologie per l'esecuzione delle operazioni di memorizzazione, calcolo e trasmissione dei dati in grado di essere eseguite su un cluster e garantire una accettabile fault-tolerancy. Da questo punto di vista i lavori che hanno portato alla costruzione della infrastruttura sono risultati essere un'ottima occasione per prendere familiarità con tecnologie prima sconosciute. Quasi tutte le tecnologie utilizzate fanno parte dell'ecosistema Apache e, come esposto all'interno della tesi, stanno ricevendo una grande attenzione da importanti realtà proprio in questo periodo, specialmente Apache Storm e Kafka. Il software prodotto per la costruzione della infrastruttura è completamente sviluppato in Java a cui si aggiunge la componente web di visualizzazione sviluppata in Javascript.
Resumo:
Un ambito di largo interesse nel campo dell’elettronica, è quello delle misure di corrente a larga banda, in cui la richiesta per sistemi a basso costo è aumentata sensibilmente nel corso del tempo. La causa di questo interessamento è dovuto al più frequente utilizzo di sistemi switched power ad alta frequenza, che necessitano di sensori di correnti isolati e ad alte prestazioni. L’intero lavoro prende in considerazione un sensore di nuova generazione per le misure di corrente, capace di raggiungere prestazioni oltre lo stato dell’arte. L’elaborato presentato vede, quindi, come obiettivo la creazione di un setup stabile per effettuare misure sui chip prodotti. Partendo dallo studio di fattibilità, della componentistica necessaria e dei compromessi per mantenere i costi, si giunge ad una soluzione flessibile e adatta alle misurazioni richieste. L’elaborato partirà con una introduzione sugli effetti fisici e la descrizione del componente fondamentale, passando a test funzionali effettuati su setup provvisori atti a ottenere informazioni basilari per la prosecuzione del lavoro. Infine verranno concepite e realizzate due schede a circuiti stampati per rispondere alle esigenze di progetto.
Resumo:
I pattern di espressione genica permettono di valutare se gli organismi siano soggetti a stress ambientali, spesso associati a stress ossidativo e produzione di specie reattive dell’ossigeno, che possono essere analizzate per studiare gli effetti sub-letali indotti dall’ambiente negli organismi. Scopo di questa ricerca è stato valutare la possibilità di utilizzo dell’ascidia coloniale B. schlosseri come biomarker in ambiente lagunare. Le colonie, esposte a diverse condizioni ambientali nella Laguna di Venezia, sono state confrontate con esemplari allevati in condizioni di controllo. La ricerca si è concentrata in 2 siti con diverso grado di idrodinamicità e impatto antropico. Mentre nel sito 1, più vicino alla bocca di porto, si è rilevata la presenza di Tunicati, il sito 2 ne è privo. Il sito 2 ha registrato valori di pH e temperatura più alti. Inoltre, nel sito 2 è stata rilevata una mortalità maggiore delle colonie e alterazioni della morfologia nelle colonie sopravvissute. Ciò suggerisce che il sito 2 presenti condizioni avverse per B. schlosseri. Sui campioni di B. schlosseri sono state eseguite PCR semiquantitative per analizzare l’espressione di un gruppo di geni coinvolto nella risposta allo stress ossidativo: la glutammato cistein ligasi la glutatione sintetasi, 2 isoforme di glutatione perossidasi e la superossido dismutasi (SOD). Tutti i geni presentano livelli di trascrizione doppi nelle colonie del sito 1 rispetto al controllo. Viceversa, il sito 2 mostra livelli di espressione di poco superiori al controllo. Analisi spettrofotometriche evidenziano che le attività enzimatiche di SOD e catalasi sono più alte nel sito 2 rispetto al sito 1. Si può pertanto ipotizzare che le colonie esposte al sito 2 siano soggette a un maggiore stress. B. schlosseri appare dunque un buon indicatore dello stato ecologico dell’ambiente lagunare, entro parametri di pH e temperatura in cui abitualmente vive.
Resumo:
Il seguente elaborato prende le mosse da un progetto, denominato Nutrid’Uva, promosso e attivamente concretizzato dall’azienda bresciana “Cascina Belmonte” di concerto con il laboratorio del Campus di Scienze Alimentari di Cesena (Università di Bologna). In particolare, si è voluta sperimentare l’applicazione di processi innovativi per la produzione di succo d’uva bio e bevande a base di succo d’uva bio proveniente da uve biologiche coltivate nell’areale della Valténesi (sponda occidentale del Garda), stabilizzati mediante l’uso di alte pressioni idrostatiche e senza trattamento termico. In questi termini, il presente lavoro ha l’obiettivo di: delineare il quadro generale in cui si inserisce il progetto, arricchendolo con spunti tratti dalle pratiche di processo seguite in loco; determinare il contenuto delle classi polifenoliche presenti nei campioni di alcuni succhi sottoposti a differenti tecnologie di macerazione in confronto all’abituale processo di lavorazione aziendale (vitigni ibridi diretti produttori, Barbera, Merlot, Cabernet). Si è proceduto dunque attraverso l’analisi spettrofotometrica delle principali classi di composti fenolici e dell’attività antiossidante.
Resumo:
Ottimizzazione di banco prova per motore a pistoni in alte quote.
Resumo:
Guidata dall'interesse per lo studio della fissione nucleare, per molto tempo la ricerca nel campo dei neutroni si è concentrata su energie medio-basse (E<20 MeV) mentre per la regione a più alte energie le informazioni risultavano scarse o mancanti. Recentemente, invece, si è sviluppato un nuovo interesse per i Neutroni di Alta Energia, utilizzabili nelle terapie mediche per la cura di tumori, e di grande importanza per la radioprotezione e la trasmutazione delle scorie radioattive derivanti da produzione di energia nucleare. Queste applicazioni richiedono precisi fasci di neutroni quasi-monoenergetici, con energie dai 20 a qualche centinaia di MeV, servono perciò misurazioni intese a determinare le caratteristiche del fascio e atte a ottenere valori precisi della sezione d'urto relativa ai processi innescati da neutroni veloci. La sezione d'urto di un certo processo nucleare si deduce dalla misura del numero di eventi acquisiti per unità di tempo da un rivelatore, conoscendo l'efficienza di questo, l'intensità del fascio che incide nel bersaglio e le caratteristiche del target. Diventa, quindi, determinante la conoscenza dell'intensità del fascio dei neutroni, anche nel caso di un intervallo energetico ampio, come quello prodotto al CERN dalla facility n_TOF, che possiede energie che vanno dal meV al GeV. Sulla base di queste motivazioni, in questo lavoro di tesi, si vuole proporre un prototipo semplice di rivelatore per Neutroni di Alta Energia e si presenta uno studio preliminare del primo test sotto fascio, focalizzando l'attenzione sulla massima energia misurabile.