950 resultados para Memorie non volatili, Memorie magnetoresistive, Memorie ferroelettriche, Memorie a cambiamento di fase


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Scopo dello studio: valutare i cambiamenti indotti da diversi trattamenti di mordenzatura sulla morfologia superficiale e sulla microstruttura di due vetro-ceramiche a base disilicato di litio (IPS e.max® Press e IPS e.max® CAD) ed esaminarne gli effetti sia sull’adesione con un cemento resinoso che sulla resistenza alla flessione. Materiali e metodi: Settanta dischetti (12 mm di diametro, 2 mm di spessore) di ogni ceramica sono stati preparati e divisi in 5 gruppi: nessun trattamento (G1), HF 5% 20s (G2), HF 5% 60s (G3), HF 9.6% 20s (G4), HF 9.6% 60s (G5). Un campione per ogni gruppo è stato analizzato mediante profilometro ottico e osservato al SEM. Per gli altri campioni è stato determinato lo shear bond strength (SBS) con un cemento resinoso. Dopo l’SBS test, i campioni sono stati caricati fino a frattura utilizzando il piston-on-three-ball test per determinarne la resistenza biassiale alla flessione. Risultati: L’analisi morfologica e microstrutturale dei campioni ha rivelato come diversi trattamenti di mordenzatura producano delle modifiche nella rugosità superficiale che non sono direttamente collegate ad un aumento dei valori di adesione e dei cambiamenti microstrutturali che sono più rilevanti con l’aumento del tempo di mordenzatura e di concentrazione dell’acido. I valori medi di adesione (MPa) per IPS e.max® CAD sono significativamente più alti in G2 e G3 (21,28 +/- 4,9 e 19,55 +/- 5,41 rispettivamente); per IPS e.max® Press, i valori più elevati sono in G3 (16,80 +/- 3,96). La resistenza biassiale alla flessione media (MPa) è più alta in IPS e.max® CAD (695 +/- 161) che in IPS e.max® Press (588 +/- 117), ma non è non influenzata dalla mordenzatura con HF. Conclusioni: il disilicato di litio va mordenzato preferibilmente con HF al 5%. La mordenzatura produce alcuni cambiamenti superficiali e microstrutturali nel materiale, ma tali cambiamenti non ne influenzano la resistenza in flessione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La phytoremediation si colloca nel campo dei nuovi interventi di bonifica come una tecnica verde, sostenibile e a basso costo, che può sostituire le ordinarie tecniche ingegneristiche in condizioni di inquinamento da basso a moderato. Si basa sull'utilizzo di piante per contenere, rimuovere o degradare i contaminanti presenti in suolo, sedimenti e acque. In questo studio sono state valutate le capacità fitoestrattive della specie Dittrichia viscosa in suoli derivanti da attività mineraria. Il campionamento è stato realizzato in due siti minerari, il distretto minerario di Montevecchio (VS) e la miniera di Libiola (GE) ed in cinque siti non minerari utilizzati come riferimento e controllo. In ogni sito è stato campionato suolo rizosferico e campioni vegetali della specie D. viscosa. Lo studio si è focalizzato su cinque metalli pesanti molto diffusi e pericolosi: Cu, Ni, Pb, Zn e Cd. Per valutare a quale livello della pianta vengono accumulati, ogni campione vegetale è stato separato in tre porzioni, radici, fusto e foglie, che sono state analizzate separatamente; inoltre, sono state determinate le concentrazioni totali e biodisponibili dei cinque metalli nei suoli rizosferici campionati. Dallo studio è emerso che la specie D. viscosa tende ad accumulare i contaminanti indagati soprattutto a livello fogliare nonostante non sia sempre dimostrato nei campioni provenienti dal sito di Libiola. Grazie alle buone capacità che la pianta presenta nell'accumulare Ni e Zn nell'apparato radicale, e nel trasferire Zn, Pb e Cd nell'apparato fogliare, D. viscosa può essere considerata una buona candidata negli interventi di fitorimedio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’intelligenza artificiale, ovvero lo studio e la progettazione di sistemi intelligenti, mira a riprodurre alcuni aspetti dell’intelligenza umana, come il linguaggio e il ragionamento deduttivo, nei computer. La robotica, invece, cerca spesso di ricreare nei robot comportamenti adattativi, come l’abilità di manipolare oggetti o camminare, mediante l’utilizzo di algoritmi in grado di generare comportamenti desiderati. Una volta realizzato uno di questi algoritmi specificamente per una certa abilità, si auspica che tale algoritmo possa essere riutilizzato per generare comportamenti più complessi fino a che il comportamento adattativo del robot non si mostri ad un osservatore esterno come intelligente; purtroppo questo non risulta sempre possibile e talvolta per generare comportamenti di maggiore complessità è necessario riscrivere totalmente gli algoritmi. Appare quindi evidente come nel campo della robotica l’attenzione sia incentrata sul comportamento, perché le azioni di un robot generano nuove stimolazioni sensoriali, che a loro volta influiscono sulle sue azioni future. Questo tipo di intelligenza artificiale (chiamata propriamente embodied cognition) differisce da quella propriamente detta per il fatto che l’intelligenza non emerge dall’introspezione ma dalle interazioni via via più complesse che la macchina ha con l’ambiente circostante. Gli esseri viventi presenti in natura mostrano, infatti, alcuni fenomeni che non sono programmati a priori nei geni, bensì frutto dell’interazione che l’organismo ha con l’ambiente durante le varie fasi del suo sviluppo. Volendo creare una macchina che sia al contempo autonoma e adattativa, si devono affrontare due problemi: il primo è relativo alla difficoltà della progettazione di macchine autonome, il secondo agli ingenti costi di sviluppo dei robot. Alla fine degli anni ’80 nasce la robotica evolutiva che, traendo ispirazione dall’evoluzione biologica, si basa sull’utilizzo di software in grado di rappresentare popolazioni di robot virtuali e la capacità di farli evolvere all’interno di un simulatore, in grado di rappresentare le interazioni tra mente e corpo del robot e l’ambiente, per poi realizzare fisicamente solo i migliori. Si utilizzano algoritmi evolutivi per generare robot che si adattano, anche dal punto di vista della forma fisica, all’ambiente in cui sono immersi. Nel primo capitolo si tratterà di vita ed evoluzione artificiali, concetti che verranno ripresi nel secondo capitolo, dedicato alle motivazioni che hanno portato alla nascita della robotica evolutiva, agli strumenti dei quali si avvale e al rapporto che ha con la robotica tradizionale e le sue declinazioni. Nel terzo capitolo si presenteranno i tre formalismi mediante i quali si sta cercando di fornire un fondamento teorico a questa disciplina. Infine, nel quarto capitolo saranno mostrati i problemi che ancora oggi non hanno trovato soluzione e le sfide che si devono affrontare trattando di robotica evolutiva.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La sempre maggiore importanza data al luogo, soprattutto dalla normativa attraverso il codice dei Beni Culturali e del Paesaggio, obbliga i progettisti a prestare maggiore attenzione al contesto in cui operano. I luoghi non possono più essere concepiti come spazi neutri capaci di accogliere qualsiasi forma di progetto, ma devono essere studiati e compresi nella loro essenza più profonda. In aiuto viene il concetto di Genius loci che fin dall'epoca romana soprassedeva i luoghi obbligando l'uomo a scendere a patti con esso prima di qualsiasi pratica progettuale. Nel tempo questo concetto si è trasformato ed ha mutato di senso, andando a coincidere con l'identità propria di un determinato luogo. Per luogo si intende una somma complessa di più elementi non scindibili e in rapporto tra loro nel costruirne l'identità specifica. Capire e rispettare l'identità di un luogo significa capire e rispettare il Genius loci. Filo conduttore di questa disamina è il saggio di Christian Norberg-Schulz “Genius loci. Paesaggio ambiente architettura”, in cui i temi del luogo e dell‟identità vengono trattati principalmente in chiave architettonica. Partendo da questo ho cercato di mettere in evidenza questi concetti in tre progetti sviluppati a scale diverse, evidenziandone l‟applicazione e le problematiche in tre ambiti differenti. I progetti presi in esame sono: in ambito rurale, l‟ecovillaggio sviluppato a San Biagio; in ambito urbano, la riqualificazione di un‟area industriale a Forlimpopoli; in ambito metropolitano, il progetto di abitazioni collettive a Bogotá.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi riguarda la formula di Eulero per i poliedri: F - S + V = 2 dove F indica il numero di facce, S il numero di spigoli e V quello dei vertici di un poliedro. Nel primo capitolo tratteremo i risultati ottenuti da Cartesio: egli fu il primo a considerare non solo le caratteristiche geometriche ma anche metriche di un solido. Partendo dall'analogia con le figure piane, riuscì a ricavare importanti relazioni nei solidi convessi, riguardanti il numero e la misura degli angoli piani, degli angoli solidi e delle facce. Non arrivò mai alla formulazione conosciuta oggi ma ne intuì le caratteristiche topologiche, che però non dimostrò mai. Nel secondo capitolo invece ci occuperemo di ciò che scoprì Eulero. Il manoscritto contenente i risultati di Cartesio era scomparso e quindi questi non erano più conosciuti dai matematici; Eulero, in accordo con quanto avviene per i poligoni, desiderava ottenere un metodo di classificazione per i poliedri e si mise a studiare le loro proprietà. Oltre alla sua formula, in un primo articolo ricavò importanti relazioni, e in un secondo lavoro ne propose una dimostrazione. Riportiamo in breve anche un confronto tra il lavoro di Cartesio e quello di Eulero. Il terzo capitolo invece riguarda il metodo e il rigore nella formulazione di teoremi e dimostrazioni: I. Lakatos ne fa un esame critico nel libro "Dimostrazioni e Confutazioni - la logica della scoperta matematica", simulando una lezione dove a tema compaiono la Formula di Eulero e le sue dimostrazioni. Noi cercheremo di analizzare questo suo lavoro. Su questi tre autori e i loro lavori riportiamo alcune considerazioni biografiche e storiche che possono offrire interessanti spunti didattici: infatti nel quarto e ultimo capitolo ci occuperemo di alcune considerazioni didattiche a proposito della Formula. La struttura sarà quella di un'ipotetica lezione a studenti di Scuola Media Inferiore e utilizzeremo i risultati ottenuti nei precedenti capitoli e una personale esperienza di tirocinio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro parte dalla constatazione che l’Imposta sul valore aggiunto è stata introdotta con lo scopo specifico di tassare il consumo in modo uniforme a livello europeo. La globalizzazione dell’economia con l’abolizione delle frontiere ha tuttavia favorito la nascita non solo di un mercato unico europeo, ma anche di “un mercato unico delle frodi”. L’esistenza di abusi e frodi in ambito Iva risulta doppiamente dannosa per l’Unione europea: tali condotte incidono quantitativamente sull'ammontare delle risorse proprie dell’Unione e sulle entrate fiscali dei singoli Stati membri nonché violano il principio di concorrenza e producono distorsioni nel mercato unico. È in questo contesto che intervengono i giudici nazionali e la Corte di Giustizia, al fine di porre un freno a tali fenomeni patologici. Quest’ultima, chiamata a far rispettare il diritto comunitario, ha sviluppato una misura antifrode e antiabuso consistente nel diniego del diritto alla detrazione qualora lo stesso venga invocato dal soggetto passivo abusivamente o fraudolentemente. Vedremo però che il problema non può essere facilmente ridotto a formule operative: al di là dello schema, fin troppo scontato, dell’operatore apertamente disonesto e degli operatori con esso dichiaratamente correi, rimane il territorio grigio dei soggetti coinvolti, qualche volta inconsapevolmente qualche volta consapevolmente, ma senza concreta partecipazione nella frode da altri orchestrata. Permane a questo punto la domanda se sia coerente - in un sistema impositivo che privilegia i profili oggettivi, prescindendo, salvo gli aspetti sanzionatori, da quelli soggettivi- negare il diritto alla detrazione Iva per asserita consapevolezza di comportamenti fraudolenti altrui o se non vi siano regole più adatte al fine di porre un freno alle frodi e dunque più conformi al principio di proporzionalità.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In Medicina Veterinaria l'avvelenamento da rodenticidi anticoagulanti è conosciuto e studiato ormai da anni, essendo una delle intossicazioni più comunemente riscontrate nelle specie non target. In letteratura si rinvengono numerose pubblicazioni ma alcuni aspetti sono rimasti ancora inesplorati.Questo studio si propone di valutare il processo infiammatorio, mediante le proteine di fase acuta (APPs), in corso di fenomeni emorragici, prendendo come modello reale un gruppo di soggetti accidentalmente avvelenati da rodenticidi anticoagulanti. I 102 soggetti avvelenati presentano un valore più elevato di proteina C reattiva (CRP)con una mediana di 4.77 mg/dl statisticamente significativo rispetto alla mediana delle due popolazioni di controllo di pari entità numerica create con cross match di sesso, razza ed età; rispettivamente 0.02 mg/dl dei soggetti sani e 0.37 mg/dl dei soggetti malati di altre patologie. Inoltre all'interno del gruppo dei soggetti avvelenati un valore di CRP elevato all'ammissione può predisporre al decesso. La proteina C reattiva assume quindi un ruolo diagnostico e prognostico in questo avvelenamento. Un'altra finalità, di non inferiore importanza, è quella di definire una linea guida terapeutica con l'ausilio di biomarker coagulativi e di valutare la sicurezza della vitamina K per via endovenosa: in 73 cani, non in terapia con vitamina k, intossicati da rodenticidi anticoagulanti, i tempi della coagulazione (PT ed aPTT) ritornano nel range di normalità dopo 4 ore dalla prima somministrazione di 5 mg/kg di vitamina k per via endovenosa e nessun soggetto durante e dopo il trattamento ha manifestato reazioni anafilattiche, nessuno dei pazienti ha necessitato trasfusione ematica e tutti sono sopravvissuti. Infine si è valutata l'epidemiologia dell'ingestione dei prodotti rodenticidi nella specie oggetto di studio e la determinazione dei principi attivi mediante cromatografia liquida abbinata a spettrofotometria di massa (UPLC-MS/MS).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro affronta il tema degli strumenti finanziari partecipativi e non partecipativi che possono essere emessi dalle società per azioni, alla luce della disciplina introdotta dalla riforma del diritto societario. Lo studio è diretto a fornire un inquadramento sistematico di queste modalità di finanziamento rispetto alla dicotomia azioni-obbligazioni, anche sotto il profilo contabile, per poi individuare le conseguenti implicazioni in termini di disciplina applicabile. Affrontando il dibattito dottrinale sulla collocazione complessiva degli strumenti ibridi rispetto alle forme di finanziamento tradizionali, si sposa l’opinione secondo cui tutti gli strumenti finanziari non possono essere ricompresi in una categoria unitaria, ma occorre mantenere distinti gli strumenti finanziari partecipativi indicati dall’art. 2346, comma 6, c.c., dagli altri strumenti finanziari ex art. 2411, comma 3, c.c., riconoscendo nei primi delle modalità di raccolta assimilabili al capitale di rischio e nei secondi delle forme di provvista di capitale di debito. Il connotato distintivo tra strumenti finanziari partecipativi e non partecipativi viene individuato non nell’attribuzione di diritti amministrativi – che possono anche non essere assegnati ai titolari di strumenti di cui all’art. 2346, comma 6 – bensì nell’assenza o nella presenza di un obbligo di rimborso dell’apporto fornito all’impresa. Il lavoro esamina inoltre vari profili di disciplina di entrambe le categorie di strumenti, concentrandosi prevalentemente sui diritti patrimoniali ad essi attribuibili, tra cui la partecipazione agli utili e alle perdite e i diritti in sede di liquidazione. Infine si esaminano le previsioni recentemente introdotte dal d.l. n. 83/2012 in tema di titoli obbligazionari, al fine di valutarne l’impatto sull’impianto complessivo della disciplina vigente. In particolare, viene data attenzione alle nuove disposizioni relative alle obbligazioni subordinate e/o partecipative che possono essere emesse dalle società non quotate, mettendo in evidenza le criticità dal punto di vista sistematico in tema di possibile partecipazione agli utili degli obbligazionisti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Backgrounds:Treatment of patients with relapsed/refractory (R/R) diffuse large B-cell lymphoma (DLBCL) not eligible to high dose therapy represents an unmet medical need. Panobinostat showed encouraging therapeutic activity in studies conducted in lymphoma cell lines and in vivo in patients with advanced hematologic malignancies.Purpose:FIL-PanAL10 (NCT01523834) is a phase II, prospective multicenter trial of the Fondazione Italiana Linfomi (FIL) to evaluate safety and efficacy of single agent Panobinostat as salvage therapy for R/R DLBCL patients and to evaluate a possible relationships between response and any biological features. Patients and Methods:Patients with R/R DLBCL were included. The treatment plan included 6 induction courses with Panobinostat monotherapy followed by other 6 courses of consolidation. The primary objective was to evaluate Panobinostat activity in terms of overall response (OR); secondary objectives were: CR rate, time to response (TTR), progression-free survival (PFS), safety and feasibility of Panobinostat. We included evaluation of the impact of pharmacogenetics, immunohistochemical patterns and patient’s specific gene expression and mutations as potential predictors of response to Panobinostat as explorative objectives. To this aim a pre-enrollment new tissue biopsy was mandatory. ResultsThirty-five patients, 21 males (60%), were enrolled between June 2011 and March 2014. At the end of induction phase, 7 responses (20%) were observed, including 4 CR (11%), while 28 patients (80%) discontinued treatment due to progressive disease (PD) in 21 (60%) or adverse events in 7 (20%). Median TTR in 9 responders was 2.6 months (range 1.8-12). With a median follow up of 6 months (range 1-34), the estimated 12 months PFS and OS were 27% and 30.5%, respectively. Grade 3-4 thrombocytopenia and neutropenia were the most common toxicities (in 29 (83%) and 12 (34%) patients, respectively. Conclusions The results of this study indicate that Panobinostat might be remarkably active in some patients with R/R DLBCL, showing durable CR

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Recentemente, vari ricercatori si sono concentrati sulle proprietà funzionali dei muscoli, sulla meccanica e sulla cinematica legata al volo, ma senza la possibilità di consultare un’adeguata letteratura poiché assente o incompleta. Si è quindi ritenuto utile studiare la miologia della regione della spalla e del braccio di specie non in precedenza esaminate e che mostrassero differenti stili di volo, al fine di creare una base di informazioni per futuri studi funzionali. Tutte le specie prese in esame sono membri della famiglia degli Accipitridae e nello specifico si sono selezionati: il Falco pecchiaiolo (Pernis apivorus Linnaeus, 1758), l’Astore comune (Accipiter gentilis Linnaeus, 1758) e lo Sparviero eurasiatico (Accipiter nisus Linnaeus, 1758). Questi animali attuano stili di volo differenti e sono stati pertanto scelti per capire se diverse performance di volo potessero indurre una differenziazione dell’apparato muscolare. La comparazione dei dati raccolti durante questo studio con quelli presenti in letteratura in altre specie aviarie ha evidenziato che, mentre alcuni muscoli non sembrano andare incontro a grandi modificazioni nei rapaci, altri invece presentano una grande eterogeneità. In particolare, grazie alle caratteristiche dei diversi muscoli, si è potuto raggruppare questi ultimi in base a possibili funzioni comuni: a) muscoli che concorrono a stabilizzare l’ala rispetto al tronco e che assorbono le forze generate durante il volo; b) muscoli con possibile ruolo nel controllo della rotazione dell’omero; c) muscoli con possibile funzione propriocettiva. Il presente studio ha inoltre evidenziato, nei muscoli esaminati, alcune similitudini e molteplici peculiarità anatomiche non precedentemente segnalate in letteratura. Si ritiene che questo studio macroscopico possa rappresentare un punto di partenza per futuri studi microscopici o elettrofisiologici, a dimostrazione dell’importanza della dissezione quale primo strumento di indagine.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La cosmologia ha come scopo lo studio di origine ed evoluzione dell’Universo, per averne una comprensione generale attraverso le leggi fisiche conosciute. Il modello del Big Bang, di cui si dà la descrizione teorica nel capitolo 1, è una delle formulazioni più recenti di teoria che mira a spiegare l’inizio e la successiva evoluzione dell’Universo, fino ad avanzare anche ipotesi sul suo destino futuro; è inoltre il modello generalmente accettato dalla comunità scientifica in quanto, di tutti i modelli proposti nel corso degli anni, è quello con più riscontri sperimentali e che meglio si trova in accordo con le osservazioni. I principali successi del modello vengono trattati nel capitolo 2. In particolare: si tratterà di redshift e legge di Hubble, collegati all’espansione dell’Universo, importante prova dell’attendibilità del modello del Big Bang; della radiazione cosmica di fondo, scoperta negli anni ’60 quasi per caso e poi ricondotta a ipotesi teoriche già avanzate anni prima nelle prime formulazioni del modello; della nucleosintesi primordiale, che spiega l’abbondanza attuale dei principali costituenti dell’Universo, H ed He, cosa che altrimenti non sarebbe spiegabile se si considerasse soltanto la formazione di tali elementi nelle stelle. Ovviamente anche questo modello, come si vede nel capitolo 3, non manca di problemi, a cui si è trovata una risoluzione parziale o comunque non definitiva; in questa sede tuttavia, per ragioni di spazio, tali problemi e la loro soluzione verranno soltanto accennati. Si accennerà al problema dell’Universo piatto e al problema dell’orizzonte, e a come essi possano essere spiegati introducendo il concetto di inflazione. Infine, nel capitolo 4, si accenna anche alla materia oscura, soprattutto per quanto riguarda le evidenze sperimentali che ne hanno permesso la scoperta e le prove successive che ne confermano l’esistenza. Tuttora ne ignoriamo natura e composizione, visto che a differenza della materia ordinaria non emette radiazione elettromagnetica, ma i suoi effetti gravitazionali sono evidenti ed è estremamente difficile che la sua esistenza possa essere messa in discussione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo progetto di tesi ha come obiettivo lo sviluppo di un algoritmo per la correzione e la calibrazione delle immagini in microscopia a fluorescenza e della sua implementazione come programma. Infatti, senza tale calibrazione le immagini di microscopia a fluorescenza sarebbero intrinsecamente affette da molteplici tipi di distorsioni ottiche. Questo limita fortemente la possibilità di effettuare analisi quantitative del livello di fluorescenza osservato. Il difetto sul quale ci siamo soffermati è la disomogeneità di campo, ossia una non uniforme fluorescenza causata dalla forma irregolare del fascio di eccitazione. Per conseguire l'obiettivo da noi proposto è necessaria l'acquisizione, in parallelo al campione in esame, di immagini di calibrazione contenenti sfere nanometriche a fluorescenza nota. A partire da queste, tramite procedure di image processing da noi implementate, abbiamo stimato la funzione di correzione della fluorescenza, localmente per ogni punto dell'immagine. Per la creazione di tale algoritmo abbiamo ipotizzato una possibile distribuzione dell'intensità dovuta alla non omogeneità del fascio ed abbiamo quindi stimato i parametri tramite un'apposita procedura di maximum likelihood. Tale stima è stata eseguita tenendo conto di possibili effetti dovuti alla luminosità di background, alla sovrapposizione di più nanosfere e ad effetti di bordo nel corso dell'elaborazione. Questa procedura è stata ripetuta su quattro diverse immagini di calibrazione, per valutarne la consistenza e la validità. Inoltre, per poter verificare che il software di elaborazione abbia le desiderate proprietà di linearità tra segnale misurato ed intensità nota, ci siamo serviti di un'ulteriore immagine di calibrazione contenente una mistura di sfere nanometriche con intensità variabili su due ordini di grandezza. Il risultato di questo lavoro di tesi verrà incluso in un programma per la calibrazione delle immagini in fluorescenza acquisite al laboratorio di biofisica del Dipartimento di Fisica ed Astronomia di Bologna.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro di Tesi viene studiata la realizzazione di un sistema per la generazione di seconda armonica di una luce laser infrarossa. Il lavoro è stato svolto presso l'Univerità di Firenze nell'ambito di un esperimento di fisica atomica, nel quale viene studiato il comportamento di una miscela di atomi freddi di Potassio-Rubidio. Per la realizzazione sperimentale è richiesto l'utilizzo di un fascio laser con luce verde a 532 nm. Per ottenere questo fascio si è ricorso alla generazione di seconda armonica di un laser con luce infrarossa a 1064 nm, sfruttando le proprietà dei cristalli non lineari. Il cristallo utilizzato è un cristallo periodically poled di Tantalato di Litio, che sfrutta la tecnica del Quasi-Phasematching per generare seconda armonica. L'obiettivo principale di questo lavoro è stato quello di caratterizzare il sistema di duplicazione per poter ottimizzare la produzione del fascio verde. Infatti la produzione di seconda armonica dipende da diversi fattori sperimentali, quali la temperatura alla quale si trova il cristallo e la posizione del fuoco del fascio incidente rispetto al cristallo. Per prima cosa si sono ottimizzati i parametri del fascio infrarosso, cercando quelli per i quali la produzione di seconda armonica è maggiormente efficiente. Questo è stato effettuato caratterizzando il fascio per trovarne la posizione del fuoco e la sua larghezza. Nella seconda parte si è studiata l'efficienza di produzione di seconda armonica. La temperatura del cristallo influenza notevolmente la produzione di seconda armonica, quindi si è cercata la temperatura ottimale a cui l'efficienza di duplicazione è massima. Inoltre si è anche calcolata l'ampiezza massima delle oscillazioni di temperatura a cui è possibile sottoporre il cristallo senza uscire dalla zona in cui la duplicazione è efficiente. Per trovare la temperatura ottimale si è studiato l'andamento dell'efficienza in funzione della temperatura del cristallo. Analizzando questo andamento si sono anche verificati i coefficienti non lineari del cristallo dichiarati dal produttore.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con questa tesi ho voluto mettere insieme delle nozioni oggi basilari per chiunque voglia avere un quadro globale del geomagnetismo cercando di essere il più chiaro e esplicativo possibile nell'esposizione sia dal punto di vista matematico che linguistico. Non è stato, comunque, possibile affrontare in soli tre capitoli di tesi tutte le problematiche inerenti a una disciplina così ricca di informazioni e che si è evoluta in modo così rapido negli ultimi anni. La tesi inizia con un'introduzione storica sul magnetismo per passare, attraverso un quadro generale di elettromagnetismo e le equazioni fondamentali di Maxwell, a una descrizione del campo magnetico terrestre e delle sue variazioni spaziotemporali accompagnate da una descrizione dei fenomeni elettrici in atmosfera più importanti del nostro pianeta. Segue poi, nel secondo capitolo, una breve presentazione delle teorie sull'origine del campo e successivamente, tramite la magnetoidrodinamica, si passa alla teoria della dinamo ad autoeccitazione il cui funzionamento è preso come modello, fino ad oggi considerato il più valido, per spiegare le origini del campo magnetico terrestre. Infine, nel terzo ed ultimo capitolo, si parla del rapporto del campo magnetico terrestre con le rocce terrestri che introduce un approfondimento generale sul paleomagnetismo ossia del campo magnetico nel passato e che ruolo svolge nell'ambito della tettonica a placche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il Sorafenib è l’unica terapia sistemica approvata per l’epatocarcinoma (HCC) avanzato. Tuttavia, molti tumori sviluppano resistenze. La chemioterapia metronomica sembrerebbe avere un effetto antiangiogenetico. La Capecitabina metronomica è potenzialmente efficace nell’HCC avanzato. Lo scopo dello studio è stato valutare il comportamento di un modello murino di HCC sottoposto a Sorafenib, Capecitabina e terapia combinata, per dimostrarne un eventuale effetto sinergico. Il modello è stato creato in topi scid mediante inoculazione sottocutanea di 5 milioni di cellule HuH7. I topi sono stati suddivisi in 4 gruppi: gruppo 1 sottoposto a terapia con placebo (9 topi), gruppo 2 a Sorafenib (7 topi), gruppo 3 a Capecitabina (7 topi) e gruppo 4 a terapia combinata Sorafenib+Capecitabina (10 topi). I topi sono stati studiati al giorno 0 e 14 con ecografia B-mode e con mezzo di contrasto (CEUS). Al giorno 14 sono stati sacrificati e i pezzi tumorali sono stati conservati per l’analisi Western Blot. Un topo del gruppo 1 e 4 topi del gruppo 4 sono morti precocemente e quindi sono stati esclusi. Il delta di crescita tumorale al giorno 14 rispetto al giorno 0 è risultato di +503 %, +158 %, +462 % e +176 % rispettivamente nei 4 gruppi (p<0.05 tra i 4 gruppi, tra il gruppo 1 e 2, tra il gruppo 1 e 4, tra il gruppo 2 e 3, tra il gruppo 3 e 4). Alla CEUS non si sono evidenziate differenze statisticamente significative nei cambiamenti di perfusione tumorale al giorno 14 nei 4 gruppi. L’analisi Western Blot ha mostrato livelli di VEGFR-2 inferiori nel gruppo dei topi trattati con Sorafenib. La terapia di associazione di Sorafenib e Capecitabina non comporta un beneficio, in termini di riduzione della crescita tumorale, in un modello murino di HCC rispetto al solo Sorafenib. Inoltre, può essere sospettato un incremento di tossicità.