835 resultados para EMI, EMC, LISN, emissioni, condotte, irradiate
Resumo:
In questo elaborato di tesi viene presentata la comparazione tra due codici CFD, rispettivamente Fluent e OpenFOAM, mediante simulazioni che sono alla base di uno studio numerico di flusso attorno ad un pantografo per treno ad alta velocità. Si è apprezzato quindi la facilità d’uso di un software venduto tramite licenza e la difficoltà di un software open source come OpenFOAM, il quale però ha vantaggi in termini di adattamento ai casi più specifici. Sono stati quindi studiati due casi, scambio termico in regime laminare attorno ad un cilindro bidimensionale e flusso turbolento completamente sviluppato in un canale. Tutte le simulazioni numeriche hanno raggiunto convergenza e sono state validate positivamente mediante confronto con dati sperimentali. Il primo caso prevede un cilindro investito da un flusso a temperatura minore rispetto alla temperatura della superficie del cilindro; per avere più riscontri, sono state condotte diverse prove a valori differenti del numero di Prandtl, e per ogni simulazione è stato ricavato il corrispettivo numero di Nusselt, successivamente comparato con i dati sperimentali per la validazione delle prove. A partire dalla creazione della griglia di calcolo, è stato effettuato uno studio del fenomeno in questione, creando così una griglia di calcolo sviluppata a valle del cilindro avente maggior densità di celle a ridosso della parte del cilindro. In aggiunta, svolgendo le prove con schemi numerici sia del primo che del secondo ordine, si è constatata la miglior sensibilità degli schemi numerici del secondo ordine rispetto a quelli del primo ordine. La seconda tipologia di simulazioni consiste in un flusso turbolento completamente sviluppato all’interno di un canale; sono state svolte simulazioni senza e con l’uso delle wall functions, e quindi usate griglie di calcolo differenti per i due tipi di simulazioni, già disponibili per entrambi i software. I dati ottenuti mostrano uno sforzo computazionale maggiore per le simulazioni che non prevedono l’uso delle wall functions, e quindi una maggiore praticità per le simulazioni con le wall functions. Inoltre, le simulazioni di questo secondo caso sono state svolte con diversi modelli di turbolenza; in Fluent sono stati utilizzati i modelli k-ε e RSM mentre in OpenFOAM è stato utilizzato solo il modello k-ε in quanto il modello RSM non è presente. La validazione dei risultati è affidata alla comparazione con i dati sperimentali ricavati da Moser et all mediante simulazioni DNS, mettendo in risalto la minor accuratezza delle equazioni RANS.
Resumo:
Nel panorama motoristico ed automobilistico moderno lo sviluppo di motori a combustione interna e veicoli è fortemente influenzato da diverse esigenze che spesso sono in contrasto le une con le altre. Infatti gli obiettivi di economicità e riduzione dei costi riguardanti la produzione e la commercializzazione dei prodotti sono in contrasto con gli sforzi che devono essere operati dalle case produttrici per soddisfare le sempre più stringenti normative riguardanti le emissioni inquinanti ed i consumi di carburante dei veicoli. Fra le numerose soluzioni presenti i veicoli ibridi rappresentano una alternativa che allo stato attuale è già presente sul mercato in varie forme, a seconda della tipologie di energie accoppiate. In letteratura è possibile trovare numerosi studi che trattano l’ottimizzazione dei componenti o delle strategie di controllo di queste tipologie di veicoli: in moltissimi casi l’obiettivo è quello di minimizzare consumi ed emissioni inquinanti. Normalmente non viene posta particolare attenzione agli effetti che l’aggiunta delle macchine elettriche e dei componenti necessari per il funzionamento delle stesse hanno sulla dinamica del veicolo. Il presente lavoro di tesi è incentrato su questi aspetti: si è considerata la tipologia di veicoli ibridi termici-elettrici di tipo parallelo andando ad analizzare come cambiasse il comportamento dinamico del veicolo in funzione del tipo di installazione considerato per la parte elettrica del powertrain. In primo luogo è stato quindi necessario costruire ed implementare un modello dinamico di veicolo che permettesse di applicare coppie alle quattro ruote in maniera indipendente per considerare diverse tipologie di powertrain. In seguito si sono analizzate le differenze di comportamento dinamico fra il veicolo considerato e l’equivalente versione ibrida e i possibili utilizzi delle macchine elettriche per correggere eventuali deterioramenti o cambiamenti indesiderati nelle prestazioni del veicolo.
Resumo:
La labioschisi con o senza palatoschisi non-sindromica (NSCL/P) è tra le più frequenti alterazioni dello sviluppo embrionale, causata dall’interazione di fattori genetici e ambientali, moti dei quali ancora ignoti. L'obiettivo del mio progetto di Dottorato consiste nell’identificazione di fattori di rischio genetico in un processo a due stadi che prevede la selezione di geni candidati e la verifica del loro coinvolgimento nella determinazione della malformazione mediante studi di associazione. Ho analizzato alcuni polimorfismi a singolo nucleotide (SNPs) dei geni RFC1 e DHFR, appartenenti alla via metabolica dell’acido folico, evidenziando una debole associazione tra alcuni degli SNPs indagati e la NSCL/P nella popolazione italiana. Presso il laboratorio della Dott.ssa Mangold dell’Università di Bonn, ho valutato il ruolo di 15 diverse regioni cromosomiche nel determinare la suscettibilità alla malattia, evidenziando una significativa associazione per i marcatori localizzati in 8q24 e 1p22. Ho quindi rivolto la mia attenzione al ruolo del complesso Polycomb nell’insorgenza della schisi. Nell’uomo i due complessi Polycomb, PRC1 e PRC2, rimodellano la cromatina agendo da regolatori dei meccanismi trascrizionali alla base della differenziazione cellulare e dello sviluppo embrionale. Ho ipotizzato che mutazioni a carico di geni appartenenti a PRC2 possano essere considerati potenziali fattori di rischio genetico nel determinare la NSCL/P. Il razionale consiste nel fatto che JARID2, una proteina che interagisce con PRC2, è associata all’insorgenza della NSCL/P ed espressa a livello delle cellule epiteliali delle lamine palatine che si approssimano alla fusione. L’indagine condotta analizzando i geni di elementi o partner dei due complessi Polycomb, ha evidenziato un’associazione significativa con alcuni polimorfismi dei geni indagati, associazione ulteriormente confermata dall’analisi degli aplotipi. Le analisi condotte sui geni candidati mi hanno permesso di raccogliere dati interessanti sull’eziologia della malformazione. Studi indipendenti saranno necessari per poter validare l'associazione tra le varianti genetiche di questi geni candidati e la NSCL/P.
Resumo:
Nelle smart cities moderne, la mobilità di veicoli elettrici (EV) è considerata un fattore determinante nella riduzione del consumo di combustibili fossili e conseguenti emissioni inquinanti. Tuttavia, nonostante gli interessi e investimenti a livello globale, l'accettazione da parte degli utenti è ancora bassa, principalmente a causa della mancanza di infrastrutture e servizi a supporto dei guidatori di EV. Queste mancanze sono la causa principale della cosiddetta range anxiety (timore che il veicolo non abbia autonomia sufficiente per raggiungere la destinazione) e hanno portato al preconcetto che gli EV siano adatti alla sola percorrenza di brevi tragitti. Per contrastare questi problemi, in questo documento è proposta un'applicazione di route planning che supporti mobilità di EV anche su percorsi medio-lunghi, mediante utilizzo di un modello di predizione del consumo energetico e considerazione dell'eventuale necessità di ricarica. Saranno descritte tecniche per determinare il tragitto che un EV sia in grado di percorrere per arrivare a destinazione, in considerazione di restrizioni energetiche, fattore altimetrico del percorso ed eventuali operazioni di ricarica necessarie. Il modello di consumo e l'algoritmo che determina il miglior percorso (dal punto di vista energetico) sono implementati da un web service che interagisce con i servizi di Google Maps (per ottenere indicazioni stradali, dati altimetrici e informazioni in tempo reale sul traffico) e con servizi che offrono informazioni sulle stazioni di ricarica e relative posizioni. Dopo aver descritto il modello di consumo e l'algoritmo per la ricerca del percorso, sarà presentata l'architettura del servizio implementato. Sarà quindi fornita una valutazione del servizio, analizzandone performance e scalabilità, nonché l'efficacia nel supporto di percorsi di EV all'interno di scenari su larga scala (nello specifico la regione Emilia Romagna), attraverso tecniche di simulazione.
Resumo:
B0218+357 è un blazar soggetto al lensing che si trova a z=0.944. Questo sistema consiste in due componenti compatte (A e B) e un anello di Einstein. Recentemente è stato associato ad una sorgente gamma soggetta a burst osservata con il satellite Fermi-LAT. Questo blazar ha mostrato una forte variabilità in banda γ da agosto a settembre del 2012. Gli episodi di variabilità osservati hanno consentito di misurare per la prima volta in banda gamma il ritardo temporale previsto dalla teoria del lensing gravitazionale. Le osservazioni in banda gamma sono state seguite da un programma di monitoring con il Very Long Baseline Array (VLBA) in banda radio con lo scopo di verificare l’esistenza di una correlazione tra l’emissione nelle due bande. In questa Tesi tali osservazioni radio sono state analizzate con lo scopo di studiare la variabilità di B0218+357 e, quindi, attestare la connessione tra l’emissione alle alte energie e quella in banda radio. L’obiettivo principale di questo lavoro di Tesi è quello di studiare l’evoluzione della densità di flusso, dell’indice spettrale e della morfologia delle immagini A e B e delle loro sottocomponenti. I dati analizzati sono stati ottenuti con l’interferometro VLBA a tre frequenze di osser- vazione: 2.3, 8.4 GHz (4 epoche con osservazioni simultanee alle due frequenze) e 22 GHz (16 epoche). Le osservazioni hanno coperto un periodo di circa due mesi, subito successivo al flare in banda gamma. La riduzione dei dati è stata effettuata con il pacchetto AIPS. Dall’analisi delle immagini, nella componente B è possibile riconoscere la tipica struttura nucleo-getto chiaramente a tutte e tre le frequenze, invece nella componente A questa struttura è identificabile solo a 22 GHz. A 2.3 e 8.4 GHz la risoluzione non è sufficiente a risolvere nucleo e getto della componente A e l’emissione diffusa risulta dominante. Utilizzando il metodo dello stacking sulle immagini a 2.3 GHz, è stato possibile rivelare le parti più brillanti dell’Einstein ring associato a questa sorgente. Questo è stato possibile poiché la sorgente non ha mostrato alcun segno di variabilità significativa né di struttura né di flusso nelle componenti. Quindi dall’analisi delle curve di luce delle due componenti A e B non è emersa una variabilità significativa chiaramente associabile al flare osservato in banda gamma. Per verificare questo risultato, le curve di luce ottenute sono state confrontate con le osservazioni del radio telescopio OVRO (15 GHz) nel periodo corrispondente alle nostre osservazioni. La curva di luce OVRO è risultata in pieno accordo con le curve di luce ottenute durante questo lavoro di tesi e ha confermato che B0218+257 non ha mostrato un’importante attività radio nel periodo delle osservazioni VLBA. In definitiva, la mancanza di variabilità radio associata a quella osservata nei raggi gamma può essere dovuta al fatto che la regione in cui si è originato il flare gamma è otticamente spessa alle lunghezze d’onda radio, oppure non esiste una precisa correlazione tra le due emissioni, rimanendo quindi un problema aperto da investigare.
Resumo:
Nei Roditori e nei Primati, studi di immunoistochimica condotti sulla formazione ippocampale hanno dimostrato che le proteine leganti il calcio (parvalbumina, calbindina-D28k e calretinina) sono dei marker che consentono di identificare differenti sottopopolazioni di neuroni. Nel presente studio è stata analizzata la distribuzione di queste proteine nella formazione ippocampale di cane. L’immunoreattività per la parvalbumina è stata localizzata in neuroni multipolari presenti nello strato polimorfo e nei campi CA3-CA1, così come in alcuni neuroni presumibilmente inibitori localizzati nel campo CA1 e nel subicolo. I granuli e le fibre muschiate presentavano una forte immunoreattività per la calbindina-D28k. Tale immunoreattività era evidente anche nei neuroni piramidali del campo CA1 e del subicolo ed in alcuni interneuroni, presumibilmente inibitori, distribuiti nella formazione ippocampale. L’immunoreatività per la calretinina era relativamente bassa in tutta la formazione ippocampale. Le analisi immunoistochimiche hanno evidenziato, nel giro dentato e nel campo CA1, una riduzione età-dipendente dell’immunoreattività per la parvalbumina e la calretinina. Le analisi condotte mediante risonanza magnetica hanno inoltre dimostrato una riduzione volumetrica età-dipendente della formazione ippocampale di cane.
Resumo:
Analisi delle emissioni di inquinanti per combustioni innovative Dual-Fuel e Premixed Charge Compression Ignition (PCCI) operate su un motore Diesel, nel laboratorio di propulsione e macchine della Scuola d'Ingegneria e Architettura con sede a Forlì. Tale studio è stato realizzato in quanto la riduzione delle emissioni e dei consumi sono caratteristiche di primo impatto per la competitività sul mercato di un motore e poiché le emissioni di inquinanti sono regolate da standard europei che ne esigono la continua riduzione. L'obiettivo della ricerca è quello di definire un pattern di combustioni, variando il valore e la sincronizzazione dei parametri delle attuazioni, che consenta la riduzione di inquinanti senza compromettere le prestazioni. Capire come ottenere minori emissioni di inquinanti significa poter far rientrare anche i motori diesel nelle future normative EURO 6 (già definite ed in vigore da Settembre 2014), e di seguire studi paralleli sulla riduzione dei consumi sui quali sono già stati riscontrati risultati positivi.
Resumo:
L'oggetto di studio di questa tesi e' l'analisi degli ammassi di galassie (galaxy clusters) e delle loro proprieta', attraverso un introduttiva analisi morfologica e dinamica, considerazioni sulle proprieta' termiche (con caratteristiche collegate direttamente dalla temperatura), ed infine l'ispezione dei meccanismi che generano le emissioni non termiche e le loro sorgenti. Cercheremo delle relazioni fra le une e le altre. In particolare studieremo specifiche conformazioni del mezzo intergalattico (ICM, intracluster medium) all'interno degli ammassi, quali Aloni, Relitti e Mini Aloni, attraverso le radiazioni che essi sprigionano nella banda dei raggi X e onde radio. Le prime osservazioni sugli ammassi di galassie sono state effettuate gia' alla fine del '700 da Charles Messier, che, al fine di esaminare il cielo alla ricerca di comete, forni un catalogo di 110 oggetti cosmici che, pur apparendo nebulosi per via della limitatezza di risoluzione dei telescopi di allora, non erano sicuramente comete. Fra questi oggetti vi erano anche ammassi di galassie. I primi studi approfonditi si ebbero soltanto con il rapido incremento tecnologico del XX secolo che permise di capire che quelle formazioni confuse altro non erano che agglomerati di galassie. Telescopi piu' grandi, e poi interferometri, radiotelescopi osservazioni agli X hanno sostanzialmente aperto il mondo dell'astrofisica. In particolare Abell stabili' nel primo dopoguerra il primo catalogo di ammassi su determinazione morfologica. Altri astronomi ampliarono poi i parametri di classificazione basandosi su caratteristiche ottiche e meccaniche. Le analisi piu' recenti infine basano le loro conclusioni sullo studio delle bande non ottiche dello spettro, principalmente i raggi X e onde Radio.
Resumo:
Da anni l’insegnamento “trasmissivo” delle scienze è messo in discussione e le ricerche condotte su grandi numeri di studenti di diverso livello scolare ne stanno dimostrando la scarsa efficacia. Si è cercato di documentare e interpretare le difficoltà esistenti per trovare soluzioni che garantiscano un apprendimento significativo. Il lavoro di tesi cerca di mettere a punto una proposta efficace per una formazione iniziale su un concetto matematico significativo: la funzione. Il percorso che presentiamo si sviluppa a partire da un’esperienza didattica in una terza secondaria inferiore in cui il passaggio dalla fase percettiva a quella più formale è affiancato dalla rappresentazione grafica relativa al moto del proprio corpo. L’attività ha permesso di avvicinare gli studenti ai fenomeni partendo da situazioni reali, di indagare le regolarità dei grafici, interpretare la relazione tra le grandezze e ha permesso a ciascuno di costruirsi un modello intuitivo. La proposta didattica si rivolge agli studenti più grandi del biennio della secondaria superiore ed è risultato abbastanza naturale adattare le prime fasi alla pre-sperimentazione. Si introduce la dipendenza lineare tra due variabili associandola ad un grafico rettilineo e si definisce la relazione che lega le variabili spazio temporali. Il passaggio al concetto di limite viene delineato attraverso l’ingrandimento e l’approssimazione della curva senza necessariamente introdurre rigore e formalismo ma sottolineando la finezza del significato matematico e il senso del procedimento. Tale proposta è un intreccio di contenuti matematici e fisici che avvicina gli studenti allo studio e alla comprensione della realtà di cui fanno parte.
Resumo:
Nel corso di questa Tesi sono state studiate reazioni di cluster carburo-carbonilici Fe/Cu con composti azotati di varia natura: complessi fosforescenti di metalli di transizione, 1-10 fenantrolina, L-amminoacidi e Chinolina. In particolare la reazione tra Fe4C(CO)12Cu2(CH3CN)2 e [Ru(tpy)(bpy)(N4C-C6H4-CN)]+ ha portato alla sintesi dell’addotto Fe4C(CO)12{Cu2Cl[Ru(tpy)(bpy)(N4C-C6H4-CN)]}, sul quale sono state condotte misure di luminescenza (emissione, eccitazione e misura dei tempi di vita degli stati eccitati). Per confronto degli spettri registrati su campioni di adotto in soluzione con quelli del complesso cationico di Ru(II), si è ipotizzato che l’addotto sintetizzato in soluzione dia origine ad un sistema in equilibrio tra le specie legate e dissociate. Le reazioni di Fe4C(CO)12Cu2(CH3CN)2 e [NEt4][Fe5C(CO)14Cu(CH3CN)] con 1-10 fenantrolina hanno permesso di isolare le nuove specie [Fe4C(CO)12(Cuphen)]–, [Fe4C(CO)12(Cuphen)] e [Fe5C(CO)14(Cuphen)]–, sottoforma dei loro sali [Cu(phen)2][Fe4C(CO)12(Cuphen)], [NEt4] [Fe4C(CO)12(Cuphen)], [Fe4C(CO)12(Cuphen)], [NEt4][Fe5C(CO)14(Cuphen)]• CH2Cl2 e [NEt4][Fe5C(CO)14(Cuphen)]•THF. In tali cluster si nota come la natura bidentata di phen e il suo ingombro sterico abbiano causato notevoli riarrangiamenti strutturali rispetto alle specie iniziali contenenti acetonitrile. La sintesi di Fe4C(CO)12(CuQ)2 e [NEt4][Fe5C(CO)14(CuQ)] è avvenuta inaspettatamente a partire dalle reazioni condotte tra Fe4C(CO)12Cu2(CH3CN)2 e [NEt4][Fe5C(CO)14Cu(CH3CN)] con le molecole L-prolina, L-metionina e guanina, a causa della chinolina contenuta come impurezza nei reagenti di partenza. L’esito di questa reazione ha comunque mostrato l’elevata affinità dei cluster per il legante chinolina, sebbene presente in ambiente di reazione in misura sensibilmente inferiore rispetto agli altri reagenti. Tutte le nuove specie sintetizzate sono stati caratterizzate mediante spettroscopia IR e le strutture molecolari sono state determinate mediante diffrazione di raggi X su cristallo singolo.
Resumo:
La prima parte del nostro studio riguarda la tecnica LAMP (Loop-mediated isothermal amplification), una tecnica di amplificazione isotermica recentemente inventata (Notomi et al., 2000). Essa presenta notevoli vantaggi rispetto alle tradizionali PCR: non necessita di strumentazioni sofisticate come i termociclatori, può essere eseguita da personale non specializzato, è una tecnica altamente sensibile e specifica ed è molto tollerante agli inibitori. Tutte queste caratteristiche fanno sì che essa possa essere utilizzata al di fuori dei laboratori diagnostici, come POCT (Point of care testing), con il vantaggio di non dover gestire la spedizione del campione e di avere in tempi molto brevi risultati paragonabili a quelli ottenuti con la tradizionale PCR. Sono state prese in considerazione malattie infettive sostenute da batteri che richiedono tempi molto lunghi per la coltivazione o che non sono addirittura coltivabili. Sono stati disegnati dei saggi per la diagnosi di patologie virali che necessitano di diagnosi tempestiva. Altri test messi a punto riguardano malattie genetiche del cane e due batteri d’interesse agro-alimentare. Tutte le prove sono state condotte con tecnica real-time per diminuire il rischio di cross-contaminazione pur riuscendo a comprendere in maniera approfondita l’andamento delle reazioni. Infine è stato messo a punto un metodo di visualizzazione colorimetrico utilizzabile con tutti i saggi messi a punto, che svincola completamente la reazione LAMP dall’esecuzione in un laboratorio specializzato. Il secondo capitolo riguarda lo studio dal punto di vista molecolare di un soggetto che presenza totale assenza di attività mieloperossidasica all’analisi di citochimica automatica (ADVIA® 2120 Hematology System). Lo studio è stato condotto attraverso amplificazione e confronto dei prodotti di PCR ottenuti sul soggetto patologico e su due soggetti con fenotipo wild-type. Si è poi provveduto al sequenziamento dei prodotti di PCR su sequenziatore automatico al fine di ricercare la mutazione responsabile della carenza di MPO nel soggetto indicato.
Resumo:
Il progetto di ricerca è finalizzato allo sviluppo di una metodologia innovativa di supporto decisionale nel processo di selezione tra alternative progettuali, basata su indicatori di prestazione. In particolare il lavoro si è focalizzato sulla definizione d’indicatori atti a supportare la decisione negli interventi di sbottigliamento di un impianto di processo. Sono stati sviluppati due indicatori, “bottleneck indicators”, che permettono di valutare la reale necessità dello sbottigliamento, individuando le cause che impediscono la produzione e lo sfruttamento delle apparecchiature. Questi sono stati validati attraverso l’applicazione all’analisi di un intervento su un impianto esistente e verificando che lo sfruttamento delle apparecchiature fosse correttamente individuato. Definita la necessità dell’intervento di sbottigliamento, è stato affrontato il problema della selezione tra alternative di processo possibili per realizzarlo. È stato applicato alla scelta un metodo basato su indicatori di sostenibilità che consente di confrontare le alternative considerando non solo il ritorno economico degli investimenti ma anche gli impatti su ambiente e sicurezza, e che è stato ulteriormente sviluppato in questa tesi. Sono stati definiti due indicatori, “area hazard indicators”, relativi alle emissioni fuggitive, per integrare questi aspetti nell’analisi della sostenibilità delle alternative. Per migliorare l’accuratezza nella quantificazione degli impatti è stato sviluppato un nuovo modello previsionale atto alla stima delle emissioni fuggitive di un impianto, basato unicamente sui dati disponibili in fase progettuale, che tiene conto delle tipologie di sorgenti emettitrici, dei loro meccanismi di perdita e della manutenzione. Validato mediante il confronto con dati sperimentali di un impianto produttivo, si è dimostrato che tale metodo è indispensabile per un corretto confronto delle alternative poiché i modelli esistenti sovrastimano eccessivamente le emissioni reali. Infine applicando gli indicatori ad un impianto esistente si è dimostrato che sono fondamentali per semplificare il processo decisionale, fornendo chiare e precise indicazioni impiegando un numero limitato di informazioni per ricavarle.
Resumo:
“Per me la Fisica costituisce un sistema perfettamente armonioso ed essenzialmente completo. All’orizzonte scorgo solamente due piccole nubi oscure: il risultato negativo dell’esperienza di Michelson e Morley e l’insufficienza della legge di Rayleigh e Jeans se applicata alle frequenze dell’ultravioletto” Con questa frase William Thomson Kelvin delineava, sul finire dell’800, i tratti di una Fisica fondata su solide basi che consentisse di spiegare i fenomeni di natura meccanica per mezzo delle Leggi della Dinamica di Newton e descrivesse le proprietà del campo elettromagnetico grazie alle Equazioni di Maxwell. Tuttavia, come riferisce lo stesso Lord Kelvin, rimaneva qualcosa di inspiegato: i due risultati mancanti sino ad allora diedero origine ad una vera e propria rivoluzione nel campo della Fisica. Grazie all’esperienza di Michelson e Morley, in disaccordo con quanto previsto dalla Meccanica Classica, Albert Einstein nel 1905 fu in grado di estendere i risultati della Relatività Galileiana ad eventi che coinvolgono velocità prossime a quella della luce; dall’altro lato, Max Planck nel 1900 pose le basi della Meccanica Quantistica, ipotizzando la quantizzazione dell’Energia, studiando la radiazione di Corpo Nero. Definendo il Corpo Nero come un oggetto ideale la cui superficie è in grado di assorbire qualsiasi radiazione elettromagnetica incidente su di esso, in questo compendio saranno esposti il processo che ha indotto lo scienziato tedesco Gustav Robert Kirchhoff all’idealizzazione di tale concetto, la soluzione della quantizzazione di Planck per ovviare al fenomeno della Catastrofe Ultravioletta derivante dall’approccio di Rayleigh e Jeans e la determinazione dello Spettro di Corpo Nero con le relative proprietà, Leggi empiriche che ne regolano l’andamento. Verranno inoltre presentati alcuni esempi astrofisici reali le cui emissioni rispecchiano l’andamento del Corpo Nero e se ne discuteranno le relative caratteristiche che li discostano dall’oggetto teorico.
Resumo:
La tesi si propone l’obiettivo di indagare le modalità di interazione tra conoscenze tecnico-scientifiche e dato normativo, a partire dallo studio delle c.d. norme tecniche, ossia le norme, dotate di forza giuridica o meno, elaborate sulla base di conoscenze tecnico-scientifiche. La ricerca analizza diversi settori dell’ordinamento, accomunati da un’elevata influenza di saperi tecnici e al tempo stesso da un’indubbia rilevanza dal punto di vista costituzionale (la disciplina delle sperimentazioni cliniche dei farmaci, quella delle emissioni inquinanti di origine industriale e quella relativa agli standard di sicurezza dei prodotti), individuando quelle che al loro interno si possono considerare norme tecniche e mettendone in luce sia i profili formali (in quali atti-fonte sono contenute, quale natura giuridica presentano) che il procedimento di formazione, con particolare attenzione ai soggetti che vi prendono parte. Si propone quindi una sistematizzazione degli elementi emersi dall’indagine a partire da due diverse prospettive: in primo luogo tali dati vengono analizzati dal punto di vista dogmatico, individuando i diversi meccanismi di ingresso del dato tecnico-scientifico nel tessuto normativo (incorporazione nella norma giuridica, impiego di clausole generali, rinvio a norme extra-giuridiche), al fine di mettere in luce eventuali profili problematici per quanto riguarda il sistema delle fonti. La seconda prospettiva prende invece quale punto di riferimento il “centro di elaborazione sostanziale” delle norme considerate, al fine di evidenziarne i diversi fattori di legittimazione: a partire da esigenze di armonizzazione della disciplina e dall’assunto della neutralità delle conoscenze tecnico-scientifiche rispetto agli interessi coinvolti, l’elaborazione delle norme tecniche vede infatti un significativo ripensamento degli equilibri non solo fra attori pubblici e privati, ma anche tra legittimazione politica e legittimazione “tecnica” della scelta normativa. A tali aspetti è dedicata la parte conclusiva del lavoro, in particolare per quanto riguarda la conformità rispetto al disegno costituzionale.
Resumo:
Gli stress abiotici determinando modificazioni a livello fisiologico, biochimico e molecolare delle piante, costituiscono una delle principali limitazioni per la produzione agricola mondiale. Nel 2007 la FAO ha stimato come solamente il 3,5% della superficie mondiale non sia sottoposta a stress abiotici. Il modello agro-industriale degli ultimi cinquant'anni, oltre ad avere contribuito allo sviluppo economico dell'Europa, è stato anche causa di inquinamento di acqua, aria e suolo, mediante uno sfruttamento indiscriminato delle risorse naturali. L'arsenico in particolare, naturalmente presente nell'ambiente e rilasciato dalle attività antropiche, desta particolare preoccupazione a causa dell'ampia distribuzione come contaminante ambientale e per gli effetti di fitotossicità provocati. In tale contesto, la diffusione di sistemi agricoli a basso impatto rappresenta una importante risorsa per rispondere all'emergenza del cambiamento climatico che negli anni a venire sottoporrà una superficie agricola sempre maggiore a stress di natura abiotica. Nello studio condotto è stato utilizzato uno stabile modello di crescita in vitro per valutare l'efficacia di preparati ultra diluiti (PUD), che non contenendo molecole chimiche di sintesi ben si adattano a sistemi agricoli sostenibili, su semi di frumento preventivamente sottoposti a stress sub-letale da arsenico. Sono state quindi condotte valutazioni sia a livello morfometrico (germinazione, lunghezza di germogli e radici) che molecolare (espressione genica valutata mediante analisi microarray, con validazione tramite Real-Time PCR) arricchendo la letteratura esistente di interessanti risultati. In particolare è stato osservato come lo stress da arsenico, determini una minore vigoria di coleptile e radici e a livello molecolare induca l'attivazione di pathways metabolici per proteggere e difendere le cellule vegetali dai danni derivanti dallo stress; mentre il PUD in esame (As 45x), nel sistema stressato ha indotto un recupero nella vigoria di germoglio e radici e livelli di espressione genica simili a quelli riscontrati nel controllo suggerendo un effetto "riequilibrante" del metabolismo vegetale.