966 resultados para Reazioni nucleari, supernovae, accrescimento gravitazionale, limite di luminosità di Eddington.
Resumo:
Lo scattering è un processo fisico che descrive le interazioni tra particelle e radiazione elettromagnetica. Esistono diversi tipi di scattering, dove la natura di questi processi dipende dall'energia della particella e della radiazione. Quando l'elettrone fermo subisce un urto elastico con un fotone di bassa energia si ha lo \emph{scattering Thomson}. In questo processo l'onda elettromagnetica accelera la particella; successivamente dopo l'urto l'onda viene diffusa con la stessa frequenza iniziale. Questo processo accade a basse energie poichè ad energie più alte prevale l'effetto dovuto allo \emph{scattering Compton}. In questo meccanismo un fotone interagisce con un elettrone cedendogli energia e in particolare si ha una variazione di frequenza per il fotone. Quando è l'elettrone a trasferire al fotone parte della sua energia si ha \emph{Inverse Compton}. Gli ultimi due processi in realtà sono situazioni limite di un caso più generale chiamato \emph{Comptonizzazione}. Considerando un plasma rarefatto di fotoni ed elettroni, la Comptonizzazione stabilisce come l'evoluzione dello spettro viene modificato a causa dell'interazione tra fotoni ed elettroni. Nel secondo capitolo di questo elaborato verrà esaminata l'emissione in banda X della radiazione elettromagnetica in seguito a fenomeni di accrescimento intorno a buchi neri; nello specifico si analizzerà l'emissione soft e hard per buchi neri galattici.
Resumo:
Il seguente lavoro di tesi descrive un modello fisico di nana bianca all'equilibrio partendo da dati empirici tipici per tali stelle. Si schematizza la stella come una sfera di gas He completamente ionizzato di densità uniforme, a temperatura T=const e soggetta ad un potenziale gravitazionale centrale. Il gas si costituisce di una parte degenere relativistica (elettroni) ed una parte classica ideale (gli ioni). Si procede ricavando le relazioni essenziali per determinare le proprietà di un gas di Fermi degenere relativistico, mostrando come, al limite di Boltzmann, descrivano anche il caso classico. La trattazione teorica è progressivamente supportata dalle stime dei parametri caratteristici delle due componenti del gas per verificare le loro condizioni fisiche e stimare l'importanza dei rispettivi contributi all'intero sistema. Si procede quindi all'esposizione dell'equilibrio tra pressione degenere ed attrazione gravitazionale ponendo particolare attenzione alla relazione raggio-massa. Infine si discutono le condizioni entro le quali un sistema fisico con tali caratteristiche può sussistere, con esplicito riferimento al limite di Chandrasekhar.
Resumo:
La conoscenza dell’età e della crescita dei bivalvi è un requisito fondamentale per uno studio di dinamica di popolazione e per una gestione ottimale della risorsa. Lo scopo di questa tesi è quello di individuare una metodologia valida per riconoscere la precisa natura dell’origine dei microincrementi di crescita nel guscio di Chamelea gallina, riconoscendo le discontinuità annuali all’interno del guscio. Sono stati prelevati gusci di individui di C. gallina provenienti da un precedente campionamento nella baia della Vallugola il 06/09/2013. Le valve sono state incluse in resina epossidica e sezionate dall’umbone al margine centrale e levigate così da poter osservare le fettine ottenute allo stereomicroscopio a luce trasmessa. Il vantaggio riscontrato di questa metodologia è rappresentato dalla inaccessibilità delle strutture di deposizione alle perturbazioni ambientali anche se risulta impossibile annullare i possibili effetti dovuti all’attività di pesca o di altri eventi stressanti. Sono stati individuati solamente organismi con uno o due anni di età. I picchi di rallentamento della crescita sincronizzati in ogni classe di taglia potrebbero indicare tassi di accrescimento costanti entro le classi di taglia. Si può notare inoltre una certa ciclicità con cui si presentano i picchi di rallentamento della crescita. Essi si presentano circa ogni 10-12 crestine corrispondenti ipoteticamente ad una annualità. Un limite di questa metodica è dato dal fatto che si riesce a leggere l’informazione contenuta nel guscio ma, senza una validazione non è possibile associarla ad un preciso periodo di vita dell’organismo. A causa delle tempistiche limitate, non è stato possibile condurre esperimenti di crescita in campo per validare la periodicità delle micro linee di accrescimento ma sarebbe auspicabile in futuro riuscire a svolgere almeno una delle diverse metodiche di validazione.
Resumo:
La nucleosintesi primordiale descrive le reazioni che hanno formato i primi elementi leggeri (H, 2H, 3He, 4He, 7Li) e ci da una previsione sull'andamento delle loro abbondanze primordiali in funzione del rapporto barioni-fotoni η, unico parametro libero della teoria BBN. Questo parametro è stato fissato dal momento in cui la sonda WMAP è stata lanciata in orbita; essa ha svolto misure importantissime sulla radiazione cosmica di fondo, fornendoci un valore accurato della densità barionica e quindi di η. Con questo nuovo dato sono state calcolate le abbondanze degli elementi leggeri ai tempi della nucleosintesi primordiale, tuttavia quella teorizzata per il 7Li non corrispondeva affatto a quella osservata nelle stelle dell'alone galattico, ma risultava essere dalle 2 alle 4 volte maggiore. Questa discrepanza costituisce il problema cosmologico del litio. Il problema può essere affrontato in diversi campi della fisica; il nostro scopo è quello di studiarlo dal punto di vista della fisica nucleare, analizzando le reazioni nucleari legate al 7Li. Il contributo principale alla produzione di 7Li proviene dal decadimento spontaneo del 7Be, quindi bisogna valutare il rate di reazione dei processi che producono o distruggono quest'ultimo nucleo; tale rate dipende dalla sezione d'urto della reazione. Un contributo fondamentale potrebbe essere dato dalle eventuali risonanze non ancora scoperte, cioè gli stati eccitati dei prodotti di reazione che si trovano ad energie non ancora studiate, in corrispondenza delle quali la sezione d'urto subisce un drastico aumento. Le due reazioni principali da considerare sono 7Be(n,p)7Li e 7Be(n,αlfa)4He; la prima perché contribuisce al 97% della distruzione del berillio, quindi una rivalutazione della sua sezione d'urto porterebbe ad un grande cambiamento nel valore dell'abbondanza di 7Be (e quindi di 7Li), la seconda poiché, anche se contribuisce solo al 2.5% della distruzione del berillio, possiede una incertezza enorme.
Resumo:
I neutroni possono essere classificati in base all'energia e per anni lo studio sui neutroni si è focalizzato verso le basse energie, ottenendo informazioni fondamentali sulle reazioni nucleari. Lo studio per i neutroni ad alta energia (E >20 MeV) ha ultimamente suscitato un vivo interesse, poiché i neutroni hanno un ruolo fondamentale in una vasta gamma di applicazioni: in campo medico, industriale e di radioprotezione. Tuttavia le informazioni sperimentali (sezioni d'urto) in nostro possesso, in funzione dell'energia dei neutroni, sono limitate, considerando che richiedono la produzione di fasci con un ampio spettro energetico e delle tecniche di rivelazione conforme ad essi. La rivelazione dei neutroni avviene spesso attraverso il processo di scintillazione che consiste nell'eccitazione e diseccitazione delle molecole che costituiscono il rivelatore. Successivamente, attraverso i fotomoltiplicatori, la luce prodotta viene raccolta e convertita in impulsi energetici che vengono registrati ed analizzati. Lo scopo di questa tesi è quello di testare quale sia la migliore configurazione sperimentale di un rivelatore costituito da scintillatori e fotomoltiplicatori per quanto riguarda la raccolta di luce, utilizzando una simulazione Monte Carlo per riprodurre le proprietà ottiche di un rivelatore per misure di flusso di un rivelatore ad alta energia.
Resumo:
Questa tesi è incentrata sullo studio e la determinazione del flusso neutronico della facility nTOF (neutron Time Of Flight) del CERN di Ginevra nel corso della campagna sperimentale del 2016. L'esperimento è finalizzato alla misura della sezione d'urto della reazione di cattura neutronica da parte degli isotopi dispari di gadolinio, 155Gd e 157Gd. In particolare l'analisi verrà condotta in modo da ottenere dati sperimentali nello spettro di energie da neutroni termici (10-2 eV) a 1.0 eV e migliorare i dati già esistenti per energie fino a 1.0 MeV. Dopo aver ricordato le motivazioni scientifiche e tecnologiche che sono alla base del progetto di ricerca, si descrivono le caratteristiche della facility nTOF e si trattano i fondamenti delle reazioni nucleari e le tecniche del tempo di volo, di misura di flusso e di cattura utilizzate nel corso dell'esperimento. Nella parte finale del lavoro si presentano i dati sperimentali acquisiti sul flusso neutronico, la cui accurata conoscenza è fondamentale per la misura di sezioni d'urto di reazioni indotte da neutroni. I risultati ottenuti sono quindi stati elaborati e confrontati con i dati precedenti per poter essere validati e per poter verificare eventuali discrepanze. Dalle analisi dei dati si deduce come la precisione ottenuta sulla determinazione del flusso sia ottimale per i successivi studi che verranno condotti sulla sezione d'urto degli isotopi dispari di gadolinio.
Resumo:
In questi ultimi anni il tema della sicurezza sismica degli edifici storici in muratura ha assunto particolare rilievo in quanto a partire soprattutto dall’ordinanza 3274 del 2003, emanata in seguito al sisma che colpì il Molise nel 2002, la normativa ha imposto un monitoraggio ed una classificazione degli edifici storici sotto tutela per quanto riguarda la vulnerabilità sismica (nel 2008, quest’anno, scade il termine per attuare quest’opera di classificazione). Si è posto per questo in modo più urgente il problema dello studio del comportamento degli edifici storici (non solo quelli che costituiscono monumento, ma anche e soprattutto quelli minori) e della loro sicurezza. Le Linee Guida di applicazione dell’Ordinanza 3274 nascono con l’intento di fornire strumenti e metodologie semplici ed efficaci per affrontare questo studio nei tempi previsti. Il problema si pone in modo particolare per le chiese, presenti in grande quantità sul territorio italiano e di cui costituiscono gran parte del patrimonio culturale; questi edifici, composti di solito da grandi elementi murari, non presentano comportamento scatolare, mancando orizzontamenti, elementi di collegamento efficace e muri di spina interni e sono particolarmente vulnerabili ad azioni sismiche; presentano inoltre un comportamento strutturale a sollecitazioni orizzontali che non può essere colto con un approccio globale basato, ad esempio, su un’analisi modale lineare: non ci sono modi di vibrare che coinvolgano una sufficiente parte di massa della struttura; si hanno valori dei coefficienti di partecipazione dei varii modi di vibrare minori del 10% (in generale molto più bassi). Per questo motivo l’esperienza e l’osservazione di casi reali suggeriscono un approccio di studio degli edifici storici sacri in muratura attraverso l’analisi della sicurezza sismica dei cosiddetti “macroelementi” in cui si può suddividere un edificio murario, i quali sono elementi che presentano un comportamento strutturale autonomo. Questo lavoro si inserisce in uno studio più ampio iniziato con una tesi di laurea dal titolo “Analisi Limite di Strutture in Muratura. Teoria e Applicazione all'Arco Trionfale” (M. Temprati), che ha studiato il comportamento dell’arco trionfale della chiesa collegiata di Santa Maria del Borgo a San Nicandro Garganico (FG). Suddividere un edificio in muratura in più elementi è il metodo proposto nelle Linee Guida, di cui si parla nel primo capitolo del presente lavoro: la vulnerabilità delle strutture può essere studiata tramite il moltiplicatore di collasso quale parametro in grado di esprimere il livello di sicurezza sismica. Nel secondo capitolo si illustra il calcolo degli indici di vulnerabilità e delle accelerazioni di danno per la chiesa di Santa Maria del Borgo, attraverso la compilazione delle schede dette “di II livello”, secondo quanto indicato nelle Linee Guida. Nel terzo capitolo viene riportato il calcolo del moltiplicatore di collasso a ribaltamento della facciata della chiesa. Su questo elemento si è incentrata l’attenzione nel presente lavoro. A causa della complessità dello schema strutturale della facciata connessa ad altri elementi dell’edificio, si è fatto uso del codice di calcolo agli elementi finiti ABAQUS. Della modellazione del materiale e del settaggio dei parametri del software si è discusso nel quarto capitolo. Nel quinto capitolo si illustra l’analisi condotta tramite ABAQUS sullo stesso schema della facciata utilizzato per il calcolo manuale nel capitolo tre: l’utilizzo combinato dell’analisi cinematica e del metodo agli elementi finiti permette per esempi semplici di convalidare i risultati ottenibili con un’analisi non-lineare agli elementi finiti e di estenderne la validità a schemi più completi e più complessi. Nel sesto capitolo infatti si riportano i risultati delle analisi condotte con ABAQUS su schemi strutturali in cui si considerano anche gli elementi connessi alla facciata. Si riesce in questo modo ad individuare con chiarezza il meccanismo di collasso di più facile attivazione per la facciata e a trarre importanti informazioni sul comportamento strutturale delle varie parti, anche in vista di un intervento di ristrutturazione e miglioramento sismico.
Resumo:
Le strutture caratterizzate da una non coincidenza tra il baricentro delle masse e quello delle rigidezze, chiamate strutture eccentriche, sviluppano degli effetti torsionali se soggette ad un’eccitazione dinamica. Un’accurata analisi delle equazioni del moto di sistemi lineari e non lineari di strutture ad un singolo piano ha portato allo sviluppo di un metodo, detto metodo ALPHA, che, attraverso un parametro, detto parametro “alpha”, permette di stimare gli spostamenti di rotazione in funzione dei soli spostamenti longitudinali. Il limite di questo metodo, tuttavia, è quello di essere riferito a strutture ad un singolo piano, non comuni nella pratica progettuale: si è reso quindi necessario uno studio per testarne la validità anche per strutture multi piano, partendo da strutture semplici a due e tre piani. Data la semplicità del metodo ALPHA, si è deciso di affrontare questo problema cercando di cogliere il comportamento dei diversi piani della struttura multipiano con delle strutture ad un singolo piano. Sono state svolte numerose analisi numeriche in cui sono stati fatti variare i parametri di rigidezza, massa, eccentricità e distribuzione delle rigidezze dei vari piani; come indice di validità della struttura mono piano scelta si è utilizzato il rapporto tra il parametro “psi” dell’i-esimo piano e quello della struttura mono piano scelta, dove “psi” rappresenta il rapporto tra “R” ed “alpha”; “R” è il rapporto tra la massima rotazione e il massimo spostamento longitudinale per una struttura eccentrica soggetta ad un’eccitazione dinamica. Dai risultati ottenuti si deduce che, nella maggioranza dei casi, la struttura mono piano che meglio rappresenta il comportamento di tutti i piani è caratterizzata da massa e rigidezza dell’intera struttura multipiano, da un’eccentricità pari alla minore tra quelle dei vari piani e presenta la peggiore distribuzione delle rigidezze tra quelle che si riscontrano nei vari piani.
Resumo:
Questa tesi affronta lo studio di una tipologia di vibrazione autoeccitata, nota come chatter, che si manifesta nei processi di lavorazione ad asportazione di truciolo ed in particolare nelle lavorazioni di fresatura. La tesi discute inoltre lo sviluppo di una tecnica di monitoraggio e diagnostica del chatter basato sul rilievo di vibrazioni. Il fenomeno del chatter è caratterizzato da violente oscillazioni tra utensile e pezzo in lavorazione ed elevate emissioni acustiche. Il chatter, se non controllato, causa uno scadimento qualitativo della finitura superficiale e delle tolleranze dimensionali del lavorato, una riduzione della vita degli utensili e dei componenti della macchina. Questa vibrazione affligge negativamente la produttività e la qualità del processo di lavorazione e pregiudica l’interazione uomo-macchina-ambiente. Per una data combinazione di macchina, utensile e pezzo lavorato, i fattori che controllano la velocità di asportazione del materiale sono gli stessi che controllano l’insorgenza del chatter: la velocità di rotazione del mandrino, la profondità assiale di passata e la velocità di avanzamento dell’utensile. Per studiare il fenomeno di chatter, con l’obbiettivo di individuare possibili soluzioni per limitarne o controllarne l’insorgenza, vengono proposti in questa tesi alcuni modelli del processo di fresatura. Tali modelli comprendono il modello viscoelastico della macchina fresatrice e il modello delle azioni di taglio. Per le azioni di taglio è stato utilizzato un modello presente in letteratura, mentre per la macchina fresatrice sono stati utilizzato modelli a parametri concentrati e modelli modali analitico-sperimentali. Questi ultimi sono stati ottenuti accoppiando un modello modale sperimentale del telaio, completo di mandrino, della macchina fresatrice con un modello analitico, basato sulla teoria delle travi, dell’utensile. Le equazioni del moto, associate al processo di fresatura, risultano essere equazioni differenziali con ritardo a coefficienti periodici o PDDE (Periodic Delay Diefferential Equations). È stata implementata una procedura numerica per mappare, nello spazio dei parametri di taglio, la stabilità e le caratteristiche spettrali (frequenze caratteristiche della vibrazione di chatter) delle equazioni del moto associate ai modelli del processo di fresatura proposti. Per testare i modelli e le procedure numeriche proposte, una macchina fresatrice CNC 4 assi, di proprietà del Dipartimento di Ingegneria delle Costruzioni Meccaniche Nucleari e Metallurgiche (DIEM) dell’Università di Bologna, è stata strumentata con accelerometri, con una tavola dinamometrica per la misura delle forze di taglio e con un adeguato sistema di acquisizione. Eseguendo varie prove di lavorazione sono stati identificati i coefficienti di pressione di taglio contenuti nel modello delle forze di taglio. Sono stati condotti, a macchina ferma, rilievi di FRFs (Funzioni Risposta in Frequenza) per identificare, tramite tecniche di analisi modale sperimentale, i modelli del solo telaio e della macchina fresatrice completa di utensile. I segnali acquisiti durante le numerose prove di lavorazione eseguite, al variare dei parametri di taglio, sono stati analizzati per valutare la stabilità di ciascun punto di lavoro e le caratteristiche spettrali della vibrazione associata. Questi risultati sono stati confrontati con quelli ottenuti applicando la procedura numerica proposta ai diversi modelli di macchina fresatrice implementati. Sono state individuate le criticità della procedura di modellazione delle macchine fresatrici a parametri concentrati, proposta in letteratura, che portano a previsioni erronee sulla stabilità delle lavorazioni. È stato mostrato come tali criticità vengano solo in parte superate con l’utilizzo dei modelli modali analitico-sperimentali proposti. Sulla base dei risultati ottenuti, è stato proposto un sistema automatico, basato su misure accelerometriche, per diagnosticare, in tempo reale, l’insorgenza del chatter durante una lavorazione. È stato realizzato un prototipo di tale sistema di diagnostica il cui funzionamento è stato provato mediante prove di lavorazione eseguite su due diverse macchine fresatrici CNC.
Resumo:
Analisi dell'incidenza di porosità interne sul limite di fatica di particolari getti di ghisa. Studio sviluppato grazie alla tecnica probabilistica "extreme value analysis".
Resumo:
A partire dalla fine degli anni ’80, gli impianti di molluschicoltura stanno subendo pesanti danni economici a causa dei sempre più frequenti divieti di raccolta dovuti alla comparsa di concentrazioni di biotossine algali all’interno dei tessuti dei molluschi oltre i limiti di legge. Lo scopo di questo lavoro è stato quello di determinare la distribuzione spaziale e temporale delle specie tossiche lungo le coste dell’Emilia Romagna e correlare la loro presenza alla rilevazione di biotossine marine nel tessuto dei mitili. Sono state effettuate analisi biotossicologiche per l’individuazione e quantificazione delle tossine responsabili della PSP, della ASP e delle tossine liposolubili (OAs, PTXs, AZAs e YTXs). Parallelamente è stato effettuato il monitoraggio delle specie fitoplanctoniche in grado di rendere i mitili tossici e, di conseguenza, responsabili di tali biointossicazioni. Le tossine che hanno superato il limite di legge, nel periodo di tempo considerato, sono state le yessotossine. Le analisi del fitoplancton tossico hanno evidenziato la presenza delle specie Gonyaulax spinifera, Lingulodinium polyedrum e Protoceratium reticulatum (sinonimo di Gonyaulax grindleyi). Le correlazioni effettuate mostrano che la specie G. spinifera è responsabile della chiusura degli allevamenti lungo la costa, a causa della produzione di homo-YTX, mentre la specie P. reticulatum produce prevalentemente YTX. Tale lavoro rappresenta il primo studio in campo in cui viene correlata la presenza delle due tossine, YTX e homo-YTX, con quella delle due alghe produttrici, confermando quanto riportato dalla letteratura. Tale lavoro intende offrire uno spunto, una base di partenza al fine di ottenere un quadro più dettagliato dell’andamento delle specie tossiche lungo la costa oggetto di studio.
Resumo:
La cippatura è un processo produttivo fondamentale nella trasformazione della materia prima forestale in biomassa combustibile che coinvolgerà un numero sempre più crescente di operatori. Scopo dello studio è stato quantificare la produttività e il consumo di combustibile in 16 cantieri di cippatura e determinare i livelli di esposizione alla polvere di legno degli addetti alla cippatura, in funzione di condizioni operative differenti. Sono state identificate due tipologie di cantiere: uno industriale, con cippatrici di grossa taglia (300-400kW) dotate di cabina, e uno semi-industriale con cippatrici di piccola-media taglia (100-150kW) prive di cabina. In tutti i cantieri sono stati misurati i tempi di lavoro, i consumi di combustibile, l’esposizione alla polvere di legno e sono stati raccolti dei campioni di cippato per l’analisi qualitativa. Il cantiere industriale ha raggiunto una produttività media oraria di 25 Mg tal quali, ed è risultato 5 volte più produttivo di quello semi-industriale, che ha raggiunto una produttività media oraria di 5 Mg. Ipotizzando un utilizzo massimo annuo di 1500 ore, il cantiere semi-industriale raggiunge una produzione annua di 7.410 Mg, mentre quello industriale di 37.605 Mg. Il consumo specifico di gasolio (L per Mg di cippato) è risultato molto minore per il cantiere industriale, che consuma in media quasi la metà di quello semi-industriale. Riguardo all’esposizione degli operatori alla polvere di legno, tutti i campioni hanno riportato valori di esposizione inferiori a 5 mg/m3 (limite di legge previsto dal D.Lgs. 81/08). Nei cantieri semi-industriali il valore medio di esposizione è risultato di 1,35 mg/m3, con un valore massimo di 3,66 mg/m3. Nei cantieri industriali si è riscontrato che la cabina riduce drasticamente l’esposizione alle polveri di legno. I valori medi misurati all’esterno della cabina sono stati di 0,90 mg/m3 mentre quelli all’interno della cabina sono risultati pari a 0,20 mg/m3.
Resumo:
In questa Tesi di Laurea viene presentata un’interessante esperienza di implementazione numerica: lo sviluppo di un codice agli elementi finiti in grado di calcolare, verificare e ottimizzare edifici industriali in acciaio. Al giorno d’oggi, la tendenza delle imprese nel campo dell’ingegneria strutturale ed in particolare nel campo dell’edilizia industriale, è quella della specializzazione. E’ sempre più frequente, ad esempio nel campo dei capannoni industriali, che le aziende concentrino la loro attività solo su determinate tipologie costruttive, sulle quali ottimizzano il lavoro riducendo al massimo i tempi di progettazione, di costruzione e abbassando il prezzo. Il mondo dei programmi di calcolo, per la maggior parte, sembra aver preso una direzione di sviluppo opposta. Le case di produzione software mettono a disposizione dei progettisti strumenti sempre più raffinati, capaci di modellare dettagliatamente qualsiasi tipo di struttura, materiale, azione statica o dinamica; spesso questi programmi contengono anche un codice integrato CAD per il disegno della struttura e altri tools per lasciare all’utente la più grande libertà di azione possibile. Se da un lato questi strumenti danno al progettista la possibilità di una modellazione sempre più dettagliata, dall’altra parte hanno il limite di essere poco pratici per un tipo di progettazione standardizzato. Spesso quello di cui le imprese hanno bisogno è invece un programma creato ‘ad hoc’ per le loro attività che, grazie all’inserimento di pochi parametri, possa garantire una progettazione rapida e magari gestire non solo la fase di calcolo, ma anche quella di verifica e di ottimizzazione. In quest’ottica si inserisce lo sviluppo del codice eseguito in questa tesi. L’esposizione si articola in quattro parti. La prima, introduttiva, è dedicata alla descrizione delle tipologie di edifici monopiano in acciaio maggiormente diffuse, dei diversi tipi materiale, dei principali aspetti della normativa per queste costruzioni. Viene inoltre descritta la tipologia costruttiva implementata nel codice sviluppato. Il secondo capitolo è dedicato alla descrizione del metodo agli elementi finiti, esponendone i fondamenti teorici e le principali fasi della costruzione di un codice di calcolo numerico per elementi monodimensionali. Nella terza parte è illustrato il codice sviluppato. In particolare vengono dettagliatamente descritti i moduli di generazione del modello, del solutore, del post-processore in grado di eseguire le verifiche secondo le normative vigenti, e quello dedicato all’ottimizzazione strutturale. In fine, nell’ultimo capitolo viene illustrato un esempio progettuale con il quale si è potuta effettuare la validazione del codice confrontando i risultati ottenuti con quelli di riferimento forniti da programmi attualmente in commercio. La presente dissertazione non mira alla “certificazione” di un software che sia in grado di fare calcoli complessi nell’ambito dell’ingegneria strutturale, ma lo scopo è piuttosto quello di affrontare le problematiche e gestire le scelte operative che riguardano la scrittura di un codice di calcolo. Programmatori non si nasce, ma si diventa attraverso anni di esperienza che permettono di acquisire quella sensibilità numerica che è definibile come una vera e propria “arte”. Ed è in questa direzione che si è svolta la Tesi, ovvero comprendere prima di tutto l’atteggiamento da assumere nei confronti di un elaboratore elettronico e, solo successivamente, passare ad un utilizzo consapevole per scopi progettuali.
Resumo:
Dal 1999 presso il laboratorio del Centro Agricoltura Ambiente “G. Nicoli” a Crevalcore (BO) è in corso una sperimentazione finalizzata a verificare la possibilità di attuare la tecnica del maschio sterile (SIT) in Italia contro Aedes albopictus. Alcuni aspetti per migliorare l’efficienza di questa struttura pilota, oggetto della presente ricerca, sono stati: 1) studio degli effetti di determinati costituenti della dieta larvale a) sullo sviluppo larvale stesso, per individuare intervalli limite di densità larvale e di concentrazione di cibo in cui è possibile lo sviluppo di tale specie, e b) sulla qualità dei maschi adulti ottenuti; 2) la valutazione di attrezzatura per l’allevamento massale e 3) la possibilità di migliorare la dieta larvale mediante integrazione di carboidrati. Dalle prove di valutazione della dieta larvale si è potuto osservare che, per quanto riguarda i parametri larvali, le due diete denominate “IAEA” (1 e 2) sono risultate più efficaci rispetto alla dieta standard “CAA”. Tali diete sono perciò da preferirsi nel loro possibile impiego in biofabbriche per l’allevamento massale. Le prove condotte sugli adulti allevati con le diverse diete hanno suggerito la necessità di valutare una possibile integrazione di componenti per migliorarne la longevità. Risulta altresì opportuno continuare la ricerca per ottimizzare la dieta larvale così da ottenere maschi di elevata qualità. Grazie ai risultati ottenuti dalle prove per valutare l’impiego di attrezzatura massale (vassoi di grandi dimensioni e carrello) si è potuto definire un modello per l’allevamento di Ae. albopictus con parametri standardizzati di densità larvale, dose di dieta, temperatura dell’acqua di allevamento, percentuale di maschi passati al setacciamento e rendimento di allevamento. Prove future saranno necessarie per testare altri componenti della dieta ricchi in carboidrati, quali saccarosio, da aggiungere alla dieta larvale per migliorare le qualità degli adulti ottenuti senza provocare effetti negativi sui parametri dello sviluppo larvale.
Resumo:
La contaminazione chimica rappresenta uno dei rischi principali per la sicurezza alimentare e può arrecare anche gravi danni alla salute umana. Rientrano in questa tesi di dottorato tre famiglie di contaminanti: Micotossine, Metalli e Insetticidi. La ricerca di aflatossina B1 è stata effettuata su 90 confezioni di farina, sia biologici sia convenzionali. La presenza della micotossina è stata rilevata solo nelle farine di mais. Solo un campione di produzione convenzionale ha superato il limite di 2 ppb definito per legge. Il dato di maggior rilievo è stato che il quantitativo di 5 grammi di campionamento si è dimostrato non rappresentativo sul totale della confezione commerciale di farina. Più attendibile si è invece dimostrato un campionamento di 20 grammi. L’aflatossina M1 è stata ricercata in 58 campioni di latte di cui 35 sono risultati positivi. Tuttavia, i livelli riscontrati erano costantemente inferiori al limite previsto per legge. Sono stati sottoposti a estrazione e purificazione, e analizzati con metodica HPLC-FL per la ricerca di Ocratossina A, 114 campioni di bile, 35 campioni di plasma, 40 campioni di rene prelevati da polli in Giordania. Le analisi hanno fornito risultati costantemente negativi. Sono stati analizzati 72 campioni (30 di muscolo, 29 di fegato e 13 di rene) prelevati da 30 bovini nel macello di Irbid (Giordania), di età compresa tra 8 e 30 mesi e provenienti da allevamenti diversi, per la ricerca di 13 elementi essenziali e non essenziali. In questo studio nessun campione supera i livelli massimi stabiliti dalla normativa europea per quanto riguarda gli elementi considerati. Infine, sono stati analizzati 37 campioni di latte ovino e 31 campioni di latte bovino, prelevati in Giordania in diversi allevamenti, per la ricerca di 4 neonicotinoidi (imidacloprid, acetamiprid, thiamethoxam e thiacloprid). I campioni, analizzati con sistema HPLC/MS/MS, sono risultati costantemente negativi ai quattro neonicotinoidi ricercati.