17 resultados para Solide
em AMS Tesi di Laurea - Alm@DL - Università di Bologna
Resumo:
Negli ultimi anni si sente sempre più spesso parlare di cloud computing. L'idea di fondo di questo concetto è quella di pagare per il solo effettivo utilizzo di un servizio, disponibile sulla rete, avendo a disposizione la possibilità di poter variare le proprie risorse utilizzabili a seconda delle necessità, che potrebbero essere, per esempio, applicazioni standard oppure spazi di storage per i dati. Quando cominciò a diffondersi l'utilizzo del Web, la rete Internet veniva raffigurata come una nuvola (cloud) in modo tale che si rendesse l'idea di un'entità esterna rispetto alla nostra casa o al nostro posto di lavoro, un qualcosa cioè al di fuori dei luoghi abituali in cui vengono utilizzati i PC. Tale rappresentazione diventa ora utile per poter spiegare il concetto di cloud computing. Infatti, grazie a questa nuova tecnologia, dati e programmi normalmente presenti nei nostri computer potranno ora trovarsi sul cloud. Molti reparti IT sono costretti a dedicare una parte significativa del loro tempo a progetti di implementazione, manutenzione e upgrade che spesso non danno un vero valore per l'azienda. I team di sviluppo hanno cominciato quindi a rivolgersi a questa nuova tecnologia emergente per poter minimizzare il tempo dedicato ad attività a basso valore aggiunto per potersi concentrare su quelle attività strategiche che possono fare la differenza per un'azienda. Infatti un'infrastruttura come quella cloud computing promette risparmi nei costi amministrativi che raggiungono addirittura il 50% rispetto ad un software standard di tipo client/server. Questa nuova tecnologia sta dando inizio ad un cambiamento epocale nel mondo dello sviluppo delle applicazioni. Il passaggio che si sta effettuando verso le nuove soluzioni cloud computing consente infatti di creare applicazioni solide in tempi decisamente più brevi e con costi assai inferiori, evitando inoltre tutte le seccature associate a server, soluzioni software singole, aggiornamenti, senza contare il personale necessario a gestire tutto questo. L'obiettivo di questa tesi è quello di mostrare una panoramica della progettazione e dello sviluppo di applicazioni Web nel cloud computing, analizzandone pregi e difetti in relazione alle soluzioni software attuali. Nel primo capitolo viene mostrato un quadro generale in riferimento al cloud, mettendo in luce le sue caratteristiche fondamentali, esaminando la sua architettura e valutando vantaggi e svantaggi di tale piattaforma. Nel secondo capitolo viene presentata la nuova metodologia di progettazione nel cloud, operando prima di tutto un confronto con lo sviluppo dei software standard e analizzando poi l'impatto che il cloud computing opera sulla progettazione. Nel terzo capitolo si entra nel merito della progettazione e sviluppo di applicazioni SaaS, specificandone le caratteristiche comuni ed elencando le piattaforme di rilievo allo stato dell'arte. Si entrerà inoltre nel merito della piattaforma Windows Azure. Nel quarto capitolo viene analizzato nel particolare lo sviluppo di applicazioni SaaS Multi-Tenant, specificando livelli e caratteristiche, fino a spiegare le architetture metadata-driven. Nel quinto capitolo viene operato un confronto tra due possibili approcci di sviluppo di un software cloud, analizzando nello specifico le loro differenze a livello di requisiti non funzionali. Nel sesto capitolo, infine, viene effettuata una panoramica dei costi di progettazione di un'applicazione cloud.
Resumo:
Il tumore del polmone rappresenta la prima causa di morte nei paesi industrializzati. Le possibilità di trapianto ed intervento chirurgico risultano molto limitate pertanto lo standard di cura risulta essere la radioterapia, a volte abbinata alla chemioterapia. Sebbene trattando radioterapicamente il tumore si ottengano ottimi risultati, attualmente non esistono solide linee guida per la personalizzazione del trattamento al paziente. Il poter eseguire in laboratorio test radioterapici su un elevato numero di campioni risulterebbe un valido approccio sperimentale d’indagine, ma la carenza di materiale su cui poter condurre gli esperimenti limita questa possibilità. Tipicamente, per ovviare al problema vengono utilizzati sferoidi multicellulari tridimensionali creati in laboratorio partendo da singole cellule del tumore in esame. In particolare, l’efficacia del trattamento viene tipicamente correlata alla riduzione volumetrica media stimata utilizzando un set di sferoidi teoricamente identici. In questo studio vengono messe in discussione la validità delle affermazioni tipicamente sostenute attraverso l’analisi di volumi medi. Abbiamo utilizzando un set di circa 100 sferoidi creati in laboratorio partendo da singole cellule di carcinoma epidermoidale polmonare e trattati secondo sette differenti modalità di trattamento radioterapico (variando intensità di radiazione e numero di frazioni). In una prima fase abbiamo analizzato le singole immagini, acquisite al microscopio ottico circa ogni 48 ore, per identificare features morfometriche significative da affiancare all’analisi volumetrica. Sulla base dell’andamento temporale di queste features abbiamo suddiviso gli sferoidi in sottoclassi con evoluzioni completamente differenti che fanno supporre un differente “stato” biologico. Attraverso algoritmi di estrazione di features e classificazione e analizzando riduzione volumetrica, grado di frastagliatura del bordo e quantità di cellule liberate nel terreno di coltura abbiamo definito un protocollo per identificare in maniera automatica le sottopopolazioni di sferoidi. Infine, abbiamo ricercato con successo alcune features morfometriche in grado di predire, semplicemente analizzando immagini acquisite nei giorni seguenti all’ultimo trattamento, lo “stato di salute” del tumore a medio/lungo periodo. Gli algoritmi realizzati e le features identificate se opportunamente validate potrebbero risultare un importante strumento non invasivo di ausilio per il radioterapista per valutare nel breve periodo gli effetti a lungo periodo del trattamento e quindi poter modificare parametri di cura al fine di raggiungere uno stato desiderato del tumore.
Resumo:
Lo scopo della seguente tesi è quello di illustrare la disposizione dei campioni di sistemi binari Mg Pd e di deposizioni singole di Ti, nell’abito di due progetti di ricerca, l’SSHS, Solide State Hydrogen Storage nell’ambito dell’Azione COST, e la produzione di titania (TiO2) per la fotocatalisi, sintetizzati in differenti reggimi di flusso di gas d’He, realizzando la crescita con il metodo IGC. Sono state illustrate le nuove proprietà e i metodi di formazione dei materiali nanostrutturati, per poi passare alla descrizione dell’apparato dove sono stati prodotti i campioni, con la conseguente spiegazione della progettazione del controllore di flusso dei sistemi di alimentazione e interfacciamento di quest’ultimo. Dopo un’accurata analisi al microscopio elettronico, `e stata descritta la morfologia dei campioni a due diversi reggimi di flusso di gas He, per i campioni di Mg Pd non sono state apprezzate differenze al variare del flusso, per il Ti, invece, si può notare una variazione morfologica legata alle dimensioni.
Resumo:
Studio del riprofilarsi di due sezioni di spiaggia (protetta e non) secondo diverse condizioni meteo-marine (scenario presente e scenario a breve termine) nella località di Cesenatico. Tale lavoro è stato svolto tramite il software XBeach, riscontrando la sua validità e gettando solide basi per lavori futuri in altre località.
Resumo:
Vladimir Vertlib è un autore ebreo, nato in Russia, ma che attualmente vive in Austria e utilizza il tedesco austriaco come lingua letteraria. In questo elaborato, in cui si propone una traduzione ponderata del suo testo argomentativo "Nichtvorbildliche Lieblingsautoren" [Autori non-ideali che amo], si sono considerati sia gli aspetti biografici e riguardanti la poetica, sia quelli più strettamente linguistici e traduttologici al fine di fornire una traduzione ponderata, ragionata e fondata su solide basi.
Resumo:
“Per me la Fisica costituisce un sistema perfettamente armonioso ed essenzialmente completo. All’orizzonte scorgo solamente due piccole nubi oscure: il risultato negativo dell’esperienza di Michelson e Morley e l’insufficienza della legge di Rayleigh e Jeans se applicata alle frequenze dell’ultravioletto” Con questa frase William Thomson Kelvin delineava, sul finire dell’800, i tratti di una Fisica fondata su solide basi che consentisse di spiegare i fenomeni di natura meccanica per mezzo delle Leggi della Dinamica di Newton e descrivesse le proprietà del campo elettromagnetico grazie alle Equazioni di Maxwell. Tuttavia, come riferisce lo stesso Lord Kelvin, rimaneva qualcosa di inspiegato: i due risultati mancanti sino ad allora diedero origine ad una vera e propria rivoluzione nel campo della Fisica. Grazie all’esperienza di Michelson e Morley, in disaccordo con quanto previsto dalla Meccanica Classica, Albert Einstein nel 1905 fu in grado di estendere i risultati della Relatività Galileiana ad eventi che coinvolgono velocità prossime a quella della luce; dall’altro lato, Max Planck nel 1900 pose le basi della Meccanica Quantistica, ipotizzando la quantizzazione dell’Energia, studiando la radiazione di Corpo Nero. Definendo il Corpo Nero come un oggetto ideale la cui superficie è in grado di assorbire qualsiasi radiazione elettromagnetica incidente su di esso, in questo compendio saranno esposti il processo che ha indotto lo scienziato tedesco Gustav Robert Kirchhoff all’idealizzazione di tale concetto, la soluzione della quantizzazione di Planck per ovviare al fenomeno della Catastrofe Ultravioletta derivante dall’approccio di Rayleigh e Jeans e la determinazione dello Spettro di Corpo Nero con le relative proprietà, Leggi empiriche che ne regolano l’andamento. Verranno inoltre presentati alcuni esempi astrofisici reali le cui emissioni rispecchiano l’andamento del Corpo Nero e se ne discuteranno le relative caratteristiche che li discostano dall’oggetto teorico.
Resumo:
Il contenuto fisico della Relatività Generale è espresso dal Principio di Equivalenza, che sancisce l'equivalenza di geometria e gravitazione. La teoria predice l'esistenza dei buchi neri, i più semplici oggetti macroscopici esistenti in natura: essi sono infatti descritti da pochi parametri, le cui variazioni obbediscono a leggi analoghe a quelle della termodinamica. La termodinamica dei buchi neri è posta su basi solide dalla meccanica quantistica, mediante il fenomeno noto come radiazione di Hawking. Questi risultati gettano una luce su una possibile teoria quantistica della gravitazione, ma ad oggi una simile teoria è ancora lontana. In questa tesi ci proponiamo di studiare i buchi neri nei loro aspetti sia classici che quantistici. I primi due capitoli sono dedicati all'esposizione dei principali risultati raggiunti in ambito teorico: in particolare ci soffermeremo sui singularity theorems, le leggi della meccanica dei buchi neri e la radiazione di Hawking. Il terzo capitolo, che estende la discussione sulle singolarità, espone la teoria dei buchi neri non singolari, pensati come un modello effettivo di rimozione delle singolarità. Infine il quarto capitolo esplora le ulteriori conseguenze della meccanica quantistica sulla dinamica dei buchi neri, mediante l'uso della nozione di entropia di entanglement.
Resumo:
Questa tesi ha riguardato lo studio di potenziali combustibili dalla pirolisi catalitica di varie tipologie di biomasse. Durante l’attività di laboratorio sono state condotte pirolisi intermedie e con zeolite di campioni di Arthrospira platensis (microalghe), residui della pesca, Ulva lactuca (macroalghe) e segatura di pino (Pinus sylvestris). Il cracking termico è stato condotto a 460 °C, con un reattore pirolitico da banco, e i vapori sono condensati in trappole fredde al termine del sistema. Nella pirolisi catalitica, i vapori prodotti nelle stesse condizioni sperimentali attraversano uno strato di catalizzatore (H-ZSM-5) dove subiscono il cracking. L’obiettivo principale di questo studio è la valutazione del processo di upgrading dei vapori di pirolisi per ottenere bio-oli arricchiti in idrocarburi. Dalle prove di pirolisi, catalitica e non, sono state raccolte frazioni solide e liquide, di cui sono state determinate le rese: biochar (solido), frazione liquida organica e acquosa e, nel caso delle pirolisi catalitiche, coke e una frazione volatile solubile in eptano. Delle frazioni organiche ed eptanica è stata caratterizzata la composizione elementare e mediante analisi GC-MS. Per le biomasse di partenza sono state effettuate analisi elementari, prossimali e degli acidi grassi totali. I risultati mostrano differenze sostanziali tra le frazioni organiche delle pirolisi e pirolisi catalitiche. Microalghe, macroalghe e residui della pesca contengono proteine che producono oli ricchi in composti azotati, mentre la segatura di pino produce oli ricchi in composti ossigenati derivati dalla lignina. In seguito al cracking catalitico si ha una diminuzione dei composti azotati e ossigenati e gli oli sono costituiti per la maggior parte da idrocarburi aromatici. L’olio da cracking catalitico ha una composizione simile a quella dei combustibili tradizionali, ma una migliore qualità di composizione del bio-olio comporta rese più basse. Il processo può presentare potenzialità solo per la trasformazione di biomasse di scarto.
Resumo:
L'obiettivo di questo lavoro di tesi è quello di implementare un codice di calcolo, attraverso l'algoritmo di Lubachevsky-Stillinger, in modo da poter prevedere la frazione volumetrica occupata dalle particelle solide che costituiscono il grain negli endoreattori a propellente solido. Particolare attenzione verrà rivolta al problema dell'impacchettamento sferico random (Random-Close Packing) che tale algoritmo cerca di modellare, e le ipotesi per cui tale modellazione può essere applicata al tipo di problema proposto. Inoltre saranno descritte le procedure effettuate per l'ottenimento dei risultati numerici delle simulazioni e la loro motivazione, oltre ai limiti del modello utilizzato e alle migliorie apportate per un'esecuzione più efficiente e veloce.
Resumo:
Gli aerosol, sospensione colloidale in aria di particelle solide o liquide, sono parte integrante dell’atmosfera. Essi interagiscono con la radiazione solare influenzando il clima (effetto primario e secondario) e la visibilità atmosferica. Gli aerosol hanno effetti sulla salute umana con patologie degli apparati cardiovascolare e circolatorio. La presente tesi affronta alcuni aspetti critici dei contatori ottici di particelle (OPC), utilizzati per caratterizzare l’aerosol ambientale. Gli OPC si basano sullo scattering luminoso per fornire la concentrazione in numero e la distribuzione dimensionale degli aerosol in tempo reale. Gli obiettivi di questa tesi sono: 1)caratterizzare e migliorare le prestazioni di un OPC di nuova concezione (CompactOPC N1, Alphasense; in seguito COPC) rispetto a un OPC standard commerciale (Grimm 1.108; in seguito GRM); 2)realizzare un banco di prova per la calibrazione di un OPC utilizzato in camere bianche e ambienti sanitari (Laser Particle Sensor 3715-00, Kanomax; in seguito LPS). Per questa attività ha mostrato interesse un’azienda locale (Pollution Clean Air Systems S.p.A.; Budrio, BO). Le prove sperimentali sono state effettuate con aerosol indoor e con particelle monodisperse di latex polistirene (PSL) di dimensioni differenti campionando in parallelo con i diversi OPC e su filtro per osservazioni al microscopio elettronico a scansione (SEM). In questo modo si è ottenuto un valore assoluto di riferimento per la concentrazione di aerosol. I risultati ottenuti indicano un buon accordo tra le concentrazioni di particelle fornite dal GRM e quelle ottenute al SEM. Il lavoro ha inoltre permesso di migliorare le prestazioni del COPC modificando la versione di base. Inoltre, è stata effettuata la calibrazione del LPS tramite il banco di prova realizzato nella tesi. Il lavoro sperimentale è stato svolto presso il Laboratorio di Aerosol e Fisica delle Nubi dell’Istituto di Scienze dell’Atmosfera e del Clima (ISAC) del Consiglio Nazionale delle Ricerche (CNR) a Bologna.
Resumo:
L’idrotermocarbonizzazione è un processo che permette di convertire un’elevata quantità di materie prime solide in carbone. Ciò viene realizzato inserendo come sostanza in input, oltre alla materia prima iniziale, acqua liquida e, successivamente, riscaldando fino a 180°C, temperatura alla quale inizia la reazione esotermica ed il processo diventa di tipo stand-alone. Tale reazione presenta un tempo di reazione variabile nel range di 4÷12 h. I prodotti in uscita sono costituiti da una sostanza solida che ha le caratteristiche del carbone marrone naturale e un’acqua di processo, la quale è altamente inquinata da composti organici. In questo elaborato viene illustrata una caratterizzazione dei prodotti in uscita da un impianto di idrotermo carbonizzazione da laboratorio, il quale utilizza in input pezzi di legno tagliati grossolanamente. Inizialmente tale impianto da laboratorio viene descritto nel dettaglio, dopodiché la caratterizzazione viene effettuata attraverso DTA-TGA dei materiali in ingresso ed uscita; inoltre altre sostanze vengono così analizzate, al fine di confrontarle col char ed i pezzi di legno. Quindi si riporta anche un’analisi calorimetrica, avente l’obiettivo di determinare il calore di combustione del char ottenuto; attraverso questo valore e il calore di combustione dei pezzi di legno è stato possibile calcolare l’efficienza di ritenzione energetica del processo considerato, così come la densificazione energetica riscontrata nel materiale in uscita. In aggiunta, è stata eseguita un’analisi delle specie chimiche elementari sul char ed il legno in modo da determinare i seguenti parametri: fattori di ritenzione e fattori di ritenzione pesati sulla massa in termini di concentrazione di C, H, N e S. I risultati ottenuti da tale analisi hanno permesso di effettuare una caratterizzazione del char. Un tentativo di attivazione del char viene riportato, descrivendo la procedura di attivazione seguita e la metodologia utilizzata per valutare il buon esito o meno di tale tentativo di attivazione. La metodologia consiste di uno studio isotermo dell’adsorbimento di acido acetico sul char “attivato” attraverso una titolazione. I risultati sperimentali sono stati fittati usando le isoterme di Langmuir e Freundlich e confrontati con le capacità di adsorbimento del semplice char e di un campione di carbone attivo preso da un’azienda esterna. Infine si è considerata l’acqua di processo, infatti un’analisi fotometrica ne ha evidenziato le concentrazioni di TOC, COD, ioni nitrato e ioni fosfato. Questi valori sono stati conseguentemente confrontati con i limiti italiani e tedeschi massimi ammissibili per acque potabili, dando quindi un’idea quantitativa della contaminazione di tale acqua di processo.
Resumo:
Viviamo in un epoca di cambiamenti. Continuamente, giorno dopo giorno, il vecchio scompare per fare spazio al nuovo. La tecnologia permea sempre più in ogni aspetto della vita, conquistando le nostre abitudini, cambiando il nostro modo di vedere il mondo, e, in maniera inevitabile, il nostro modo di agire. L’essere umano ha da sempre cercato di concepire cose che ancora non ci sono, per cambiare la realtà e modellarla a suo piacimento. Si parte, quindi, da qualcosa che fin dalla nascita è dentro ognuno di noi, un desiderio che arde nell'animo umano, che si alimenta grazie al soffio dell’immaginazione e che non c’è modo di spegnere. L’innovazione porta novità. Resistere al cambiamento non è sempre facile, e se si cerca di ostacolarlo esso ti travolgerà. “Affrontare il cambiamento è come scalare una colata di fango giù per una collina” - esordisce in “The Innovator Dilemma”, Clayton M. Christensen - “Bisogna affrontare qualsiasi cosa per rimanere su di essa, e non appena ci si ferma per prendere fiato si viene seppelliti”. Si intuisce come il cambiamento tecnologico non solo sia di fondamentale evidenza nella vita di ognuno, ma come esso abbia cambiato e stia cambiando il modo di fare business. In questo umile lavoro si è voluto analizzare come certi tipi di innovazione abbiano il potere di cambiare tutto un sistema di riferimento sul quale prima l’impresa faceva affidamento. Sono le Disruptive Innovation – le innovazioni dirompenti – quelle innovazioni che ribaltano un modello di business, il modo di vedere un prodotto, la logica dietro a certe operations aziendali, che seppur sembrassero solide, si sgretolano scontrandosi con innovazioni così forti. Vi è poi una domanda critica a cui si è cercato di rispondere. Si può fare Disruptive Marketing? Alcuni esempi virtuosi ci mostrano come si possa attuare una strategia di questo genere, e come si possa “comprendere, creare, comunicare e distribuire valore” in modo innovativo.
Resumo:
Lo studio del polimorfismo gioca un ruolo fondamentale in diversi ambiti di ricerca, con applicazioni importanti nel campo dei semi conduttori organici e dei farmaci, dovuto al fatto che i diversi polimorfi di una sostanza presentano proprietà chimico-fisiche distinte. Questo lavoro di tesi si è focalizzato sullo studio del polimorfismo del paracetamolo, principio attivo (API) di diversi farmaci molto utilizzati, attraverso l’utilizzo della microscopia Raman. La microscopia Raman è una tecnica efficace per l’indagine del polimorfismo di materiali organici ed inorganici, in quanto permette di monitorare la presenza di diverse fasi solide e le loro trasformazioni su scala micrometrica. Le differenze di struttura cristallina che caratterizzano i polimorfi vengono analizzate attraverso gli spettri Raman nella regione dei modi reticolari (10-150 cm^{-1}), le cui frequenze sondano le interazioni inter-molecolari, molto sensibili anche a lievi differenze di impaccamento molecolare. Con questa tecnica abbiamo caratterizzato le forme I, II, III (quella elusiva) e diverse miscele di fase di paracetamolo su campioni ottenuti con numerose tecniche di crescita dei cristalli. Per questa tesi è stato svolto anche uno studio computazionale, attraverso metodi Density Functional Theory (DFT) per la molecola isolata e metodi di minimizzazione dell’energia e di dinamica reticolare per i sistemi cristallini. Abbiamo inoltre verificato se il modello di potenziale di letteratura scelto (Dreiding [Mayo1990]) fosse adatto per descrivere la molecola di paracetamolo, le strutture dei suoi polimorfi e i relativi spettri vibrazionali.
Resumo:
In questa tesi si sono analizzati campioni di olio di oliva ottenuti anche mediante processo di co- frangitura tra olive e sottoprodotto del pomodoro, al fine di ottenere un olio ricco in licopene. Appena prodotti, gli oli di oliva possono mostrare un aspetto opalescente a causa della presenza di particelle solide e micro-gocce di acqua di vegetazione, che possono contenere microrganismi, principalmente lieviti, provenienti dalla carposfera delle olive che passano nell’olio durante la loro frantumazione. A seconda delle specie di lievito e delle specifiche attività metaboliche possono influenzare anche negativamente la qualità dell’olio. In questo contesto, le attività di laboratorio alla base di questo elaborato sono state finalizzate alla caratterizzazione tecnologica di 30 ceppi di lieviti isolati da olio di oliva prodotto presso il Campus di Scienze degli Alimenti dal gruppo di ricerca della dott.ssa Bendini. In particolare, gli isolati sono stati caratterizzati mediante analisi RAPD-PCR e se ne sono valutate alcune attività enzimatiche quali l’attività proteasica, lipasica, β-glucosidasica, pectinasica e poligalatturonasica e la capacità di degradare alcuni composti fenolici. Sebbene i risultati di questa sperimentazione siano preliminari, sono promettenti in quanto da tale matrice si sono isolati numerosi ceppi che presentano un’ampia e differenziata gamma di attività enzimatiche che potrebbero essere sfruttate per il recupero e/o valorizzazione di componenti organiche ad alto valore dei sottoprodotti dell’industria alimentare.
Resumo:
Questa tesi evidenzia l’importanza del calcolo algebrico per generalizzare proprietà aritmetiche e per risolvere problemi legati alla quotidianità attraverso il processo di modellizzazione. Inoltre, analizza le difficoltà degli studenti sull’apprendimento dell’algebra e tratta il progetto ArAl, il cui scopo è quello di far sperimentare agli studenti un diverso approccio attraverso il quale possano acquisire le conoscenze linguistiche indispensabili ed avere basi solide per la comprensione di tale disciplina.