962 resultados para distribuzioni equazioni differenziali alle derivate parziali operatore delle onde
Resumo:
The aim of this thesis was to investigate the respective contribution of prior information and sensorimotor constraints to action understanding, and to estimate their consequences on the evolution of human social learning. Even though a huge amount of literature is dedicated to the study of action understanding and its role in social learning, these issues are still largely debated. Here, I critically describe two main perspectives. The first perspective interprets faithful social learning as an outcome of a fine-grained representation of others’ actions and intentions that requires sophisticated socio-cognitive skills. In contrast, the second perspective highlights the role of simpler decision heuristics, the recruitment of which is determined by individual and ecological constraints. The present thesis aims to show, through four experimental works, that these two contributions are not mutually exclusive. A first study investigates the role of the inferior frontal cortex (IFC), the anterior intraparietal area (AIP) and the primary somatosensory cortex (S1) in the recognition of other people’s actions, using a transcranial magnetic stimulation adaptation paradigm (TMSA). The second work studies whether, and how, higher-order and lower-order prior information (acquired from the probabilistic sampling of past events vs. derived from an estimation of biomechanical constraints of observed actions) interacts during the prediction of other people’s intentions. Using a single-pulse TMS procedure, the third study investigates whether the interaction between these two classes of priors modulates the motor system activity. The fourth study tests the extent to which behavioral and ecological constraints influence the emergence of faithful social learning strategies at a population level. The collected data contribute to elucidate how higher-order and lower-order prior expectations interact during action prediction, and clarify the neural mechanisms underlying such interaction. Finally, these works provide/open promising perspectives for a better understanding of social learning, with possible extensions to animal models.
Resumo:
I sistemi di versionamento moderni quali "git" o "svn" sono ad oggi basati su svariati algoritmi di analisi delle differenze (detti algoritmi di diffing) tra documenti (detti versioni). Uno degli algoritmi impiegati con maggior successo a tal proposito è il celebre "diff" di Unix. Tale programma è in grado di rilevare le modifiche necessarie da apportare ad un documento al fine di ottenerne un altro in termini di aggiunta o rimozione di linee di testo. L'insieme di tali modifiche prende nome di "delta". La crescente richiesta e applicazione dei documenti semi-strutturati (ed in particolar modo dei documenti XML) da parte della comunità informatica soprattutto in ambito web ha motivato la ricerca di algoritmi di diffing più raffinati che operino al meglio su tale tipologia di documenti. Svariate soluzioni di successo sono state discusse; algoritmi ad alte prestazioni capaci di individuare differenze più sottili della mera aggiunta o rimozione di testo quali il movimento di interi nodi, il loro riordinamento finanche il loro incapsulamento e così via. Tuttavia tali algoritmi mancano di versatilità. L'incapsulamento di un nodo potrebbe essere considerata una differenza troppo (o troppo poco) generale o granulare in taluni contesti. Nella realtà quotidiana ogni settore, pubblico o commerciale, interessato a rilevare differenze tra documenti ha interesse nell'individuarne sempre e soltanto un sottoinsieme molto specifico. Si pensi al parlamento italiano interessato all'analisi comparativa di documenti legislativi piuttosto che ad un ospedale interessato alla diagnostica relativa alla storia clinica di un paziente. Il presente elaborato di tesi dimostra come sia possibile sviluppare un algoritmo in grado di rilevare le differenze tra due documenti semi-strutturati (in termini del più breve numero di modifiche necessarie per trasformare l'uno nell'altro) che sia parametrizzato relativamente alle funzioni di trasformazione operanti su tali documenti. Vengono discusse le definizioni essenziali ed i principali risultati alla base della teoria delle differenze e viene dimostrato come assunzioni più blande inducano la non calcolabilità dell'algoritmo di diffing in questione.
Resumo:
Le musiche “popolaresche” urbane, in genere trascurate nella letteratura etnomusicologica, sono state quasi completamente ignorate nel caso della Romania. Il presente studio si propone di colmare almeno in parte questa lacuna, indagando questo fenomeno musicale nella Bucarest degli anni Trenta e Quaranta del Novecento. Le musiche esaminate sono tuttavia inserite entro una cornice storica più ampia, che data a partire dalla fine del XVIII secolo, e messe in relazione con alcune produzioni di origine rurale che con queste hanno uno stretto rapporto. Il caso di Maria Lătărețu (1911-1972) si è rivelato particolarmente fecondo in questo senso, dal momento che la cantante apparteneva ad entrambi i versanti musicali, rurale e urbano, e nepadroneggiava con disinvoltura i rispettivi repertori. Dopo il suo trasferimento nella capitale, negli anni Trenta, è diventata una delle figure di maggior spicco di quel fenomeno noto come muzică populară (creazione musicale eminentemente urbana e borghese con radici però nel mondo delle musiche rurali). L’analisi del repertorio (o, per meglio dire, dei due repertori) della Lătărețu, anche nel confronto con repertori limitrofi, ha permesso di comprendere più da vicino alcuni dei meccanismi musicali alla base di questa creazione. Un genere musicale che non nasce dal nulla nel dopo-guerra, ma piuttosto continua una tradizione di musica urbana, caratterizzata in senso locale, ma influenzata dal modello della canzone europea occidentale, che data almeno dagli inizi del Novecento. Attraverso procedimenti in parte già collaudati da compositori colti che sin dal XIX secolo, in Romania come altrove, si erano cimentati con la creazione di melodie in stile popolare o nell’armonizzazione di musiche di provenienza contadina, le melodie rurali nel bagaglio della cantante venivano trasformate in qualcosa di inedito. Una trasformazione che, come viene dimostrato efficacemente nell’ultimo capitolo, non investe solo il livello superficiale, ma coinvolge in modo profondo la sintassi musicale.
Resumo:
Come si evince dal titolo della tesi, la ricerca effettuata dal presente candidato nel corso del dottorato di ricerca ha avuto ad oggetto l’analisi delle competenze che, a diverso livello, comunitario, nazionale e regionale, sono attribuite agli enti in materia di rilascio di concessioni di servizi in abito interportuale, portuale e demaniale marittimo. L’attenzione, pertanto, ha dovuto innanzitutto essere rivolta ai compiti ed alle facoltà che, in forza del trattato che istituisce la Comunità Europea, sono attribuite alla Comunità stessa. Si è provveduto, pertanto, ad analizzare l’evoluzione della normativa per giungere all’attuale sistema giuridico. Gli aspetti della disciplina delle concessioni, oggetto di ricerca, hanno dovuto ripercorrere i vari procedimenti di infrazione comminati dalla Corte Europea, per i quali il sistema giuridico nazionale si è dovuto adattare con non poche difficoltà, soprattutto per la presenza di posizioni e prassi, negli anni, divenute consolidate.
Resumo:
La chirurgia con ultrasuoni focalizzati guidati da MRI (MR-g-FUS) è un trattamento di minima invasività, guidato dal più sofisticato strumento di imaging a disposizione, che utilizza a scopo diagnostico e terapeutico forme di energia non ionizzante. Le sue caratteristiche portano a pensare un suo possibile e promettente utilizzo in numerose aree della patologia umana, in particolare scheletrica. L'osteoma osteoide affligge frequentemente pazienti di giovane età, è una patologia benigna, con origine ed evoluzione non chiare, e trova nella termoablazione con radiofrequenza continua sotto guida CT (CT-g-RFA) il suo trattamento di elezione. Questo lavoro ha valutato l’efficacia, gli effetti e la sicurezza del trattamento dell’osteoma osteoide con MR-g-FUS. Sono stati presi in considerazione pazienti arruolati per MR-g-FUS e, come gruppo di controllo, pazienti sottoposti a CT-g-RFA, che hanno raggiunto un follow-up minimo di 18 mesi (rispettivamente 6 e 24 pazienti). Due pazienti erano stati esclusi dal trattamento MR-g-FUS per claustrofobia (2/8). Tutti i trattamenti sono stati portati a termine con successo tecnico e clinico. Non sono state registrate complicanze o eventi avversi correlati all’anestesia o alle procedure di trattamento, e tutti i pazienti sono stati dimessi regolarmente dopo 12-24 ore. La durata media dei trattamenti di MR-g-FUS è stata di 40±21 min. Da valori di score VAS pre-trattamento oscillanti tra 6 e 10 (su scala 0-10), i trattamenti hanno condotto tutti i pazienti a VAS 0 (senza integrazioni farmacologiche). Nessun paziente ha manifestato segni di persistenza di malattia o di recidiva al follow-up. Nonostante la neurolisi e la risoluzione dei sintomi, la perfusione del nidus è stata ritrovata ancora presente in oltre il 70% dei casi sottoposti a MR-g-FUS (4/6 pazienti). I risultati derivati da un'analisi estesa a pazienti più recentemente arruolati confermano questi dati. Il trattamento con MR-g-FUS sembra essere efficace e sicuro nel risolvere la sintomatologia dell'osteoma osteoide.
Resumo:
Numerosi incidenti verificatisi negli ultimi dieci anni in campo chimico e petrolchimico sono dovuti all’innesco di sostanze infiammabili rilasciate accidentalmente: per questo motivo gli scenari incidentali legati ad incendi esterni rivestono oggigiorno un interesse crescente, in particolar modo nell’industria di processo, in quanto possono essere causa di ingenti danni sia ai lavoratori ed alla popolazione, sia alle strutture. Gli incendi, come mostrato da alcuni studi, sono uno dei più frequenti scenari incidentali nell’industria di processo, secondi solo alla perdita di contenimento di sostanze pericolose. Questi eventi primari possono, a loro volta, determinare eventi secondari, con conseguenze catastrofiche dovute alla propagazione delle fiamme ad apparecchiature e tubazioni non direttamente coinvolte nell’incidente primario; tale fenomeno prende il nome di effetto domino. La necessità di ridurre le probabilità di effetto domino rende la mitigazione delle conseguenze un aspetto fondamentale nella progettazione dell’impianto. A questo scopo si impiegano i materiali per la protezione passiva da fuoco (Passive Fire Protection o PFP); essi sono sistemi isolanti impiegati per proteggere efficacemente apparecchiature e tubazioni industriali da scenari di incendio esterno. L’applicazione dei materiali per PFP limita l’incremento di temperatura degli elementi protetti; questo scopo viene raggiunto tramite l’impiego di differenti tipologie di prodotti e materiali. Tuttavia l’applicazione dei suddetti materiali fireproofing non può prescindere da una caratterizzazione delle proprietà termiche, in particolar modo della conducibilità termica, in condizioni che simulino l’esposizione a fuoco. Nel presente elaborato di tesi si è scelto di analizzare tre materiali coibenti, tutti appartenenti, pur con diversità di composizione e struttura, alla classe dei materiali inorganici fibrosi: Fibercon Silica Needled Blanket 1200, Pyrogel®XT, Rockwool Marine Firebatt 100. I tre materiali sono costituiti da una fase solida inorganica, differente per ciascuno di essi e da una fase gassosa, preponderante come frazione volumetrica. I materiali inorganici fibrosi rivestono una notevole importanza rispetto ad altri materiali fireproofing in quanto possono resistere a temperature estremamente elevate, talvolta superiori a 1000 °C, senza particolari modifiche chimico-fisiche. Questo vantaggio, unito alla versatilità ed alla semplicità di applicazione, li rende leader a livello europeo nei materiali isolanti, con una fetta di mercato pari circa al 60%. Nonostante l’impiego dei suddetti materiali sia ormai una realtà consolidata nell’industria di processo, allo stato attuale sono disponibili pochi studi relativi alle loro proprietà termiche, in particolare in condizioni di fuoco. L’analisi sperimentale svolta ha consentito di identificare e modellare il comportamento termico di tali materiali in caso di esposizione a fuoco, impiegando nei test, a pressione atmosferica, un campo di temperatura compreso tra 20°C e 700°C, di interesse per applicazioni fireproofing. Per lo studio delle caratteristiche e la valutazione delle proprietà termiche dei tre materiali è stata impiegata principalmente la tecnica Transient Plane Source (TPS), che ha consentito la determinazione non solo della conducibilità termica, ma anche della diffusività termica e della capacità termica volumetrica, seppure con un grado di accuratezza inferiore. I test sono stati svolti su scala di laboratorio, creando un set-up sperimentale che integrasse opportunamente lo strumento Hot Disk Thermal Constants Analyzer TPS 1500 con una fornace a camera ed un sistema di acquisizione dati. Sono state realizzate alcune prove preliminari a temperatura ambiente sui tre materiali in esame, per individuare i parametri operativi (dimensione sensori, tempi di acquisizione, etc.) maggiormente idonei alla misura della conducibilità termica. Le informazioni acquisite sono state utilizzate per lo sviluppo di adeguati protocolli sperimentali e per effettuare prove ad alta temperatura. Ulteriori significative informazioni circa la morfologia, la porosità e la densità dei tre materiali sono state ottenute attraverso stereo-microscopia e picnometria a liquido. La porosità, o grado di vuoto, assume nei tre materiali un ruolo fondamentale, in quanto presenta valori compresi tra 85% e 95%, mentre la frazione solida ne costituisce la restante parte. Inoltre i risultati sperimentali hanno consentito di valutare, con prove a temperatura ambiente, l’isotropia rispetto alla trasmissione del calore per la classe di materiali coibenti analizzati, l’effetto della temperatura e della variazione del grado di vuoto (nel caso di materiali che durante l’applicazione possano essere soggetti a fenomeni di “schiacciamento”, ovvero riduzione del grado di vuoto) sulla conducibilità termica effettiva dei tre materiali analizzati. Analoghi risultati, seppure con grado di accuratezza lievemente inferiore, sono stati ottenuti per la diffusività termica e la capacità termica volumetrica. Poiché è nota la densità apparente di ciascun materiale si è scelto di calcolarne anche il calore specifico in funzione della temperatura, di cui si è proposto una correlazione empirica. I risultati sperimentali, concordi per i tre materiali in esame, hanno mostrato un incremento della conducibilità termica con la temperatura, da valori largamente inferiori a 0,1 W/(m∙K) a temperatura ambiente, fino a 0,3÷0,4 W/(m∙K) a 700°C. La sostanziale similitudine delle proprietà termiche tra i tre materiali, appartenenti alla medesima categoria di materiali isolanti, è stata riscontrata anche per la diffusività termica, la capacità termica volumetrica ed il calore specifico. Queste considerazioni hanno giustificato l’applicazione a tutti i tre materiali in esame dei medesimi modelli per descrivere la conducibilità termica effettiva, ritenuta, tra le proprietà fisiche determinate sperimentalmente, la più significativa nel caso di esposizione a fuoco. Lo sviluppo di un modello per la conducibilità termica effettiva si è reso necessario in quanto i risultati sperimentali ottenuti tramite la tecnica Transient Plane Source non forniscono alcuna informazione sui contributi offerti da ciascun meccanismo di scambio termico al termine complessivo e, pertanto, non consentono una facile generalizzazione della proprietà in funzione delle condizioni di impiego del materiale. La conducibilità termica dei materiali coibenti fibrosi e in generale dei materiali bi-fasici tiene infatti conto in un unico valore di vari contributi dipendenti dai diversi meccanismi di scambio termico presenti: conduzione nella fase gassosa e nel solido, irraggiamento nelle superfici delle cavità del solido e, talvolta, convezione; inoltre essa dipende fortemente dalla temperatura e dalla porosità. Pertanto, a partire dal confronto con i risultati sperimentali, tra cui densità e grado di vuoto, l’obiettivo centrale della seconda fase del progetto è stata la scelta, tra i numerosi modelli a disposizione in letteratura per materiali bi-fasici, di cui si è presentata una rassegna, dei più adatti a descrivere la conducibilità termica effettiva nei materiali in esame e nell’intervallo di temperatura di interesse, fornendo al contempo un significato fisico ai contributi apportati al termine complessivo. Inizialmente la scelta è ricaduta su cinque modelli, chiamati comunemente “modelli strutturali di base” (Serie, Parallelo, Maxwell-Eucken 1, Maxwell-Eucken 2, Effective Medium Theory) [1] per la loro semplicità e versatilità di applicazione. Tali modelli, puramente teorici, hanno mostrato al raffronto con i risultati sperimentali numerosi limiti, in particolar modo nella previsione del termine di irraggiamento, ovvero per temperature superiori a 400°C. Pertanto si è deciso di adottare un approccio semi-empirico: è stato applicato il modello di Krischer [2], ovvero una media pesata su un parametro empirico (f, da determinare) dei modelli Serie e Parallelo, precedentemente applicati. Anch’esso si è rivelato non idoneo alla descrizione dei materiali isolanti fibrosi in esame, per ragioni analoghe. Cercando di impiegare modelli caratterizzati da forte fondamento fisico e grado di complessità limitato, la scelta è caduta sui due recenti modelli, proposti rispettivamente da Karamanos, Papadopoulos, Anastasellos [3] e Daryabeigi, Cunnington, Knutson [4] [5]. Entrambi presentavano il vantaggio di essere stati utilizzati con successo per materiali isolanti fibrosi. Inizialmente i due modelli sono stati applicati con i valori dei parametri e le correlazioni proposte dagli Autori. Visti gli incoraggianti risultati, a questo primo approccio è seguita l’ottimizzazione dei parametri e l’applicazione di correlazioni maggiormente idonee ai materiali in esame, che ha mostrato l’efficacia dei modelli proposti da Karamanos, Papadopoulos, Anastasellos e Daryabeigi, Cunnington, Knutson per i tre materiali analizzati. Pertanto l’obiettivo finale del lavoro è stato raggiunto con successo in quanto sono stati applicati modelli di conducibilità termica con forte fondamento fisico e grado di complessità limitato che, con buon accordo ai risultati sperimentali ottenuti, consentono di ricavare equazioni predittive per la stima del comportamento, durante l’esposizione a fuoco, dei materiali fireproofing in esame. Bologna, Luglio 2013 Riferimenti bibliografici: [1] Wang J., Carson J.K., North M.F., Cleland D.J., A new approach to modelling the effective thermal conductivity of heterogeneous materials. International Journal of Heat and Mass Transfer 49 (2006) 3075-3083. [2] Krischer O., Die wissenschaftlichen Grundlagen der Trocknungstechnik (The Scientific Fundamentals of Drying Technology), Springer-Verlag, Berlino, 1963. [3] Karamanos A., Papadopoulos A., Anastasellos D., Heat Transfer phenomena in fibrous insulating materials. (2004) Geolan.gr http://www.geolan.gr/sappek/docs/publications/article_6.pdf Ultimo accesso: 1 Luglio 2013. [4] Daryabeigi K., Cunnington G. R., and Knutson J. R., Combined Heat Transfer in High-Porosity High-Temperature Fibrous Insulation: Theory and Experimental Validation. Journal of Thermophysics and Heat Transfer 25 (2011) 536-546. [5] Daryabeigi K., Cunnington G.R., Knutson J.R., Heat Transfer Modeling for Rigid High-Temperature Fibrous Insulation. Journal of Thermophysics and Heat Transfer. AIAA Early Edition/1 (2012).
Resumo:
L’aumento dei costi in sanità, l’aumentata prevalenza delle patologie croniche, le disuguaglianze attuali, evidenziano la domanda crescente di una popolazione fragile che richiede una risposta globale ai bisogni della persona nel suo insieme, attraverso la costruzione di un sistema sanitario integrato che ne garantisca una presa in carico efficace. Riuscire a gestire le patologie croniche in modo appropriato è la sfida a cui sono chiamati i professionisti socio-sanitari; ma quali sono gli elementi per riuscirci? Le evidenze scientifiche dimostrano che è fondamentale l’integrazione tra i professionisti e lo sviluppo dei Percorsi Diagnostici Terapeutici Assistenziali (PDTA). In quest’ottica, in Italia e in particolare in Emilia-Romagna e nell’Azienda USL di Bologna si sono succeduti, e ancora si stanno evolvendo, diversi modelli di organizzazione per migliorare la gestione appropriata delle patologie croniche e l’aderenza alle linee guida e/o ai PDTA. Il ruolo del medico di medicina generale (MMG) è ancora fondamentale e il suo contributo integrato a quello degli gli altri professionisti coinvolti sono imprescindibili per una buona gestione e presa in carico del paziente cronico. Per questo motivo, l’Azienda USL di Bologna ha sviluppato e implementato una politica strategica aziendale volta a disegnare i PDTA e incoraggiato la medicina generale a lavorare sempre di più in gruppo, rispetto al modello del singolo medico. Lo studio ha individuato nelle malattie cardiovascolari, che rimangono la causa principale di morte e morbilità, il suo focus prendendo in esame, in particolare,lo scompenso cardiaco e il post-IMA. L’obiettivo è verificare se e quanto il modello organizzativo, le caratteristiche del medico e del paziente influiscono sul buon management delle patologie croniche in esame valutando la buona adesione alla terapia farmacologica raccomandata dalle linee guida e/o PDTA dello scompenso cardiaco e post-IMA.
Resumo:
L’obiettivo di questo lavoro di tesi è di ottenere un’analisi climatica giornaliera ad alta risoluzione della precipitazione sul territorio del nord Italia realizzata con tecniche di controllo statistico, di analisi e di strumenti di descrizione dei risultati presentati nella recente letteratura. A tal fine, sono stati utilizzati i dati dell’Archivio ARCIS. In seguito alle fasi di controllo qualità, omogeneità e sincronicità i dati sono stati utilizzati per realizzare un’analisi giornaliera su grigliato regolare a 10 km di risoluzione utile alla rappresentazione della variabilità spazio-temporale della precipitazione sul Nord Italia per il periodo 1961-2005. I risultati di tale analisi mettono in evidenza dei valori medi di precipitazione annuale abbastanza intensi sulla parte centrale dell’arco Alpino, con massimi (oltre 2000 mm) sull’estremità orientale e sull’Appennino Ligure. Valori minimi (500 – 600 mm) sono osservati lungo le aree prospicienti il fiume Po, in Val d’Aosta ed in Alto Adige. La corrispondente analisi del trend temporale indica la presenza di lievi cali statisticamente significativi solo in aree limitate del territorio. In coerenza con questi risultati, la variazione nel tempo della precipitazione annuale mediata su tutto il territorio mette in evidenza un’intensa variabilità decennale, ma solo una lieve flessione lineare sull’intero periodo. Il numero annuo di giorni piovosi ed il 90° percentile della precipitazione giornaliera presentano invece trend lineari un po’ più pronunciati. In particolare, sul periodo considerato si nota un calo del numero di giorni piovosi su gran parte del territorio e solo su alcune aree del territorio un aumento dell’intensità del 90° percentile, sia a scala annuale che stagionale. Nell’ultima parte di questo lavoro è stato realizzato uno studio della relazione fra la forzante climatica e l’evoluzione della morfologia dell’Appennino Emiliano-Romagnolo. I risultati mostrano che a parità di quota, di pendenza e di litologia, la franosità è influenzata dalle precipitazioni.
Resumo:
L'elaborato consiste nella prima traduzione italiana delle tre opere cardine dell'Ars Analytica di François Viète. L’obiettivo di questa tesi è quello di condurre un’analisi, attraverso la traduzione, il commento e l’interpretazione di Isagoge in Artem analyticem, Ad Logisticem Speciosam Notae Priores, Zeteticorum libri quinque, testi fondamentali per lo sviluppo dell’algebra come disciplina autonoma e obiettiva, prestando particolare attenzione anche alle interpretazioni geometriche proposte dagli allievi di Viète. Infine vengono analizzati gli zetetici, cioè i problemi, riguardanti la risoluzione delle equazioni diofantee di secondo e terzo grado alla luce delle osservazioni riportate da Fermat nella sua copia dell’Aritmetica (edizione di Claude Gaspard Bacheti, 1621). Fermat, infatti propone un’analisi del testo diofanteo che va al di là di una semplice traduzione, ottenendo risultati che sono ben noti agli storici della matematica e ai matematici.
Resumo:
In questa tesi viene descritto il funzionamento delle sorgenti di luce LED (Light Emitting Diode) a confinamento quantico, che rappresentano la nuova frontiera dell'illuminazione ad alta efficienza e durata. Nei capitoli introduttivi è descritta brevemente la storia dei LEDs dalla loro invenzione agli sviluppi più recenti. Il funzionamento di tali dispositivi fotonici è spiegato a partire dal concetto di sorgente di luce per elettroluminescenza, con particolare riferimento alle eterostrutture a confinamento quantico bidimensionale (quantum wells). I capitoli centrali riguardano i nitruri dei gruppi III-V, le cui caratteristiche e proprietà hanno permesso di fabbricare LEDs ad alta efficienza e ampio spettro di emissione, soprattutto in relazione al fatto che i LEDs a nitruri dei gruppi III-V emettono luce anche in presenza di alte densità di difetti estesi, nello specifico dislocazioni. I capitoli successivi sono dedicati alla presentazione del lavoro sperimentale svolto, che riguarda la caratterizzazione elettrica, ottica e strutturale di LEDs a confinamento quantico basati su nitruri del gruppo III-V GaN e InGaN, cresciuti nei laboratori di Cambridge dal Center for Gallium Nitride. Lo studio ha come obiettivo finale il confronto dei risultati ottenuti su LEDs con la medesima struttura epitassiale, ma differente densità di dislocazioni, allo scopo di comprendere meglio il ruolo che tali difetti estesi ricoprono nella determinazione dell'effcienza delle sorgenti di luce LED. L’ultimo capitolo riguarda la diffrazione a raggi X dal punto di vista teorico, con particolare attenzione ai metodi di valutazioni dello strain reticolare nei wafer a nitruri, dal quale dipende la densità di dislocazioni.
Resumo:
In un'epoca storica nella quale si va incontro ad un tasso di guasto sempre maggiore a causa dell'invecchiamento, diventa necessaria l'adozione di sistemi diagnostici in grado di stimare e prolungare l'esatto istante in cui si avrà il guasto. Per fare questo generalmente si valuta l'attività di scariche parziali in un sistema isolante e si cerca di frenarla. In questo lavoro innovativo però, la scelta di base non è quella di frenare l'attività di scariche, ma di limitarla alla base, agendo sulla natura fisica dei processi associati alle scariche.
Resumo:
Lo studio effettuato pone le sue basi sulla ricerca di materiali stradali che combinino ad elevati standard prestazionali, la riduzione dell’impatto ambientale in fase realizzativa e manutentiva. In particolare il seguente lavoro si occupa dello studio di 7 leganti modificati con polimeri ed additivati con cere. I primi infatti conferiscono alla miscela maggiore elastoplasticità, incrementandone la durabilità e la resistenza a fatica. Nei secondi la presenza del materiale paraffinico contribuisce a ridurre la viscosità del bitume, consentendo un notevole abbassamento della temperatura di produzione e stesa della miscela. Numerosi studi hanno dimostrato che le caratteristiche meccaniche della pavimentazione sono fortemente influenzate dal grado di ossidazione delle componenti organiche del bitume, ovvero dal fenomeno dell’invecchiamento o aging. Pertanto allo studio reologico del bitume, si sono affiancate prove di simulazione dell’ invecchiamento nel breve e lungo termine. In fase di ricerca sperimentale si sono analizzati i leganti modificati ed additivati secondo la teoria della viscoelasticità, simulando le reali condizioni di carico ed invecchiamento alle quali il bitume è sottoposto. Tutte le prove di caratterizzazione reologica avanzata sono state effettuate mediante l’utilizzo del DSR (Dynamic Shear Rheometer - UNI EN 14770 ) in varie configurazioni di prova e l’invecchiamento a breve termine è stato simulato mediante RTFOT (Rolling thin film oven test -UNI EN 12607-1). Si è proposto inoltre una nuova procedura di aging invecchiando il bitume alla temperatura di Twork, ovvero a quel valore della temperatura tale per cui, in fase di messa in opera, si avrà una distribuzione molecolare omogenea del modificante all’interno del bitume.
Resumo:
Questo studio, che è stato realizzato in collaborazione con Hera, è un'analisi della gestione dei rifiuti a Bologna. La ricerca è stata effettuata su diversi livelli: un livello strategico il cui scopo è quello di identificare nuovi metodi per la raccolta dei rifiuti in funzione delle caratteristiche del territorio della città, un livello analitico che riguarda il miglioramento delle applicazioni informatiche di supporto, e livello ambientale che riguarda il calcolo delle emissioni in atmosfera di veicoli adibiti alla raccolta e al trasporto dei rifiuti. innanzitutto è stato necessario studiare Bologna e lo stato attuale dei servizi di raccolta dei rifiuti. È incrociando questi componenti che in questi ultimi tre anni sono state effettuate modifiche nel settore della gestione dei rifiuti. I capitoli seguenti sono inerenti le applicazioni informatiche a sostegno di tali attività: Siget e Optit. Siget è il programma di gestione del servizio, che attualmente viene utilizzato per tutte le attività connesse alla raccolta di rifiuti. È un programma costituito da moduli diversi, ma di sola la gestione dati. la sperimentazione con Optit ha aggiunto alla gestione dei dati la possibilità di avere tali dati in cartografia e di associare un algoritmo di routing. I dati archiviati in Siget hanno rappresentato il punto di partenza, l'input, e il raggiungimento di tutti punti raccolta l'obiettivo finale. L'ultimo capitolo è relativo allo studio dell'impatto ambientale di questi percorsi di raccolta dei rifiuti. Tale analisi, basata sulla valutazione empirica e sull'implementazione in Excel delle formule del Corinair mostra la fotografia del servizio nel 2010. Su questo aspetto Optit ha fornito il suo valore aggiunto, implementando nell'algoritmo anche le formule per il calcolo delle emissioni.
Resumo:
Il pomodoro è una delle colture principali del panorama agro-alimentare italiano e rappresenta un ingrediente base della tradizione culinaria nazionale. Il pomodoro lavorato dall’industria conserviera può essere trasformato in diverse tipologie merceologiche, che si differenziano in base alla tecniche di lavorazione impiegate ed alle caratteristiche del prodotto finito. la percentuale di spesa totale destinata all’acquisto di cibo fuori casa è in aumento a livello globale e l’interesse dell’industria alimentare nei confronti di questo canale di vendita è quindi crescente. Mentre sono numerose le indagine in letteratura che studiano i processi di acquisto dei consumatori finali, non ci sono evidenze di studi simili condotti sugli operatori del Food Service. Obiettivo principale della ricerca è quello di valutare le preferenze dei responsabili acquisti del settore Food Service per diverse tipologie di pomodoro trasformato, in relazione ad una gamma di attributi rilevanti del prodotto e di caratteristiche del cliente. La raccolta dei dati è avvenuta attraverso un esperimento di scelta ipotetico realizzato in Italia e alcuni mercati esteri. Dai risultati ottenuti dall’indagine emerge che i Pelati sono la categoria di pomodoro trasformato preferita dai responsabili degli acquisti del settore Food Service intervistati, con il 35% delle preferenze dichiarate nell'insieme dei contesti di scelta proposti, seguita dalla Polpa (25%), dalla Passata (20%) e dal Concentrato (15%). Dai risultati ottenuti dalla stima del modello econometrico Logit a parametri randomizzati è emerso che alcuni attributi qualitativi di fiducia (credence), spesso impiegati nelle strategie di differenziazione e posizionamento da parte dell’industria alimentare nel mercato Retail, possono rivestire un ruolo importante anche nell’influenzare le preferenze degli operatori del Food Service. Questo potrebbe quindi essere un interessante filone di ricerca da sviluppare nel futuro, possibilmente con l'impiego congiunto di metodologie di analisi basate su esperimenti di scelta ipotetici e non ipotetici.
Resumo:
La ricerca ha preso le mosse da tre ipotesi fondamentali: 1) Esiste un legame tra processi cognitivi di basso ed alto livello; 2) Lo spazio senso-motorio è una percezione soggettiva; 3) Lo spazio senso-motorio varia in funzione delle diverse modalità di interazione sociale. La tesi sostiene che lo spazio senso-motorio si lascia modulare dalla semplice co-presenza di un altro agente umano e da interazioni cooperative e non cooperative. I capitoli I, II, III, hanno lo scopo di scomporre e spiegare il significato della prima, seconda e terza ipotesi; giungendo a formulare la tesi centrale che sarà poi dimostrata sperimentalmente nel capitolo IV. Il capitolo V introduce future linee di ricerca nell’ambito dell’etica proponendo una nuova ipotesi sul legame che potrebbe sussistere tra la percezione dello spazio durante l’interazione sociale e i giudizi morali. Il lavoro svolto chiama ad operare insieme diverse discipline che concorrono a formare le scienze cognitive: la storia della filosofia, la filosofia della mente contemporanea, la neuropsicologia sperimentale ed alcuni temi della psicologia sociale.