417 resultados para Puré
Resumo:
Nonostante il fatto che una gran parte del mondo viva ancora oggi a livelli di sussistenza, i dati in nostro possesso ci indicano che le attività umane stanno esaurendo le risorse ambientali del pianeta. La causa di questo eccessivo sfruttamento delle risorse è da ricercare nei pattern non sostenibili di produzione e consumo dei paesi sviluppati. La preoccupazione per le conseguenze sull'ambiente e la lotta al cambiamento climatico hanno posto le politiche ambientali al centro dell'attenzione internazionale. Il Protocollo di Kyoto e la Commissione Europea hanno stabilito degli obiettivi di riduzione delle emissioni di gas serra, rispettivamente del 12% entro il 2012 e del 20% entro il 2020. All'interno del Protocollo di Kyoto l'obiettivo per l'Italia è ridurre del 6,5% le emissioni di gas serra nazionali rispetto al 1990. Le politiche mirate alla riduzione delle emissioni di gas serra hanno in genere come obiettivo gli impianti energetici e i trasporti. Poca attenzione viene data alla filiera agroalimentare pur sapendo che l'agricoltura ha un forte impatto sull'ambiente e recenti studi stimano che circa il 50% del cibo prodotto viene perso o buttato via dalla produzione al consumo. Alla luce di questi dati, il mio lavoro di tesi ha avuto come obiettivo quello di quantificare i rifiuti e gli sprechi agroalimentari in Europa e in Italia e stimare l'impatto ambientale associato. I dati raccolti in questa tesi mettono in evidenza l'importanza di migliorare l'efficienza della filiera agroalimentare per ridurre l'impatto ambientale nazionale e rispettare gli accordi internazionali sulla lotta ai cambiamenti climatici.
Resumo:
Quello del falso è un problema con cui si sono dovuti confrontare gli specialisti di ogni epoca storica, ma che ha subito un’accelerazione e un’esasperazione con la storia del tempo presente, anche per via della simultanea presenza dei protagonisti che hanno reso più complessa una scena storica e memoriale segnata profondamente dal rapporto tra storici e testimoni e dall’articolazione della memoria pubblica e di quella privata. L’evento che più acutamente ha risentito del problema del falso in età contemporanea è certamente il genocidio degli ebrei compiuto dai nazisti durante la Seconda Guerra Mondiale perché è proprio al cuore dell’impresa genocidiaria che è avvenuta la grande falsificazione che ha alimentato qualsiasi successivo discorso revisionista. L’emersione del testimone sulla scena pubblica ha posto pertanto in modo acuto il problema dello statuto della testimonianza rendendo l’analisi del funzionamento della memoria indispensabile per comprendere quanto un testimone sia molto più utile per la descrizione, non tanto del fatto in sé, ma del modo in cui l’evento è stato socialmente codificato, registrato e trasmesso. Il legame tra i casi esaminati, pur nella loro estrema eterogeneità, spaziando da false autobiografie, come quella di Binjamin Wilkomirski, a testi controversi, come quello di Jean-François Steiner, o da racconti contestati, come quelli di Deli Strummer e Herman Rosenblat, a narrazioni che nel tempo hanno subito importanti variazioni, come nel caso Aubrac e nelle vicende del libro di Alcide Cervi, sarà stabilito grazie alla centralità giocata, in ognuno di essi, dalla forma testimoniale e dall’altrettanto fondamentale argomentazione in termini di affaire. Il problema del falso è stato perciò indagato all’interno delle ragioni storiche e culturali che hanno determinato la formazione discorsiva che ha per soggetto il testimone e la testimonianza come più autentico punto di vista sugli eventi del passato con le relative conseguenze sul piano storico e pubblico.
Resumo:
Obbiettivo. Analizzare la funzionalità polmonare e diaframmatica dopo interventi di plicatura del diaframma con rete di rinforzo peri-costale eseguiti per relaxatio e riparazione di ernia transdiaframmatica cronica mediante riduzione e sutura diretta. Metodi. Dal 1996 al 2010, 10 pazienti con relaxatio unilaterale del diaframma e 6 pazienti con ernia transdiaframmatica cronica misconosciuta sono stati sottoposti a chirurgia elettiva. Gli accertamenti preoperatori e al follow-up di 12 mesi includevano prove di funzionalità respiratoria, misura della pressione massimale inspiratoria alla bocca in clino e ortostatismo, emogasanlisi, TC del torace e dispnea score. Risultati. I pazienti dei due gruppi non differivano in termini di funzionalità respiratoria preoperatoria nè di complicanze postoperatorie; al follow-up a 12 mesi il gruppo Eventrazione mostrava un significativo aumento del FEV1% (+18,2 – p<0.001), FVC% (+12,8 – p<0.001), DLCO% (+6,84 – p=0,04) e pO2 (+9,8 mmHg – p<0.001). Al contrario nrl gruppo Ernia solo il miglioramento della pO2 era significativo (+8.3 – p=0.04). Sebbene la massima pressione inspiratoria (PImax) fosse aumentata in entrambi i gruppi al follow-up, i pazienti operati per ernia mostravano un miglioramento limitato con persistente caduta significativa della PImax dall’ortostatismo al clinostatismo (p<0.001). Il Transitional dyspnoea score è stato concordante con tali miglioramenti pur senza differenze significative tra i due gruppi. La TC del torace ha evidenziato una sopraelevazione dell’emidiaframma suturato, senza recidiva di ernia, mentre i pazienti sottoposti a plicatura hanno mantenuto l’ipercorrezione. Conclusioni. L’utilizzo di un rinforzo protesico è sicuro e sembra assicurare risultati funzionali migliori a distanza in termini di flussi respiratori e di movimento paradosso del diaframma (valutato mediante PImax). Lacerazioni estese del diaframma coinvolgenti le branche principali di suddivisione del nervo frenico si associano verosimilmente a una relaxatio che può quindi ridurre il guadagno funzionale a lungo termine se non adeguatamente trattata mediante l’utilizzo di un rinforzo protesico.
Resumo:
Numerosi incidenti verificatisi negli ultimi dieci anni in campo chimico e petrolchimico sono dovuti all’innesco di sostanze infiammabili rilasciate accidentalmente: per questo motivo gli scenari incidentali legati ad incendi esterni rivestono oggigiorno un interesse crescente, in particolar modo nell’industria di processo, in quanto possono essere causa di ingenti danni sia ai lavoratori ed alla popolazione, sia alle strutture. Gli incendi, come mostrato da alcuni studi, sono uno dei più frequenti scenari incidentali nell’industria di processo, secondi solo alla perdita di contenimento di sostanze pericolose. Questi eventi primari possono, a loro volta, determinare eventi secondari, con conseguenze catastrofiche dovute alla propagazione delle fiamme ad apparecchiature e tubazioni non direttamente coinvolte nell’incidente primario; tale fenomeno prende il nome di effetto domino. La necessità di ridurre le probabilità di effetto domino rende la mitigazione delle conseguenze un aspetto fondamentale nella progettazione dell’impianto. A questo scopo si impiegano i materiali per la protezione passiva da fuoco (Passive Fire Protection o PFP); essi sono sistemi isolanti impiegati per proteggere efficacemente apparecchiature e tubazioni industriali da scenari di incendio esterno. L’applicazione dei materiali per PFP limita l’incremento di temperatura degli elementi protetti; questo scopo viene raggiunto tramite l’impiego di differenti tipologie di prodotti e materiali. Tuttavia l’applicazione dei suddetti materiali fireproofing non può prescindere da una caratterizzazione delle proprietà termiche, in particolar modo della conducibilità termica, in condizioni che simulino l’esposizione a fuoco. Nel presente elaborato di tesi si è scelto di analizzare tre materiali coibenti, tutti appartenenti, pur con diversità di composizione e struttura, alla classe dei materiali inorganici fibrosi: Fibercon Silica Needled Blanket 1200, Pyrogel®XT, Rockwool Marine Firebatt 100. I tre materiali sono costituiti da una fase solida inorganica, differente per ciascuno di essi e da una fase gassosa, preponderante come frazione volumetrica. I materiali inorganici fibrosi rivestono una notevole importanza rispetto ad altri materiali fireproofing in quanto possono resistere a temperature estremamente elevate, talvolta superiori a 1000 °C, senza particolari modifiche chimico-fisiche. Questo vantaggio, unito alla versatilità ed alla semplicità di applicazione, li rende leader a livello europeo nei materiali isolanti, con una fetta di mercato pari circa al 60%. Nonostante l’impiego dei suddetti materiali sia ormai una realtà consolidata nell’industria di processo, allo stato attuale sono disponibili pochi studi relativi alle loro proprietà termiche, in particolare in condizioni di fuoco. L’analisi sperimentale svolta ha consentito di identificare e modellare il comportamento termico di tali materiali in caso di esposizione a fuoco, impiegando nei test, a pressione atmosferica, un campo di temperatura compreso tra 20°C e 700°C, di interesse per applicazioni fireproofing. Per lo studio delle caratteristiche e la valutazione delle proprietà termiche dei tre materiali è stata impiegata principalmente la tecnica Transient Plane Source (TPS), che ha consentito la determinazione non solo della conducibilità termica, ma anche della diffusività termica e della capacità termica volumetrica, seppure con un grado di accuratezza inferiore. I test sono stati svolti su scala di laboratorio, creando un set-up sperimentale che integrasse opportunamente lo strumento Hot Disk Thermal Constants Analyzer TPS 1500 con una fornace a camera ed un sistema di acquisizione dati. Sono state realizzate alcune prove preliminari a temperatura ambiente sui tre materiali in esame, per individuare i parametri operativi (dimensione sensori, tempi di acquisizione, etc.) maggiormente idonei alla misura della conducibilità termica. Le informazioni acquisite sono state utilizzate per lo sviluppo di adeguati protocolli sperimentali e per effettuare prove ad alta temperatura. Ulteriori significative informazioni circa la morfologia, la porosità e la densità dei tre materiali sono state ottenute attraverso stereo-microscopia e picnometria a liquido. La porosità, o grado di vuoto, assume nei tre materiali un ruolo fondamentale, in quanto presenta valori compresi tra 85% e 95%, mentre la frazione solida ne costituisce la restante parte. Inoltre i risultati sperimentali hanno consentito di valutare, con prove a temperatura ambiente, l’isotropia rispetto alla trasmissione del calore per la classe di materiali coibenti analizzati, l’effetto della temperatura e della variazione del grado di vuoto (nel caso di materiali che durante l’applicazione possano essere soggetti a fenomeni di “schiacciamento”, ovvero riduzione del grado di vuoto) sulla conducibilità termica effettiva dei tre materiali analizzati. Analoghi risultati, seppure con grado di accuratezza lievemente inferiore, sono stati ottenuti per la diffusività termica e la capacità termica volumetrica. Poiché è nota la densità apparente di ciascun materiale si è scelto di calcolarne anche il calore specifico in funzione della temperatura, di cui si è proposto una correlazione empirica. I risultati sperimentali, concordi per i tre materiali in esame, hanno mostrato un incremento della conducibilità termica con la temperatura, da valori largamente inferiori a 0,1 W/(m∙K) a temperatura ambiente, fino a 0,3÷0,4 W/(m∙K) a 700°C. La sostanziale similitudine delle proprietà termiche tra i tre materiali, appartenenti alla medesima categoria di materiali isolanti, è stata riscontrata anche per la diffusività termica, la capacità termica volumetrica ed il calore specifico. Queste considerazioni hanno giustificato l’applicazione a tutti i tre materiali in esame dei medesimi modelli per descrivere la conducibilità termica effettiva, ritenuta, tra le proprietà fisiche determinate sperimentalmente, la più significativa nel caso di esposizione a fuoco. Lo sviluppo di un modello per la conducibilità termica effettiva si è reso necessario in quanto i risultati sperimentali ottenuti tramite la tecnica Transient Plane Source non forniscono alcuna informazione sui contributi offerti da ciascun meccanismo di scambio termico al termine complessivo e, pertanto, non consentono una facile generalizzazione della proprietà in funzione delle condizioni di impiego del materiale. La conducibilità termica dei materiali coibenti fibrosi e in generale dei materiali bi-fasici tiene infatti conto in un unico valore di vari contributi dipendenti dai diversi meccanismi di scambio termico presenti: conduzione nella fase gassosa e nel solido, irraggiamento nelle superfici delle cavità del solido e, talvolta, convezione; inoltre essa dipende fortemente dalla temperatura e dalla porosità. Pertanto, a partire dal confronto con i risultati sperimentali, tra cui densità e grado di vuoto, l’obiettivo centrale della seconda fase del progetto è stata la scelta, tra i numerosi modelli a disposizione in letteratura per materiali bi-fasici, di cui si è presentata una rassegna, dei più adatti a descrivere la conducibilità termica effettiva nei materiali in esame e nell’intervallo di temperatura di interesse, fornendo al contempo un significato fisico ai contributi apportati al termine complessivo. Inizialmente la scelta è ricaduta su cinque modelli, chiamati comunemente “modelli strutturali di base” (Serie, Parallelo, Maxwell-Eucken 1, Maxwell-Eucken 2, Effective Medium Theory) [1] per la loro semplicità e versatilità di applicazione. Tali modelli, puramente teorici, hanno mostrato al raffronto con i risultati sperimentali numerosi limiti, in particolar modo nella previsione del termine di irraggiamento, ovvero per temperature superiori a 400°C. Pertanto si è deciso di adottare un approccio semi-empirico: è stato applicato il modello di Krischer [2], ovvero una media pesata su un parametro empirico (f, da determinare) dei modelli Serie e Parallelo, precedentemente applicati. Anch’esso si è rivelato non idoneo alla descrizione dei materiali isolanti fibrosi in esame, per ragioni analoghe. Cercando di impiegare modelli caratterizzati da forte fondamento fisico e grado di complessità limitato, la scelta è caduta sui due recenti modelli, proposti rispettivamente da Karamanos, Papadopoulos, Anastasellos [3] e Daryabeigi, Cunnington, Knutson [4] [5]. Entrambi presentavano il vantaggio di essere stati utilizzati con successo per materiali isolanti fibrosi. Inizialmente i due modelli sono stati applicati con i valori dei parametri e le correlazioni proposte dagli Autori. Visti gli incoraggianti risultati, a questo primo approccio è seguita l’ottimizzazione dei parametri e l’applicazione di correlazioni maggiormente idonee ai materiali in esame, che ha mostrato l’efficacia dei modelli proposti da Karamanos, Papadopoulos, Anastasellos e Daryabeigi, Cunnington, Knutson per i tre materiali analizzati. Pertanto l’obiettivo finale del lavoro è stato raggiunto con successo in quanto sono stati applicati modelli di conducibilità termica con forte fondamento fisico e grado di complessità limitato che, con buon accordo ai risultati sperimentali ottenuti, consentono di ricavare equazioni predittive per la stima del comportamento, durante l’esposizione a fuoco, dei materiali fireproofing in esame. Bologna, Luglio 2013 Riferimenti bibliografici: [1] Wang J., Carson J.K., North M.F., Cleland D.J., A new approach to modelling the effective thermal conductivity of heterogeneous materials. International Journal of Heat and Mass Transfer 49 (2006) 3075-3083. [2] Krischer O., Die wissenschaftlichen Grundlagen der Trocknungstechnik (The Scientific Fundamentals of Drying Technology), Springer-Verlag, Berlino, 1963. [3] Karamanos A., Papadopoulos A., Anastasellos D., Heat Transfer phenomena in fibrous insulating materials. (2004) Geolan.gr http://www.geolan.gr/sappek/docs/publications/article_6.pdf Ultimo accesso: 1 Luglio 2013. [4] Daryabeigi K., Cunnington G. R., and Knutson J. R., Combined Heat Transfer in High-Porosity High-Temperature Fibrous Insulation: Theory and Experimental Validation. Journal of Thermophysics and Heat Transfer 25 (2011) 536-546. [5] Daryabeigi K., Cunnington G.R., Knutson J.R., Heat Transfer Modeling for Rigid High-Temperature Fibrous Insulation. Journal of Thermophysics and Heat Transfer. AIAA Early Edition/1 (2012).
Resumo:
Infantile hemangiomas (IHs) are the most common benign neoplastic pathology of childhood; their natural history generally involves three phases: after the onset, which usually occurs in the first weeks of life, there is the proliferation phase where the IH reaches its maximum development and it is followed by the spontaneous involution which leads to the IH regression. The duration and the extent of these phases may vary widely even though in most of the cases the involution process begins around twelve months of life and the regression, complete or partial, is completed around seventh-ninth year of life. The majority of the IHs does not require any treatment. However, 10%-20% is likely to develop serious complications, functional impairments or aesthetic alterations and entail a timely treatment. Although there is no treatment protocol currently shared, therapies usually used in cases with a complication risk consist in: systemic or intralesional steroids as a first choice; interferon α, vincristine and/or bleomicin as second or third choice and/or surgical treatment. Propranolol, a non-selective beta-blocker, has been used for cardiovascular diseases even in childhood for decades. Since 2008 it has been widely used in the IHs treatment, although it is still "off-label". In literature there are hundreds of cases and some clinical studies that show the effectiveness and safety of this drug for this indication. Thanks to a multidisciplinary team (Dermatologists, Cardiologists, Paediatricians, and Radiologists) of S. Orsola-Malpighi Hospital, a clinical study, which has been previously approved by the ethics committee, is carried out in order to evaluate the efficacy and safety of systemic propranolol in the treatment of IHs in paediatric age. At the end of 2012, 78 patients underwent this treatment: the results we have obtained so far show a good efficacy and safety profile in agreement with the data provided by the literature.
Resumo:
In Italia, il processo di de-istituzionalizzazione e di implementazione di modelli di assistenza per la salute mentale sono caratterizzati da carenza di valutazione. In particolare, non sono state intraprese iniziative per monitorare le attività relative all’assistenza dei pazienti con disturbi psichiatrici. Pertanto, l’obiettivo della tesi è effettuare una valutazione comparativa dei percorsi di cura nell’ambito della salute mentale nei Dipartimenti di Salute Mentale e Dipendenze Patologiche della regione Emilia-Romagna utilizzando indicatori ottenuti dai flussi amministrativi correnti.. I dati necessari alla costruzione degli indicatori sono stati ottenuti attraverso un data linkage dei flussi amministrativi correnti regionali delle schede di dimissione ospedaliera, delle attività territoriali dei Centri di Salute Mentale e delle prescrizioni farmaceutiche, con riferimento all’anno 2010. Gli indicatori sono stati predisposti per tutti i pazienti con diagnosi principale psichiatrica e poi suddivisi per categoria diagnostica in base al ICD9-CM. . Il set di indicatori esaminato comprende i tassi di prevalenza trattata e di incidenza dei disturbi mentali, i tassi di ospedalizzazione, la ri-ospedalizzazione a 7 e 30 giorni dalla dimissione dai reparti psichiatrici, la continuità assistenziale ospedale-territorio, l’adesione ai trattamenti ed il consumo e appropriatezza prescrittiva di farmaci. Sono state rilevate alcune problematiche nella ricostruzione della continuità assistenziale ospedale-territorio ed alcuni limiti degli indicatori relativi alle prescrizioni dei farmaci. Il calcolo degli indicatori basato sui flussi amministrativi correnti si presenta fattibile, pur con i limiti legati alla qualità, completezza ed accuratezza dei dati presenti. L’implementazione di questi indicatori su larga scala (regionale e nazionale) e su base regolare può essere una opportunità per impostare un sistema di sorveglianza, monitoraggio e valutazione dell’assistenza psichiatrica nei DSM.
Resumo:
In questa tesi proponiamo una rivisitazione del classico criterio di Jeans per l'instabilità gravitazionale di una nube di gas autogravitante, tenendo conto anche degli effetti viscosi e della presenza di una forza di Coriolis. Si dimostra che l'aggiunta di tali presenze, pur non alterando la soglia critica di Jeans, è generalmente stabilizzante. Infine si evidenzia un'interessante analogia, per modellamento matematico, tecniche e terminologie, fra il collasso gravitazionale e quello chemiotattico
Resumo:
The interaction between disciplines in the study of human population history is of primary importance, profiting from the biological and cultural characteristics of humankind. In fact, data from genetics, linguistics, archaeology and cultural anthropology can be combined to allow for a broader research perspective. This multidisciplinary approach is here applied to the study of the prehistory of sub-Saharan African populations: in this continent, where Homo sapiens originally started his evolution and diversification, the understanding of the patterns of human variation has a crucial relevance. For this dissertation, molecular data is interpreted and complemented with a major contribution from linguistics: linguistic data are compared to the genetic data and the research questions are contextualized within a linguistic perspective. In the four articles proposed, we analyze Y chromosome SNPs and STRs profiles and full mtDNA genomes on a representative number of samples to investigate key questions of African human variability. Some of these questions address i) the amount of genetic variation on a continental scale and the effects of the widespread migration of Bantu speakers, ii) the extent of ancient population structure, which has been lost in present day populations, iii) the colonization of the southern edge of the continent together with the degree of population contact/replacement, and iv) the prehistory of the diverse Khoisan ethnolinguistic groups, who were traditionally understudied despite representing one of the most ancient divergences of modern human phylogeny. Our results uncover a deep level of genetic structure within the continent and a multilayered pattern of contact between populations. These case studies represent a valuable contribution to the debate on our prehistory and open up further research threads.
Resumo:
La tesi si propone come obiettivo di dimostrare nel quadro di un’indagine comparatistica l’importanza della tematica del finanziamento della politica, del rapporto tra denaro e politica, nelle democrazie contemporanee. In questo senso ci si propone di sviluppare i nessi esistenti nell’ambito del tema del finanziamento fra disciplina dei partiti, disciplina delle campagne elettorali e, più in generale, disciplina del sistema elettorale in senso stretto e della forma di governo; di descrivere il complesso quadro giuridico in materia di diritto della finanza politica, oggetto di frequenti aggiornamenti e in continua evoluzione, in alcuni casi anche in via giurisprudenziale, quale risulta emergere dallo studio di ciascun ordinamento considerato; e di definire in conclusione i precisi contorni dei due distinti modelli di «finanziamento della politica» ricostruiti dalla ricerca politologica come modello statalista o pubblico, da una parte, e modello liberale o volontario, dall’altra, pur nelle specificità di ogni contesto istituzionale
Resumo:
La presente tesi tratta della fabbricazione e del funzionamento di transistors elettrochimici organici (OECTs) composti da fi�lm sottili di poly(3,4-ethylenedioxythiophene) disperso con polystyrenesulfonic acid, o PEDOT:PSS, oltre che del loro possibile utilizzo come sensori. La trattazione si apre con una panoramica sui polimeri conduttivi, siano essi puri o drogati, e sulle loro caratteristiche chimiche ed elettriche: diversi metodi di drogaggio consentono il loro utilizzo come semiconduttori. Tra questi polimeri, il PEDOT �e uno dei pi�u utilizzati poich�e presenta accessibilit�a d'uso e ottima stabilit�a nel suo stato drogato, pur risultando insolubile in acqua; per ovviare a questo problema lo si polimerizza con PSS. Le propriet�a di questo composto sono poi ampiamente discusse, soprattutto in ambito di applicazioni tecniche, per le quali �e neccessario che il polimero in soluzione sia depositato su un substrato. A questo scopo vengono presentate le principali techiche che consentono la deposizione, permettendo di creare fil�lm sottili di materiale da utilizzarsi, nell'ambito di questa tesi, come gate e canale dei transistors elettrochimici. A seguire viene esposta la struttura degli OECTs e spiegato il loro funzionamento, modellizzando i dispositivi con un semplice circuito elettrico. Il confronto dei meno noti OECTs con i meglio conosciuti transistors a eff�etto campo semplifi�ca la comprensione del funzionamento dei primi, i quali sono rilevanti ai fi�ni di questa trattazione per il loro possibile funzionamento come sensori. In seguito alla spiegazione teorica, vengono illustrati i metodi seguiti per la deposizione di �film sottili di PEDOT:PSS tramite Spin Coating e per la fabbricazione degli OECTs su cui sono state eff�ettuate le misure, le quali sono state scelte e presentate in base ai risultati gi�a ottenuti in letteratura e a seconda dei dati ritenuti necessari alla caratterizzazione del transistor elettrochimico nell'ottica di un suo possibile utilizzo come sensore. Perci�o sono state eseguite misure amperometriche in funzione delle tensioni di gate e di drain, alternatamente tenendo costante una e variando l'altra, oltre che in funzione della concentrazione di elettrolita, dell'area del canale e del tempo. In conclusione sono presentati i dati sperimentali ottenuti ed una loro analisi.
Resumo:
L’impegno civile di Umberto Zanotti Bianco (1889-1963) intrecciandosi ai principali eventi storici della prima metà del Novecento ha concorso a fare del Mezzogiorno d’Italia un laboratorio per una concreta emancipazione delle fasce sociali più umili. In queste coordinate l’azione di Zanotti Bianco è emblematica: supera la visione conservatrice di un sud incapace di fare emergere saperi e capacità organizzative mirando invece attraverso chiari, determinati e moderni progetti di riforma a far crescere il lievito della consapevolezza e della capacità di governarsi. Si può legittimamente sostenere che la complessa azione di Zanotti Bianco, pur partendo dalle migliori e più avanzate forme del pensiero meridionalista di inizio secolo, nella pratica tende a superare anche queste collocando la questione del Mezzogiorno d’Italia non solo nello scenario nazionale, tipico della fondamentale e già innovativa riflessione intorno al sud sviluppatasi da Villari a Salvemini, ma proietta le problematiche del meridione all’interno di un quadro europeo con una spiccata vocazione mediterranea. In sostanza i piani dell’intervento sociale, studiati e messi a punto inizialmente in Calabria e nelle regioni economicamente depresse del nostro Mezzogiorno, per Zanotti Bianco sembrano essere da modello anche per le più complesse questioni sociali di altri popoli del bacino del Mediterraneo i quali (come le popolazioni dell’Italia meridionale in quegli anni) apparivano deficitarii di strumenti per lo sviluppo economico, sociale, politico: è questa la tesi qui proposta.
Resumo:
Sono indagate le implicazioni teoriche e sperimentali derivanti dall'assunzione, nella teoria della relatività speciale, di un criterio di sincronizzazione (detta assoluta) diverso da quello standard. La scelta della sincronizzazione assoluta è giustificata da alcune considerazioni di carattere epistemologico sullo status di fenomeni quali la contrazione delle lunghezze e la dilatazione del tempo. Oltre che a fornire una diversa interpretazione, la sincronizzazione assoluta rappresenta una estensione del campo di applicazione della relatività speciale in quanto può essere attuata anche in sistemi di riferimento accelerati. Questa estensione consente di trattare in maniera unitaria i fenomeni sia in sistemi di riferimento inerziali che accelerati. L'introduzione della sincronizzazione assoluta implica una modifica delle trasformazioni di Lorentz. Una caratteristica di queste nuove trasformazioni (dette inerziali) è che la trasformazione del tempo è indipendente dalle coordinate spaziali. Le trasformazioni inerziali sono ottenute nel caso generale tra due sistemi di riferimento aventi velocità (assolute) u1 e u2 comunque orientate. Viene mostrato che le trasformazioni inerziali possono formare un gruppo pur di prendere in considerazione anche riferimenti non fisicamente realizzabili perché superluminali. È analizzato il moto rigido secondo Born di un corpo esteso considerando la sincronizzazione assoluta. Sulla base delle trasformazioni inerziali si derivano le trasformazioni per i campi elettromagnetici e le equazioni di questi campi (che sostituiscono le equazioni di Maxwell). Si mostra che queste equazioni contengono soluzioni in assenza di cariche che si propagano nello spazio come onde generalmente anisotrope in accordo con quanto previsto dalle trasformazioni inerziali. L'applicazione di questa teoria elettromagnetica a sistemi accelerati mostra l'esistenza di fenomeni mai osservati che, pur non essendo in contraddizione con la relatività standard, ne forzano l'interpretazione. Viene proposto e descritto un esperimento in cui uno di questi fenomeni è misurabile.
Resumo:
Il plasma, quarto stato della materia, rappresenta un gas ionizzato in cui ioni ed elettroni si muovono a diverse energie sotto l’azione di un campo elettro-magnetico applicato dall’esterno. I plasmi si dividono in plasmi di equilibrio e di non equilibrio termodinamico, quest’ultimi sono caratterizzati da un’alta temperatura elettronica (oltre 10000 K) e da una bassa temperatura traslazionale degli ioni e delle specie neutre (300-1000 K). I plasmi di non equilibrio trovano largo impiego nella microelettronica, nei processi di polimerizzazione, nell’industria biomedicale e del packaging, consentendo di effettuare trattamenti di sterilizzazione e attivazione superficiale. Il lavoro di tesi è incentrato sui processi di funzionalizzazione e polimerizzazione superficiale con l’obbiettivo di realizzare e caratterizzare sorgenti di plasma di non equilibrio a pressione atmosferica operanti in ambiente controllato. È stata realizzata una sorgente plasma operante a pressione atmosferica e in ambiente controllato per realizzare trattamenti di modifica superficiale e di polimerizzazione su substrati polimerici. L’efficacia e l’omogeneità dei trattamenti eseguiti sono stati valutati tramite misura dell’angolo di contatto. La caratterizzazione elettrica ha consentito di determinare i valori di densità di energia superficiale trasferita sui substrati al variare delle condizioni operative. Lo strato depositato durante il processo di polimerizzazione è stato analizzato qualitativamente tramite l’analisi chimica in spettroscopia infrarossa. L’analisi delle prove di funzionalizzazione dimostra l’uniformità dei processi plasma eseguiti; inoltre i valori dell’angolo di contatto misurati in seguito ai trattamenti risultano confrontabili con la letteratura esistente. Lo studio dei substrati trattati in atmosfera satura d’azoto ha rivelato una concentrazione superficiale di azoto pari al 3% attribuibile alla presenza di ammine, ammine protonate e gruppi ammidici; ciò conferma la bontà della soluzione realizzata e dei protocolli operativi adottati per la funzionalizzazione delle superfici. L’analisi spettroscopica dei trattamenti di polimerizzazione, ha fornito spettri IR confrontabili con la letteratura esistente indicando una buona qualità del polimero depositato (PEG). I valori misurati durante la caratterizzazione elettrica della sorgente realizzata risulteranno fondamentali in futuro per l’ottimizzazione del dispositivo. I dati raccolti infatti, determineranno le linee guida per il tailoring dei trattamenti plasma e per lo sviluppo della sorgente. Il presente lavoro di tesi, pur prendendo in esame una piccola parte delle applicazioni industriali dei plasmi non termici, conferma quanto queste siano pervasive nei comuni processi industriali evidenziandone le potenzialità e i numerosi campi d’applicazione. La tecnologia plasma è destinata ad essere imprescindibile per la ricerca di soluzioni innovative ai limiti dei processi tradizionali.
Resumo:
Ci rendiamo conto del valore dell’acqua solamente quando scarseggia. Fino ad oggi il problema poteva sembrare limitato ai Paesi più poveri di tale risorsa, ma le cose potrebbero cambiare perché l’acqua “di qualità” – ossia dolce e non inquinata – rappresenta solo una minima percentuale delle nostre riserve. E noi ne usiamo sempre di più: sia perché aumenta la popolazione della Terra, sia perché il maggiore benessere raggiunto da molti Paesi spinge la popolazione a consumare (e sprecare) più acqua. Un consumo che va esaminato non solo in termini “reali” (calcolando le quantità che si usano per la cura personale, per la cucina o per la pulizia della casa), ma anche “virtuali” (in termini di impronta idrica), stimando cioè tutta l’acqua che è stata utilizzata lungo l’intero ciclo di vita di un qualunque prodotto o servizio acquistato. Basti pensare che se si modificasse il proprio stile alimentare, passando ad esempio a prediligere una dieta più ricca di frutta, verdura e cereali, limitando la quantità di proteine animali, sarebbe possibile ridurre anche in modo significativo i consumi di acqua “virtuale”. Quindi, se da un lato la domanda cresce e dall’altro le risorse si riducono, anche per colpa dell’inquinamento e del cambiamento climatico, è sicuro che il valore economico dell’acqua aumenterà e le disuguaglianze, già oggi presenti, potranno portare nuovi attriti. Per questi motivi diventa fondamentale il concetto di Water Footprint, ossia l’analisi delle quantità di acqua utilizzata all’interno di tutta la filiera che porta alla produzione di un prodotto finito. Visto il mio corso di studi in ingegneria gestionale, ho deciso di concentrarmi principalmente sul concetto di Water Footprint all’interno dell’ambito industriale, analizzando in particolare il caso di un’azienda dell’Emilia Romagna. Ho scelto questo argomento perché sono sempre stato interessato all’ambiente e alla sua salvaguardia. Trattare nella tesi tale tema mi è sembrato utile per approfondire e diffondere concetti come quelli dell’impronta idrica e dell’acqua virtuale che, pur discussi a livello internazionale ormai da anni, tardano ancora ad essere affrontati in maniera ampia in Italia, che è il terzo Paese importatore netto di acqua virtuale al mondo.
Resumo:
Obiettivi: L’obiettivo dello studio è stato quello di valutare l’utilizzo del cerchiaggio cervicale, in relazione alle diverse indicazioni per cui è stato eseguito, presso la Clinica Ostetrica e Ginecologica del Policlinico Universitario Sant’Orsola-Malpighi di Bologna, tra Gennaio 2001 e Dicembre 2013. Outcome secondario e’ stato quello di paragonare i risultati ottenuti con le più recenti evidenze scientifiche per valutare come esse abbiano influenzato l’utilizzo del cerchiaggio nel nostro centro. Materiali e metodi: valutazione osservazionale di tutte le pazienti sottoposte a cerchiaggio cervicale presso il nostro centro. La popolazione di studio e’ stata suddivisa in 5 gruppi in relazione all’indicazione per cui il cerchiaggio e’ stato eseguito: cerchiaggio elettivo (I), eco indicato (II), d’emergenza (III), in gravidanze gemellari (IV) e in gravidanze trigemine (V). Di tutte le pazienti e’ stato valutato l’outcome della gravidanza (epoca gestazionale al parto, peso neonatale, Apgar score) e l’appropriatezza dell’indicazione al cerchiaggio. Risultati: nel corso dei 13 anni in studio sono stati eseguiti 191 cerchiaggi: 109 nel I gruppo, 24 nel II, 39 nel III, 13 e 6 rispettivamente nel IV e V gruppo. In un caso il cerchiaggio e’ stato eseguito per via laparoscopica prima dell’insorgenza della gravidanza. La distribuzione dei diversi tipi di cerchiaggio e’ cambiata: dal 2007 non vengono seguiti cerchiaggi in gravidanze multiple, sono diminuiti quelli elettivi e sono aumentati i cerchiaggi d’emergenza pur essendo i casi con morbilità materna maggiore: in una paziente si e’ verificato un aborto settico con shock settico materno e si e’ reso necessario un intervento di isterectomia. Conclusioni: l'applicazioni di indicazioni piu' selettive all’esecuzione del cerchiaggio hanno determinato una forte riduzione dell’utilizzo da tale procedura. L'aumento dell'utilizzo del cerchiaggio d’emergenza e' legato al fatto che rappresenta l’ultima chance per convertire un aborto inevitabile in un parto di neonato vivo in casi estremi.