84 resultados para porosità, PME, termodinamica del non equilibrio, modello iperbolico e propagazione ondosa, secondo suono


Relevância:

40.00% 40.00%

Publicador:

Resumo:

Hospitals and health service providers are use to collect data about patient’s opinion to improve patient health status and communication with them and to upgrade the management and the organization of the health service provided. A lot of survey are carry out for this purpose and several questionnaire are built to measure patient satisfaction. In particular patient satisfaction is a way to describe and assess the level of hospital service from the patient’s point of view. It is a cognitive and an emotional response to the hospital experience. Methodologically patient satisfaction is defined as a multidimensional latent variable. To assess patient satisfaction Item Response Theory has greater advantages compared to Classical Test Theory. Rasch model is a one-parameter model which belongs to Item Response Theory. Rasch model yield objective measure of the construct that are independent of the set of people interviewed and of set of items used. Rasch estimates are continuous and can be useful to “calibrate” the scale of the latent trait. This research attempt to investigate the questionnaire currently adopted to measure patient satisfaction in an Italian hospital, completed by a large sample of 3390 patients. We verify the multidimensional nature of the variable, the properties of the instrument and the level of satisfaction in the hospital. Successively we used Rasch estimates to describe the most satisfied and the less satisfied patients.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La ricerca approfondisce le modalità  di applicazione degli standard di qualità  nell'ambito del servizio sportivo, qualità  certificata attraverso sistemi convenzionali o auto verificata attraverso strumenti quali carte di servizio. L'applicazione e verifica dei sistemi di qualità  ad un servizio, seppur non considerato pubblico ma comunque di interesse generale, deve essere messa in relazione con i risultati che il servizio stesso si prefigge sia dal punto di vista del privato (o pubblico) che gestisce ed esercita l'attività  sportiva, sia dal punto di vista del cittadino che lo utilizza. Pertanto la ricerca è stata dedicata all'incidenza della qualità  nei miglioramenti del benessere psico-fisico dell'utente e all'eventuale efficacia della stessa come strumento di marketing per la diffusione del servizio. Sono state prese in esame tre diverse realtà  sportive, tre piscine. Due delle quali, dopo una prima rilevazione esplorativa, si sono dotate di una Carta dei Servizi. La terza piscina è invece gestita da una società  certificata ISO 9001. Sono stati proposti ed elaborati oltre 800 questionari dai quali sono emerse interessanti indicazioni su quanto e come la qualità  del servizio sia stato percepito dall'utente sotto forma di miglioramento del proprio stato psico-fisico ma anche di come sia ritenuta indispensabile una attenzione del gestore verso l'utente affinchè egli possa considerare utile l'attività  motoria dal punto di vista del miglioramento del proprio benessere. Più in particolare, attraverso l'utilizzo dell'analisi fattoriale prima e di modelli Lisrel poi, si è ottenuta una riduzione della complessità  del numero di fattori che spiegano il fenomeno. Questi fattori sono stati messi in correlazione con il livello di soddisfazione complessiva degli utenti e, dalle due rilevazioni per le quali il modello Lisrel ha restituito dati attendibili, è emerso come il fattore "servizi per gli utenti", comprendente aspetti quali lo spazio in acqua e la comodità  degli spogliatoi, sia quello che ha una maggior correlazione con la soddisfazione complessiva. La Carta dei Servizi, pur ritenuta utile dagli utenti che la conoscono, risulta uno strumento poco conosciuto ed in generale privo di appeal anche dal punto di vista del marketing. Nella percezione dell'utente questo strumento non contribuisce al miglioramento del proprio stato psico-fisico. E' interessante rilevare, invece, che gli utenti che conoscono la Certificazione di qualità  hanno una miglior percezione del servizio. In generale i molteplici interessi commerciali legati alle certificazioni o "autocertificazioni" hanno generato, in questi ultimi anni, confusione nelle società  sportive e negli enti che gestiscono impianti sportivi tra il concetto di qualità  (come cultura e occasione di miglioramento) e quello di "certificazione di qualità". In tale contesto "l'apparire" è divenuto più importante dell'"essere" perchè, la maggiore attenzione all'uso di tecniche piuttosto che all'approfondimento dei principi manageriali grazie ai quali è possibile fare qualità , ha finito per banalizzarne il concetto. Ma se il cliente/utente (interno o esterno) è insoddisfatto nonostante il rispetto di standard e specifiche da parte dell'azienda si può ancora parlare di qualità ?

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Partendo dal problema del rapporto fra la ricostruzione di un evento storico e lo statuto del testo che lo ricostruisce, la tesi si concentra nella lettura di opere riguardanti la Seconda guerra mondiale. Sono in questo senso cruciali due opere autobiografiche trattate nella prima parte del lavoro, Rue Labat Rue Ordener di Sarah Kofman (1993) e Kindheitsmuster di Christa Wolf (1976). In questi due testi la dottoranda prova a recuperare da una parte la rimemorazione letteraria di due esperienze infantili della guerra insieme opposte e complementari dal punto di vista del posizionamento della testimonianza. Il testo della Wolf ibrida la narrazione finzionale e la memoria dell’evento storico vissuto nel ricordo di una bambina tedesca, il testo della Kofman recupera in una maniera quasi psicanalitica la memoria di una bambina ebrea vittima inconsapevole e quesi incosciente della Shoah. Di fronte a due topoi apparentemente già piu volte ripercorsi nella letteratura critica del trauma postconflitto, la tesi in questione cerca di individuare il costituirsi quasi inevitabile di un soggetto identitario che osserva, vive e successivamente recupera e racconta il trauma. Se alcune posizioni della moderna storiografia e della contemporanea riflessione sulla scrittura storiografica, sottolineano la forza e l’importanza dell’elemento narrativo all’interno della ricostruzione storica e dell’analisi dei documenti, questa tesi sembra indicare una via possibile di studio per la letteratura comparata. Una via, cioè, che non si soffermi sui fattori e sui criteri veridizionali del testo, criteri e fattori che devono restare oggetto di studio per gli storici , ma che piuttosto indaghi sul nesso ineludibile e fondativo che la scrittura stessa svela e pone in essere: il trauma, l’irrompere dell’evento storico nell’individuo diventa elemento costitutivo della propria identità, elemento al quale è difficile dare una posizione stabile ma che allo stesso tempo non si può evitare di raccontare, di mettere in discorso. Nella narrazione letteraria di eventi storici esiste dunque un surplus di senso che sta tutto nella costituzione di una posizione dalla quale raccontare, di un punto di vista. Il punto di vista (come ci ricorda De Certeau ne Les lieux des autres in quel saggio dedicato ai cannibali di Montaigne,che viene poi ripreso senza essere mai citato da Ginzburg ne Il filo e le tracce) non è mai dato a priori nel discorso, è il risultato di un conflitto e di una lotta. Il testo che rende conto e recupera la memoria di un passato storico, in particolare di un passato storico conflittuale, di una guerra, di una violenza, per quanto presenti un punto di vista preciso e posizionato, per quanto possa apparire un frutto di determinate strategie testuali e di determinati obiettivi pragmatici, è pur sempre una narrazione il cui soggetto porta in sé, identitariamente, le ferite e i traumi dell’evento storico. Nei casi di Wolf e Kofman abbiamo quindi un rispecchiamento reciproco che fra il tentativo di una ricostruzione della memoria infantile e il recupero dell’elemento intersoggettivo e storico si apre alla scrittura e alla narrazione. La posizione del soggetto che ha vissuto l’irrompere del dramma storico nel discorso lo costituisce e lo delega a essere colui che parla e colui che vede. In un qualche modo la Storia per quanto possa essere creatrice di eventi e per quanto possa trasformare l’esistenza del soggetto non è essa stessa percepibile finché non si posiziona attraverso il soggetto trasformato e modificato all’interno del discorso. In questa continua ricerca di un equilibrio possibile fra realtà e discorso si pone il problema dell’essere soggetto in mezzo ad altri soggetti. E questo in un duplice aspetto: nell’aspetto della rappresentazione dell’altro, cioè nel problema di come la memoria riorganizzi e ricrei i soggetti in gioco nell’evento storico; e poi nella rappresentazione di se stesso per gli altri, nella rappresentazione cioe del punto di vista. Se nel romanzo autobiografico di Kofman tutta la storia veniva a ricondursi alla narrazione privata del soggetto che, come in una seduta psicanalitica recupera e insieme si libera del proprio conflitto interiore, della propria memoria offesa; se nel romanzo di Wolf si cercava un equilibrio fra una soggettivita infantile ormai distante in terza persona e una soggettività rammemorante che prendeva posizione nel romanzo nella seconda persona; la cerniera sia epistemologica sia narratologica fra la prima e la seconda parte della tesi pare essere Elsa Morante e il suo romanzo La Storia. L’opera della Morante sembra infatti farsi pieno carico della responsabilità di non poter piu ridurre la narrazione del trauma alla semplice presa in carico del soggetto autobiografico. Il soggetto che, per dirla ancora con De Certeau, può esprimere il proprio punto di vista perche in qualche modo si è salvato dalla temperie della storia, non si pone nel discorso come punto di inizio e di fine di qualsiasi percezione del trauma, ma si incarna in uno o più personaggi che in un qualche modo rappresentino l’irrapresentabile e l’irrapresentato. La storia diventa quindi elemento non costitutivo di un'identità capace di ri-raccontarsi o almeno non solo, diventa fattore costitutivo di un’identità capace di raccontare l’altro, anzi gli altri, tutti coloro che il conflitto, la violenza ha in un qualche modo cancellato. Così accade all’infanzia tradita e offesa del piccolo Useppe, che viene soffocato non solo nella sua possibilita di svilupparsi, di essere punto di vista del discorso, ma anche nella possibilita di essere osservatore vivo dell’evento; cosi accade a Ida, donna e madre, che la Storia lentamente e inesorabilmente spersonalizza riducendola a essere soggetto passivo e vittima degli eventi. Ecco quindi che la strada aperta dalla Morante permette alla memoria di proiettarsi in una narrazione comune e di condividere e suddividere la posizione centrale del soggetto in una costellazione differente di soggetti. A questo punto si apre, attraverso le tecniche della storia orale e la loro narrativizzazione, una strategia di recupero della memoria evidenziata nell’ultima parte della tesi. La strada intrapresa da autori come i Wu Ming e come Andrea Levy ne è un esempio. Sganciati per evidenti ragioni biografiche e anagrafiche (sono tutti nati ben dopo la fine del secondo conflitto mondiale) da qualsiasi tentazione autobiografica, i primi intraprendono una vera e propria ridistribuzione dei punti di vista sulla storia. In romanzi come Manituana si viene a perdere, almeno a un primo e forse piu superficiale livello, qualsiasi imposizione fissa del punto di vista. Una molteplicità di soggetti si prende carico di raccontare la storia da differenti posizioni, ma la apparente molteplicità degli sguardi non si riduce a una frammentazione dell’etica del racconto quanto piuttosto alla volontà di fare emergere tra gli altri anche il punto di vista dello sconfitto e dell’inerme. Al passato oscuro della violenza storica si contrappone in un qualche modo la messa in discorso del soggetto che cerca attraverso la costituzione non solo di un soggetto ma di una pluralitàdi voci , di ritrovare un’ armonia, di riassimilare la propria memoria condividendola nel testo letterario.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

The main aim of this thesis is strongly interdisciplinary: it involves and presumes a knowledge on Neurophysiology, to understand the mechanisms that undergo the studied phenomena, a knowledge and experience on Electronics, necessary during the hardware experimental set-up to acquire neuronal data, on Informatics and programming to write the code necessary to control the behaviours of the subjects during experiments and the visual presentation of stimuli. At last, neuronal and statistical models should be well known to help in interpreting data. The project started with an accurate bibliographic research: until now the mechanism of perception of heading (or direction of motion) are still poorly known. The main interest is to understand how the integration of visual information relative to our motion with eye position information happens. To investigate the cortical response to visual stimuli in motion and the integration with eye position, we decided to study an animal model, using Optic Flow expansion and contraction as visual stimuli. In the first chapter of the thesis, the basic aims of the research project are presented, together with the reasons why it’s interesting and important to study perception of motion. Moreover, this chapter describes the methods my research group thought to be more adequate to contribute to scientific community and underlines my personal contribute to the project. The second chapter presents an overview on useful knowledge to follow the main part of the thesis: it starts with a brief introduction on central nervous system, on cortical functions, then it presents more deeply associations areas, which are the main target of our study. Furthermore, it tries to explain why studies on animal models are necessary to understand mechanism at a cellular level, that could not be addressed on any other way. In the second part of the chapter, basics on electrophysiology and cellular communication are presented, together with traditional neuronal data analysis methods. The third chapter is intended to be a helpful resource for future works in the laboratory: it presents the hardware used for experimental sessions, how to control animal behaviour during the experiments by means of C routines and a software, and how to present visual stimuli on a screen. The forth chapter is the main core of the research project and the thesis. In the methods, experimental paradigms, visual stimuli and data analysis are presented. In the results, cellular response of area PEc to visual stimuli in motion combined with different eye positions are shown. In brief, this study led to the identification of different cellular behaviour in relation to focus of expansion (the direction of motion given by the optic flow pattern) and eye position. The originality and importance of the results are pointed out in the conclusions: this is the first study aimed to investigate perception of motion in this particular cortical area. In the last paragraph, a neuronal network model is presented: the aim is simulating cellular pre-saccadic and post-saccadic response of neuron in area PEc, during eye movement tasks. The same data presented in chapter four, are further analysed in chapter fifth. The analysis started from the observation of the neuronal responses during 1s time period in which the visual stimulation was the same. It was clear that cells activities showed oscillations in time, that had been neglected by the previous analysis based on mean firing frequency. Results distinguished two cellular behaviour by their response characteristics: some neurons showed oscillations that changed depending on eye and optic flow position, while others kept the same oscillations characteristics independent of the stimulus. The last chapter discusses the results of the research project, comments the originality and interdisciplinary of the study and proposes some future developments.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Il progetto prevede l’applicazione dell’analisi del ciclo di vita al sistema integrato di raccolta, riciclaggio e smaltimento dei rifiuti urbani e assimilati. La struttura di una LCA (Life Cycle Assessment) è determinata dalla serie di norme UNI EN ISO 14040 e si può considerare come “un procedimento oggettivo di valutazione dei carichi energetici e ambientali relativi a un processo o un’attività, effettuato attraverso l’identificazione dell’energia e dei materiali usati e dei rifiuti rilasciati nell’ambiente. La valutazione include l’intero ciclo di vita del processo o attività, comprendendo l’estrazione e il trattamento delle materie prime, la fabbricazione, il trasporto, la distribuzione, l’uso, il riuso, il riciclo e lo smaltimento finale”. Questa definizione si riassume nella frase “ from cradle to grave” (dalla culla alla tomba). Lo scopo dello studio è l’applicazione di una LCA alla gestione complessiva dei rifiuti valutata in tre territori diversi individuati presso tre gestori italiani. Due di questi si contraddistinguono per modelli di raccolta con elevati livelli di raccolta differenziata e con preminenza del sistema di raccolta domiciliarizzato, mentre sul territorio del terzo gestore prevale il sistema di raccolta con contenitori stradali e con livelli di raccolta differenziata buoni, ma significativamente inferiori rispetto ai Gestori prima descritti. Nella fase iniziale sono stati individuati sul territorio dei tre Gestori uno o più Comuni con caratteristiche abbastanza simili come urbanizzazione, contesto sociale, numero di utenze domestiche e non domestiche. Nella scelta dei Comuni sono state privilegiate le realtà che hanno maturato il passaggio dal modello di raccolta a contenitori stradali a quello a raccolta porta a porta. Attuata l’identificazione delle aree da sottoporre a studio, è stato realizzato, per ognuna di queste aree, uno studio LCA dell’intero sistema di gestione dei rifiuti, dalla raccolta allo smaltimento e riciclaggio dei rifiuti urbani e assimilati. Lo studio ha posto anche minuziosa attenzione al passaggio dal sistema di raccolta a contenitori al sistema di raccolta porta a porta, evidenziando il confronto fra le due realtà, nelle fasi pre e post passaggio, in particolare sono stati realizzati tre LCA di confronto attraverso i quali è stato possibile individuare il sistema di gestione con minori impatti ambientali.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Punto di partenza per il lavoro presentato, sono le tematiche legate alle pratiche di consumo di cibo in un’ottica che superi una semplice visione utilitaristica delle stesse, mentre viene evidenziato invece il più profondo rapporto uomo-cibo e i fenomeni di socializzazione che ne scaturiscono. Si trovano pertanto a coniugarsi la sociologia dei consumi e la sociologia della cultura. La base per questa visione del cibo e delle pratiche di produzione e consumo ad esso collegate è l’ipotesi che nel rapporto uomo-cibo sia individuabile un livello di significato superiore al mero utilitarismo/nutrizionismo, che si compone di una dimensione strutturale, una dimensione simbolica ed una dimensione metaforica. Il cibo, e di conseguenza tutte le pratiche ad esso collegate (produzione, elaborazione, consumo), rientrano pertanto in maniera naturale nella categoria “cultura”, e quindi, accostandoci al paradigma del passaggio da natura a società, attraverso il cibo si crea e si alimenta la socialità del consorzio umano, e quindi l’umanità stessa. Accostando a queste concettualizzazioni l’idea che il consumo in generale possa diventare una prassi tramite cui esperire una più diffusa ricerca di sostenibilità nello sviluppo del territorio, (facendosi carico delle conseguenze socio-ambientali derivanti dalla fruizione di determinati oggetti piuttosto che altri), si è sviluppata l’ipotesi che al consumo alimentare possa competere un ruolo precipuamente attivo nella definizione di pratiche sociali orientate alla sostenibilità, capaci cioè di integrare attraverso il consumo – e in relazione all’indebolimento delle tradizionali agenzie di socializzazione – quella perdita di senso civico e solidarietà organizzata che sperimentiamo nelle prassi di vita quotidiana. Sul piano operativo, la tesi è articolata in sei capitoli: • Il percorso presentato prende le mosse dalla considerazione che il cibo, inteso in un’ottica sociologica, costituisce un fattore culturale non irrilevante, anzi fondamentale per il consorzio umano. Si fornisce quindi una breve descrizione del ruolo del cibo nei suoi accostamenti con la definizione di un territorio (e quindi con la sua storia, economia e società), con le arti visive, con il cinema, con la musica, ma anche con la sfera sensoriale (tatto, gusto, olfatto) ed emotivo-cognitiva (psiche) dell’uomo. • Successivamente, si analizza nello specifico la funzione socializzante delle pratiche alimentari, ripercorrendo le tappe principali degli studi classici di sociologia e antropologia dell’alimentazione e introducendo anche l’idea di cibo come simbolo e metafora, che si riflettono sul piano sociale e sulle relazioni tra gli individui. La constatazione che le pratiche legate al cibo sono le uniche attività umane da sempre e per sempre irrinunciabili è un chiaro indicatore di come esse giochino un ruolo fondamentale nella socializzazione umana. • Nel terzo capitolo, la prospettiva simbolico-metaforica è la base di un’analisi di tipo storico delle pratiche alimentari, nello specifico delle pratiche di consumo di cibo, dalle origini dell’umanità ai giorni nostri. Viene presentato un excursus essenziale in cui l’attenzione è focalizzata sulla tavola, sui cibi ivi serviti e sugli eventi di socializzazione che si sviluppano attorno ad essa, considerando situazioni storico-sociali oggettive di cui si è in grado, oggi, di ricostruire le dinamiche e le fasi più significative. • Il quarto capitolo costituisce un momento di riflessione teorica intorno al tema della globalizzazione nella contemporaneità. Sia per una logica progressione cronologica all’interno del lavoro presentato, sia per la rilevanza in quanto inerente alla società attuale in cui viviamo, non si è potuto infatti non soffermarsi un po’ più a fondo sull’analisi delle pratiche alimentari nella contemporaneità, e quindi nella società generalmente definita come “globalizzata” (o “mcdonaldizzata”, per dirla alla Ritzer) ma che in realtà è caratterizzata da un più sottile gioco di equilibri tra dimensione locale e dimensione globale, che si compenetrano come anche nel termine che indica tale equilibrio: il “glocale”. In questo capitolo vengono presentati i principali riferimenti teorici relativi a queste tematiche. • Nel quinto capitolo è stata analizzata, quindi, la declinazione in senso “alimentare” della relazione tra globale e locale, e quindi non solo i mutamenti intercorsi nella contemporaneità nelle pratiche di produzione, scambio e consumo di cibo con particolare riferimento ai sistemi culturali e al territorio, ma anche alcune proposte (sia teoriche che pratiche) a garanzia di uno sviluppo sostenibile del territorio, che trovi i suoi fondamenti sulla perpetuazione di modalità tradizionali di produzione, commercio e consumo di cibo. • Nel sesto capitolo viene analizzato un caso di studio significativo, (il movimento Slow Food, con il suo progetto Terra Madre) senza la pretesa di confermare o smentire né le ipotesi di partenza, né i concetti emersi in itinere, ma semplicemente con l’intenzione di approfondire il percorso svolto attraverso l’esemplificazione operativa e la ricerca entro un piccolo campione composto da testimoni significativi e intervistati, sottoposti a colloqui e interviste incentrate su item inerenti i temi generali di questo lavoro e sul caso di studio considerato. La scelta del caso è motivata dalla considerazione che, alla luce delle filosofia che lo anima e delle attività che svolge, il movimento Slow Food con il progetto Terra Madre costituisce una vera e propria eccellenza nella pianificazione di uno sviluppo sostenibile del territorio e delle sue risorse, tanto economiche quanto sociali e culturali. L’intera analisi è stata condotta tenendo presente l’importanza della comparazione e della collocazione del singolo caso non solo nel contesto sociale di riferimento, ma anche in sintonia con l’ipotesi della ricerca, e quindi con l’assunto che le pratiche alimentari possano guidare uno sviluppo sostenibile del territorio. Per analizzare la realtà individuata, si è in primo luogo proceduto alla raccolta e all’analisi di dati e informazioni volte alla ricostruzione della sua storia e del suo sviluppo attuale. Le informazioni sono state raccolte attraverso l’analisi di materiali, documenti cartacei e documenti multimediali. Si è poi proceduto con colloqui in profondità a testimoni significativi individuati nell’ambito delle attività promosse da Slow Food, con particolare riferimento alle attività di Terra Madre; le informazioni sono state elaborate con l’ausilio dell’analisi del contenuto. Alla luce di quanto analizzato, tanto a livello teorico quanto a livello empirico, la tesi si conclude con alcune considerazioni che, in linea con la finalità dichiarata di approfondire (più che di confermare o smentire) le ipotesi di partenza circa un ruolo fondamentale delle pratiche alimentari nello sviluppo sostenibile del territorio, non possono comunque non tendere ad una convalida dei concetti introduttivi. Si individuano pertanto spunti importanti per affermare che nelle pratiche alimentari, nei tre momenti in cui trovano specificazione (la produzione, lo scambio, il consumo), siano individuabili quei semi valoriali che possono dare solidità alle ipotesi di partenza, e che quindi - nell’intento di operare per uno sviluppo sostenibile del territorio - sia possibile farne un valido strumento al fine di costruire dei veri e propri percorsi di sostenibilità ancorati ai concetti di tutela della tradizione locale, recupero e salvaguardia dei metodi tradizionali di produzione e conservazione, certificazione di tipicità, controllo della distribuzione, riscatto e promozione delle modalità tradizionali di consumo con particolare riferimento alle culture locali.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La presente ricerca si inquadra nell’ambito della risoluzione dei problemi legati alla chirurgia ossea, per la cura e la sostituzione di parti di osso in seguito a fratture, lesioni gravi, malformazioni e patologie quali osteoporosi, tumori, etc… Attualmente la progettazione di impianti per le sostituzioni/rigenerazioni ossee richiede che i materiali sviluppati siano in grado di “mimare” la composizione e la morfologia dei tessuti naturali, in modo da generare le specifiche interazioni chimiche esistenti nei tessuti dell’organismo con cui vengono a contatto e quindi di biointegrarsi e/o rigenerare l’osso mancante nel miglior modo possibile, in termini qualitativi e quantitativi. Per lo sviluppo di sostituti ossei porosi sono state sperimentate 2 tecnologie innovative: il freeze-casting ed il foaming. Gli impianti ceramici realizzati hanno presentano una dimensione dei pori ed un’interconnessione adeguata sia per l’abitazione cellulare che per la penetrazione dei fluidi fisiologici e la vascolarizzazione. In particolare l’elevata unidirezionalità nei campioni ottenuti mediante freeze-casting si presenta molto promettente poiché fornisce cammini guida che migliorano la vascolarizzazione dell’impianto e l’abitazione cellulare in tempi rapidi e nella parte più interna dello scaffold. D’altra parte, la tecnologia del foaming ha permesso l’ottenimento di materiali apatitici ad alta porosità multidimensionale ed interconnessa con proprietà meccaniche implementate rispetto a tipologie precedenti e, lavorabili dopo sinterizzazione mediante prototipazione rapida. Per questo motivo, questi materiali sono attualmente in corso di sperimentazione, con risultati preliminari adeguati promettenti per un’applicazione clinica, come sostituti ossei di condilo mandibolare, sito estremamente critico per gli sforzi meccanici presenti. È stata dimostrata la possibilità di utilizzare lo scaffold ceramico biomimetico con la duplice funzione di sostituto osseo bioattivo e sistema di rilascio in situ di ioni specifici e di antibiotico, in cui la cinetica di rilascio risulta fortemente dipendente dalle caratteristiche chimico-fisico morfologiche del dispositivo (solubilità, area di superficie specifica,…). Per simulare sempre di più la composizione del tessuto osseo e per indurre specifiche proprietà funzionali, è stata utilizzata la gelatina come fase proteica con cui rivestire/impregnare dispositivi porosi 3D a base di apatite, con cui miscelare direttamente la fase inorganica calcio-fosfatica e quindi realizzare materiali bio-ibridi in cui le due fasi contenenti siano intimamente interagenti. Inoltre al fine di ridurre gli innumerevoli problemi legati alle infezioni ossee alcuni dei materiali sviluppati sono stati quindi caricati con antibiotico e sono state valutate le cinetiche di rilascio. In questa maniera, nel sito dell’impianto sono state associate le funzioni di trasporto e di rilascio di farmaco, alla funzione di sostituzione/rigenerazione ossee. La sperimentazione con la gelatina ha messo in luce proprietà posatamente sfruttabili della stessa. Oltre a conferire allo scaffold un implementata mimesi composizionale del tessuto osseo, ha infatti consentito di aumentare le proprietà meccaniche, sia come resistenza a compressione che deformazione. Unitamente a quanto sopra, la gelatina ha consentito di modulare la funzionalità di dispensatore di farmaco; mediante controllo della cinetica di rilascio, tramite processi di reticolazione più o meno spinti.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

I moderni sistemi embedded sono equipaggiati con risorse hardware che consentono l’esecuzione di applicazioni molto complesse come il decoding audio e video. La progettazione di simili sistemi deve soddisfare due esigenze opposte. Da un lato è necessario fornire un elevato potenziale computazionale, dall’altro bisogna rispettare dei vincoli stringenti riguardo il consumo di energia. Uno dei trend più diffusi per rispondere a queste esigenze opposte è quello di integrare su uno stesso chip un numero elevato di processori caratterizzati da un design semplificato e da bassi consumi. Tuttavia, per sfruttare effettivamente il potenziale computazionale offerto da una batteria di processoriè necessario rivisitare pesantemente le metodologie di sviluppo delle applicazioni. Con l’avvento dei sistemi multi-processore su singolo chip (MPSoC) il parallel programming si è diffuso largamente anche in ambito embedded. Tuttavia, i progressi nel campo della programmazione parallela non hanno mantenuto il passo con la capacità di integrare hardware parallelo su un singolo chip. Oltre all’introduzione di multipli processori, la necessità di ridurre i consumi degli MPSoC comporta altre soluzioni architetturali che hanno l’effetto diretto di complicare lo sviluppo delle applicazioni. Il design del sottosistema di memoria, in particolare, è un problema critico. Integrare sul chip dei banchi di memoria consente dei tempi d’accesso molto brevi e dei consumi molto contenuti. Sfortunatamente, la quantità di memoria on-chip che può essere integrata in un MPSoC è molto limitata. Per questo motivo è necessario aggiungere dei banchi di memoria off-chip, che hanno una capacità molto maggiore, come maggiori sono i consumi e i tempi d’accesso. La maggior parte degli MPSoC attualmente in commercio destina una parte del budget di area all’implementazione di memorie cache e/o scratchpad. Le scratchpad (SPM) sono spesso preferite alle cache nei sistemi MPSoC embedded, per motivi di maggiore predicibilità, minore occupazione d’area e – soprattutto – minori consumi. Per contro, mentre l’uso delle cache è completamente trasparente al programmatore, le SPM devono essere esplicitamente gestite dall’applicazione. Esporre l’organizzazione della gerarchia di memoria ll’applicazione consente di sfruttarne in maniera efficiente i vantaggi (ridotti tempi d’accesso e consumi). Per contro, per ottenere questi benefici è necessario scrivere le applicazioni in maniera tale che i dati vengano partizionati e allocati sulle varie memorie in maniera opportuna. L’onere di questo compito complesso ricade ovviamente sul programmatore. Questo scenario descrive bene l’esigenza di modelli di programmazione e strumenti di supporto che semplifichino lo sviluppo di applicazioni parallele. In questa tesi viene presentato un framework per lo sviluppo di software per MPSoC embedded basato su OpenMP. OpenMP è uno standard di fatto per la programmazione di multiprocessori con memoria shared, caratterizzato da un semplice approccio alla parallelizzazione tramite annotazioni (direttive per il compilatore). La sua interfaccia di programmazione consente di esprimere in maniera naturale e molto efficiente il parallelismo a livello di loop, molto diffuso tra le applicazioni embedded di tipo signal processing e multimedia. OpenMP costituisce un ottimo punto di partenza per la definizione di un modello di programmazione per MPSoC, soprattutto per la sua semplicità d’uso. D’altra parte, per sfruttare in maniera efficiente il potenziale computazionale di un MPSoC è necessario rivisitare profondamente l’implementazione del supporto OpenMP sia nel compilatore che nell’ambiente di supporto a runtime. Tutti i costrutti per gestire il parallelismo, la suddivisione del lavoro e la sincronizzazione inter-processore comportano un costo in termini di overhead che deve essere minimizzato per non comprometterre i vantaggi della parallelizzazione. Questo può essere ottenuto soltanto tramite una accurata analisi delle caratteristiche hardware e l’individuazione dei potenziali colli di bottiglia nell’architettura. Una implementazione del task management, della sincronizzazione a barriera e della condivisione dei dati che sfrutti efficientemente le risorse hardware consente di ottenere elevate performance e scalabilità. La condivisione dei dati, nel modello OpenMP, merita particolare attenzione. In un modello a memoria condivisa le strutture dati (array, matrici) accedute dal programma sono fisicamente allocate su una unica risorsa di memoria raggiungibile da tutti i processori. Al crescere del numero di processori in un sistema, l’accesso concorrente ad una singola risorsa di memoria costituisce un evidente collo di bottiglia. Per alleviare la pressione sulle memorie e sul sistema di connessione vengono da noi studiate e proposte delle tecniche di partizionamento delle strutture dati. Queste tecniche richiedono che una singola entità di tipo array venga trattata nel programma come l’insieme di tanti sotto-array, ciascuno dei quali può essere fisicamente allocato su una risorsa di memoria differente. Dal punto di vista del programma, indirizzare un array partizionato richiede che ad ogni accesso vengano eseguite delle istruzioni per ri-calcolare l’indirizzo fisico di destinazione. Questo è chiaramente un compito lungo, complesso e soggetto ad errori. Per questo motivo, le nostre tecniche di partizionamento sono state integrate nella l’interfaccia di programmazione di OpenMP, che è stata significativamente estesa. Specificamente, delle nuove direttive e clausole consentono al programmatore di annotare i dati di tipo array che si vuole partizionare e allocare in maniera distribuita sulla gerarchia di memoria. Sono stati inoltre sviluppati degli strumenti di supporto che consentono di raccogliere informazioni di profiling sul pattern di accesso agli array. Queste informazioni vengono sfruttate dal nostro compilatore per allocare le partizioni sulle varie risorse di memoria rispettando una relazione di affinità tra il task e i dati. Più precisamente, i passi di allocazione nel nostro compilatore assegnano una determinata partizione alla memoria scratchpad locale al processore che ospita il task che effettua il numero maggiore di accessi alla stessa.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

The vertical profile of aerosol in the planetary boundary layer of the Milan urban area is studied in terms of its development and chemical composition in a high-resolution modelling framework. The period of study spans a week in summer of 2007 (12-18 July), when continuous LIDAR measurements and a limited set of balloon profiles were collected in the frame of the ASI/QUITSAT project. LIDAR observations show a diurnal development of an aerosol plume that lifts early morning surface emissions to the top of the boundary layer, reaching maximum concentration around midday. Mountain breeze from Alps clean the bottom of the aerosol layer, typically leaving a residual layer at around 1500-2000 m which may survive for several days. During the last two days under analysis, a dust layer transported from Sahara reaches the upper layers of Milan area and affects the aerosol vertical distribution in the boundary layer. Simulation from the MM5/CHIMERE modelling system, carried out at 1 km horizontal resolution, qualitatively reproduced the general features of the Milan aerosol layer observed with LIDAR, including the rise and fall of the aersol plume, the residual layer in altitude and the Saharan dust event. The simulation highlighted the importance of nitrates and secondary organics in its composition. Several sensitivity tests showed that main driving factors leading to the dominance of nitrates in the plume are temperature and gas absorption process. A modelling study turn to the analysis of the vertical aerosol profiles distribution and knowledge of the characterization of the PM at a site near the city of Milan is performed using a model system composed by a meteorological model MM5 (V3-6), the mesoscale model from PSU/NCAR and a Chemical Transport Model (CTM) CHIMERE to simulate the vertical aerosol profile. LiDAR continuous observations and balloon profiles collected during two intensive campaigns in summer 2007 and in winter 2008 in the frame of the ASI/QUITSAT project have been used to perform comparisons in order to evaluate the ability of the aerosol chemistry transport model CHIMERE to simulate the aerosols dynamics and compositions in this area. The comparisons of model aerosols with measurements are carried out over a full time period between 12 July 2007 and 18 July 2007. The comparisons demonstrate the ability of the model to reproduce correctly the aerosol vertical distributions and their temporal variability. As detected by the LiDAR, the model during the period considered, predicts a diurnal development of a plume during the morning and a clearing during the afternoon, typically the plume reaches the top of the boundary layer around mid day, in this time CHIMERE produces highest concentrations in the upper levels as detected by LiDAR. The model, moreover can reproduce LiDAR observes enhancement aerosols concentrations above the boundary layer, attributing the phenomena to dust out intrusion. Another important information from the model analysis regard the composition , it predicts that a large part of the plume is composed by nitrate, in particular during 13 and 16 July 2007 , pointing to the model tendency to overestimates the nitrous component in the particular matter vertical structure . Sensitivity study carried out in this work show that there are a combination of different factor which determine the major nitrous composition of the “plume” observed and in particular humidity temperature and the absorption phenomena are the mainly candidate to explain the principal difference in composition simulated in the period object of this study , in particular , the CHIMERE model seems to be mostly sensitive to the absorption process.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Satellite SAR (Synthetic Aperture Radar) interferometry represents a valid technique for digital elevation models (DEM) generation, providing metric accuracy even without ancillary data of good quality. Depending on the situations the interferometric phase could be interpreted both as topography and as a displacement eventually occurred between the two acquisitions. Once that these two components have been separated it is possible to produce a DEM from the first one or a displacement map from the second one. InSAR DEM (Digital Elevation Model) generation in the cryosphere is not a straightforward operation because almost every interferometric pair contains also a displacement component, which, even if small, when interpreted as topography during the phase to height conversion step could introduce huge errors in the final product. Considering a glacier, assuming the linearity of its velocity flux, it is therefore necessary to differentiate at least two pairs in order to isolate the topographic residue only. In case of an ice shelf the displacement component in the interferometric phase is determined not only by the flux of the glacier but also by the different heights of the two tides. As a matter of fact even if the two scenes of the interferometric pair are acquired at the same time of the day only the main terms of the tide disappear in the interferogram, while the other ones, smaller, do not elide themselves completely and so correspond to displacement fringes. Allowing for the availability of tidal gauges (or as an alternative of an accurate tidal model) it is possible to calculate a tidal correction to be applied to the differential interferogram. It is important to be aware that the tidal correction is applicable only knowing the position of the grounding line, which is often a controversial matter. In this thesis it is described the methodology applied for the generation of the DEM of the Drygalski ice tongue in Northern Victoria Land, Antarctica. The displacement has been determined both in an interferometric way and considering the coregistration offsets of the two scenes. A particular attention has been devoted to investigate the importance of the role of some parameters, such as timing annotations and orbits reliability. Results have been validated in a GIS environment by comparison with GPS displacement vectors (displacement map and InSAR DEM) and ICEsat GLAS points (InSAR DEM).

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Negli ultimi decenni la Politica Agricola Comune (PAC) è stata sottoposta a diverse revisioni, più o meno programmate, che ne hanno modificato gli obiettivi operativi e gli strumenti per perseguirli. In letteratura economica agraria sono state eseguite diverse ricerche che affrontano analisi ex-ante sui possibili impatti delle riforme politiche, in particolare al disaccoppiamento, riguardo all’allocazione dei terreni alle diverse colture e all’adozione di tecniche di coltivazione più efficienti. Ma tale argomento, nonostante sia di grande importanza, non è stato finora affrontato come altri temi del mondo agricolo. Le principali lacune si riscontrano infatti nella carenza di analisi ex-ante, di modelli che includano le preferenze e le aspettative degli agricoltori. Questo studio valuta le scelte di investimento in terreno di un’azienda agricola di fronte a possibili scenari PAC post-2013, in condizioni di incertezza circa le specifiche condizioni in cui ciascuno scenario verrebbe a verificarsi. L’obiettivo è di ottenere indicazioni utili in termini di comprensione delle scelte di investimento dell’agricoltore in presenza di incertezza sul futuro. L’elemento maggiormente innovativo della ricerca consiste nell’applicazione di un approccio real options e nell’interazione tra la presenza di diversi scenari sul futuro del settore agricolo post-2013, e la componente di incertezza che incide e gravita su di essi. La metodologia adottata nel seguente lavoro si basa sulla modellizzazione di un’azienda agricola, in cui viene simulato il comportamento dell’azienda agricola in reazione alle riforme della PAC e alla variazione dei prezzi dei prodotti in presenza di incertezza. Mediante un modello di Real Option viene valutata la scelta della tempistica ottimale per investire nell’acquisto di terreno (caratterizzato da incertezza e irreversibilità). Dai risultati emerge come in presenza di incertezza all’agricoltore convenga rimandare la decisione a dopo il 2013 e in base alle maggiori informazioni disponibili eseguire l’investimento solo in presenza di condizioni favorevoli. La variazione dei prezzi dei prodotti influenza le scelte più dell’incertezza dei contributi PAC. Il Real Option sembra interpretare meglio il comportamento dell’agricoltore rispetto all’approccio classico del Net Present Value.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Il fenomeno del collegamento contrattuale prevede la presenza di due o più contratti, diversi e distinti, che, pur caratterizzati dagli elementi e dalla disciplina propri di ognuno, risultano coordinati teleologicamente da un nesso di reciproca dipendenza, in modo che le vicende dell’uno si trasmettono all’altro, influenzandone la validità e l’efficacia. Tale nozione è il frutto dell’elaborazione della dottrina e della giurisprudenza, poiché la disciplina positiva difetta di previsioni recanti la definizione di operazioni in cui si ricorra all’impiego di più contratti in vista di uno scopo economico unitario. Fra le molteplici classificazioni realizzate in relazione a tale strumento, la tipologia che è oggetto di analisi nel presente lavoro è espressione dell’autonomia contrattuale dei contraenti che istituiscono fra i negozi un nesso bilaterale, funzionale e volontario. I presupposti del fenomeno de quo sono, allora, rappresentati dalla necessaria intenzione delle parti di attuare il collegamento, del vincolo che viene creato in concreto e, soprattutto, dal fine pratico unitario ed ulteriore, che esse intendono perseguire coordinando i vari atti. Da qui, l’inquadramento di siffatta figura di collegamento nel fenomeno dell’atipicità contrattuale, frutto dell’attività creativa dei privati di autoregolamentazione dei propri interessi. Dottrina e giurisprudenza, in particolare, reputano il collegamento un meccanismo che agisce sul piano degli effetti dei contratti. Infatti, ogni negozio coinvolto, pur conservando una causa autonoma, è finalizzato ad un unico regolamento di interessi, di talché le vicende che investono uno dei negozi possono ripercuotersi sull’altro (che in sé considerato è immune da vizi) e, pertanto, tutti i contratti simul stabunt simul cadent. In definitiva, così opinando, le patologie che riguardano un atto finiscono per condizionare non solo l’esecuzione, ma anche la validità dell’altro. Successivamente, l’indagine si incentra sull’esegesi dei rari interventi normativi, quasi esclusivamente ascrivibili alla legislazione speciale, che trattano del meccanismo de quo e che si pongono nel solco di quanto affermato dagli interpreti. Muovendo, poi, dal presupposto che l’ordinamento riconosce ai contraenti il potere di dar vita ad autodeterminazioni strutturalmente semplici ovvero come in tal caso più articolate, si cerca di dimostrare che in tali fattispecie l’apprezzamento non va condotto sul singolo contratto, bensì sull’operazione economica unitariamente considerata, come risultante dal collegamento fra più contratti. Infatti, una volta accertata l’interdipendenza funzionale delle diverse prestazioni, l’analisi su di esse assume un rilievo diverso se è compiuta per valutare l’assetto complessivo dell’intera operazione giuridico-economica posta in essere dalle parti: solo a fronte di una valutazione globale dei diritti e degli obblighi, anche in termini economici, si può appurare la reale portata giuridico-economica dell’affare. In forza di tali premesse può, quindi, procedersi ad un compiuto approfondimento del possibile ruolo svolto dalle clausole generali di buona fede ed equilibrio, quali strumenti di garanzia della giustizia negli scambi. Ne consegue l’abbandono di una prospettiva atomistica e, tenendo conto dell’unicità degli interessi perseguiti che vanno oltre le cause proprie dei singoli contratti collegati, si tenta di superare l’assunto per il quale il difetto che inficia uno dei contratti comporti l’automatica caducazione dell’altro. In una visione complessiva dell’operazione, la verifica attinente all’equilibrio tra i singoli atti nei quali essa si svolge ed alla sua possibile alterazione a causa di circostanze sopravvenute o originarie potrebbe sovvertire le certezze interpretative sotto il profilo della disciplina del collegamento, degli effetti dello stesso e delle patologie.