1000 resultados para Realtà aumentata metodologie di progetto settore aerospaziale


Relevância:

100.00% 100.00%

Publicador:

Resumo:

I moderni sistemi embedded sono equipaggiati con risorse hardware che consentono l’esecuzione di applicazioni molto complesse come il decoding audio e video. La progettazione di simili sistemi deve soddisfare due esigenze opposte. Da un lato è necessario fornire un elevato potenziale computazionale, dall’altro bisogna rispettare dei vincoli stringenti riguardo il consumo di energia. Uno dei trend più diffusi per rispondere a queste esigenze opposte è quello di integrare su uno stesso chip un numero elevato di processori caratterizzati da un design semplificato e da bassi consumi. Tuttavia, per sfruttare effettivamente il potenziale computazionale offerto da una batteria di processoriè necessario rivisitare pesantemente le metodologie di sviluppo delle applicazioni. Con l’avvento dei sistemi multi-processore su singolo chip (MPSoC) il parallel programming si è diffuso largamente anche in ambito embedded. Tuttavia, i progressi nel campo della programmazione parallela non hanno mantenuto il passo con la capacità di integrare hardware parallelo su un singolo chip. Oltre all’introduzione di multipli processori, la necessità di ridurre i consumi degli MPSoC comporta altre soluzioni architetturali che hanno l’effetto diretto di complicare lo sviluppo delle applicazioni. Il design del sottosistema di memoria, in particolare, è un problema critico. Integrare sul chip dei banchi di memoria consente dei tempi d’accesso molto brevi e dei consumi molto contenuti. Sfortunatamente, la quantità di memoria on-chip che può essere integrata in un MPSoC è molto limitata. Per questo motivo è necessario aggiungere dei banchi di memoria off-chip, che hanno una capacità molto maggiore, come maggiori sono i consumi e i tempi d’accesso. La maggior parte degli MPSoC attualmente in commercio destina una parte del budget di area all’implementazione di memorie cache e/o scratchpad. Le scratchpad (SPM) sono spesso preferite alle cache nei sistemi MPSoC embedded, per motivi di maggiore predicibilità, minore occupazione d’area e – soprattutto – minori consumi. Per contro, mentre l’uso delle cache è completamente trasparente al programmatore, le SPM devono essere esplicitamente gestite dall’applicazione. Esporre l’organizzazione della gerarchia di memoria ll’applicazione consente di sfruttarne in maniera efficiente i vantaggi (ridotti tempi d’accesso e consumi). Per contro, per ottenere questi benefici è necessario scrivere le applicazioni in maniera tale che i dati vengano partizionati e allocati sulle varie memorie in maniera opportuna. L’onere di questo compito complesso ricade ovviamente sul programmatore. Questo scenario descrive bene l’esigenza di modelli di programmazione e strumenti di supporto che semplifichino lo sviluppo di applicazioni parallele. In questa tesi viene presentato un framework per lo sviluppo di software per MPSoC embedded basato su OpenMP. OpenMP è uno standard di fatto per la programmazione di multiprocessori con memoria shared, caratterizzato da un semplice approccio alla parallelizzazione tramite annotazioni (direttive per il compilatore). La sua interfaccia di programmazione consente di esprimere in maniera naturale e molto efficiente il parallelismo a livello di loop, molto diffuso tra le applicazioni embedded di tipo signal processing e multimedia. OpenMP costituisce un ottimo punto di partenza per la definizione di un modello di programmazione per MPSoC, soprattutto per la sua semplicità d’uso. D’altra parte, per sfruttare in maniera efficiente il potenziale computazionale di un MPSoC è necessario rivisitare profondamente l’implementazione del supporto OpenMP sia nel compilatore che nell’ambiente di supporto a runtime. Tutti i costrutti per gestire il parallelismo, la suddivisione del lavoro e la sincronizzazione inter-processore comportano un costo in termini di overhead che deve essere minimizzato per non comprometterre i vantaggi della parallelizzazione. Questo può essere ottenuto soltanto tramite una accurata analisi delle caratteristiche hardware e l’individuazione dei potenziali colli di bottiglia nell’architettura. Una implementazione del task management, della sincronizzazione a barriera e della condivisione dei dati che sfrutti efficientemente le risorse hardware consente di ottenere elevate performance e scalabilità. La condivisione dei dati, nel modello OpenMP, merita particolare attenzione. In un modello a memoria condivisa le strutture dati (array, matrici) accedute dal programma sono fisicamente allocate su una unica risorsa di memoria raggiungibile da tutti i processori. Al crescere del numero di processori in un sistema, l’accesso concorrente ad una singola risorsa di memoria costituisce un evidente collo di bottiglia. Per alleviare la pressione sulle memorie e sul sistema di connessione vengono da noi studiate e proposte delle tecniche di partizionamento delle strutture dati. Queste tecniche richiedono che una singola entità di tipo array venga trattata nel programma come l’insieme di tanti sotto-array, ciascuno dei quali può essere fisicamente allocato su una risorsa di memoria differente. Dal punto di vista del programma, indirizzare un array partizionato richiede che ad ogni accesso vengano eseguite delle istruzioni per ri-calcolare l’indirizzo fisico di destinazione. Questo è chiaramente un compito lungo, complesso e soggetto ad errori. Per questo motivo, le nostre tecniche di partizionamento sono state integrate nella l’interfaccia di programmazione di OpenMP, che è stata significativamente estesa. Specificamente, delle nuove direttive e clausole consentono al programmatore di annotare i dati di tipo array che si vuole partizionare e allocare in maniera distribuita sulla gerarchia di memoria. Sono stati inoltre sviluppati degli strumenti di supporto che consentono di raccogliere informazioni di profiling sul pattern di accesso agli array. Queste informazioni vengono sfruttate dal nostro compilatore per allocare le partizioni sulle varie risorse di memoria rispettando una relazione di affinità tra il task e i dati. Più precisamente, i passi di allocazione nel nostro compilatore assegnano una determinata partizione alla memoria scratchpad locale al processore che ospita il task che effettua il numero maggiore di accessi alla stessa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Piccola e Media Impresa (PMI) ha costituito in Italia e all’estero un fenomeno che ha permesso un’importante crescita economica dal secondo dopoguerra in poi e tutt’oggi rappresenta quasi il 95% delle imprese italiane. L’ambiente di riferimento odierno è molto dinamico ed incerto e la competitività è più difficile da raggiungere a causa delle nuove e crescenti economie emergenti. A rendere l’ambiente competitivo più complesso si è aggiunta la crisi internazionale nata intorno al 2006 negli Stati Uniti e arrivata in Europa un paio di anni dopo, portando l’economia globale in un periodo di recessione. Tutto ciò ha reso necessario ripensare all’approccio delle imprese verso i mercati, soprattutto le PMI, applicando nuovi processi d’innovazione. Questi non dovranno limitarsi alla sola ricerca di nuovi prodotti ma cambiare anche l’impostazione manageriale in modo da avviare innovazioni di mercato. E qui che il tema dell’internazionalizzazione assume ancor più rilevanza diventando, in un periodo di crisi economica, un’importante opportunità di crescita per le PMI. Dagli anni ’70 in poi le imprese multinazionali (MNCs) erano quelle che operavano in più Paesi e Continenti estendendo il proprio business in tutto il mondo. Per le piccole e medie imprese era difficile immaginare nuovi business al di fuori dei confini territoriali per le difficoltà che un processo di internazionalizzazione richiedeva. Oggi, l’internazionalizzazione, è vista come una chance di sopravvivenza ed è spinta da diversi fattori. Questi non si limitano più alla sola ricerca di maggiori ricavi ed abbattimento dei costi ma anche “sourcing” di Know-how e tecnologie, diversificazione del rischio, partecipazione a segmenti di mercato diventati globali e sfruttamento delle opportunità offerte dai governi esteri. Con il seguente lavoro di tesi si vogliono studiare le modalità in cui si svolgono processi di internazionalizzazione e l’origine dell’impulso che induce le piccole e medie imprese ad intraprenderli. A questo proposito si sono fatte ricerche su database e riviste scientifiche volte alla raccolta e analisi dei principali articoli che la letteratura offre su i temi appena citati. Individuate le principali teorie e modelli queste sono confrontate con un caso empirico cercando i punti di contatto tra ciò che è emerso dall’analisi teorica e quella empirica. A tal proposito viene mostrato il caso dell’azienda Sinergia Sistemi S.p.A. in cui ho collaborato e avuto modo di compiere ricerche per un periodo di sei mesi. Il lavoro di tesi è pertanto strutturato in quattro capitoli. Nel primo capitolo è esposta l’analisi della letteratura scientifica andando ad individuare le principali teorie sui processi di internazionalizzazione. Attraverso quest’analisi sarà possibile avere un quadro di riferimento sui possibili processi di internazionalizzazione che le imprese possono intraprendere. Nel secondo capitolo si vuole comprendere come le imprese arrivino alla decisione di internazionalizzarsi e quali fattori, interni ed esterni all’impresa, influenzino tale scelta. Nel terzo capitolo viene esaminato il caso di Sinergia Sistemi S.p.A., società operante nel campo delle energie rinnovabili ed efficienza energetica. Dopo una prima parte che introduce l’azienda ed il mercato delle rinnovabili, sarà analizzata la situazione attuale dell’azienda nel suo processo di internazionalizzazione e la strategia delineata. Nell’ultimo capitolo si effettuerà un confronto tra ciò che la letteratura scientifica propone sui processi di internazionalizzazione ed il caso specifico esaminato. Si cercherà di trovare dei riscontri tra le varie teorie offerte dalla letteratura con la strategia seguita da Sinergia Sistemi. L’obiettivo generale di questo lavoro di tesi è confrontare teorie e modelli di internazionalizzazione con un caso empirico per comprendere l’esistenza di un riscontro con le aziende appartenenti ad un particolare settore, quello delle energie rinnovabili. Vedremo come le peculiarità di questo settore portino le imprese a dare molta rilevanza ai network che si vengono a formare nei vari Paesi più che alla ricerca di innovazioni di prodotto, che resta sempre fondamentale per la crescita. L’appartenenza ai giusti network può semplificare notevolmente il processo di internazionalizzazione, se non diventare perfino indispensabile.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La ricerca impostata considera campi disciplinari specifici e distinti, verso la loro integrazione, mirando a produrre un avanzamento relativo alla scienza della voce attraverso la pratica e lo studio della sua applicazione in campo artistico. A partire dall’analisi delle teorie novecentesche relative alla fonazione nel mondo della scena (Antonin Artaud, Stanislavskij e altri) per giungere alle acquisizioni prodotte dalle terapie corporee e vocali (Tomatis, Lowen, Wilfart in particolare), Marco Galignano ha sviluppato un percorso originale che è passato inoltre attraverso lo studio della pratica di una serie di artisti contemporanei (tra cui Baliani, Belli, Bergonzoni, Jodorowski, Hera, Lucenti e Manfredini) e di pedagoghi e terapeuti (da Serge Wilfart al maestro Paolo Zedda). Galignano ha inoltre riferito, nel suo lavoro, gli esiti della sua personale esperienza di formatore, sviluppata a Bologna all’interno di diversi Dipartimenti dell’Università Alma Mater, del Conservatorio di Musica G.B. Martini, dell’Accademia di Belle Arti e del Teatro Duse in particolare. L’obiettivo della tesi è dunque quello di fondare le basi teoriche per una rinnovata pedagogia vocale, a partire dalla possibile riscoperta del suono naturale fino a giungere alle potenzialità terapeutiche ed artistiche del linguaggio. Gli obiettivi di questo lavoro contemplano l’istituzione di una nuova modalità pedagogica, la sua diffusione attraverso una presentazione opportunamente composta e la sua inscrizione in diverse occorrenze artistiche e professionali. Molte le personalità di spicco del panorama internazionale della scienza e dell’arte della voce che hanno contribuito, negli anni, alla presente ricerca: Francesca Della Monica, insegnante di canto e performer, Tiziana Fuschini, logopedista, Franco Fussi, foniatra, Silvia Magnani, foniatra ed esperta di teatro, Gianpaolo Mignardi, logopedista, Dimitri Pasquali, pedagogo, Livio Presutti, medico chirurgo otorinolaringoiatra, Simonetta Selva, medico dello sport, Serge Wilfart, terapeuta della voce, Paolo Zedda, professore di canto in diverse realtà e Maestro di dizione al Conservatorio Nazionale di Parigi, e molti altri, oltre agli artisti citati in fondo, con le loro ricerche hanno contribuito direttamente alla redazione dell’elaborato finale, che mira a fondare le basi di una rinnovata pedagogia vocale per il teatro in Italia. La ricerca vuole infatti colmare in parte la penuria di apporti scientifici specificamente rivolti alla formazione vocale dell’attore teatrale. II lavoro vorrebbe inoltre raccogliere l’eredita di quei teorici, maestri e registi-pedagoghi che nel Novecento hanno posto le basi per la formazione dell’attore, e al tempo stesso prolungare la linea genealogica che da Stanislavskji trascorre in Grotowski, senza escludere esperienze fondate su presupposti alternativi alla formazione del repertorio vocale del performer: psicofisicità, terapie olistiche, fisica quantistica. Come accennato, una parte della ricerca è stata condotta in collaborazione col Prof. Franco Fussi, correlatore, e grazie al lavoro di redazione nel gruppo della rivista Culture Teatrali, diretto da Marco De Marinis, relatore. II percorso ha inteso infatti sviluppare alcune delle linee di ricerca aperte da Fussi virandole verso lo specifico dell’attività e del training vocale dell’attore, e ha avuto una tappa di verifica rilevante nel Convegno Internazionale di Foniatria e Logopedia “La Voce Artistica” di cui Fussi è direttore, a cui Galignano ha partecipato in veste di relatore. 1. II concetto guida del lavoro di Galignano risiede nell’idea di vibrazione e nel rapporto che questa intrattiene col suono. Il suono, per l’essere umano, costituisce la base materiale della fonazione, del linguaggio codificato comunitariamente così come dei particolari idioletti in continua evoluzione, basi della comunicazione verbale e paraverbale. Il linguaggio umano è costituito principalmente da sonorità vocale e da articolazione consonantica (rumori), e cioè composto di suoni armonici e di rumori prodotti da apparati articolari del corpo che risultano efficaci solo se integrati nel corpo da cui originano. A partire da un tentativo di definizione di salute corporea e di equilibrio psicofisico, attraverso l’analisi della rigenerazione cellulare e delle dinamiche comportamentali, Galignano definisce scientificamente la lingua parlata come emersione di codici comunicativi che originano da una schematizzazione del mondo intimo-personale del soggetto e si fondano su memorie molecolari, sull’attitudine comportamentale abituale, tra spontaneità, automatismi e capacità episodica di attenzione psicofisica. Ciò costituisce, per Galignano, la “risonanza olistica” alla base dell’efficacia comunicativa in sede pedagogica. L’argomento, che verrà sviluppato per la presentazione editoriale dell’elaborato e di cui la tesi di dottorato è solo una prima tappa in fieri, è stato sviscerato anche sulla base di nozioni di fisica classica e di fisica quantistica. Ciò senza dimenticare gli studi approfonditi sulla vocalità in ambito filosofico, da Bologna a Cavarero, da Napolitano a Zumthor. La tesi è composta attraverso una progressione che, a partire da una dichiarazione di poetica, trascorre poi verso l’analisi della fisiologia e della psicologia della voce, per approdare a una zona di approfondimento scientifico, teorico ed empirico, di una serie di metodi d’avanguardia di abilitazione e riabilitazione. In ultimo, come appendice, vengono riferiti i risultati del percorso laboratoriale condotto nel corso degli anni del dottorato di ricerca. Le esperienze sul campo maturate nell’ambito dell’attività pedagogica e laboratoriale si sono inoltre sviluppate a partire da un Progetto Strategico d’Ateneo dell’Università di Bologna intitolato “La Voce nel Corpo. La Recitazione e il Movimento Coreografico”, di cui Marco Galignano è responsabile scientifico. Un tempo specifico della tesi di dottorato è dunque composto a partire dai risultati maturati attraverso le varie azioni, laboratoriali e artistiche, che fin qui il progetto “La Voce nel Corpo” ha prodotto. In definitiva, attraverso il tessuto composto da esperienze pedagogiche, pratica artistica e ricerca scientifica, la tesi di dottorato di Galignano, work in progress, mira a comporre un sistema integrato, teorico-pratico, per l’insegnamento e la trasmissione di una specifica tecnica vocale calata nella pratica attoriale, ma utile a fini ulteriori, da quello riabilitativo fino alle tecniche di cura del sé su cui s’e appuntata la riflessione filosofica erede della teoresi artaudiana. La parte conclusiva della ricerca riguarda i suoi possibili futuri sviluppi, specifici, impostati attraverso la collaborazione, attuale, passata o in divenire, con artisti quali Marco Baliani, Matteo Belli, Alessandro Bergonzoni, Albert Hera, Michela Lucenti, Danio Manfredini e altri a cui Marco Galignano è particolarmente riconoscente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il mio elaborato, si propone di dimostrare come l'ambiente sia divenuto protagonista non solo per i governi di tutto il mondo, ma altresì per le aziende. Dopo un breve accenno alle conferenze mondiali sull'ambiente trattato nel primo capitolo, verrà approfondito il concetto di “Corporate Social Responsability”. Sempre più aziende infatti, decidono di integrare nelle proprie attività commerciali, l'attenzione per l'ambiente e per le tematiche sociali. Inoltre tale visione aziendale, comporta numerosi vantaggi in termini di ritorni economici e d'immagine. Il capitolo 3 si pone l'obiettivo di spiegare nel dettaglio le caratteristiche di un Sistema di Gestione Ambientale (SGA), e quali attività specifiche debbano essere intraprese al fine di implementarlo all'interno della gestione delle attività convenzionali di un'azienda. In particolare verrà fatto riferimento alla normativa europea e internazionale per comprendere quali attività debbano essere poste in essere al fine di ottenere la certificazione del proprio SGA. Risulta comprensibile come non solo le attività aziendali debbano rispettare l'ambiente, ma anche l'organizzazione di un evento, sia esso una conferenza, una Festa aziendale, un concerto o un evento sportivo. Nel capitolo 4 vengono esposte alcune metodologie di supporto per l'implementazione di un evento sostenibile, che hanno l'obiettivo di ridurre gli impatti ambientali dell'evento stesso. Visto il crescente interesse dell'opinione pubblica su questo tema, proprio di recente è stata emanata la norma BS 8901 a supporto dell'organizzazione di eventi sostenibili ed è in procinto di uscire in concomitanza delle Olimpiadi di Londra 2012, l'analoga norma ISO 20121 che ha valenza internazionale. L'obiettivo del mio elaborato è stato quello di creare un SGA a supporto dell'organizzazione della “Festa di villa Terracini” che si svolge a Sala Bolognese (BO) ed ha una durata di 18 giorni. In particolare, verranno prima evidenziati gli impatti ambientali che la Festa ha prodotto durante la scorsa edizione, tramite la conduzione della così detta Analisi Ambientale Iniziale, e successivamente verranno esplicitate le azioni che dovranno essere messe in atto al fine di ridurre gli impatti ambientali. Questo caso studio evidenzierà da un lato, gli ingenti impatti ambientali prodotti dalla realizzazione della Festa, ma dall'altro permetterà di comprendere come l'implementazione di un SGA porti a notevoli miglioramenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Protocolli e metodologie di caratterizzazione di un sistema di misura di segnali fluorescenti in microscopia ottica

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel percorso di tesi si è affrontato il tema del museo e dell'auditorium in architettura. Pesaro è la città oggetto della progettazione. Il centro storico di questa era difeso da mura medioevali di forma pentagonale. A seguito di sventramenti ne sopravvivono due soli. Uno di questi, il bastione Miralfiore, si configura come area di progetto per un museo rossiniano e città della musica a Pesaro. Le preesistenze principali da considerarsi nella progettazione di questi, sono: le mura difensive del bastione che perimetrano buona parte dell'area, il Teatro Rossini oggetto di ampliamento e di integrazione tramite lo sviluppo di due nuove sale per lo spettacolo e Piazza Lazzarini da un secolo inconclusa e ora governata dal traffico cittadino. Si affronta anche il tema della residenza che si interpone tra città storica e parco urbano ricavato dal bastione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The dramatic impact that vascular diseases have on human life quality and expectancy nowadays is the reason why both medical and scientific communities put great effort in discovering new and effective ways to fight vascular pathologies. Among the many different treatments, endovascular surgery is a minimally-invasive technique that makes use of X-ray fluoroscopy to obtain real-time images of the patient during interventions. In this context radiopaque biomaterials, i.e. materials able to absorb X-ray radiation, play a fundamental role as they are employed both to enhance visibility of devices during interventions and to protect medical staff and patients from X-ray radiations. Organic-inorganic hybrids are materials that combine characteristics of organic polymers with those of inorganic metal oxides. These materials can be synthesized via the sol-gel process and can be easily applied as thin coatings on different kinds of substrates. Good radiopacity of organic-inorganic hybrids has been recently reported suggesting that these materials might find applications in medical fields where X-ray absorption and visibility is required. The present PhD thesis aimed at developing and characterizing new radiopaque organic-inorganic hybrid materials that can find application in the vascular surgery field as coatings for the improvement of medical devices traceability as well as for the production of X-ray shielding objects and garments. Novel organic-inorganic hybrids based on different polyesters (poly-lactic acid and poly-ε-caprolactone) and polycarbonate (poly-trimethylene carbonate) as the polymeric phase and on titanium oxide as the inorganic phase were synthesized. Study of the phase interactions in these materials allowed to demonstrate that Class II hybrids (where covalent bonds exists between the two phases) can be obtained starting from any kind of polyester or polycarbonate, without the need of polymer pre-functionalization, thanks to the occurrence of transesterification reactions operated by inorganic molecules on ester and carbonate moieties. Polyester based hybrids were successfully coated via dip coating on different kinds of textiles. Coated textiles showed improved radiopacity with respect to the plain fabric while remaining soft to the touch. The hybrid was able to coat single fibers of the yarn rather than coating the yarn as a whole. Openings between yarns were maintained and therefore fabric breathability was preserved. Such coatings are promising for the production of light-weight garments for X-ray protection of medical staff during interventional fluoroscopy, which will help preventing pathologies that stem from chronic X-ray exposure. A means to increase the protection capacity of hybrid-coated fabrics was also investigated and implemented in this thesis. By synthesizing the hybrid in the presence of a suspension of radiopaque tantalum nanoparticles, PDMS-titania hybrid materials with tunable radiopacity were developed and were successfully applied as coatings. A solution for enhancing medical device radiopacity was also successfully investigated. High metal radiopacity was associated with good mechanical and protective properties of organic-inorganic hybrids in the form of a double-layer coating. Tantalum was employed as the constituent of the first layer deposited on sample substrates by means of a sputtering technique. The second layer was composed of a hybrid whose constituents are well-known biocompatible organic and inorganic components, such as the two polymers PCL and PDMS, and titanium oxide, respectively. The metallic layer conferred to the substrate good X-ray visibility. A correlation between radiopacity and coating thickness derived during this study allows to tailor radiopacity simply by controlling the metal layer sputtering deposition time. The applied metal deposition technique also permits easy shaping of the radiopaque layer, allowing production of radiopaque markers for medical devices that can be unambiguously identified by surgeons during implantation and in subsequent radiological investigations. Synthesized PCL-titania and PDMS-titania hybrids strongly adhered to substrates and show good biocompatibility as highlighted by cytotoxicity tests. The PDMS-titania hybrid coating was also characterized by high flexibility that allows it to stand large substrate deformations without detaching nor cracking, thus being suitable for application on flexible medical devices.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro ha l’obbiettivo di valutare i risultati ottenuti su campioni stratificati sabbia/argilla attraverso l’applicazione della risonanza magnetica nucleare e di confrontare la risposta ottenuta tramite uno strumento di misura di laboratorio con quella di una sonda geofisica normalmente utilizzata per le analisi in pozzo. Tale lavoro si è reso necessario per comprendere le cause per cui la sonda CMR-Tool realizzata da Schlumberger non sia in grado di mettere in evidenza la stratificazione sabbia/argilla che caratterizza il bacino sedimentario dell’Adriatico in cui è presente un importante bacino di coltivazione di gas naturale. La tipica risposta NMR su una formazione stratificata sabbia/argilla è costituita da una distribuzione bimodale dei tempi di rilassamento che la sonda suddetta, nel caso specifico, non è in grado di produrre. Pertanto, per conoscere le cause per cui tale bimodalità della distribuzione non si presenti, è stato necessario confrontare i risultati derivanti dalla sonda CMR-Tool e quelli ottenuti con un rilassometro a basso campo (0,2T) presente nei laboratori LAGIRN della Facoltà di Ingegneria di Bologna. Le misure sono state eseguite su diversi campioni, stratificati e non, realizzati ad hoc con conformazioni diverse per i due strumenti. Si sono inoltre eseguite misure su 4 sabbie a diversa granulometria, per valutare l’andamento dei tempi di rilassamento in funzione della dimensione dei grani. A tal fine, il lavoro di tesi si struttura in cinque capitoli principali. Nei primi due capitoli si sono discusse in breve le metodologie e le tecniche di valutazione delle georisorse fluide e si sono introdotti i principi fisici della risonanza magnetica nucleare ed i meccanismi che regolano tale fenomeno nei mezzi porosi. Nel terzo e quarto capitolo sono descritte le applicazioni petrofisiche, le tecniche e le metodologie di indagine comunemente usate allo scopo di ricavare alcune grandezze fisiche di interesse e gli strumenti adoperati per ottenere le misure geofisiche in pozzo. Nell’ultimo capitolo sono invece esposti, in maniera completa e schematica, le prove sperimentali eseguite sia presso il laboratorio LAGIRN dell’Università di Bologna e presso quello Schlumberger di Pescara. Nella sua impostazione, il lavoro è stato sviluppato per essere studiato e compreso in maniera chiara, cercando di rendere la lettura la più semplice possibile, in relazione con la complessità caratteristica del fenomeno NMR. I risultati ottenuti hanno una valenza importante e di estrema attualità nell’ambito della valutazione delle georisorse fluide ed arricchiscono ancor di più le conoscenze riguardanti le applicazioni delle tecniche a risonanza magnetica nucleare sui mezzi porosi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Recently, the existence of a capillary-rich vasculogenic zone has been identified in adult human arteries between the tunica media and adventitia; in this area it has been postulated that Mesenchymal Stem Cells (MSCs) may be present amidst the endothelial progenitors and hematopoietic stem cells. This hypothesis is supported by several studies claiming to have found the in vivo reservoir of MSCs in post-natal vessels and by the presence of ectopic tissues in the pathological artery wall. We demonstrated that the existence of multipotent progenitors is not restricted to microvasculature; vascular wall resident MSCs (VW-MSCs) have been isolated from multidistrict human large and middle size vessels (aortic arch, thoracic aorta and femoral artery) harvested from healthy multiorgan donors. Each VW-MSC population shows characteristics of embryonic-like stem cells and exhibits angiogenic, adipogenic, chondrogenic and leiomyogenic potential but less propensity to osteogenic ifferentiation. Human vascular progenitor cells are also able to engraft, differentiate into mature endothelial cells and support muscle function when injected in a murine model of hind limb ischemia. Conversely, VW-MSCs isolated from calcified femoral arteries display a good response to osteogenic commitment letting us to suppose that VW-MSCs could have an important role in the onset of vascular pathologies such as Mönckeberg sclerosis. Taken together these results show two opposite roles of vascular progenitor cells and underline the importance of establishing their in vivo pathological and regenerative potential to better understand pathological events and promote different therapeutic strategies in cardiovascular research and clinical applications.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi ha come punto focale la descrizione, la verifica e la dimostrazione della realizzabilità dei Workflow Patterns di Gestione del Flusso(Control-Flow) e Risorse (Resource) definiti da parte della Workflow Pattern Initiative (WPI)in JOLIE, un innovativo linguaggio di programmazione orientato ai servizi nato nell'ambito del Service Oriented Computing. Il Service Oriented Computing (SOC) è un nuovo modo di pensare la programmazione di applicazioni distribuite, i cui concetti fondamentali sono i servizi e la composizione. L’approccio SOC definisce la possibilità di costruire un’applicazione in funzione dei servizi che ne realizzano il comportamento tramite una loro composizione, definita secondo un particolare flusso di lavoro. Allo scopo di fornire la necessaria conoscenza per capire la teoria, le meccaniche e i costrutti di JOLIE utilizzati per la realizzazione dei pattern, il seguente lavoro di tesi è stato diviso in quattro parti, corrispondenti ad altrettanti capitoli. Nel primo capitolo viene riportata una descrizione generale del SOC e della Business Process Automation (BPA), che costituisce l’ambiente in cui il SOC è inserito. Per questo viene fatta una disamina della storia informatica sui sistemi distribuiti, fino ad arrivare ai sistemi odierni, presentando in seguito il contesto del BPA e delle innovazioni derivanti dalle sue macro-componenti, di cui il SOC fa parte. Continuando la descrizione dell’approccio Service Oriented, ne vengono presentati i requisiti (pre-condizioni) e si cerca di dare una definizione precisa del termine “servizio”, fino all'enunciazione dei principi SOC declinati nell’ottica delle Service Oriented Architectures, presentando in ultimo i metodi di composizione dei servizi, tramite orchestrazione e coreografia. L’ultima sezione del capitolo prende in considerazione il SOC in un’ottica prettamente industriale e ne evidenzia i punti strategici. Il secondo capitolo è incentrato sulla descrizione di JOLIE, gli aspetti fondamentali dell’approccio orientato ai servizi, che ne caratterizzano profondamente la definizione concettuale (SOCK), e la teoria della composizione dei servizi. Il capitolo non si pone come una descrizione esaustiva di tutte le funzionalità del linguaggio, ma considera soprattutto i concetti teorici, le strutture di dati, gli operatori e i costrutti di JOLIE utilizzati per la dimostrazione della realizzabilità dei Workflow Pattern del capitolo successivo. Il terzo capitolo, più lungo e centrale rispetto agli altri, riguarda la realizzazione dei workflow pattern in JOLIE. All'inizio del capitolo viene fornita una descrizione delle caratteristiche del WPI e dei Workflow Pattern in generale. In seguito, nelle due macro-sezioni relative ai Control-Flow e Resource pattern vengono esposte alcune nozioni riguardanti le metodologie di definizione dei pattern (e.g. la teoria sulla definizione delle Colored Petri Nets) e le convezioni adottate dal WPI, per passare in seguito al vero e proprio lavoro (sperimentale) di tesi riguardo la descrizione dei pattern, l’analisi sulla loro realizzabilità in JOLIE, insieme ad un codice di esempio che esemplifica quanto affermato dall'analisi. Come sommario delle conclusioni raggiunte sui pattern, alla fine di ognuna delle due sezioni definite in precedenza, è presente una scheda di valutazione che, con lo stesso metodo utilizzato e definito dalla WPI, permette di avere una rappresentazione generale della realizzabilità dei pattern in JOLIE. Il quarto capitolo riguarda gli esiti tratti dal lavoro di tesi, riportando un confronto tra le realizzazioni dei pattern in JOLIE e le valutazioni del WPI rispetto agli altri linguaggi da loro considerati e valutati. Sulla base di quanto ottenuto nel terzo capitolo vengono definite le conclusioni del lavoro portato avanti sui pattern e viene delineato un’eventuale scenario riguardante il proseguimento dell’opera concernente la validazione ed il completamento della studio. In ultimo vengono tratte alcune conclusioni sia riguardo JOLIE, nel contesto evolutivo del linguaggio e soprattutto del progetto open-source che è alla sua base, sia sul SOC, considerato nell’ambito del BPA e del suo attuale ambito di sviluppo dinamico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Descrizione dell'applicazione di tecniche di progettazione robusta, robust design, ad un motore Stirling per generazione di corrente elettrica. La progettazione robusta è una tecnica che permette lo sviluppo di prodotti cercando di minimizzare gli effetti negativi dovuti a variazioni inaspettate nei parametri di progetto, interessante, quindi, perchè in ambito industriale accade spesso che i valori nominali dei parametri per cui si progetta un dispositivo od una macchina siano diversi da quelli che si presentano nel suo reale funzionamento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Background: Kasashima et al hanno individuato nella popolazione giapponese un sottogruppo di aneurismi aortici addominali (AAA) infiammatori con le caratteristiche clinico patologiche della Malattia autoimmune Sistemica IgG4 Correlata. La distinzione tra i diversi gruppi di AAA è clinicamente importante sia per il follow up che per il trattamento di questa patologia. Obiettivo dello studio era la valutazione della componente flogistica, vascolare e stromale della parete aortica aneurismatica, la ricerca di aneurismi infiammatori ed in particolare di AAA- IgG4 correlati anche nella popolazione caucasica. Materiali e metodi: Sono stati esaminati i dati relativi a 21 pazienti trattati chirurgicamente per AAA presso l’Unità Operativa di Chirurgia Vascolare di Ferrara. Sono state eseguite analisi immunoistochimiche di prelievi intraoperatori di parete aortica aneurismatica. Risultati: I dati emersi hanno identificato 3 sottopopolazioni di pazienti con AAA: aneurismi di tipo aterosclerotico con negatività ai markers infiammatori (AAAa), aneurismi infiammatori con positività ai markers infiammatori e negatività per le IgG4 (AAAI) ed infine aneurismi infiammatori con positività alle IgG4 (AAAI-IgG4). Conclusioni: Questo studio ha confermato l’ipotesi che la malattia aneurismatica IgG4 correlata è presente anche nella popolazione caucasica. Con il proseguimento del nostro studio sarà interessante verificare la conferma di questi dati anche in altri pazienti al fine di ricercare la miglior strategia terapeutica e minimizzare il rischio di complicanze.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Progettazione delle procedure necessarie alla realizzazione di piattaforme off-shore, grandi e complesse strutture intelaiate di pilastri, diagonali, travi primarie e travi secondarie, progettate per insediarsi in ambiente marino ed idonee ad ospitare impianti per l'estrazione di idrocarburi. Durante la fase di progettazione si procede con l'ideare la struttura della piattaforma fino a definire le caratteristiche di ogni componente: tale fase ha come esito la redazione dei project drawings (disegni di progetto). La fase di realizzazione è quella che interessa propriamente il lavoro svolto: a seguito della progettazione infatti emergono nuove problematiche a livello applicativo e costruttivo che necessitano di essere studiate e risolte preventivamente alla costruzione fisica dell'opera. In particolar modo è necessario definire quali parti della struttura possono essere acquistate e quali invece devono essere realizzate su misura. Definite le modalità costruttive, viene effettuato lo studio riguardante la movimentazione dei vari piani della piattaforma, movement, e successivamente le problematiche relative al sollevamento degli stessi, lifting. Le due procedure necessitano di raffinate valutazioni euristiche ed analitiche per garantire che la struttura non collassi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi tratta dell'ottimizzazione dei componenti di potenza di un convertitore flyback al fine di massimizzare l'efficienza di un caricabatteria per batterie al piombo. Le perdite vengono studiate all'interno di uno spazio di progetto che individua due variabili libere (rapporto spire e indice di ondulazione della corrente). Diverse mappe con le stime di dissipazione derivante da tutti i contributi, permettono l'individuazione del punto ottimo di progetto e consentono la corretta valutazione dei trade-off. Il risultato dell'analisi ha portato al progetto di un dimostratore in cui si è potuto verificare la correttezza del valore di efficienza predetta, in questo modo migliorando le performance di un prodotto esistente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I nanomateriali presentano proprietà molto differenti dai corrispondenti materiali bulk; per questo motivo, negli ultimi anni, se ne è sempre più diffuso l’utilizzo. In particolare, recentemente ha suscitato grande interesse l’impiego di nanoparticelle bimetalliche, le cui proprietà ottiche, morfologiche e dimensionali possono essere modulate sulla base della composizione. L’interesse del mondo industriale allo studio di materiali con dimensioni nano-metriche deriva principalmente dalle loro possibili applicazioni su grande scala ed è quindi di fondamentale importanza la messa a punto di metodologie di sintesi versatili, facilmente scalabili ed a basso impatto ambientale. L’ottimizzazione della sintesi è un aspetto molto importante in quanto deve assicurare un accurato controllo di forma, dimensioni e composizione. A tale scopo è stata sviluppata una sintesi a basso impatto ambientale, in acqua, basata sull’azione riducente del sistema glucosio – NaOH, che permette di ottenere nanoparticelle stabili e con dimensioni omogenee. Nel corso dello studio il riscaldamento è stato effettuato mediante un sistema a microonde: una tecnologia affidabile e sicura che permette un riscaldamento rapido ed omogeneo. La tesi ha come scopo:• l’ottimizzazione e la caratterizzazione di nanosospensioni monometalliche di Pd mediante la sintesi già ottimizzata in lavori precedenti per i metalli: Au, Ag e Cu; •lo studio di sistemi bimetallici Pd/Cu e Pd/Au con morfologia di lega, ottenuti per co-riduzione dei sali precursori; •lo studio dell’attività catalitica delle nanoparticelle sintetizzate nella reazione di riduzione del 4-nitrofenolo a 4-amminofenolo mediante NaBH4; •lo studio della supportazione su carbone di Pd/Au per applicazioni elettrocatalitiche. Per poter studiare e valutare l’eventuale presenza di effetti sinergici tra i metalli coinvolti nella sintesi sono stati confrontati sistemi monometallici con sistemi bimetallici a differenti composizioni (Pd/Cu e Pd/Au). In particolare è stato possibile apprezzare un miglioramento delle prestazioni catalitiche per i sistemi bimetallici Pd/Au rispetto ai metalli di partenza, al contrario i sistemi bimetallici Pd/Cu mostrano un peggioramento dell’attività catalitica all’aumentare del contenuto di rame. La nanosospensione Pd/Au risultata con le maggiori prestazioni catalitiche, è stata supportata su carbone per applicazioni nel campo dell’elettrocatalisi. Da uno studio preliminare sulle tecniche di supportazione è emerso che il metodo migliore per depositare le nanoparticelle sul carbone è l’impregnazione fisica.