643 resultados para Campo magnetico,Via Lattea,Metodi di rilevazione


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’apparato muscolo scheletrico è composto da strutture muscolari, articolari e ossee. Tali tessuti sono molto diversi tra loro e hanno proprietà meccaniche estremamente variabili, pertanto presentano una transizione graduale in corrispondenza della loro giunzione, onde evitare l’insorgere di concentrazioni di tensione. L’evoluzione ha portato alla formazione di particolari interfacce che permettono la corretta trasmissione dei carichi distribuendo le tensioni su una superficie più ampia in corrispondenza della giunzione. Le interfacce che vanno a inserirsi nell’osso vengono definite entesi e in particolare, in questa review, analizzeremo il caso di quelle tra tendini/legamenti e osso. In questo lavoro ci siamo anche concentrati sulla giunzione miotendinea, ovvero tra muscolo e tendine. Sono numerose le lesioni che riguardano muscoli, ossa, tendini o legamenti e molto spesso l’infortunio avviene a livello della giunzione. Quando ciò accade vi sono diverse strade, ciascuna con i suoi vantaggi e svantaggi: sutura, autograft, allograft o xenograft. Oltre a queste soluzioni si è fatta gradualmente più spazio la possibilità di realizzare degli scaffold che vadano temporaneamente a sostituire la parte danneggiata e a promuovere la sua rigenerazione, degradandosi man mano. L’elettrofilatura (Elettrospinning) è un processo produttivo che negli ultimi decenni si è affermato come tecnica per la fabbricazione di questi scaffold, fino a diventare uno tra i principali processi utilizzati dai ricercatori in questo campo. Questa tecnica infatti permette di realizzare scaffold di nanofibre porose utilizzando polimeri biodegradabili e soprattutto biocompatibili. Lo scopo della review è proprio quello di scoprire tutti i lavori e gli studi che utilizzano l’elettrofilatura per realizzare degli scaffold per interfacce, delineando così lo stato dell’arte sui progressi fatti e sulle varie tecniche utilizzate.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il seguente lavoro analizza l’influenza che il biochar ha nel ciclo dell’azoto nei suoli, in particolare in riferimento alla possibilità di diminuire il fenomeno di lisciviazione dei nitrati dato il continuo aumento in agricoltura dell’uso di fertilizzanti azotati. La scelta di questo tipo di ammendante è dovuta alle sue ampie potenzialità d’impiego e si pone in un percorso di economia circolare con la valorizzazione delle biomasse di scarto. Il lavoro si divide in un’approfondita ricerca bibliografica con elaborazione critica delle informazioni e una parte sperimentale. Si sono analizzate le interazioni che il biochar ha sui vari processi che compongono il ciclo dell’azoto. Sono stati riportati e discussi i principali metodi di determinazione delle capacità adsorbenti del biochar oltre ad un’analisi e una descrizione dei più comuni modelli di isoterme di adsorbimento. Si è testata la capacità adsorbente, tramite test di screening in batch, di sette tipi di biochar che presentavano origine e sintesi differenti. I biochar hanno presentato adsorbimenti molto modesti nei confronti dei nitrati evidenziando solo una diminuzione della quantità di nitrati rilasciati dal biochar stesso. Per quanto concerne l’ammonio, invece, i biochar hanno presentato percentuali di adsorbimento tra il 60-70% con un massimo del 80%.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi riguarda lo studio di resine polimeriche derivanti da oli vegetali, impiegabili come leganti nei prodotti vernicianti per l’edilizia ed altri settori. I prodotti vernicianti plant-based sono stati confrontati con altri prodotti attualmente commercializzati, provenienti da fonti fossili. Considerata la produzione ingente dei prodotti vernicianti su base mondiale (8,31 kg/persona) sarebbe determinante impiegare delle fonti rinnovabili per garantirne una produzione sostenibile, diminuendo l’inquinamento, ritardando l’esaurimento del petrolio e riducendo le emissioni di CO2 e di conseguenza l’effetto serra ed il cambiamento climatico. Sono state trattate, quindi, alcune vie di sintesi “green” di leganti poliuretanici ed epossidici per prodotti vernicianti ad elevate prestazioni. Gli oli vegetali sono stati scelti come materie prime in quanto relativamente economici e disponibili in grandi quantità, risultando adatti per produzioni su scala industriale. Sono inoltre riportati i metodi di formulazione di uno smalto opaco bio-based per esterni (ad es. infissi e staccionate) e una vernice opaca per parquet (interni). Le formulazioni sperimentali sono state poi caratterizzate e confrontate con altri prodotti fossil-based presenti in commercio. I prodotti vernicianti sono stati sottoposti a test di brillantezza (gloss), adesione, presa di sporco, durezza, resistenza all’abrasione e resistenza chimica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A fianco ai metodi più tradizionali, fin ora utilizzati, le tecnologie additive hanno subito negli ultimi anni una notevole evoluzione nella produzione di componenti. Esse permettono un ampio di range di applicazioni utilizzando materiali differenti in base al settore di applicazione. In particolare, la stampa 3D FDM (Fused Deposition Modeling) rappresenta uno dei processi tecnologici additivi più diffusi ed economicamente più competitivi. Gli attuali metodi di analisi agli elementi finiti (FEM) e le tecnologie CAE (Computer-Aided Engineering) non sono in grado di studiare modelli 3D di componenti stampati, dal momento che il risultato finale dipende dai parametri di processo e ambientali. Per questo motivo, è necessario uno studio approfondito della meso struttura del componente stampato per estendere l’analisi FEM anche a questa tipologia di componenti. Lo scopo del lavoro proposto è di creare un elemento omogeneo che rappresenti accuratamente il comportamento di un componente realizzato in stampa 3D FDM, questo avviene attraverso la definizione e l’analisi di un volume rappresentativo (RVE). Attraverso la tecnica dell’omogeneizzazione, il volume definito riassume le principali caratteristiche meccaniche della struttura stampata, permettendo nuove analisi e ottimizzazioni. Questo approccio permette di realizzare delle analisi FEM sui componenti da stampare e di predire le proprietà meccaniche dei componenti a partire da determinati parametri di stampa, permettendo così alla tecnologia FDM di diventare sempre di più uno dei principali processi industriali a basso costo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'elaborato intende proporre una narrazione dei cambiamenti concorsi in questi ultimi anni pandemici nel settore eventistico e festivaliero cinematografico, delineandone l’attuale panorama con lo scopo di tracciare le linee guida per il modello-festival del futuro. Si tratta di una indagine volta sia a documentare le scelte fatte dai festival (obbligate o meno che siano), sia a porre delle basi utili ad esaudire quell’urgenza di rinnovare i modi ed i metodi organizzativi di tali eventi, che come altri si sono dovuti adattare ad esigenze particolarmente stringenti, inesorabili e rapide. Il testo propone, quindi, uno studio storico di queste manifestazioni, concentrandosi sulle loro origini e significati, tale da intercettare quelle fondamenta che ancora oggi sono valide ed esistenti, fortemente radicate. Successivamente ci si concentrerà sui metodi di progettazione e management in uso nell'era pre-Covid, per poi passare al vaglio degli accadimenti emergenziali. Da qui si entrerà più nello specifico andando ad indagare le esperienze e le questioni legate alle “Covid-Edition” dei festival. Si esploreranno i rivoluzionamenti subiti ed attuati, individuando le più significative e principali mutazioni che si potrebbero rivelare come quelle evoluzioni indispensabili e vantaggiose per l’organizzazione e il successo degli eventi di oggi e domani. Toccheremo alcune delle più discusse tematiche odierne, approfondendole, valutandone gli effettivi impatti ed evidenziandone i risvolti positivi. Si includerà un confronto di analisi sui risultati delle ricerche di settore “Effetto Festival: festival e consumi culturali ai tempi del Covid-19” e “Piattaforma festival. Indagine sul futuro degli eventi di cinema”, con lo scopo di evidenziare ulteriormente i vantaggi ottenuti nel 2020. Concluderò la trattazione con l’ipotesi della nuova pratica festivaliera, modello e spunto di riflessione su una progettualità applicabile agli eventi festivalieri di oggi e del futuro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’incidenza di patologie cardiovascolari come ipertensione e aterosclerosi è in progressivo aumento nel mondo, sia a causa del maggiore sviluppo di fattori di rischio quali obesità, sedentarietà e diabete, dovuti al tenore di vita che caratterizza la popolazione, specialmente quella risiedente in paesi sviluppati e con un alto tenore di vita, sia a causa dell’aumento dell’aspettativa di vita. Sembra quindi possibile considerare la complianza arteriosa totale e, in particolare, la complianza del primo tratto di aorta come un importante indice per la prevenzione e la valutazione del rischio della patologia arteriosa. La valutazione di questo parametro è però difficile da effettuare in vivo, motivo per cui diversi metodi sono stati sviluppati, alcuni basati sul modello Windkessel a due elementi, modello della circolazione sistemica proposto per la prima volta da Otto Frank nel 1899, altri su quello a tre. I primi risultano più accurati dei secondi. Tra i metodi di stima della complianza arteriosa totale ve ne è uno, il Pulse Pressure Method (PPM), ovvero metodo della pressione differenziale che, introdotto per la prima volta da Stergiopulos nel 1994, si è dimostrato essere tanto semplice quanto accurato. Questo consiste nel trovare il miglior valore di complianza che minimizzi, dopo opportune iterazioni, l’errore tra la pressione differenziale misurata, e quella calcolata in uscita da un modello Windkessel a due elementi. I vantaggi nell’uso di questo metodo non sono pochi: esso infatti non richiede flusso nullo in aorta ed è perciò applicabile in qualsiasi punto dell’albero arterioso, fornisce il valore della complianza alla pressione media Pm e necessita della sola conoscenza della pressione differenziale aortica e del flusso aortico, ottenibili non invasivamente. Studiando i risultati ottenuti, infine, si è visto come l’aorta prossimale, ovvero il tratto di aorta ascendente e l’arco aortico, sia il principale determinante della complianza arteriosa totale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo studio si basa sull’analisi di campioni di neve superficiale (0-3 cm) e sub-superficiale (3-6 cm) raccolti nei pressi della “clean area” di Concordia Station, nel plateau Antartico, e di campioni di deposizione raccolti a seguito di eventi di precipitazione nello stesso sito. Il sito di campionamento “clean area” è designato allo studio dei valori di fondo nel plateau antartico, poiché ritenuto privo di contaminazione antropica. L’obiettivo è la quantificazione delle concentrazioni in ultra-tracce di mercurio per lo studio di eventuali patterns relativi al ciclo geochimico dell’elemento nei periodi interessati da radiazione solare. Inoltre, per studiare i processi che controllano il ciclo del mercurio nel plateau Antartico sono stati considerati sia i parametri meteorologici che le variazioni di elementi chimici usati per tracciare le possibili sorgenti emissive ed i meccanismi di scambio che avvengono per il mercurio all’interfaccia aria-neve. Le analisi sono state svolte con ICP-SFMS, una tecnica di spettrometria in grado di rilevare concentrazioni nell’ordine del ppt. A causa dei limiti di rilevazione molto bassi, tutte le provette usate per le analisi e la conservazione dei campioni sono state trattate al fine di minimizzare la contaminazione. I campioni destinati alle analisi di mercurio sono stati trattati con acido, seguendo la procedura per la stabilizzazione di metalli volatili. Il lavoro svolto non ha identificato particolari processi di trasporto e di scambio mentre invece riporta episodi di contaminazione della “clean area” dovuti in parte alla non usuale provenienza del vento ed in parte al crescente impatto antropico dovuto alle attività delle stazioni di ricerca. Lo studio ha messo in luce le problematiche legate al possibile impatto della base di ricerca Concordia Station sui processi naturali evidenziando la necessità di ulteriori studi e approfondimenti sul tema della contaminazione della designata “area pulita” per il campionamento di neve.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le galassie sono strutture che popolano l'universo e i primi studi riguardanti la loro formazione e composizione risalgono a qualche secolo fa. Nella seguente trattazione si illustreranno i principali metodi di classificazione in base alla configurazione morfologica oppure rispetto ad altre proprietà caratteristiche. Al fine di comprendere al meglio i modelli teorici in grado di dare una spiegazione su come si siano originate le galassie, si esporranno le fasi fondamentali dell'evoluzione dell'universo e le proprietà della materia oscura. Infine ci si soffermerà su un particolare modello di formazione e sull'influenza che può avere riguardo ai buchi neri all'interno delle galassie.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La giunzione miotendinea (MTJ) è una struttura anatomica specializzata che collega il muscolo al tendine. La sua funzione è quella di permettere la trasmissione della forza generata dal muscolo al tendine, permettendo il movimento. Essendo una struttura di interfaccia che funge da raccordo tra due tipi di tessuti molto differenti, tende a risentire di una forte concentrazione di tensione, questo la rende fortemente suscettibile a rottura. Le tecniche ad oggi utilizzare per riparare lesioni alla MTJ risultano inadatte ad una completa ed ottimale ripresa meccanica. Al fine di trovare una soluzione a questo problema, l’ingegneria tissutale sta lavorando alla fabbricazione di strutture tridimensionali che siano in grado di imitare al meglio la struttura nativa della MTJ. Le tecniche utilizzate per la produzione di tali strutture sono, principalmente, stampa 3D ed elettrofilatura. Il vantaggio di queste tecniche è la loro elevata risoluzione, che permette di controllare finemente l’architettura di tali strutture artificiali. Nella seguente tesi verrà presentato lo stato dell’arte sulle tecniche utilizzate per la fabbricazione di scaffolds per la rigenerazione della MTJ, soffermandosi in particolare sui metodi di fabbricazione e sulle prestazioni morfologiche, meccaniche e cellulari effettuando un confronto tra i diversi studi che se ne sono occupati, individuandone punti di forza, debolezze e possibili studi futuri che potranno essere effettuati su tali scaffolds. In questo modo, sarà possibile rendersi conto di quale di queste tecniche risulti essere più promettente per il futuro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questa tesi e studiare l’uso di ”cruscotti” (in inglese Dashboard) per il monitoraggio dello sviluppo software, approfondendo i metodi di raccolta delle metriche e come esse vengono gestite. Nello specifico, analizzerò l’ambiente di sviluppo Compositional Agile System (CAS), sviluppando un nuovo plugin per l’IDE Microsoft Visual Studio Code, che e open source. Verranno proposti nuovi metodi di implementazione e utilizzo delle Dashboard e possibili miglioramenti dell’ambiente CAS.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa relazione di tesi verrà affrontato il problema della locomozione naturale in ambienti virtuali che possiedono una grandezza maggiore dello spazio reale nel quale l'utente si muove. Negli anni sono stati sviluppati numerosi metodi di navigazione, ma tra tutti la locomozione naturale è il sistema che porta un livello di immersione maggiore nello spazio virtuale, più di qualsiasi altra tecnica. In questo lavoro di tesi verrà proposto un algoritmo in grado di favorire la locomozione naturale all'interno di lunghi spazi chiusi, andando a modificare la geometria dello spazio virtuale (che andrà ad assumere una forma circolare) e mantendendo comunque un certo grado di realismo dal punto di vista dell'utente. L'obiettivo è quello di tradurre uno spazio virtuale chiuso e lungo (caso comune: un corridoio) in una forma circolare inscritta in una stanza di 2x2m, con un approccio simile a quello degli impossible spaces, con l'obiettivo di studiare in futuro entro quale percentuale di sovrapposizione l'utente si accorge di trovarsi in una geometria impossibile. Nel primo capitolo verranno introdotti i concetti chiave di VR e AR, nonché un'introduzione all'Engine Unity e al software Blender. Nel secondo capitolo si tratterà di computer graphics, quindi si introdurranno i concetti base della grafica 3D con un focus sulla matematica alla base di ogni processo grafico. Nel terzo capitolo verrà affrontano il concetto di embodiment, quindi la percezione del proprio corpo, l'importanza dell'immersitvità dei sistemi virtuali e verrà descritto un paper precedentemente realizzato riguardante tale concetto. Nel capitolo quattro si parlerà del movimento all'interno dei sistemi di realtà virtuale, della locomozione naturale e delle tecniche per rendere tale metodo più accessibile. Nel capitolo cinque infine verrà descritto l'algoritmo realizzato e verranno mostrati i risultati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’elaborato di tesi presentato è stato svolto con l’obiettivo di identificare una metodologia chiara ed efficacie per consentire alle aziende di classificare correttamente i codici presenti a magazzino e assegnarvi la politica di approvvigionamento più idonea. Il focus del lavoro si è incentrato sulla realizzazione di un trade off tra l’obiettivo delle aziende di evitare lo stock out di merce, e quello di riuscire a contenere le giacenze medie dei codici a magazzino e delle corrispettive scorte di sicurezza, che rappresentano sempre un insieme di costi ingenti. Partendo quindi da una analisi dettagliata delle politiche di approvvigionamento dettate dalla letteratura, ci si sofferma sul metodo a punto di riordino, individuato come il più idoneo a perseguire questa mission. Segue quindi una descrizione dei passi da seguire per riuscire a determinare il perimetro di azione più compatibile con le caratteristiche del modello, fino a giungere alla reale simulazione di calcolo e successiva implementazione dei nuovi dati a sistema. Il tutto viene svolto facendo riferimento ai dati appartenenti all’azienda Ravaglioli S.p.A. di Sasso Marconi (BO), che ha permesso di svolgere ed implementare tutti gli steps e le analisi elencate nell’elaborato di tesi e sta attualmente lavorando utilizzando gli output del lavoro presentato. La tesi si conclude con la valutazione degli effettivi benefici derivanti dal progetto e una proposta di possibile sviluppo futuro dell’elaborato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel panorama aziendale odierno, risulta essere di fondamentale importanza la capacità, da parte di un’azienda o di una società di servizi, di orientare in modo programmatico la propria innovazione in modo tale da poter essere competitivi sul mercato. In molti casi, questo e significa investire una cospicua somma di denaro in progetti che andranno a migliorare aspetti essenziali del prodotto o del servizio e che avranno un importante impatto sulla trasformazione digitale dell’azienda. Lo studio che viene proposto riguarda in particolar modo due approcci che sono tipicamente in antitesi tra loro proprio per il fatto che si basano su due tipologie di dati differenti, i Big Data e i Thick Data. I due approcci sono rispettivamente il Data Science e il Design Thinking. Nel corso dei seguenti capitoli, dopo aver definito gli approcci di Design Thinking e Data Science, verrà definito il concetto di blending e la problematica che ruota attorno all’intersezione dei due metodi di innovazione. Per mettere in evidenza i diversi aspetti che riguardano la tematica, verranno riportati anche casi di aziende che hanno integrato i due approcci nei loro processi di innovazione, ottenendo importanti risultati. In particolar modo verrà riportato il lavoro di ricerca svolto dall’autore riguardo l'esame, la classificazione e l'analisi della letteratura esistente all'intersezione dell'innovazione guidata dai dati e dal pensiero progettuale. Infine viene riportato un caso aziendale che è stato condotto presso la realtà ospedaliero-sanitaria di Parma in cui, a fronte di una problematica relativa al rapporto tra clinici dell’ospedale e clinici del territorio, si è progettato un sistema innovativo attraverso l’utilizzo del Design Thinking. Inoltre, si cercherà di sviluppare un’analisi critica di tipo “what-if” al fine di elaborare un possibile scenario di integrazione di metodi o tecniche provenienti anche dal mondo del Data Science e applicarlo al caso studio in oggetto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I problemi di ottimizzazione di dimensione finita di larga scala spesso derivano dalla discretizzazione di problemi di dimensione infinita. È perciò possibile descrivere il problema di ottimizzazione su più livelli discreti. Lavorando su un livello più basso di quello del problema considerato, si possono calcolare soluzioni approssimate che saranno poi punti di partenza per il problema di ottimizzazione al livello più fine. I metodi multilivello, già ampiamente presenti in letteratura a partire dagli anni Novanta, sfruttano tale caratteristica dei problemi di ottimizzazione per migliorare le prestazioni dei metodi di ottimizzazione standard. L’obiettivo di questa tesi è quello di implementare una variante multilivello del metodo del gradiente (MGM) e di testarlo su due diversi campi: la risoluzione delle Equazioni alle Derivate Parziali la ricostruzione di immagini. In questo elaborato viene illustrata la teoria dello schema multilivello e presentato l’algoritmo di MGM utilizzato nei nostri esperimenti. Sono poi discusse le modalità di utilizzo di MGM per i due problemi sopra presentati. Per il problema PDE, i risultati ottenuti mostrano un ottimo comportamento di MGM rispetto alla implementazione classica ad un livello. I risultati ottenuti per il problema di ricostruzione di immagini, al contrario delle PDEs, evidenziano come MGM sia efficace solo in determinate condizioni.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In molti sistemi di distribuzione idrici una percentuale significativa di acqua viene persa passando dagli impianti di trattamento alle utenze, a causa di danneggiamenti nei diversi componenti delle reti. Le perdite idriche sono un problema costoso, non solo in termini di spreco di una preziosa risorsa naturale, ma anche in termini economici. L’obiettivo principale di questo lavoro è stato quello di identificare possibili sviluppi per le attrezzature e metodi già esistenti al fine di rilevare in modo automatico perdite idriche in condotte in plastica. A questo proposito è stata studiata l’efficacia di metodi basati sull’analisi di vibrazioni e suoni. In particolare ci si è concentrati sull’uso di accelerometri e idrofoni e, successivamente, sull’uso di sensori di emissioni acustiche. Dopo una prima fase di ricerca approfondita sulla dinamica dei fenomeni vibro-acustici che si verificano nelle condotte, sulla teoria delle emissioni acustiche, sulla caratterizzazione di segnali di perdita in condotte in plastica e sulle principali attrezzature usate attualmente per l’individuazione delle perdite, si è passati alla fase sperimentale. La fase sperimentale può essere distinta in due parti. La prima ha avuto come obiettivo il confronto tra segnali acquisiti da accelerometro e idrofono relativamente all’efficacia nell’individuazione di perdite idriche mediante apposito algoritmo ed ha coinvolto numerosi test sul campo, eseguiti sotto condizioni controllate in un impianto di rilevamento perdite sperimentale, appositamente costruito, adiacente alla sede della Divisione Reti R & S di Hera a Forlì. La seconda fase, invece, ha avuto come obiettivo la determinazione dell’efficacia del metodo delle emissioni acustiche per l’individuazione di perdite idriche ed ha visto l’esecuzione di altrettanti test, eseguiti sotto condizioni controllate, in un impianto sperimentale più semplice del precedente.