405 resultados para Oratorio della Madonna delle Grazie (Church).
Resumo:
Background. I disturbi temporomandibolari sono una serie di condizioni cliniche che colpiscono l’ATM, la muscolatura masticatoria e le strutture annesse ad esse. I TMD hanno come sintomo principale il dolore e possono condurre a limitazioni della mobilità articolare, diminuendo la qualità della vita. Il trattamento è multidisciplinare e il primo intervento è quello conservativo. Le tecniche di terapia manuale rappresentano uno dei metodi conservativi di cui ci si può avvalere per il trattamento di pazienti affetti da TMD. Obiettivi. Valutare l’efficacia delle tecniche di terapia manuale nel miglioramento di outcome, quali: dolore, disabilità, range di movimento e qualità della vita. Metodi. La ricerca è stata condotta nel periodo tra Maggio 2022 e Settembre 2022, su tre banche dati: PubMed, PEDro e Chocrane Library. Sono stati selezionati esclusivamente RCT in lingua inglese, con partecipanti adulti affetti da TMD. La qualità metodologica degli studi è stata valutata tramite l’utilizzo della PEDro Scale. Risultati. Sono stati inclusi sei studi. Nei singoli studi, le tecniche di terapia manuale sono state confrontate o meno con altri approcci conservativi. In cinque RCT su sei, è stata rilevata un’alta qualità metodologica, con un punteggio medio di 7/10 nella PEDro Scale. Discussione. Nei sei studi inclusi, c’è stato un miglioramento degli outcome indagati, ad eccezione del ROM che in uno studio non ha mostrato miglioramenti post-trattamento manuale. In quattro studi su sei la valutazione finale degli outcome è avvenuta al termine delle settimane di trattamento, permettendo una visione esclusiva degli effetti a breve termine. La limitata indagine degli effetti a lungo termine e l’elevata eterogeneità tra gli studi denotano la necessità di ulteriori ricerche riguardanti l’argomento. Conclusioni. Le tecniche di terapia manuale sembrerebbero avere un effetto positivo nei pazienti affetti da TMD, se inserite all’interno di un programma riabilitativo multimodale.
Resumo:
Background: Attualmente, diversi approcci riabilitatavi vengono proposti per il miglioramento del dolore e della funzione a seguito di intervento chirurgico alla spalla. La teleriabilitazione si è rivelata una valida alternativa per l’erogazione dei servizi riabilitativi a distanza: grazie all’utilizzo delle tecnologie di telecomunicazione, è possibile fornire consulenza, valutazione, monitoraggio, intervento e educazione, superando le barriere geografiche, temporali, sociali ed economiche. Obiettivo: Lo scopo della revisione è valutare le prove di efficacia presenti in letteratura in merito all’utilizzo della teleriabilitazione per il miglioramento funzionale dei pazienti operati di spalla. Metodi: La revisione è stata redatta secondo la checklist del PRISMA statement. La ricerca è stata condotta da aprile a settembre 2022, consultando le banche dati Cochrane Library, PubMed e PEDro. La ricerca è stata limitata a studi primari sperimentali e quasi, con full-text reperibile in lingua italiana o inglese e senza limiti temporali, inerenti soggetti operati alla spalla trattati con diverse modalità di teleriabilitazione. Come elemento di confronto è stato incluso qualsiasi tipo di intervento riabilitativo convenzionale. La qualità metodologica è stata valutata con la PEDro scale. Risultati: sono stati inclusi 4 RCT e 1 CCT, che hanno indagato misure di outcome relative a: dolore, mobilità articolare, forza, abilità funzionale e qualità della vita. Dall’analisi qualitativa dei risultati degli studi si è osservato che in tutti i gruppi sperimentali si sono ottenuti miglioramenti significativi negli outcome d’interesse; in due studi è stata evidenziata una superiorità statisticamente significativa della teleriabilitazione. Conclusioni: Nonostante la revisione non sia giunta a risultati generalizzabili e di validità assoluta, la teleriabilitazione ha dimostrato di essere una modalità sicura ed efficace nel miglioramento clinico e funzionale dei soggetti operati alla spalla.
Resumo:
Nell’ultimo decennio, la grandine è diventata oggetto di numerosi articoli e approfondimenti. Moderne ricerche climatologiche mostrano che tale fenomeno è in aumento in alcune aree geografiche, ma ne rimane ignota l’esatta ragione. La grandine è un evento atmosferico che può essere disastroso in molti ambiti della vita umana, essendo capace di provocare danni economici di grande portata. Sfortunatamente, la capacità previsionale risulta ancora inefficace in questo campo, anche se recentemente sono stati compiuti numerosi progressi grazie all’utilizzo di nuovi strumenti osservativi da satelliti e all’ausilio di simulazioni sempre più efficienti. Questo lavoro vuole sintetizzare le principali conoscenze teoriche e fenomenologiche della grandine, partendo dalla presentazione della struttura dei sistemi temporaleschi e poi approfondendo la teoria microfisica che sta alla base della sua crescita. L’obiettivo `e quello di fornire gli strumenti necessari ad una conoscenza approfondita del fenomeno e di dare un’idea di come esso può essere studiato e capito. Infatti, concluderemo l’elaborato spiegando delle reali simulazioni che sono state compiute in questo campo; una di natura meteorologica, che ha l’obiettivo di illustrare l’importanza delle simulazioni nell’analisi previsionale degli eventi atmosferici, ed una riguardante un modello microfisico, che `e stato capace di ottenere risultati innovativi sul fenomeno dell’accrezione.
Resumo:
Attualmente, tutte le procedure di ablazione cardiaca per il trattamento delle aritmie si basano sull’uso di radiofrequenza e di cateteri per crioablazione. Nonostante l’evoluzione e i miglioramenti significativi nel design e nelle forme di erogazione dell’energia, sono state riscontrate svariate limitazioni, in particolar modo per quanto riguarda i danni termici collaterali ai tessuti vicini alla zona bersaglio. La terapia di ablazione a campo elettrico pulsato (PFA) rappresenta un approccio rivoluzionario per il trattamento di aritmie cardiache, specialmente per la fibrillazione atriale. Questa tecnica utilizza come fonte di energia l’elettroporazione, sistema in grado di creare un danno a livello della membrana cellulare, con una conseguente inattivazione delle cellule responsabili dell’aritmia. Grazie alla sua natura non termica e altamente specializzata per il tessuto miocardico, questa energia ha il grande vantaggio di essere più sicura ed efficiente rispetto ai convenzionali approcci di radiofrequenza e crioablazione, aprendo dunque una strada alternativa per il trattamento dei disturbi cardiaci.
Resumo:
Nell’ambito di questa Tesi è stata svolta un’analisi sperimentale delle prestazioni di una pompa di calore dual-source (DSHP). Essa è una pompa di calore a doppia sorgente in grado di scambiare potenza termica con due diversi serbatoi termici esterni: aria e terreno. Il campo sonde è composto da quattro sonde geotermiche a doppio tubo ad U, due da 60m e due da 100m, disposte in linea ed accoppiate ad una camera climatica per test su pompe di calore elettriche. Sono stati eseguiti test sul prototipo DSHP in configurazione geotermica stabilendo dei criteri per lo svolgimento delle prove, che in corso d’opera sono stati perfezionati. è stata eseguita la calibrazione dei sensori di temperatura, le termocoppie e le termoresistenze, che sono state collocate lungo il circuito idronico e in camera climatica, dove è installata la DSHP. Invece, per monitorare la temperatura del terreno viene impiegato un filo in fibra ottica inserito rispettivamente nella mandata e nel ritorno di uno dei tubi ad U delle sonde da 60m e da 100m. Si è stabilito di affidarci esclusivamente ai valori di offset che la centralina DTS, alla quale sono collegati i quattro filamenti in fibra ottica, applica di volta in volta sulle misurazioni di temperatura. È stata curata nel dettaglio una prova condotta mantenendo attive tutte le sonde del campo geotermico. Al fine di definire le prestazioni della pompa di calore, è stato eseguito il calcolo del Coefficient of Performance (COP) della macchina lungo lo svolgimento della prova, in modo da poter confrontare questo risultato con quelli ottenuti nelle differenti configurazioni analizzate in questa Tesi. I risultati contenuti in questa tesi hanno permesso di stabilire i tempi di scarica e recupero del terreno, l’entità dell’interferenza che si genera tra sonde adiacenti sottoposte ad un carico termico e di studiare il comportamento del terreno nei suoi strati più superficiali in funzione delle condizioni metereologiche esterne.
Resumo:
In questo lavoro si studierà un nuovo sistema di consegna merci, denominato crowd-shipping. Questo si propone come soluzione per il trasporto della merce a domicilio, soprattutto per quanto riguarda l’ultimo miglio, con la quale si intendono le consegne che vengono effettuate all’interno dei centri urbani. È una soluzione recente che prevede di appoggiare ai corrieri tradizionali delle persone comuni, definiti corrieri occasionali (OD, Occasional Drivers). Questi ultimi, percorrendo un tratto di strada per motivi personali, sono disposti a consegnare la merce ai destinatari finali effettuando delle deviazioni al loro tragitto originario, in cambio di un compenso. Dopo aver studiato la situazione attuale dell’E-commerce e dello sviluppo delle Sharing Economy, dopo aver appreso il funzionamento di questo nuovo tipo di soluzione logistica, verrà presentato un modello matematico di programmazione lineare per le consegne last mile della merce in crowd-shipping. Questo modello verrà testato nel contesto urbano di Bologna e prevedrà due livelli di consegna rappresentati in primis dai corrieri tradizionali e in secondo luogo dai corrieri occasionali. Modalità possibile grazie all’utilizzo di armadietti automatici come depositi intermedi; si avranno, infatti, dei corrieri classici che riforniscono gli armadietti e dei corrieri occasionali che prelevano la merce dagli armadietti e la consegnano ai destinatari finali. Il modello sarà implementato in scenari diversi, con un differente numero di attori coinvolti, diverse ricompense per gli OD e diverse tipologie di veicoli, più o meno inquinanti. Questo ultimo punto ci anticipa che questa modalità di consegne può portare benefici importanti anche a livello ambientale; e in un mondo dove i cambiamenti atmosferici dovuti all’inquinamento sono sempre più devastanti, il crowd-shipping può portare a benefici concreti. Benefici che si sono dimostrati anche economici, sia per le aziende di spedizioni, sia per i clienti finali.
Resumo:
Questa tesi si propone di analizzare due macchinari della linea di “Handling” della divisione Active di IMA S.p.A., ovvero la macchina “Cyclops” e la macchina “Hercules”. Per entrambe le macchine si vuole svolgere un’analisi completa dei rischi strutturali: si vogliono individuare, infatti, i componenti strutturalmente critici al fine di proporre migliorie e soluzioni per evitare problematiche o danneggiamenti alle macchine. Per l’individuazione delle criticità strutturali, la prima cosa effettuata è stata un’analisi del funzionamento dei macchinari, attraverso uno studio dei singoli componenti e dei loro montaggi, a cui è seguita un’analisi dei carichi e delle sollecitazioni agenti su entrambe le macchine in condizioni di lavoro standard. A valle di queste analisi è stato possibile, quindi, individuare i componenti maggiormente sollecitati e, con l’ausilio di un software di nome Creo Simulate, ovvero un’estensione del software PTC Creo, molto diffuso nell’ambito della progettazione 3D di componenti industriali, sono state eseguite delle simulazioni virtuali di calcolo agli elementi finiti. Dall’analisi dei risultati delle simulazioni eseguite al calcolatore si sono evidenziate le eventuali criticità di ogni componente proponendo modifiche di progettazione, sia in termini di modifica della geometria del componente, sia riguardo a possibili modifiche nella scelta dei materiali. In aggiunta alle simulazioni virtuali, per completezza d’analisi, sono state svolte anche analisi strutturali di tipo analitico per la verifica di collegamenti bullonati e collegamenti saldati e per la verifica a fatica di alberi in rotazione.
Resumo:
Lo scenario oggi più accreditato per spiegare la formazione delle galassie è quello del merging gerarchico: Sgr è una delle prove più importanti a favore di questo scenario. Sgr è una galassia satellite della MW ed è il caso migliore di processo di distruzione mareale in corso dalla MW. La sua distruzione ha contribuito alla costituzione dell'alone della Via Lattea. Di Sgr si osserva solo ciò che ne rimane del corpo principale, i suoi streams ed il suo nucleo, dominato dall'ammasso metal-poor M54. È la presenza di M54 che rende complessa la selezione di stelle metal-poor di Sgr: il main-body di Sgr è rarefatto e fortemente contaminato da stelle galattiche ed il suo nucleo si sovrappone con M54 rendendo quasi impossibile identificare stelle di Sagittario metal-poor non appartenenti ad M54. Fino ad ora l'unico metodo utilizzato per selezionare i targets per studiare la chimica di Sgr ha fatto uso della loro posizione sul CMD: questo metodo introduce un bias, selezionando solo le stelle metal-rich di Sgr. In questo lavoro sono state studiate 23 stelle metal-poor appartenenti al main-body di Sgr ma fuori dal raggio mareale di M54 selezionate grazie ai moti propri dalla missione GAIA. Gli spettri analizzati sono stati ottenuti con lo spettrografo UVES-FLAMES del VLT (ESO)da cui è stata ottenuta l'abbondanza di 17 elementi sia di stelle di Sgr che in 12 stelle di M54. Questo campione di abbondanze chimiche permette per la prima volta: (a) di comprendere la storia di arricchimento chimico di Sgr in un ampio range di metallicità (mai studiato finora) e (b) di confrontare la chimica di Sgr con quella di M54. Tali abbondanze dimostrano come Sgr abbia avuto un'evoluzione chimica diversa da quella della MW, con un contributo inferiore da parte di stelle massive, probabilmente a causa del suo basso SFR. Inoltre è stato possibile determinare la forte somiglianza chimica tra Sgr e M54, confermando che i due sistemi condividono la stessa storia di arricchimento chimico.
Resumo:
La ricerca di un'ottima qualità costruttiva è diventata, per ogni fornitore o produttore legato all’ambito automotive/motoristico, l’aspetto principale nella produzione di un veicolo, soprattutto nel caso specifico di un motore: per garantire, dunque, una buona qualità generale lungo tutta la gamma di produzione, è necessario avere una buona “ripetibilità” di costruzione, ossia, è fondamentale poter assemblare un alto numero di motori che siano il più possibile identici tra loro; considerando tutte le variabili che intervengono lungo la catena di produzione, a partire dalla banale lavorazione meccanica delle parti, fino all’assemblaggio stesso del motore. E' facilmente intuibile, pertanto, come non sia così raro avere delle leggere imperfezioni tra motore e motore che possono poi andare ad impattare sulla vita e sulle performance stesse del mezzo. Questo discorso è ancora più valido se si parla dell’ambito racing, in cui la qualità costruttiva, e, quindi, le performance, giocano un ruolo fondamentale nella progettazione di un motore, nonostante il volume produttivo sia tutto sommato piccolo. L’obiettivo dell'elaborato è quello di creare un metodo di controllo e di confronto della qualità/precisione costruttiva, intesa sia come qualità di produzione delle parti che di assemblaggio del motore finito. A partire da una scansione laser tridimensionale, sotto forma di una nuvola di punti, si è creato un software di elaborazione dati che permettesse di arrivare a calcolare il rapporto di compressione reale del motore in analisi e la mappa di squish tramite la sovrapposizione virtuale delle due scansioni relative ai cilindri/pistoni del blocco motore e la testa del motore stesso.
Resumo:
La seguente tesi vuole esplicitare la soluzione dell'equazione delle onde, dimostrandone l'esistenza in ogni dimensione. Dopo aver introdotto dei concetti preliminari, lo studio comincerà dall'equazione delle onde nel caso unidimensionale omogeneo. Verrà trovata la soluzione del relativo problema di Cauchy, descritta dalla formula di d'Alembert. A partire da questo risultato, si potrà ricavare la soluzione del caso tridimensionale attraverso le medie sferiche, definita dalla formula di Kirchhoff. Il caso in due dimensioni verrà trattato come un problema immerso all'interno di quello in tre dimensioni, in modo da sfruttare le conclusioni già note. Si otterrà così la relativa formula di Poisson. Per ricavare la soluzione in dimensione n, si dovrà fare distinzione tra dimensione pari e dispari, e seguendo una procedura analoga a quelle per le dimensioni tre e due, si troverà la formula generale. In seguito verrà analizzata l'equazione delle onde nel caso non omogeneo, risolta grazie al principio di Duhamel. Nel capitolo finale, con il metodo dell'energia verrà dimostrata l'unicità della soluzione e verrà visto il teorema che dimostra come la soluzione abbia finita velocità di propagazione.
Resumo:
L’incessante urbanizzazione e il continuo aumento della popolazione urbana stanno generando nuove sfide per le pubbliche amministrazioni, le quali necessitano soluzioni per la gestione sostenibile di risorse primarie (cibo, acqua, suolo, fonti energetiche) e la corretta pianificazione delle città, allo scopo di salvaguardare le condizioni ambientali, la salute dei cittadini e il progresso economico: in questo complesso panorama si afferma il concetto di Digital Twin City (DTC) o gemello digitale della città, la controparte virtuale di oggetti e processi in ambiente urbano in grado di comunicare con essi e di simularne, replicarne e predirne i possibili scenari. In questo contesto, un elemento essenziale è costituito dal modello geometrico 3D ad alta fedeltà dell'ambiente urbano, e la Geomatica fornisce gli strumenti più idonei alla sua realizzazione. La presente elaborazione si sviluppa in tre parti: nella prima è stata condotta un’analisi della letteratura sui DTC, in cui sono state evidenziate le sue caratteristiche principali come l’architettura, le tecnologie abilitanti, alcune possibili modellazioni, ostacoli, scenari futuri ed esempi di applicazioni reali, giungendo alla conclusione che un accurato modello 3D della città deve essere alla base dei DTC; nella seconda parte è stata illustrata nel dettaglio la teoria delle principali tecniche geomatiche per la realizzazione di modelli 3D ad alta fedeltà, tra cui le tecniche fotogrammetriche di aerotriangolazione e l’algoritmo Structure from Motion (SfM); nella terza e ultima parte è stata condotta una sperimentazione su tre zone campione del comune di Bologna di cui, grazie ad un dataset di fotogrammi nadirali e obliqui ottenuto da un volo fotogrammetrico realizzato nel 2022, sono state ottenute Reality Meshes e ortofoto/DSM. I prodotti della terza zona sono stati confrontati con i medesimi ottenuti da un dataset del 2017. Infine, sono state illustrati alcuni strumenti di misura e di ritocco dei prodotti 3D e 2D.
Resumo:
L’attività di Tesi svolta presso l’azienda Magni Telescopic Handlers è stata finalizzata all’implementazione e l’ottimizzazione dei principi fondamentali della teoria della Lean Manufacturing. Lo scopo del percorso si è concentrato in prima battuta sulla valutazione e analisi delle previsioni dei consumi delle macchine, per poi proseguire con la realizzazione di un database aggiornato costituito esclusivamente dal materiale gestito a Kanban. In questa maniera è stato possibile predisporre la formulazione della mappatura dei componenti a Kanban lungo le tre linee di montaggio dell’azienda, per riuscire a verificare il corretto collocamento dei codici. Sono quindi successivamente sviluppate due metodologie di implementazione per il dimensionamento del Kanban al fine di ottimizzare i processi interni, in accordo con la filosofia Lean Thinking. Al termine dell'elaborato sono illustrati i risultati e i vantaggi che si sono ottenuti per consentire un miglior livello di ottimizzazione delle attività di montaggio lungo la linea e uno standard di efficienza produttiva più elevato.
Resumo:
Questo elaborato di tesi si concentra sul calcolo delle perdite che si verificano in cavi superconduttori ad alta temperatura critica per la fusione. La valutazione delle perdite riveste un ruolo di particolare importanza nella fase di progettazione di un cavo o di un avvolgimento superconduttore. Infatti, le proprietà superconduttive si manifestano a basse temperature (inferiori alla temperatura di transizione dalla fase normale alla fase superconduttiva) e di conseguenza è necessario configurare un apparato criogenico per il sistema. In tal senso, le perdite rientrano nel “budget” termico necessario a dimensionare correttamente il sistema di raffreddamento. Nel dettaglio, il lavoro verte sulla modellizzazione analitica e numerica delle perdite in una pila di nastri superconduttori in presenza sia di un campo magnetico esterno sia di una corrente di trasporto, entrambi con andamento variabile nel tempo. Gli obiettivi prefissati sono stati raggiunti grazie allo studio della letteratura e alle simulazioni numeriche, effettuate utilizzando dei software commerciali quali COMSOL Multiphysics e Matlab. Il contributo originale di questo elaborato è stato lo sviluppo di un nuovo modello analitico, che permette di calcolare le perdite per isteresi dovute a campi magnetici e correnti variabili periodicamente nel tempo. Le formule hanno carattere generale e possono essere utilizzate quando i campi e le correnti variano in fase seguendo degli andamenti periodici nel tempo di qualsiasi forma. Le simulazioni agli elementi finiti sono servite per validare le formule analitiche proposte. Le nuove relazioni ottenute sono state utilizzate per la stima delle perdite di un inserto ad alta temperatura critica del solenoide centrale di EU-DEMO (DEMOnstration Power Plant). Il modello analitico elaborato sarà pubblicato prossimamente su IEEE-Transactions on Applied Superconductivity.
Resumo:
In un contesto in cui, le informazioni, le abitudini e le relazioni mutano a velocità sempre più elevata e l’individualismo è diventato la norma all’interno della nostra società, nasce la necessità di andare alla riscoperta dei valori legati alla comunità e al senso di appartenenza nei contesti sociali e privati. Per quanto questo bisogno sia di carattere universale, in questa Tesi, si sono voluti analizzare i cambiamenti, le debolezze e i vantaggi del ritorno ad un approccio comunitario nel contesto abitativo e cittadino. Partendo dai fattori scatenanti che hanno portato a una concezione elevata ed esclusiva del sé, si è potuto enunciare come, l’allontanamento e l’isolamento generato dal distacco con la comunità, non abbia fatto altro che incentivare le persone a riconsiderare la necessità di un ritorno alla collettività. È all’interno della casa che è possibile sperimentare e analizzare i nuovi metodi dell’abitare. Le numerose politiche che si stanno attuando per il raggiungimento del Welfare abitativo sono solo uno una parte delle numerose pratiche applicabili. Da azioni semplici come, incentivare la condivisione negli appartamenti fino alla realizzazione di edifici dedicati al Co-Housing e al Social-Housing, è intorno alla dimora che si sta delineando sempre di più il bisogno di spostare il focus sull’individuo verso una collettività, a vantaggio di tutti e della società stessa. Quando le persone comprenderanno veramente che unite hanno più opportunità allora, solo in quel momento, la società potrà considerarsi effettivamente evoluta e paritaria. L’obiettivo primario che s’intende raggiungere con il servizio proposto è quello di soddisfare alcune delle caratteristiche fondamentali del Welfare abitativo nel contesto condominiale, ovvero, incentivare i rapporti sociali, attuare modifiche strutturali per l’efficientamento energetico e creare una comunità sostenibile e attenta alle risorse.
Resumo:
Il dibattito sulla questione ambientale, ormai in continua crescita da decenni, sta conducendo ad un incremento di interesse da parte della società in merito allo sviluppo sostenibile, il quale riguarda, in modo interconnesso, l’ambito ambientale, economico e sociale. Nascono in questa ottica le certificazioni ambientali, attestati nei quali viene certificato l’impegno di un’organizzazione per la tutela dell’ambiente. L’azienda, che su base volontaria decide di ottenere la certificazione, è obbligata a dotarsi di un Sistema di Gestione Ambientale, il quale deve essere verificato da parte di un ente accreditato. La norma ISO14001 in particolare stabilisce i criteri da rispettare per l'attuazione di un efficace Sistema di Gestione Ambientale. Il presente lavoro di tesi è stato sviluppato durante un tirocinio svolto presso un’azienda operante nel settore delle bonifiche del suolo, sottosuolo ed acque sotterranee, con sede a Bologna. Lo scopo di questo elaborato è quello di applicare i requisiti della norma UNI EN ISO14001 nell’ambito di tale attività di bonifica per il controllo degli impatti ambientali. In particolare, la prima parte del tirocinio è stata dedicata all’aggiornamento ed all’ottimizzazione del Sistema di Gestione Ambientale implementato dalla società per il calcolo degli impatti ambientali delle attività aziendali, in particolare di caratterizzazione e bonifica ambientale. Successivamente l’attenzione è stata posta ad un caso di studio attualmente gestito dalla società per valutare possibili miglioramenti, dal punto di vista ambientale, degli impatti generati dalle attività di bonifica applicate al sito. Lo strumento utilizzato per questa analisi è l’applicativo “Spreadsheets for Environmental Footprint Analysis” (SEFA), sviluppato da US EPA nel 2012.