603 resultados para catalizzatori supporto pentandioli
Resumo:
L’energia da onda potrebbe assumere un ruolo fondamentale per la transizione energetica durante i prossimi decenni, grazie alla sua continuità nel tempo molto superiore rispetto ad altre risorse rinnovabili e alla sua vasta distribuzione nello spazio. Tuttavia, l’energia da onda è ancora lontana dall’essere economicamente sostenibile, a causa di diverse problematiche tecnologiche e alle difficoltà finanziarie associate. In questa ricerca, si è innanzitutto affrontata una delle maggiori sfide tecniche, nello specifico la progettazione e modellazione di sistemi di ancoraggio per i dispositivi galleggianti, proponendo possibili soluzioni per la modellazione numerica di sistemi di ancoraggio complessi e per l’ottimizzazione dei dispositivi stessi. Successivamente sono state analizzate le possibili sinergie strategiche di installazioni per lo sfruttamento della energia da onda con altre risorse rinnovabili e la loro applicazione nel contesto di aree marine multiuso. In particolare, una metodologia per la valutazione della combinazione ottimale delle risorse rinnovabili è stata sviluppata e verificata in due diversi casi studio: un’isola e una piattaforma offshore. Si è così potuto evidenziare l’importante contributo della risorsa ondosa per la continuità energetica e per la riduzione della necessità di accumulo. Inoltre, è stato concepito un metodo di supporto decisionale multicriteriale per la valutazione delle opzioni di riuso delle piattaforme offshore alla fine della loro vita operativa, come alternativa al decommissionamento, nell’ottica di una gestione sostenibile e della ottimizzazione dell’uso dello spazio marino. Sulla base dei criteri selezionati, l’inclusione di attività innovative come la produzione di energia da onda si è dimostrata essere rilevante per rendere vantaggioso il riuso rispetto al decommissionamento. Numerosi studi recenti hanno infatti sottolineato che, nell’ambito della “crescita blu”, i mercati come l’oil&gas, le attività offshore e le isole stimoleranno lo sviluppo di tecnologie innovative come lo sfruttamento dell’energia da onda, promuovendo la sperimentazione e fornendo un importante contributo all’avanzamento tecnico e alla commercializzazione.
Resumo:
I miomi uterini sono la neoplasia uterina più comune e colpiscono fino al 30% delle donne in età fertile. Nonostante l’elevata prevalenza, pochi studi in Letteratura hanno analizzato i fattori di rischio per la crescita dei miomi uterini, mostrando spesso dei risultati contrastanti. Nel nostro studio osservazionale prospettico sono state arruolate pazienti che rispettassero i criteri di inclusione e di esclusione, con diagnosi di miomi uterini evidenziati mediante ecografia eseguita presso i nostri ambulatori, a partire da giugno 2017. A partire da gennaio 2019, sono state ricercate mensilmente le pazienti precedentemente arruolate che erano tornate presso i nostri ambulatori per esecuzione di ulteriore ecografia, a distanza di 24 ± 5 mesi, fino a raggiungere il campione designato, cioè 450 pazienti totali. È stato, quindi, valutato il tasso di crescita annuo del mioma di maggiori dimensioni ed è stato utilizzato l'approccio polinomiale frazionario multivariabile per selezionare i fattori di rischio anamnestici ed ecografici legati all’incremento volumetrico. Circa la metà dei miomi uterini analizzati ha mostrato stabilità dimensionale nel corso del follow-up (crescita ≤10%), mentre la restante metà ha mostrato una crescita > 10%. Il solo fattore di rischio associato alla crescita volumetrica dei miomi uterini è risultato essere il volume del mioma durante l’ecografia di arruolamento (P = 0.001), quindi miomi di piccole dimensioni presentano un tasso di crescita maggiore rispetto ai miomi di grandi dimensioni. Lo studio ha raccolto la più ampia casistica in Letteratura nella valutazione del naturale andamento di modifica dimensionale dei miomi uterini. Sebbene siano necessari ulteriori studi con campione più ampio, questi dati possono fornire un utile supporto per eseguire un adeguato counselling con le pazienti nella pratica clinica quotidiana.
Resumo:
Con questo lavoro si vuole contribuire al dibattito riapertosi con il ritorno dell’Educazione civica in tutte le scuole italiane, a seguito dell’entrata in vigore della Legge 92/2019, in particolare valorizzando il punto di vista degli insegnanti. La ricerca è impostata secondo il disegno quantitativo dell’indagine correlazionale su ampio campione, preparata da una fase esplorativa durante la quale si sono svolte interviste semistrutturate a dieci docenti. A partire dai risultati di tale esplorazione, si è prodotto un questionario che è stato testato e revisionato nell’a.s. 2020-2021. Successivamente si sono condotte due diverse rilevazioni nell’a.s. 2021-2022: la prima su un campione rappresentativo degli insegnanti di scuola secondaria dell’Emilia-Romagna (main study), e la seconda su un campione non rappresentativo su base nazionale (rilevazione di approfondimento). I risultati dell’indagine fanno emergere un’accoglienza parziale delle innovazioni introdotte con la “nuova” Educazione civica. Le maggiori difficoltà si osservano rispetto alla progettazione collegiale dell’insegnamento, che la normativa vorrebbe affidato in contitolarità a tutto il Consiglio di classe, ma rispetto al quale sembra realizzarsi principalmente una “spartizione” delle ore, a cui fanno fronte attività gestite separatamente dai singoli insegnanti. Approcci e pratiche coerenti con i modelli della didattica per competenze tardano ad affermarsi per questo insegnamento, nonostante si siano osservate prime evidenze favorevoli in tal senso. I risultati sollevano il bisogno di maggiore accompagnamento e supporto dei docenti nell’implementazione collegiale di un curricolo di Educazione civica intenzionalmente orientato allo sviluppo delle competenze di cittadinanza.
Resumo:
Il patrimonio residenziale italiano ammonta a 12,2 milioni di edifici, di cui il 57,5% ha più di 50 anni ed è stato costruito in assenza di normative specifiche, in termini di sicurezza sismica, resistenza al fuoco, efficienza energetica e accessibilità, e manifesta un’avanzata obsolescenza. Agire su questo patrimonio significa operare tramite le due macro categorie di intervento: demolizione/ricostruzione o riqualificazione energetica. Questa ricerca dottorale vuole indagare la demolizione/ricostruzione di comparti urbani periferici, costruiti tra 1945-1965, quale strategia di rigenerazione urbana, integrandola in un modello edilizio basato sui criteri dell’economia circolare. Vengono definite le caratteristiche costruttive e i principi di questo modello di progettazione ecosistemica, denominato Integrho, che coniuga i criteri di ecodesign nel ciclo di vita (Building in Layers, Design for Disassembly e il Design out Waste) con quelli di bioclimaticità e di adattabilità funzionale. Il lavoro è stato improntato secondo due livelli gerarchici, scala urbana e scala edilizia, tra loro correlate mediante quella intermedia dell’isolato, al fine di ottenere un obiettivo di natura metodologica: definire uno strumento di supporto decisionale, capace di indirizzare tra le categorie di intervento attraverso parametri oggettivi, valutati con analisi comparative speditive. Tale metodologia viene applicata al contesto di Bologna, e si fonda sulla creazione di un’approfondita base conoscitiva attraverso la catalogazione delle 8.209 pratiche edilizie di nuova costruzione presentate tra 1945 e il 1965. Tale strumento georeferenziato, contenente informazioni tipologiche, costruttive ecc., è impiegato per valutare in modo quantitativo e speditivo i consumi energetici, i materiali incorporati, gli impatti ambientali e i costi economici dei differenti scenari di intervento nel ciclo di vita. Infine, l’applicazione del modello edilizio Integrho e del paradigma Ri-Costruire per Ri-Generare ad uno degli isolati periferici selezionati, è impiegata come esemplificazione dell’intero processo, dalla fase conoscitiva a quella strumentale, al fine di verificarne l’attendibilità e l’applicabilità su larga scala.
Resumo:
Background Il trapianto polmonare rappresenta l'unica soluzione percorribile per l'insufficienza respiratoria end-stage. La principale limitante ad un suo impiego è rappresentata dalla scarsità di polmoni idonei. In questo contesto si colloca il progetto di ricondizionamento ex-vivo. L'implementazione risulta possibile attraverso il ricondizionamento di organi cosiddetti “marginali” o giudicati inizialmente non idonei al trapianto e da donatori a cuore fermo (Donor after Cardiac Death – DCD). Scopo Lo scopo principale del progetto è quello di analizzare i risultati a breve e medio termine del trapianto polmonare effettuato impiegando polmoni sottoposti a procedura di ricondizionamento ex-vivo in due centri trapianti di polmone a basso volume. Materiali e Metodi I dati sono stati raccolti retrospettivamente (da Giugno 2013 per quanto riguarda l’ISMETT e dal 2014 quelli dell’ Ospedale S. Orsola-Malpighi) e in maniera prospettica dal 2019. Risultati Sommando i dati relativi ad entrambi i centri, dal 2013 sono stati eseguiti un totale di 26 procedure di riperfusione. Sei volte i polmoni sono stati giudicati idonei al trapianto al termine con 5 trapianti doppi e un trapianto singolo sinistro. I risultati in termine di sopravvivenza a medio termine sono risultati sovrapponibili a quelli disponibili in letteratura, tuttavia è stato registrato un alto tasso di PGD (Primary Graft Disfunction) di grado 3, da imputare alla patologia di base del ricevente (ipertensione polmonare), che per protocollo di istituto rimane con supporto cardio-respiratorio (ECMO) dopo il trapianto. Conclusioni L’EVLP si conferma in centri di piccolo e medio volume un metodo sicuro ed efficace per implementare in numero di polmoni idonei al trapianto.
Resumo:
Nonostante l'utilizzo di strumenti informatici nella pratica didattica della matematica sia ormai ampiamente diffuso, l'insegnamento dei principi matematici dell'informatica è preso meno in considerazione anche a causa dei pochi punti di contatto nelle "Indicazioni Nazionali" tra le due materie, matematica e informatica, che sono invece intimamente correlate. Questa tesi descrive una attività didattica incentrata sul concetto di calcolabilità e computabilità e basata sul noto formalismo delle Macchine di Turing. É nostra opinione che coinvolgere gli studenti in tali tipologie di attività possa stimolare oltre all'apprendimento di competenze disciplinari, anche lo sviluppo di importanti competenze trasversali, in primis, il problem solving. L’attività proposta nella tesi è stata realizzata in una classe terza di un istituto tecnico economico dove, a seguito di una spiegazione dell’argomento, sono stati svolti due esercizi di gruppo, utilizzando il software \emph{Turing Machine Visualization}, che permette agli studenti e al docente di avere un supporto visuale al dialogo. Al termine dell’attività didattica è stato somministrato agli studenti un questionario che ha permesso di valutare le competenze acquisite da due prospettive distinte: soggettiva e oggettiva. I risultati del questionario sono ampliamente analizzati e discussi nella tesi.
Resumo:
Pacchetto R per il supporto dell'analisi di dati spazio temporali. Il pacchetto fornisce due funzioni, le quali permettono di avviare due applicazioni web, sviluppate con il framework shiny, per la visualizzazione di dati con connotazione spaziale di tipo areale o puntuale. Le applicazioni generano, a partire dai dati caricati dall'utente, due grafici interattivi per la visualizzazione della distribuzione temporale e spaziale del fenomeno che i dati descrivono. Sono previsti, all'interno dell'interfaccia utente delle applicazioni, una serie di componenti che permettono di personalizzare i grafici prodotti.
Resumo:
La manutenzione è attualmente considerata un servizio volto a preservare costantemente inalterata l’efficienza e la sicurezza di macchinari e impianti, senza per questo trascurare le esigenze di qualità, di risparmio energetico e di sicurezza. Gli obiettivi del presente lavoro sono quelli di analizzare le modalità con cui vengono forniti alcuni dati a supporto della manutenzione di un impianto industriale in una applicazione esistente, di analizzarle per rilevarne le criticità ed infine proporre ed implementare alcune modifiche migliorative. Per raggiungere tale risultato verrà presentato il caso di Righi Group SPA, società fornitrice di quadri elettrici e software per impianti automatici. Partendo dall’analisi di un progetto recentemente realizzato verranno effettuate alcune osservazioni e proposte che mostreranno in che modo sia possibile (tramite implementazioni software ed alcune eventuali modifiche hardware) sviluppare un evoluto sistema di raccolta ed elaborazione dati per gettare le basi ad un progetto di manutenzione preventiva.
Resumo:
Un danneggiamento in una struttura altera le sue caratteristiche dinamiche quali frequenze naturali, indici di smorzamento e forme modali associate ad ogni frequenza naturale. In particolare, nel caso di travi, una variazione di rigidezza flessionale è in generale definibile danneggiamento se corrisponde ad una riduzione della stessa; tuttavia, anche un incremento altera i parametri dinamici della struttura. Il presente elaborato investiga l’applicazione del cambiamento nelle curvature modali per identificare un incremento di rigidezza flessionale in una trave metallica semplicemente appoggiata studiata presso il laboratorio LISG dell’Università di Bologna. Utilizzando le differenze centrali, le curvature modali sono state calcolate dalle forme modali ottenute sperimentalmente. Le modalità di calcolo utilizzate per identificare le forme modali della trave sono accomunate dall’utilizzo delle funzioni di trasferimento sperimentali ricavate sia dal rapporto tra le trasformate di output ed input, sia facendo uso della densità di potenza spettrale (PSD e CPSD). A supporto delle indagini sperimentali e per validare le modalità di calcolo utilizzate è stata modellata tramite elementi finiti una trave semplicemente appoggiata che simula la configurazione iniziale e quella irrigidita localmente in un suo tratto. I risultati numerici condotti validano le modalità utilizzate per la determinazione delle forme modali, evidenziando una forte sensibilità delle curvature modali all’irrigidimento locale. Come atteso, lato sperimentale le forme modali risultano meno accurate di quelle dedotte dalle esperienze numeriche. I risultati ottenuti evidenziano limiti e potenzialità dell’algoritmo di identificazione impiegato.
Resumo:
Il sistema muscolo scheletrico è costituito dall’insieme di ossa, cartilagini e tessuti molli come muscoli, tendini e legamenti, che presentano una diversa struttura e differenti proprietà meccaniche tra loro. La sua principale funzione è quella di fornire supporto, forma e garantire il movimento fisiologico del corpo. Per questa ragione, il sistema muscolo scheletrico e continuamente sollecitato e di conseguenza molto soggetto a traumi o infortuni. Un’alternativa all’approccio chirurgico tradizionale è l’ingegneria tissutale che permette di creare scaffold in grado di promuovere la rigenerazione dei tessuti naturali. Negli ultimi decenni si è riscontrato un forte incremento dell’utilizzo della stampa 3D e dell’elettrofilatura come tecniche di fabbricazione di questi scaffold grazie ai loro diversi vantaggi. La stampa 3D presenta diversi benefici, tra cui la possibilità di creare costrutti personalizzati in grado di riprodurre similmente la geometria del tessuto nativo con efficienza dei costi e tempi di produzione ridotti rispetto alle tecniche tradizionali. Tuttavia, questa tecnica presenta ancora una limitata risoluzione sufficiente, ad esempio, per riprodurre la struttura e le proprietà del tessuto osseo, ma non idonea al raggiungimento della scala nanometrica, tipica dei tessuti fibrosi muscolo scheletrici. Al contrario, l’elettrofilatura è in grado di produrre fibre nanometriche che riescono a mimare la matrice extracellulare di questi tessuti. Tuttavia, si riscontrano ancora alcune difficoltà nel controllare la struttura tridimensionale e le proprietà meccaniche di questi scaffold nella scala micro e macrometrica. Lo scopo di questa tesi è quello di analizzare gli studi che utilizzano un approccio combinato tra stampa 3D ed elettrofilatura per la produzione di scaffold per la rigenerazione del tessuto muscolo scheletrico, definendo lo stato dell’arte dei vari processi di produzione e le possibili prospettive future.
Resumo:
Il presente lavoro propone la stesura di un codice in ambiente MATLAB per l'analisi energetica di powertrain ibridi operanti nel ciclo WLTP con il particolare funzionamento del motore termico benzina a punto fisso stechiometrico. Nello specifico, il codice prende dei dati in input tramite un'interfaccia grafica ed avvia una simulazione, i cui risultati principali corrispondono ad emissioni di anidride carbonica per chilometro percorso ed ai chilometri percorsi con un litro di carburante. Queste sono le due grandezze che questo lavoro si prefigge di ottimizzare, dalle quali proviene la scelta del particolare funzionamento del motore termico. Sono state implementate due differenti strategie di controllo, una generale ed una più particolare. La simulazione con la strategia generale è stata applicata a tre differenti scenari reali, con le caratteristiche tecniche di tre veicoli realmente esistenti che vengono inserite nell'interfaccia grafica. I risultati provenienti da queste simulazioni sono stati poi analizzati e discussi nel dettaglio, anche con l'ausilio di grafici a supporto della spiegazione. La strategia di controllo particolare non è stata applicata a scenari reali ma ha portato alla definizione di una ipotetica architettura di powertrain ibrido, alla quale la sopracitata strategia si adatta al meglio. Dopo aver proposto miglioramenti e possibili ulteriori sviluppi di questo lavoro, sono state tratte le conclusioni generali, allargando il tutto al contesto più ampio in cui si va ad inserire.
Resumo:
L'oggetto del mio studio sono i contenuti televisivi (pubblicità, programmi, promozioni televisive) che accompagnano i film archiviati nelle videocassette contenute nell'archivio della videoteca del Dipartimento delle Arti. Una prima fase del lavoro, di natura pratica, mi ha fisicamente portato in videoteca per studiare un campione di più di 2500 videocassette in poco più di un mese e raccogliere dati relativi a quali contenuti di natura televisiva vi si presentassero insieme al film archiviato. Ho visionato e censito, con la supervisione del dott. Gianmario Merizzi, circa 1800 cassette VHS, corrispondenti alla filmografia italiana e francese, raccolte e registrate in un periodo compreso tra gli anni '80 e i primi 2000. Dopo aver raccolto tutte le informazioni utili, ho eseguito un'analisi palinsestuale e pubblicitaria su un campione ridotto di 7 videocassette scelte secondo criteri ben precisi. L'analisi palinsestuale, con il supporto del correlatore, il prof. Luca Barra, ha rivelato i cambiamenti delle strategie di programmazione messe in atto dalle reti in risposta ai cambiamenti normativi, tecnologici e competitivi che hanno segnato la TV italiana negli anni '80 e '90; L'analisi pubblicitaria ha preso in esame i 25 messaggi pubblicitari contenuti nei 7 volumi approfonditi, descrivendone le dinamiche sia del messaggio pubblicitario stesso, sia di come questo si contestualizza all'interno della programmazione televisiva. Infine, ho dedicato un capitolo al valore archivistico dei contenuti della videoteca, raccogliendo le testimonianze del dott. Gianmario Merizzi e della dott.ssa Michela Giorgi, i quali mi hanno aiutato a ricostruire i momenti salienti della costituzione dell'archivio e a riflettere sul futuro incerto che questi servizi oggi affrontano, in un presente sempre più virtuale e ipermediato.
Resumo:
Il Machine Learning si sta rivelando una tecnologia dalle incredibili potenzialità nei settori più disparati. Le diverse tecniche e gli algoritmi che vi fanno capo abilitano analisi dei dati molto più efficaci rispetto al passato. Anche l’industria assicurativa sta sperimentando l’adozione di soluzioni di Machine Learning e diverse sono le direzioni di innovamento che ne stanno conseguendo, dall’efficientamento dei processi interni all’offerta di prodotti rispondenti in maniera adattiva alle esigenze del cliente. Questo lavoro di tesi è stato realizzato durante un tirocinio presso Unisalute S.p.A., la prima assicurazione in ambito sanitario in Italia. La criticità intercettata è stata la sovrastima del capitale da destinare a riserva a fronte dell’impegno nei confronti dell’assicurato: questo capitale immobilizzato va a sottrarre risorse ad investimenti più proficui nel medio e lungo termine, per cui è di valore stimarlo appropriatamente. All'interno del settore IT di Unisalute, ho lavorato alla progettazione e implementazione di un modello di Machine Learning che riesca a prevedere se un sinistro appena preso in gestione sarà liquidato o meno. Dotare gli uffici impegnati nella determinazione del riservato di questa stima aggiuntiva basata sui dati, sarebbe di notevole supporto. La progettazione del modello di Machine Learning si è articolata in una Data Pipeline contenente le metodologie più efficienti con riferimento al preprocessamento e alla modellazione dei dati. L’implementazione ha visto Python come linguaggio di programmazione; il dataset, ottenuto a seguito di estrazioni e integrazioni a partire da diversi database Oracle, presenta una cardinalità di oltre 4 milioni di istanze caratterizzate da 32 variabili. A valle del tuning degli iperparamentri e dei vari addestramenti, si è raggiunta un’accuratezza dell’86% che, nel dominio di specie, è ritenuta più che soddisfacente e sono emersi contributi non noti alla liquidabilità dei sinistri.
Resumo:
Il presente elaborato prende in analisi due diverse traduzioni italiane, la traduzione di Gabriele Baldini pubblicata per la prima volta nel 1950 e quella di Tommaso Pincio uscita nel 2021, del romanzo distopico "1984" di George Orwell, con particolare attenzione alla traduzione del Newspeak. Lo scopo finale è quello di individuare le differenti scelte traduttive adottate dai due traduttori presi in esame. A supporto di questa analisi, nel primo capitolo verrà effettuata una panoramica generale delle lingue inventate, mentre nel secondo capitolo verrà presentato l’autore, l’opera stessa e la sua storia editoriale. Nel terzo capitolo l’attenzione verrà poi rivolta alla teoria linguistica di Orwell e alle caratteristiche principali del Newspeak. Infine, nel quarto capitolo, verrà effettuata la vera e propria analisi delle scelte traduttive relative al Newspeak adottate dai due traduttori italiani.
Resumo:
Il testo verte sulla traduzione audiovisiva e le tecniche di doppiaggio e sottotitolaggio. In particolare, si parla delle strategie di doppiaggio utilizzate per tradurre i riferimenti specifici alla cultura ebraica: foreignization e domestication. Come esempio di foreignization vengono presentati alcuni episodi della sitcom americana The Nanny (La Tata), mentre a supporto della domestication vengono analizzati alcuni episodi della serie TV di Amazon prime Video The Marvelous Mrs. Maisel (La fantastica Signora Maisel).