575 resultados para matrice extracellulare, rigidezza matrice
Resumo:
In Italia, quasi il 90% delle abitazioni esistenti sono state edificate prima degli anni Settanta del Novecento, se consideriamo la tipologia costruttiva, le normative per la sicurezza strutturale in ambito sismico e il comportamento energetico, ne deriva che la maggior parte non risponde agli standard vigenti. A questo si aggiunge la consapevolezza che il patrimonio residenziale costruito in quel periodo, e che occupa le prime periferie delle città, non si presta per sua natura costitutiva ad essere oggetto di interventi di riqualificazione che siano giustificabili in termini di costi-benefici dal punto di vista economico e per ottimizzazione ingegneristica. È opportuno ripensare piani e programmi di rinnovamento non circoscritti alle categorie di risanamento, efficientamento, manutenzione, adeguamento, ma che siano in grado di assumere in positivo il tema della sostituzione secondo il paradigma del ri-costruire per ri-generare per sviluppare strategie a medio-lungo termine per soddisfare un quadro esigenziale-prestazionale coerente con la legislazione europea, in termini di sicurezza, efficienza e impatto ambientale, e promuovere la pianificazione e lo sviluppo sostenibile delle città. L’edilizia circolare è qui intesa come un’attività finalizzata alla costruzione e gestione degli edifici all’interno di un ecosistema economico basato sulla circolarità dei processi. L’obiettivo della ricerca è duplice: (i) metodologico, rivolto alla formalizzazione di un modello innovativo d’intervento associato ai principi della circolarità e basato sulla conoscenza approfondita del patrimonio esistente; e (ii) progettuale, prevede la progettazione di un prototipo di unità abitativa e l’applicazione del modello ad un caso di studio, che viene assunto come applicazione sperimentale ad un contesto reale e momento conclusivo del processo. La definizione di una matrice valutativa consente di formulare indicazioni operative nella fase precedente l’intervento per rendere espliciti, attraverso un indice sintetico di supporto decisionale, i criteri su cui fondare le scelte tra le due macro-categorie di intervento (demolizione con ricostruzione o rinnovo).
Resumo:
Three dimensional (3D) printers of continuous fiber reinforced composites, such as MarkTwo (MT) by Markforged, can be used to manufacture such structures. To date, research works devoted to the study and application of flexible elements and CMs realized with MT printer are only a few and very recent. A good numerical and/or analytical tool for the mechanical behavior analysis of the new composites is still missing. In addition, there is still a gap in obtaining the material properties used (e.g. elastic modulus) as it is usually unknown and sensitive to printing parameters used (e.g. infill density), making the numerical simulation inaccurate. Consequently, the aim of this thesis is to present several work developed. The first is a preliminary investigation on the tensile and flexural response of Straight Beam Flexures (SBF) realized with MT printer and featuring different interlayer fiber volume-fraction and orientation, as well as different laminate position within the sample. The second is to develop a numerical analysis within the Carrera' s Unified Formulation (CUF) framework, based on component-wise (CW) approach, including a novel preprocessing tool that has been developed to account all regions printed in an easy and time efficient way. Among its benefits, the CUF-CW approach enables building an accurate database for collecting first natural frequencies modes results, then predicting Young' s modulus based on an inverse problem formulation. To validate the tool, the numerical results are compared to the experimental natural frequencies evaluated using a digital image correlation method. Further, we take the CUF-CW model and use static condensation to analyze smart structures which can be decomposed into a large number of similar components. Third, the potentiality of MT in combination with topology optimization and compliant joints design (CJD) is investigated for the realization of automated machinery mechanisms subjected to inertial loads.
Resumo:
Allostery is a phenomenon of fundamental importance in biology, allowing regulation of function and dynamic adaptability of enzymes and proteins. Despite the allosteric effect was first observed more than a century ago allostery remains a biophysical enigma, defined as the “second secret of life”. The challenge is mainly associated to the rather complex nature of the allosteric mechanisms, which manifests itself as the alteration of the biological function of a protein/enzyme (e.g. ligand/substrate binding at the active site) by binding of “other object” (“allos stereos” in Greek) at a site distant (> 1 nanometer) from the active site, namely the effector site. Thus, at the heart of allostery there is signal propagation from the effector to the active site through a dense protein matrix, with a fundamental challenge being represented by the elucidation of the physico-chemical interactions between amino acid residues allowing communicatio n between the two binding sites, i.e. the “allosteric pathways”. Here, we propose a multidisciplinary approach based on a combination of computational chemistry, involving molecular dynamics simulations of protein motions, (bio)physical analysis of allosteric systems, including multiple sequence alignments of known allosteric systems, and mathematical tools based on graph theory and machine learning that can greatly help understanding the complexity of dynamical interactions involved in the different allosteric systems. The project aims at developing robust and fast tools to identify unknown allosteric pathways. The characterization and predictions of such allosteric spots could elucidate and fully exploit the power of allosteric modulation in enzymes and DNA-protein complexes, with great potential applications in enzyme engineering and drug discovery.
Resumo:
L’elaborato approfondisce il diritto alla salute nell’ordinamento dell’Unione europea, con la consapevolezza che il settore della sanità, nella complessità di una tensione perdurante tra la sua matrice sociale e l’applicazione di logiche europee di mercato, rappresenta un ambito da sempre sottratto all’intervento diretto e vincolante delle istituzioni. Contemporaneamente, prende spunto dall’osservazione della transizione digitale dei sistemi sanitari nazionali per proporre una rilettura dei tradizionali equilibri istituzionali tra ordinamenti e constatare il grado di influenza dell’Unione oltre la dimensione transfrontaliera. Infatti, per le attuali esigenze di sostenibilità dei sistemi di tutela della salute e per il valore aggiunto riconosciuto alle azioni europee nel corso della gestione della pandemia da Covid-19, l’eHealth ha rappresentato l’occasione per una vigorosa intrusione delle istituzioni europee entro prerogative tipicamente statuali, fino all’emersione di una eGovernance sanitaria europea. Pertanto, la trattazione compie un percorso evolutivo che muove dalla Direttiva 2011/24 sull’assistenza transfrontaliera e l’assistenza sanitaria online, in combinato disposto con il complesso degli atti di soft law connessi, per verificarne l’esiguo impatto sui sistemi sanitari degli Stati membri e, alla luce dei recenti investimenti strategici ed interventi normativi rilevanti in tema di tecnologie applicate alla sanità, riconoscerne il sostanziale superamento. In particolare, il confronto tra l’insufficiente livello di digitalizzazione raggiunto finora nei sistemi sanitari degli Stati membri ed il tenore della Proposta di regolamento sullo European Health Data Space suggerisce l’evoluzione dell’impianto di governo dei dati sanitari stabilito nella Direttiva, a partire dalla previsione di una disciplina comune sulla cartella sanitaria. A questo proposito, l’interoperabilità tra tecnologie diviene un presupposto operativo indefettibile, che corrobora la natura ‘tecnologicamente condizionata’ del diritto alla salute e propone l’idea che la sanità digitale rappresenti un passo in avanti verso un’assistenza europea uniforme.
Resumo:
Il primo capitolo introduce l’importante problema dei rifiuti plastici e l’impatto che hanno nell’ambiente, esaminando sia i rifiuti plastici di grandi dimensioni sia le microplastiche. A riguardo, un documento molto significativo è quello della New Plastics Economy: questo raccoglie rilevanti informazioni sull’andamento della produzione e dei rifiuti plastici negli anni e va a delineare dei suggerimenti, delle linee guida che dovrebbero essere adottate per migliorare questa attuale condizione di crisi ambientale dovuta proprio alle materie plastiche. Il secondo capitolo ha il compito di introdurre i trentasei nuovi biocompositi in fase di produzione e sperimentazione e con loro il primo progetto grafico di tesi del catalogo per l’azienda Arianna Fibers. Una prima parte affronta il tema della valorizzazione dello scarto. Ed è qui che i gusci di frutta secca hanno l’opportunità di trasformarsi da rifiuto in risorsa, da materia di scarto in materia prima. Karà bio-compositi sono dei nuovi materiali composti da una matrice di bioplastica biodegradabile e da scarti di gusci di frutta secca. Il mio obiettivo è stato quello di progettare un catalogo di questi materiali che raccoglie campioni materici, informazioni, foto, render e applicazioni. Il terzo capitolo riguarda la progettazione del packaging cosmetico come applicazione dei nuovi materiali biocompositi precedentemente descritti. Si parla dunque di Impronta Ambientale, LCA ed Ecodesign del packaging cosmetico e da queste ed altre valutazioni su casi studio presenti sul mercato nasce Karà bio-cosmetics: una linea di packaging cosmetici sostenibili realizzati con i materiali biocompositi biodegradabili. La tipologia di materiale scelto è quella dei biocompositi a matrice PHA, unica bioplastica biodegradabile in ambiente aperto. Si tratta di una linea di diversi pezzi associabili a vari tipi di cosmetici che l’utente potrà poi personalizzare.
Resumo:
La propoli è una sostanza naturale prodotta dalle api operaie in seguito alla raccolta di resine ed estratti vegetali; è impiegata nell’alveare come materiale di costruzione con funzione cementante e protettiva. Essendo un prodotto di origine naturale, la sua composizione è estremamente complessa ed allo stesso tempo peculiare: molteplici sono le sostanze chimiche che ne fanno parte, la loro presenza e concentrazione dipende dal luogo d’origine, dall’ape, dalla stagione, dalla specie vegetale bottinata e da numerose altre variabili. È importante considerare la variabilità compositiva della propoli per poterne valutare le caratteristiche qualitative, che ancora oggi non sono ufficialmente definite a livello Europeo, ma che fanno riferimento principalmente all’intensità con cui essa è in grado di determinare effetti benefici nell’uomo. Dalla peculiarità delle molecole che la compongono emergono le sue potenzialità come sostanza antimicrobica, antiossidante, antiinfiammatoria ed antitumorale, caratteristiche che la rendono sempre più spesso oggetto di studi e ricerche scientifiche. In questo studio vengono messi a confronto i risultati ed i metodi analitici degli studi effettuati su tale matrice: ne deriva una forte difformità, data dall’origine dei campioni e dalla impossibilità, ad oggi, di ottenere un prodotto standardizzato.
Resumo:
Per conglomerato bituminoso di riciclo (Recycled Asphalt Pavement, RAP) si intende il materiale rimosso dalle pavimentazioni stradali in seguito ad opere di manutenzione. Per sua natura, dunque, tale materiale è costituito da aggregati naturali ricoperti da bitume in superficie. Il riciclo del RAP per la produzione di nuovo conglomerato bituminoso è da tempo in uso; tuttavia, una grande quantità di RAP rimane stoccata in impianto o inviato in discarica. Di conseguenza, diversi studi scientifici hanno investigato l’impiego del RAP in sostituzione agli aggregati naturali per la produzione di calcestruzzo, ma ancora non ci sono ricerche specifiche che valutano le caratteristiche del RAP come aggregato e la durabilità sul calcestruzzo realizzato con RAP. Questa tesi si sviluppa nell’ambito di un progetto, finanziato dalla Fondazione Cariplo, sull’economia circolare per l’utilizzo dei RAP nei calcestruzzi (coordinatore del progetto: Politecnico di Milano, partners del progetto: Università di Bologna, UniBO/DICAM e Istituto per le Tecnologie della Costruzione – Consiglio Nazionale delle Ricerche, ITC-CNR). Gli obiettivi di questa tesi sono stati la caratterizzazione dei RAP provenienti da cinque siti di produzione differenti e l’analisi di calcestruzzi realizzati con diverse percentuali di RAP e tipi di cemento. Si è voluto studiare come l’impiego di questo materiale di riciclo influenzi le proprietà del calcestruzzo indurito. I risultati ottenuti sui diversi RAP hanno messo in luce differenze fra le diverse forniture e rispetto agli aggregati naturali comunemente utilizzati in miscele di calcestruzzo. Inoltre, lo strato bituminoso esterno influenza notevolmente le proprietà del RAP nei confronti dell’adesione con la matrice cementizia. Nei calcestruzzi contenenti RAP è stato riscontrato un generale aumento di porosità aperta e di macro-porosità rispetto ad un calcestruzzo ordinario, caratteristiche che possono influire sulla durabilità del prodotto.
Resumo:
Un danneggiamento in una struttura altera le sue caratteristiche dinamiche quali frequenze naturali, indici di smorzamento e forme modali associate ad ogni frequenza naturale. In particolare, nel caso di travi, una variazione di rigidezza flessionale è in generale definibile danneggiamento se corrisponde ad una riduzione della stessa; tuttavia, anche un incremento altera i parametri dinamici della struttura. Il presente elaborato investiga l’applicazione del cambiamento nelle curvature modali per identificare un incremento di rigidezza flessionale in una trave metallica semplicemente appoggiata studiata presso il laboratorio LISG dell’Università di Bologna. Utilizzando le differenze centrali, le curvature modali sono state calcolate dalle forme modali ottenute sperimentalmente. Le modalità di calcolo utilizzate per identificare le forme modali della trave sono accomunate dall’utilizzo delle funzioni di trasferimento sperimentali ricavate sia dal rapporto tra le trasformate di output ed input, sia facendo uso della densità di potenza spettrale (PSD e CPSD). A supporto delle indagini sperimentali e per validare le modalità di calcolo utilizzate è stata modellata tramite elementi finiti una trave semplicemente appoggiata che simula la configurazione iniziale e quella irrigidita localmente in un suo tratto. I risultati numerici condotti validano le modalità utilizzate per la determinazione delle forme modali, evidenziando una forte sensibilità delle curvature modali all’irrigidimento locale. Come atteso, lato sperimentale le forme modali risultano meno accurate di quelle dedotte dalle esperienze numeriche. I risultati ottenuti evidenziano limiti e potenzialità dell’algoritmo di identificazione impiegato.
Resumo:
Nell’ambito dell’analisi dati è spesso necessario fare uso di grandi matrici per descrivere un dataset. In molti casi, per poterlo analizzare, risulta utile approssimare la matrice dei dati come prodotto di altre matrici. A tale fine, la Decomposizione in Valori Singolari (SVD) è una decomposizione ampiamente utilizzata, in quanto consente di ottenere la migliore approssimazione di un certo rango della matrice. Nonostante le proprietà di ottimalità, le matrici che si ottengono da tale decomposizione non risultano particolarmente significative in funzione dei dati e risulta perciò difficile utilizzarle direttamente per dedurre informazioni sul dataset. Per superare questo limite, abbiamo introdotto la Decomposizione CUR, un particolare tipo di decomposizione di rango basso, in cui la matrice di partenza viene espressa in funzione solo di alcune righe e colonne della matrice stessa. Essendo costruite a partire da alcuni dati effettivi della matrice, individuati attraverso la tecnica del Subspace Sampling, le matrici ottenute da questa decomposizione consentono di poter fare considerazioni sull’intero dataset. In questa tesi viene descritto l’algoritmo per la costruzione delle matrici di tale decomposizione e vengono messe in evidenza le garanzie sull’errore relativo dell’approssimazione ottenuta. Infine, viene presentata l’applicazione della Decomposizione CUR ad un dataset reale contenente i risultati delle votazioni dei giudici della Corte Suprema degli Stati Uniti e vengono analizzati e discussi i risultati ottenuti.
Resumo:
Un problema frequente nell'analisi dei dati del mondo reale è quello di lavorare con dati "non coerenti", poiché raccolti a tempi asincroni o a causa di una successiva modifica "manuale" per ragioni che esulano da quelle matematiche. In particolare l'indagine dell'elaborato nasce da motivazioni di tipo finanziario, dove strumenti semplici come le matrici di correlazione, che sono utilizzate per capire le relazioni tra vari titoli o strategie, non rispettano delle caratteristiche cruciali a causa dell'incoerenza dei dati. A partire da queste matrici "invalide" si cerca la matrice di correlazione più vicina in norma, in modo da mantenere più informazioni originali possibili. Caratterizzando la soluzione del problema tramite analisi convessa, si utilizza il metodo delle proiezioni alternate, largamente utilizzato per la sua flessibilità anche se penalizzato dalla velocità di convergenza lineare. Viene quindi proposto l'utilizzo dell'accelerazione di Anderson, una tecnica per accelerare la convergenza dei metodi di punto fisso che, applicata al metodo di proiezione alternata, porta significativi miglioramenti in termini di tempo computazionale e numero di iterazioni. Si mostra inoltre come, nel caso di varianti del problema, l'applicazione dell'accelerazione di Anderson abbia un effetto maggiore rispetto al caso del problema "classico".
Resumo:
L’elaborato si pone l’obiettivo di realizzare e validare dei campioni in resina epossidica per la rilevazione di attività di scariche parziali interne. Nella prima fase dell’attività di ricerca, sono definite le linee progettuali riguardanti la scelta dei materiali da utilizzare, al fine di creare degli stampi per poter ottenere dei campioni di forma idonea e, successivamente, si procede alla scelta del tipo di resina e degli elettrodi da adoperare. All’interno dei provini, viene iniettata, con una siringa di precisione dotata di un ago sottile, una cavità di aria indicante un eventuale difetto nella matrice polimerica dell’isolante, se sottoposto a un determinato tipo di stress (elettrico, termico, meccanico). I provini sono testati in un circuito di prova ad alto voltaggio per la misura della tensione di innesco alla quale si verificano le scariche; attraverso l’utilizzo di un software specifico, viene poi ricavato il PD pattern utile per l’approccio all’identificazione della tipologia di scarica. Inoltre, sono effettuate delle simulazioni con l’ambiente di calcolo Comsol ottenendo il valore del campo elettrico all’interno della cavità di aria. Il PD pattern viene, in seguito, analizzato estrapolando dei marker statistici di interesse per l’applicazione della fuzzy logic. Questa tipologia di logica prevede la verifica di regole linguistiche per la corretta identificazione del tipo di scarica, individuata dal pattern in esame (interna, superficiale o corona). A seconda dei valori ricavati dai marker, vengono applicate le regole della fuzzy logic per poter classificare, nei campioni esaminati, l’attività di scarica parziale come interna.
Resumo:
Il problema dello smaltimento delle plastiche tradizionali di origine petrolchimica ha stimolato l’interesse verso i materiali plastici bio-based biodegradabili come i PHB che, al contrario, possono essere degradati facilmente e in tempi rapidi dai batteri naturalmente presenti nell’ecosistema. Uno dei principali campi di applicazione dei PHA è quello del food packaging. L’uso di imballaggi attivi dove un antiossidante, disperso nella matrice polimerica, migra dall’imballaggio al cibo può essere utile per aumentare la shelf life degli alimenti ma anche per introdurre con la dieta fonti antiossidanti esogene che neutralizzano gli effetti dannosi dei radicali liberi, normalmente prodotti dai processi biologici. I tannini sono antiossidanti naturali che agiscono da riducenti, donano un idrogeno ai radicali liberi stabilizzandoli (free radical scavengers). Si può quindi usare il tannino estratto dal legno come bioadditivo per matrici biopolimeriche (PHB). Recuperando questo prodotto di scarto dell’industria agro-alimentare, si riesce ad abbassare il costo del prodotto finale che risulterà inoltre 100% biodegradabile e con capacità antiossidanti, quindi particolarmente adatto per il food packaging monouso. La bioplastica finale è stata ottenuta “melt mixando” il tannino in polvere, il PHB in pellets e il catalizzatore Ti(OBu)4 liquido in un mescolatore interno Brabender. Sono stati creati 4 campioni a percentuale crescente di tannino e catalizzatore. Sono state effettuate: - Prove di estrazione in acqua per capire quanto tannino non si fosse legato alla matrice biopolimerica. - Analisi FTIR per capire se fosse avvenuto un legame di transesterificazione tra matrice e tannino usando il Ti(OBu)4. - Prove di radical scavenging activity attraverso la spettroscopia uv-visibile per quantificare il potere antiossidante del tannino. - Analisi GPC, DSC e prove di trazione per confrontare le proprietà meccaniche e termiche dei campioni con quelle del PHB puro.
Resumo:
Il lavoro proposto si pone l’obiettivo di progettare l’impianto di climatizzazione del Museo Nazionale della Resistenza, sito in Milano, sulla base dei criteri di riduzione delle emissioni climalteranti e valorizzando l’utilizzo delle fonti energetiche rinnovabili presenti nel territorio, nella fattispecie attraverso lo sfruttamento dell’acqua di falda e dell’energia solare. Il primo capitolo è dedicato alla descrizione del processo di dimensionamento effettuato ed ai criteri di progettazione adottati. Lo sfruttamento diretto dell’energia solare avviene attraverso un impianto fotovoltaico integrato alla struttura museale; nel secondo capitolo viene stimata la sua capacità di produzione elettrica annuale. Vengono quindi messi a confronto i risultati ottenuti, calcolati sia su base mensile in relazione alla norma UNI 10349, sia attraverso una simulazione energetica di tipo dinamico condotta su base oraria mediante l’utilizzo del software IES VE. Viene inoltre valutata la capacità della cella fotovoltaica nel convertire la radiazione incidente in energia elettrica ed analizzato il suo comportamento al variare delle condizioni operative. Nel terzo capitolo vengono studiati gli effetti dell’irraggiamento estivo sulle pareti opache del museo, valutando la capacità delle murature di ritardare l’onda di flusso termico. È inoltre effettuata una trattazione analitica per il calcolo dei parametri necessari a determinare il comportamento dinamico dell’involucro. Attraverso la simulazione dinamica è stato possibile stimare le richieste energetiche ed elettriche, estive e invernali, della struttura museale. La soluzione impiantistica proposta per la generazione di acqua calda e refrigerata, fa uso di gruppi polivalenti acqua-acqua con possibilità di condensare o evaporare con acqua di falda. Tale soluzione viene poi analizzata e confrontata con una più versatile, ma meno efficiente, una pompa di calore aria-acqua.
Resumo:
Gli integratori esponenziali costituiscono un'ampia classe di metodi numerici per la risoluzione di equazioni differenziali ordinarie. I primi esempi risalgono a ottanta anni fa e vennero introdotti per la prima volta da Certaine e Pope, ma non hanno avuto un ruolo importante nelle applicazioni per molto tempo, in quanto fanno uso esplicito dell'esponenziale di matrice o di funzioni di matrici di grandi dimensioni. Originariamente, tali metodi vennero sviluppati per problemi stiff e successivamente vennero applicati a equazioni differenziali alle derivate parziali; l'applicazione degli integratori esponenziali a problemi di notevole rilevanza diede inizio a un rigoroso approfondimento teorico e alla costruzione di nuove classi, ad esempio con ordine di convergenza maggiore. I primi modelli di integratori esponenziali sfruttano la linearizzazione del problema e fanno uso della matrice Jacobiana. In generale, tale matrice non ha una struttura particolare e varia continuamente nel tempo, pertanto le tecniche standard per la valutazione dell'esponenziale non sono molto efficienti dal punto di vista computazionale. In questa tesi, studiamo inizialmente l'esponenziale di matrice e il Metodo di Scaling and Squaring per approssimarlo. In seguito, introduciamo alcuni metodi numerici a un passo per la risoluzione di Problemi di Cauchy; infine studiamo il Metodo di Rosenbrock - Eulero che fa uso degli integratori esponenziali per risolvere problemi differenziali con dato iniziale, ne analizziamo convergenza e stabilità e lo applichiamo all'equazione differenziale alle derivate parziali di Allen - Cahn.
Resumo:
Lo scopo di questa tesi è introdurre alla analisi delle componenti principali, una metodologia statistico computazionale utilizzata per l'interpretazione di grandi insiemi di dati. L'obiettivo principale di questa tecnica è quello di ridurre le dimensioni del problema ricercando delle combinazioni lineari delle variabili di partenza che mantengano le principali informazioni sulla variabilità dei dati. In particolare, all’interno di questo elaborato verrà trattata una variante della PCA: l’analisi delle componenti principali “sparsa”. Dopo alcuni richiami iniziali verrà presentato un approccio standard all'analisi delle componenti principali, legato alle proprietà della matrice di covarianza (o correlazione) dei dati iniziali. Successivamente ne verrà mostrato un secondo approccio basato sulla decomposizione in valori singolari della matrice dei dati. Questo metodo permetterà di ottenere gli stessi risultati dell'approccio standard senza calcolare in modo esplicito la matrice di covarianza (o correlazione) dei dati e consentirà di sfruttare alcune proprietà importanti della decomposizione in valori singolari. Per introdurre la variante “sparsa” dell’analisi delle componenti principali verranno riportate alcune nozioni di base sulla regressione lineare. Infatti, questa tecnica ci permetterà di ottenere delle nuove combinazioni lineari delle variabili originarie che abbiano un numero alto di coefficienti uguali a zero, questo favorirà l’analisi delle componenti principali. La tesi si concluderà con la presentazione di alcuni risultati rielaborati in linguaggio Matlab, insieme alla valutazione dei risultati ottenuti.