510 resultados para Scambiabilità, distribuzione ipergeometrica, distribuzione binomiale
Resumo:
La finalità della tesi è quella di poter progettare il cerchione del veicolo solare "Emilia 5" in materiale composito. Questa auto è l’evoluzione della "Emilia 4", sviluppata dalla squadra Onda Solare in collaborazione con l’Università di Bologna, con cui sono state vinte molte gare. Tramite software (Ansys) è stato realizzato il modello virtuale del cerchione in fibra di carbonio e, con l'ausilio dell'analisi agli elementi finiti, ne è stata verificata la stabilità, sottoponendolo a cinque condizioni di carico diverse. Lo studio approfondisce le tematiche riguardanti i materiali compositi, il concetto di sequenza di laminazione e come varia la distribuzione delle tensioni al variare di esse. In particolare, viene analizzato con attenzione lo studio tramite software della sequenza di laminazione che permette di ottenere i risultati migliori per il tipo di applicazione. Infine, vengono confrontati i dati ottenuti dalle simulazioni effettuate, per l'analisi e lo studio dei dati significativi.
Resumo:
Il piede è la struttura anatomica multi-articolare che media il contatto dell’apparato muscoloscheletrico con il suolo ed è, quindi, fondamentale per la locomozione e per la maggioranza dei task motori. Per questo, l’analisi cinematica intrarticolare in-vivo del complesso piede-caviglia risulta essere di grande interesse in ambito biomeccanico e in ambito clinico. La quantificazione del moto relativo è, però, complessa a causa del numero di ossa presenti nel piede, ben 26, e alla loro distribuzione. Tali limitazioni possono essere superate ricorrendo a misure in risonanza magnetica dinamica (DMRI). Questo elaborato presenta un primo approccio esplorativo per determinare la cinematica del piede. In particolare l’analisi si è concentrata, per semplicità, sullo studio del retropiede, quindi sul moto relativo tra tibia, talo e calcagno, nel caso di flessione plantare libera, ovvero senza alcun carico applicato. Il complesso piede-caviglia è stato scansionato suddividendo il range di movimento in 13 pose statiche. Da ognuna delle 13 acquisizioni di tipo volumetrico sono state simulate delle scansioni dinamiche, in modo da ottenere una cinematica certa di riferimento, per poter valutare la precisione dell’algoritmo utilizzato. La ricostruzione della cinematica tridimensionale del complesso esaminato si è basata su un algoritmo di registrazione, composto da un primo processo di inizializzazione semiautomatico ed una successiva registrazione 2D/3D automatica basata sull’intensità dei voxel. Di particolare interesse in questa indagine è la ricostruzione dei tre moti relativi: tibia-talo, tibia-calcagno e talo-calcagno. Per valutare la precisione dell’algoritmo nella ricostruzione della cinematica è stato calcolato l’errore medio in valore assoluto tra le coordinate dei modelli nelle pose di riferimento e le coordinate fornite dal codice. I risultati ottenuti sono di notevole interesse visto il carattere esplorativo dello studio.
Resumo:
Il perfezionamento dei campi di forza in meccanica molecolare, necessario per migliorare l’accuratezza della modellazione classica di materiali, è un procedimento dispendioso. L’accuratezza dei campi di forza è tuttavia la chiave per la predizione affidabile di proprietà chimico-fisiche dalle simulazioni MD. A questo scopo, risulta importante l’inclusione esplicita della polarizzazione, trascurata nei campi di forze tradizionali. Il modello dell’oscillatore di Drude rappresenta una soluzione computazionalmente conveniente ed è implementato in diversi software di simulazione. In questo modello, la polarizzazione atomica è resa dall’introduzione di una particella carica e di massa ridotta, ancorata all’atomo polarizzabile. In questo lavoro di tesi abbiamo sviluppato una procedura per ottenere un campo di forza polarizzabile per molecole organiche in fase liquida, prendendo in esame un solvente polare molto comune: l’acetonitrile. Il nostro approccio si serve di calcoli quantomeccanici preliminari per la determinazione dei valori di riferimento di alcune proprietà molecolari: le cariche parziali atomiche, il momento di dipolo e la polarizzabilità. A questi calcoli seguono due fasi di parametrizzazione basate su algoritmi di minimizzazione. La prima fase riguarda la parametrizzazione delle polarizzabilità atomiche descritte con il modello di Drude e ha come scopo la riproduzione della polarizzabilità molecolare quantomeccanica. Nella seconda fase, si sono ottimizzati i parametri del potenziale Lennard-Jones in modo da riprodurre la densità sperimentale a temperatura e pressione ambiente, ottenendo diverse parametrizzazioni del campo di forza polarizzabile. Infine, queste parametrizzazioni sono state confrontate sulla base della loro capacità di riprodurre alcune proprietà di bulk, quali entalpia di vaporizzazione, costante dielettrica, coefficiente di diffusione e specifiche funzioni di distribuzione radiale.
Resumo:
Historia magistra vitae, scriveva Cicerone nel De Oratore; il passato deve insegnare a comprendere meglio il futuro. Un concetto che a primo acchito può sembrare confinato nell'ambito della filosofia e della letteratura, ma che ha invece applicazioni matematiche e fisiche di estrema importanza. Esistono delle tecniche che permettono, conoscendo il passato, di effettuare delle migliori stime del futuro? Esistono dei metodi che permettono, conoscendo il presente, di aggiornare le stime effettuate nel passato? Nel presente elaborato viene illustrato come argomento centrale il filtro di Kalman, un algoritmo ricorsivo che, dato un set di misure di una certa grandezza fino al tempo t, permette di calcolare il valore atteso di tale grandezza al tempo t+1, oltre alla varianza della relativa distribuzione prevista; permette poi, una volta effettuata la t+1-esima misura, di aggiornare di conseguenza valore atteso e varianza della distribuzione dei valori della grandezza in esame. Si è quindi applicato questo algoritmo, testandone l'efficacia, prima a dei casi fisici, quali il moto rettilineo uniforme, il moto uniformemente accelerato, l'approssimazione delle leggi orarie del moto e l'oscillatore armonico; poi, introducendo la teoria di Kendall conosciuta come ipotesi di random walk e costruendo un modello di asset pricing basato sui processi di Wiener, si è applicato il filtro di Kalman a delle serie storiche di rendimenti di strumenti di borsa per osservare se questi si muovessero effettivamente secondo un modello di random walk e per prevedere il valore al tempo finale dei titoli.
Resumo:
La galvanotassi, la migrazione cellulare stimolata dalla presenza di un campo elettrico esogeno o endogeno, `e stata oggetto di studi sin dalla fine del diciannovesimo secolo. Nonostante la molteplicità di lavori a riguardo, non c’`e uniformità. a nelle tecniche sperimentali, se non per il fatto che il campo elettrico viene generato tramite una configurazione a cella elettrolitica, detta anche a generazione interna di campo elettrico. Scopo di questa tesi `e analizzare e caratterizzare la migrazione di cellule isolate in vitro in presenza e in assenza di un campo elettrostatico esterno, rendendola originale rispetto a studi precedenti. La differenza nella configurazione sperimentale `e fondamentale per spiegare le caratteristiche dei moti osservati. Per la procedura sperimentale sono state usate come campione cellule di linea di origine tumorale denominate T98G adese a una piastra in polistirene posta, non a contatto, tra due piastre in rame cariche. Sono state acquisite micrografie in contrasto di fase a intervalli regolari inizialmente in una fase di controllo, quindi applicando un campo elettrostatico, cos`ı da poter analizzare il moto cellulare nelle diverse condizioni. In particolare, l’analisi del tracking di singole cellule selezionate sulla base di criteri stabiliti a priori ha permesso di evidenziare un moto isotropo, indipendentemente dalla presenza del campo elettrostatico. Invece, mostrando che i dati sperimentali delle distanze e delle velocita seguono distribuzioni Gamma, si osserva che dipende dalla presenza del campo elettrostatico la maggiore probabilità che una cellula si sposti pi`u della media. Infine, `e stato possibile determinare che l’influenza del campo elettrostatico sul moto delle cellule non dipende dalla posizione di queste rispetto alle piastre. Il lavoro svolto in questa tesi sarà parte dei risultati inseriti in una pubblicazione su rivista internazionale.
Resumo:
Gli Appennini sono una regione tettonicamente attiva che è stata luogo di forti terremoti storici in passato, tra i quali il recente L’Aquila (2009) e le sequenze di Amatrice-Visso-Norcia (2016-2017). Una densità di stazioni GPS sempre maggiore permette di stimare il tasso di deformazione orizzontale con più risoluzione spaziale che in passato. In questa tesi studio la correlazione tra tassi di deformazione geodetica orizzontale e tassi di sismicità negli Appennini, esaminando possibili implicazioni per valutazioni del potenziale sismogenico. Uso un nuovo dataset di velocità GPS analizzando lo stato di deformazione attraverso il calcolo dello strain rate geodetico. Per questo calcolo utilizzo tre algoritmi, tra quelli presenti in letteratura scientifica, e discuto punti di forza e limitazioni di ciascuno. Seleziono poi una mappa di strain rate tra le altre e sviluppo un’analisi seguendo l’approccio di uno studio recente per investigare la relazione tra tassi di sismicità e tassi di deformazione lungo la catena Appenninica. Per farlo, verifico se le ipotesi che sostengono l’approccio sono verificate. Calcolo la sismicità di background a partire da un nuovo catalogo sismico per l’Italia e testo se gli eventi indipendenti seguono un processo di Poisson nel tempo. Infine, divido la regione di studio in aree a diversa deformazione sulla base dei tassi di deformazionee analizzado la distribuzione della sismicità di background in questi eventi e analizzando la relazione tra tassi di deformazione e tassi sismicità. Mostro che vi è una relazione è approssimativamente lineare ma con una dipendenza importante dalla risoluzione della mappa di strain rate. Descrivo poi alcune implicazioni che questa relazione avrebbe su stime di due quantità che concorrono a definire il potenziale sismogenico analizzando quali sono i parametri all’interno dell’approccio che possono influenzare maggiormente dette stime.
Resumo:
In questa tesi mostreremo qual è l'impatto delle sezioni d'urto di cattura neutronica (n, γ) mediate con la distribuzione maxwelliana di energia (MACS), sull'evoluzione delle stelle giganti rosse. Per raggiungere questo obiettivo, è stata sviluppata una procedura automatizzata per calcolare le MACS, partendo da librerie di dati nucleari valutati. Le MACS così ottenute sono state inserite come parametri di input per il codice FUNS, il quale implementa modelli di evoluzione stellare. Vengono mostrati risultati circa le abbondanze isotopiche degli elementi sintetizzati nel processo-s ottenuti usando differenti librerie. Infine viene mostrato un esempio dell'impatto dei dati ottenuti all'esperimento n_TOF.
Resumo:
Negli ultimi decenni la necessità di salvaguardare l’ambiente ha portato ad un importante sviluppo dei processi catalitici con particolare attenzione agli aspetti di sostenibilità e impatto ambientale. Le nanoparticelle metalliche, note per le ottime proprietà catalitiche, ricoprono un ruolo fondamentale nel settore della catalisi. Al fine di innescare effetti sinergici e ottenere catalizzatori più performanti, la ricerca si sta orientando verso lo studio di nanoparticelle bimetalliche o multicomponente. Questo lavoro di tesi presenta la sintesi di nanoparticelle di Au, Pt e AuPt applicabili in catalisi e preparate mediante un processo a basso impatto ambientale assistito da microonde. Un’estesa caratterizzazione chimicofisica dei prodotti (DLS/ELS, UV-VIS, ICP-OES, XRD; TEM-EDS) ha consentito di ottimizzare le sintesi rispetto a distribuzione granulometrica, stabilità colloidale, resa di reazione e composizione di fase. Per AuPt NPs si sono sviluppate due preparazioni finalizzate all’ottenimento di diverse nanostrutture, core-shell e leghe. Infine, le prestazioni catalitiche dei campioni preparati sono state valutate mediante idrogenazione di 4-nitrofenolo (4-NP) a 4-amminofenolo (4-AP) in presenza di NaBH4, una reazione modello utilizzata per testare l'attività catalitica di nanometalli. Il campione in lega, Au97.5Pt2.5, e il campione core-shell, Au90@Pt10, hanno evidenziato effetti sinergici positivi con una migliore attività catalitica rispetto ai monometalli.
Resumo:
Diverse organizzazioni nel mercato si chiedono come fare per permettere uno sviluppo della propria azienda in un mercato caratterizzato da sempre più competitor e un numero sempre maggiore di canali su cui i consumatori possono essere raggiunti. Fare branding è la risposta. Il branding è una pratica di marketing che permette all’azienda di distinguere i propri prodotti o servizi e quindi di identificare ciò che l’azienda stessa vende. Il processo di branding è un processo continuo e perpetuo che nel tempo permette alle aziende di plasmare la percezione di un marchio nella mente del consumatore. Le strategie di branding che possono essere applicate sono diverse e dipendono molto dal budget a disposizione dell’azienda. Per questo, nel caso di piccole-medio imprese con dei budget limitati, lo sviluppo della marca risulta essere un processo strategico per la loro crescita e diventa necessario in un mercato saturo come quello attuale. Risulta quindi importante per le PMI utilizzare e sfruttare il brand come un vero contenitore di significati, in grado di dare coerenza alla comunicazione e alle azioni aziendali e per identificare una direzione precisa da raggiungere. L’obiettivo di questo studio è quello di determinare in che modo ad oggi l’azienda Valentina Giorgi, piccola-media impresa italiana, utilizza il proprio brand sia a livello comunicazionale sia a livello distributivo per crescere come azienda ed espandersi. A questo proposito sono state indagate sia le strategie comunicative e distributive attuate finora dall’azienda, per comprendere il motivo per cui sono state svolte e analizzarne l’efficacia, oltre a ricercare lo scostamento presente tra l’idea che l’azienda ha costruito del brand e quella effettivamente percepita dai consumatori.
Resumo:
La previsione ed il controllo dei grandi sistemi dinamici costituiscono due delle principali sfide della scienza contemporanea. Prima degli anni '90 la parola previsione indicava un singolo esperimento numerico, mentre negli ultimi vent'anni ha denotato un insieme di simulazioni/esperimenti. Sostanzialmente non si cerca più di trovare la traiettoria più realistica e verosimile ma si studia l'insieme delle previsioni e l'evolversi della loro distribuzione nel tempo per avere un'idea di quale sia la previsione più probabile. Un sistema dinamico è descritto, in un particolare istante temporale, da una variabile di stato. Esistono poi delle funzioni di stato che hanno come argomento una variabile di stato e mentre il sistema dinamico è in movimento, e dunque mentre le variabili di stato del sistema cambiano nel tempo, anche le funzioni di stato si evolvono. Il lavoro di Bernard Koopman (19/01/1900 - 18/08/1981) si è incentrato sullo studio di tale evoluzione. Koopman formalizzò il problema cercando di trovare un operatore che prendesse una funzione di stato e la "spingesse" in avanti nel tempo. Tale operatore venne chiamato Operatore di Koopman. Il legame sostanziale tra l'operatore di Koopman e il sistema dinamico in questione sta nel fatto che tale operatore agisce sullo spazio delle funzioni di stato del sistema. Inoltre si è scoperto che i suoi autovalori e le sue autofunzioni descrivono completamente il sistema dinamico che vi sta dietro. Questo elaborato introduce l'operatore di Koopman in relazione a sistemi dinamici e mostra come ricavare lo spettro di tale operatore a partire da dati di simulazione. Infine vengono studiate le proprietà spettrali dell'operatore di Koopman nel caso mono-dimensionale degli indici Niño-3 e viene fatta un'analisi dettagliata dei risultati numerici ottenuti, trovando una conferma teorica mediante l'utilizzo dei dischi di Gershgorin.
Resumo:
Introduzione: Il COVID-19 colpisce vari apparati e il meccanismo di diffusione non è noto. La quarantena durante la malattia inoltre costringe alla sedentarietà con ripercussioni fisiche e psicologiche. Lo studio indaga se il COVID-19 possa avere un’influenza sugli infortuni e sulla performance sportiva dei podisti e il ruolo della fisioterapia nella riabilitazione post infortunio. Materiali e metodi: La raccolta dati è avvenuta tramite distribuzione di questionari cartacei e digitali nelle società podistiche italiane dal 2 Marzo al 15 Aprile 2022. I criteri di inclusione erano l’essere maggiorenni, allenarsi almeno 1-2 volte a settimana e comprendere la lingua italiana. Risultati: 245 podisti rispettavano i criteri di inclusione. Negli ultimi 3 anni l’81,63% è incorso in infortunio; per la riabilitazione la maggior parte degli atleti si è rivolta a un fisioterapista e il grado di soddisfazione della riabilitazione è molto alto. Il 45,31% ha contratto il COVID-19 e di questi il 47,74% ha riferito una percezione di diminuzione della performance dopo la malattia, la quale non è influenzata dalla durata dell’interruzione degli allenamenti. Il 48,65% è incorso in infortunio dopo il COVID-19 e il tasso d’infortunio è maggiore rispetto al periodo antecedente al contagio. Non vi è invece differenza tra l’incidenza di infortunio di chi ha contratto il COVID-19 e il restante campione. Conclusione: Il COVID-19 potrebbe non predisporre maggiormente l’atleta a infortunio rispetto alla popolazione generale, ma potrebbe aumentare la sua suscettibilità rispetto al periodo antecedente al contagio. Il percorso riabilitativo più efficace per il recupero è quello intrapreso affidandosi a professionisti sanitari del settore. La malattia per molti ha un impatto molto negativo sulla propria performance, ma questo non dipende dall’interruzione prolungata degli allenamenti e quindi potrebbe non essere dovuto al deallenamento ma a qualche aspetto non ancora indagato in letteratura.
Resumo:
Ad oggi, l’attuale gold standard per il trattamento di amputazioni transfemorali è rappresentato dall’utilizzo di protesi con invaso (socket). Tuttavia, si rileva un elevato grado di insoddisfazione in questo tipo di protesi, dovuto a numerose complicazioni. Per questo sono state sviluppate le protesi osteointegrate. Queste protesi hanno numerosi vantaggi rispetto alla tipologia socket ma presentano anch’esse dei problemi, in particolare complicazioni meccaniche, di mobilizzazione e di infezione. Per questo, lo scopo di questo elaborato di tesi è stato quello di sviluppare ed ottimizzare un metodo per caratterizzare il comportamento biomeccanico di una protesi osteointegrata per amputati transfemorali, tramite Digital Image Correlation (DIC). In particolare, sono state valutate le condizioni e i metodi sperimentali utili a simulare una reale situazione fisiologica di distribuzione delle deformazioni sulla superficie dell’osso una volta impiantata la protesi. Per le analisi è stato utilizzato un provino di femore in composito nel quale è stata impiantata una protesi osteointegrata. È stata effettuata un’ottimizzazione dei parametri della DIC per consentire una misura precisa e affidabile. In seguito, sono state svolte due tipologie di test di presso-flessione sul provino per valutare la ripetibilità dell’esperimento e l’intensità delle deformazioni superficiali al variare del carico in range fisiologico. Il metodo sviluppato è risultato ripetibile, con un errore al di sotto della soglia stabilita. All’aumentare del carico è stato possibile osservare un aumento lineare delle deformazioni, oltre che un’espansione dell’area sottoposta a deformazioni più elevate. I valori di deformazioni ottenuti rientrano nei range fisiologici e sono confrontabili con quelli ottenuti in letteratura. L’applicazione del metodo sviluppato a provini di femore provenienti da donatore umano permetterà la generalizzazione dei risultati ottenuti in questo studio.
Resumo:
Questo elaborato ha analizzato le Event Related Spectral Perturbation (ERSP), cioè le variazioni nella potenza del segnale in corrispondenza di una frequenza o una banda di frequenze, suddivisi in Event Related Synchronization (ERS) nel caso di incremento di potenza e Event Related Desynchronization (ERD) nel caso di decremento di potenza, relative a movimenti di reaching eseguiti con l’arto superiore. In particolare, sono state prese in considerazione le potenze nel ritmo alpha (8-12 Hz) e ritmo beta (12-30 Hz), in quanto ritmi associati alla preparazione ed esecuzione del movimento. I segnali EEG analizzati (60 canali) sono relativi a 14 soggetti a cui è stato chiesto di compiere movimenti di reaching verso una posizione target, secondo una tempistica definita dall’accensione di uno stimolo visivo informativo (CUE, corrispondente al led nella posizione target) e un secondo stimolo visivo imperativo (GO) che dà il via libera all’esecuzione del movimento verso il target. Sono codificate 5 posizioni discrete, a 0°, 45°, 90°, 135° e 180°, su una semicirconferenza il cui centro rappresenta il punto di partenza e ritorno, chiamato base. I segnali preventivamente preprocessati, sono stati decomposti tramite trasformata wavelet ed elaborati con la tecnica dell’averaging, con lo scopo di evidenziare ERS e ERD in banda alpha e beta associati a eventi visivi e motori. È stata presentata l’evoluzione nel tempo della distribuzione topologica delle ERSP a livello dello scalpo e sono state svolte analisi suddividendo i dati secondo la direzione (destra, centro, sinistra) del target e secondo la profondità (vicino, medio, lontano) del target. I risultati mostrano una desincronizzazione (ERD) nella fase di preparazione del movimento (immediatamente prima dello stimolo GO), sia in banda alpha che beta e suggeriscono una modulazione dell’ERD in funzione della direzione/profondità del target.
Resumo:
I campi elettrici pulsati (PEF) rappresentano una tecnologia emergente che di anno in anno va acquisendo una popolarità sempre maggiore nel campo della trasformazione e conservazione degli alimenti. Tuttavia, l’applicazione di questa tecnica nel settore dei prodotti ittici è ad oggi ancora scarsamente utilizzata. L’obiettivo di questo studio è stato quello di valutare l’effetto dell’applicazione dei campi elettrici pulsati come pretrattamento ad una leggera salagione sulla shelf-life di filetti di branzino confezionati in atmosfera protettiva (MAP). I filetti sono stati sottoposti a campi elettrici pulsati ad intensità di 0.6 kV/cm e successivamente immersi in una salamoia al 5% di NaCl per 24 ore. Dopodiché, i filetti pretrattati sono stati confezionati e stoccati a 4°C per 8 giorni, durante i quali sono state eseguite le determinazioni analitiche volte a valutare lo sviluppo microbico e le principali caratteristiche qualitative. I risultati hanno dimostrato che l’utilizzo dei PEF come pretrattamento alla salagione può incrementare significativamente la concentrazione di sale nei filetti, probabilmente grazie ad una distribuzione più omogenea di NaCl nel tessuto muscolare. In aggiunta, sono state riscontrate alcune differenze significative nella riduzione del peso dei filetti in seguito al trattamento PEF, il quale è risultato inferiore nei filetti trattati, fenomeno che potrebbe essere riconducibile alla capacità dei campi elettrici pulsati di aumentare la capacità di ritenzione idrica (WHC). Inoltre, al di là di un leggerissimo aumento dell’indice di ossidazione lipidica nei filetti sottoposti ai PEF nei tempi immediatamente successivi al trattamento, non sono state riscontrate altre differenze significative nei restanti parametri considerati. Pertanto, il pretrattamento con PEF risulta promettente per rendere più efficiente il successivo processo di salagione, senza influire negativamente sulla shelf-life del prodotto finale confezionato.
Resumo:
In questa tesi si sono analizzate le principali conseguenze dovute alle deformazioni nel reticolo cristallino del grafene. Si è fatta innanzitutto, una descrizione generale della struttura cristallina, seguita dal caso specifico del reticolo esagonale del grafene. Si è poi, passati alla struttura elettronica studiata in approssimazione di legame forte tramite il formalismo della seconda quantizzazione, arrivando a descrivere la particolare struttura a bande coniche del grafene, dove i portatori di carica, detti quasiparticelle, sono ben descritti dall'equazione di Dirac. Si sono, in seguito, introdotte le deformazioni del reticolo e i metodi per ottenerle, arrivando ad ampliare l'equazione di Dirac, inserendo in essa gli effetti dei potenziali, pseudo-vettore e scalare, indotti dalla deformazione. Questi potenziali indotti portano con loro alcune conseguenze, si sono analizzate in particolare quelle sulla distribuzione di carica, con particolare attenzione agli effetti di confinamento, e quelle sul trasporto di carica, in particolare riguardanti il filtraggio di valle.