594 resultados para Tecnopolimeri radiopachi, test di radiopacità, prove accelerate


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questo lavoro di tesi consiste nel valutare l’efficacia di inibizione delle HDAC e la selettività per le cellule tumorali di nuove molecole basate su coniugati poliamminici (PC1, PC2, PC3, PC4, PC5). I modelli sperimentali utilizzati saranno una linea cellulare tumorale di glioblastoma umano (U87), paragonata a una linea cellulare sana di fibroblasti fetali umani (IMR90). Il progetto nasce dalla collaborazione con la Prof.ssa Anna Minarini del Dipartimento di Farmacia e BioTecnologie di Bologna e con il Dott. Andrea Milelli del Dipartimento di Scienze per la Qualità della Vita di Rimini che hanno progettato e sintetizzato i composti poliamminici utilizzati negli esperimenti condotti nel laboratorio di Ingegneria Cellulare e Molecolare “S. Cavalcanti” a Cesena. Gli obiettivi del progetto consistono nel valutare i potenziali vantaggi che sembrano offrire le poliammine se coniugate a molecole con specifiche funzioni antitumorali, quali l’acido idrossamico e il gruppo intercalante il DNA, naftalene-diimide. L’aggiunta della coda poliamminica al composto, infatti, permetterebbe alla molecola risultante di sfruttare il sistema di trasporto delle poliammine, tipicamente sovraespresso o iperattivo nelle cellule neoplastiche, favorendo così l’ingresso in cellula del farmaco e conferendogli selettività per le cellule tumorali. Inoltre, l’affinità elettrostatica che intercorre tra la coda policationica poliamminica e il DNA, carico negativamente, direzionerebbe con maggior efficacia l’intera molecola, compresa la parte intercalante e l’acido idrossamico (HDACi), verso il loro bersaglio, la doppia elica dell’acido nucleico e le HDAC. Gli effetti dei PC valutati in questo lavoro di tesi comprendono l’influenza dei farmaci sulla vitalità cellulare e l’efficacia di inibizione delle HDAC. Si effettueranno test di crescita cellulare in seguito ai trattamenti farmacologici per confrontare i diversi composti poliamminici, individuare quelli con maggior effetto citotossico e stabilire se il tipo di trattamento risulti idoneo per il proseguimento dell’indagine. Il grado di inibizione delle HDAC, relativo ai diversi farmaci, verrà valutato indirettamente mediante la tecnica del Western Blotting quantificando il livello di iperacetilazione istonica globale indotta. I vantaggi che queste nuove molecole potenzialmente possiedono e che andranno verificati con ulteriori studi, inducono ad attribuire loro un grande potenziale per la terapia antitumorale, come induttori dell’apoptosi e/o riprogrammazione dell’assetto epigenetico, risultante nella riattivazione di geni oncosoppressori silenziati nelle cellule neoplastiche. L’azione antitumorale di queste molecole potrà essere più efficace se combinata con altri farmaci, quali chemioterapici standard o demetilanti del DNA. Inoltre la variazione della coda poliamminica potrà essere utile per lo sviluppo di inibitori specifici per le diverse isoforme delle HDAC. La selettività per le cellule tumorali e l’affinità per il DNA di questi nuovi composti potrebbe infine limitare gli eventuali effetti collaterali in clinica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Partiamo dal lavoro di Kolmogorov per definire una misura della quantità di informazione contenuta in una stringa tramite un approccio computazionale: la complessità di una stringa è la lunghezza del più corto programma capace di produrla. Vediamo poi gli sviluppi moderni di questa teoria, in particolare i contributi di Chaitin, e notiamo subito i forti legami con la teoria della probabilità e con l'entropia di Shannon. Successivamente proponiamo di identificare le stringhe casuali (nel senso intuitivo) con quelle algoritmicamente incomprimibili, seguendo l'idea che minore comprimibilità significhi minore regolarità e dunque maggiore casualità. Infine vediamo che, in effetti, le stringhe incomprimibili soddisfano tutte le proprietà stocastiche effettivamente verificabili, cioè le proprietà che la teoria della probabilità attribuisce a successioni di variabili aleatorie indipendenti e identicamente distribuite. Facciamo ciò in maniera generale utilizzando la notevole teoria di Martin-Löf e poi vediamo in dettaglio l'aspetto della normalità di Borel.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel 2020 verrà lanciata la missione spaziale Euclid per investigare la natura dell’energia oscura. Euclid otterrà un’immensa quantità di dati fotometrici e spettrometrici finalizzati, soprattutto, alla misura di lenti gravitazionali deboli e oscillazioni acustiche barioniche. In questa tesi daremo una descrizione generale dello strumento e della scienza che potrà essere fatta grazie ad esso. In particolare, nel capitolo 2 verrà fornita una introduzione alla cosmologia e verranno introdotti i vari parametri cosmologici che Euclid sarà in grado di vincolare. Nel capitolo 3 si farà un’analisi dei principali fenomeni fisici che Euclid indagherà. Nel capitolo 4 verrà data una panoramica del satellite, descrivendo in dettaglio gli obiettivi, cosa osserverà e come farà le osservazioni, e quali sono gli strumenti che lo compongono (satellite, telescopio, VIS e NISP). Infine, nel capitolo 5 verranno mostrati dei primi risultati preliminari, ottenuti in questa tesi, riguardanti il test di un programma che servirà per la misura della funzione di correlazione a due punti di Euclid.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo studio stratigrafico di diverse prove geognostiche nel sottosuolo dell’alta pianura forlivese ha permesso di ricostruire uno scenario stratigrafico di dettaglio dei depositi tardoquaternari del Bacino Padano. Attraverso la realizzazione di una sezione stratigrafica, parallela al margine del bacino, nei territori compresi tra il comune di Forlì e Forlimpopoli, ottenuta utilizzando stratigrafie di pozzi per acqua, di sondaggi a carotaggio continuo e di prove penetrometriche corredati da datazioni radiometriche, ha evidenziato un’architettura stratigrafica tipica di una pianura alluvionale. L’analisi di facies e le correlazioni stratigrafiche mostrano un’evidente suddivisione dei depositi alluvionali in quattro intervalli stratigrafici a controllo glacio-eustatico. Alla base sono presenti depositi che possono essere attribuibili ad un sistema di regressione forzata (FST), durante i quali si verificherebbe l’incisione dei sistemi alluvionali. I corpi amalgamati di canale fluviale, invece, sarebbero riconducibili alla successiva fase di stazionamento basso del livello del mare (LST), avvenuto durante l’ultimo acme glaciale. Al di sopra di questi depositi, la presenza di corpi lenticolari, isolati, di canale fluviale, entro depositi fini di piana inondabile, è compatibile con una fase di sollevamento del livello del mare (depositi trasgressivi o TST) ed infine i depositi sommitali, prevalentemente fini, potrebbero rappresentare la fase di stazionamento alto del livello del mare (HST). La definizione della geometria dei corpi sepolti in Pianura Padana costituisce uno strumento di rilevante importanza nella ricerca e nella protezione della risorsa idrica: in particolare, l’applicazione dei principi di stratigrafia sequenziale risulta fondamentale nell’interpretazione della distribuzione spaziale dei corpi acquiferi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Un noto centro di ricerca europea ha recentemente modificato un jet convenzionale di classe CS-25 in una piattaforma scientifica. Durante il processo di certificazione delle modifiche, l’impatto delle stesse sulle prestazioni è stato studiato in modo esaustivo. Per lo studio delle qualità di volo, i piloti collaudatori hanno sviluppato una procedura di certificazione ad hoc che consiste in test qualitativi separati della stabilità longitudinale, laterale e direzionale. L’obiettivo della tesi è analizzare i dati di volo, registrati durante i test di collaudo, con l'obiettivo di estrarre informazioni di carattere quantitativo circa la stabilità longitudinale del velivolo modificato. In primo luogo sono state analizzate tre diverse modifiche apportate all’aeromobile e successivamente i risultati sono stati messi a confronto per capirne l’influenza sulle qualità di volo dell’aeromobile. Le derivate aerodinamiche sono state stimate utilizzando la cosiddetta “identificazione dei parametri”, che mira a replicare le variabili registrate durante i test di volo, variando un dato insieme di coefficienti all’interno del modello linearizzato della dinamica dell’aeromobile. L'identificazione del modo di corto periodo ha consentito l'estrazione dei suoi parametri caratteristici, quali il rapporto di smorzamento e la frequenza naturale. La procedura ha consentito inoltre di calcolare il cosiddetto “Control Anticipation Parameter” (CAP), parametro caratterizzante delle qualità di volo di un aeroplano. I risultati ottenuti sono stati messi a confronto con i requisiti prescritti dalla normativa MIL-STD-1797-A, risultando conformi al livello più alto di qualità di volo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa ricerca affronta in maniera interdisciplinare il tema delle funzioni polinomiali definite sugli anelli degli interi modulo la potenza di un numero primo. In primo luogo è stato esaminato il caso particolare del campo Zp, dimostrando che in esso tutte le funzioni sono polinomiali. In seguito è stato calcolato il numero delle funzioni polinomiali negli interi modulo 9 e modulo 25, mostrando un procedimento che può essere esteso a qualsiasi potenza di un numero primo. Esso fa uso di alcuni risultati di teoria dei numeri e di aritmetica e affronta il tema da un punto di vista prettamente algebrico. A queste dimostrazioni è stato affiancato un esperimento di tipo statistico, il cui obiettivo è cercare una regolarità che permetta, dati il numero primo p e il suo esponente n, di calcolare immediatamente il numero delle funzioni polinomiali nell'anello degli interi modulo p^n. Sono state presentate due congetture, ottenute utilizzando strumenti di tipo informatico: un software di calcolo e un linguaggio di programmazione ad alto livello. Gli strumenti della statistica descrittiva, in particolare il test di Pearson, si sono rivelati essenziali per verificare l'adeguatezza delle supposizioni. Questa ricerca può essere considerata il punto di partenza per dimostrare (o confutare) quello che è stato ipotizzato attraverso un'analisi di tipo sperimentale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro di questa tesi riguarda principalmente l'upgrade, la simulazione e il test di schede VME chiamate ReadOut Driver (ROD), che sono parte della catena di elaborazione ed acquisizione dati di IBL (Insertable B-Layer). IBL è il nuovo componente del Pixel Detector dell'esperimento ATLAS al Cern che è stato inserito nel detector durante lo shut down di LHC; fino al 2012 infatti il Pixel Detector era costituito da tre layer, chiamati (partendo dal più interno): Barrel Layer 0, Layer 1 e Layer 2. Tuttavia, l'aumento di luminosità di LHC, l'invecchiamento dei pixel e la richiesta di avere misure sempre più precise, portarono alla necessità di migliorare il rivelatore. Così, a partire dall'inizio del 2013, IBL (che fino a quel momento era stato un progetto sviluppato e finanziato separatamente dal Pixel Detector) è diventato parte del Pixel Detector di ATLAS ed è stato installato tra la beam-pipe e il layer B0. Questa tesi fornirà innanzitutto una panoramica generale dell'esperimento ATLAS al CERN, includendo aspetti sia fisici sia tecnici, poi tratterà in dettaglio le varie parti del rivelatore, con particolare attenzione su Insertable B-Layer. Su quest'ultimo punto la tesi si focalizzerà sui motivi che ne hanno portato alla costruzione, sugli aspetti di design, sulle tecnologie utilizzate (volte a rendere nel miglior modo possibile compatibili IBL e il resto del Pixel Detector) e sulle scelte di sviluppo e fabbricazione. La tesi tratterà poi la catena di read-out dei dati, descrivendo le tecniche di interfacciamento con i chip di front-end, ed in particolare si concentrerà sul lavoro svolto per l'upgrade e lo sviluppo delle schede ReadOut Drivers (ROD) introducendo le migliorie da me apportate, volte a eliminare eventuali difetti, migliorare le prestazioni ed a predisporre il sistema ad una analisi prestazionale del rivelatore. Allo stato attuale le schede sono state prodotte e montate e sono già parte del sistema di acquisizione dati del Pixel Detector di ATLAS, ma il firmware è in continuo aggiornamento. Il mio lavoro si è principalmente focalizzato sul debugging e il miglioramento delle schede ROD; in particolare ho aggiunto due features: - programmazione parallela delle FPGA} delle ROD via VME. IBL richiede l'utilizzo di 15 schede ROD e programmandole tutte insieme (invece che una alla volta) porta ad un sensibile guadagno nei tempi di programmazione. Questo è utile soprattutto in fase di test; - reset del Phase-Locked Loop (PLL)} tramite VME. Il PLL è un chip presente nelle ROD che distribuisce il clock a tutte le componenti della scheda. Avere la possibilità di resettare questo chip da remoto permette di risolvere problemi di sincronizzazione. Le ReadOut Driver saranno inoltre utilizzate da più layer del Pixel Detector. Infatti oltre ad IBL anche i dati provenienti dai layer 1 e 2 dei sensori a pixel dell’esperimento ATLAS verranno acquisiti sfruttando la catena hardware progettata, realizzata e testata a Bologna.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Durante il Long Shutdown 1 di LHC sono stati cambiati i fotomoltiplicatori del rivelatore di luminosità LUCID di ATLAS. I due modelli candidati per la sostituzione sono stati sottoposti a test di resistenza alla radiazione di gamma e neutroni. In questa tesi si riportano i risultati delle misure di dark current, risposta spettrale, guadagno relativo e assoluto, prima e dopo l’irraggiamento con neutroni. L’unica differenza di rilievo riguarda un aumento della dark current, gli altri parametri non presentano variazioni entro la precisione delle misure. Non ci sono differenze sostanziali tra i due modelli per quanto riguarda la resistenza alle radiazioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presenza dei farmaci in ambiente sta assumendo sempre più rilevanza come problematica da affrontare e a cui tentare di porre rimedio. Anche se le concentrazioni nei corpi idrici risultano piuttosto basse (μg/L o ng/L), i farmaci hanno proprietà diverse dagli inquinanti convenzionali e possono ugualmente indurre effetti dannosi nella fauna acquatica. In questo lavoro sono stati valutati gli effetti del propranololo (PROP, farmaco β-bloccante) e della carbamazepina (CBZ, farmaco anticonvulsivante), su di uno stadio larvale del mitilo Mytilus galloprovincialis (larva veliger – 48 ore post fecondazione). L’esposizione a concentrazioni crescenti dei due farmaci induce un progressivo aumento della anormalità delle larve, che mostrano malformazioni o ritardi nello sviluppo. Sia PROP che CBZ aumentano l’attività dei trasportatori implicati nella Multixenobiotic Resistance (MXR), indicando che il sistema di estrusione degli xenobiotici viene attivato già in questa fase dello sviluppo larvale. Analogamente, PROP aumenta l’espressione dei geni che codificano per le proteine della famiglia MXR, P-gp ed MRP. Aumenta anche l’espressione dei geni che codificano per catalasi e GST, suggerendo un aumento delle risposte antiossidanti/detossificanti. PROP aumenta i trascritti dell’anidrasi carbonica, mentre al contrario riduce i trascritti per la proteina extrapalliale: non è chiaro quindi l’effetto del farmaco sulla regolazione della espressione di proteine coinvolte nella formazione della conchiglia. CBZ aumenta l’espressione dei trascritti per P-gp ma diminuisce quella relativa ad MRP. Inoltre, riduce l’espressione dei geni codificanti per catalasi e GST, e della proteina extrapalliale, senza avere effetto sui trascritti dell’anidrasi carbonica. In generale possiamo dire che i due farmaci inducono evidenti alterazioni a livello biochimico e molecolare che possono influenzare sia la detossificazione che la biomineralizzazione, con conseguenze rilevanti per lo sviluppo larvale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi è essenzialmente focalizzata sullo sviluppo di un sistema di controllo in tempo reale per uno Shaker Elettrodinamico usato per riprodurre profili di vibrazione ambientale registrati in contesti reali e di interesse per il recupero di energia. Grazie all'utilizzo di uno shaker elettrodinamico è quindi possibile riprodurre scenari di vibrazione reale in laboratorio e valutare più agevolmente le prestazioni dei trasduttori meccanici. Tuttavia, è richiesto un controllo dello Shaker non solo in termini di stabilità ma anche per garantire l'esatta riproduzione del segnale registrato nel contesto reale. In questa tesi, si è scelto di sviluppare un controllo adattivo nel dominio del tempo per garantire la corretta riproduzione del profilo di accelerazione desiderato. L'algoritmo è stato poi implementato sul sistema di prototipazione rapida dSPACE DS1104 basata su microprocessore PowerPC. La natura adattiva dell'algoritmo proposto permette di identificare cambiamenti nella risposta dinamica del sistema, e di regolare di conseguenza i parametri del controllore. Il controllo del sistema è stato ottenuto anteponendo al sistema un filtro adattivo la cui funzione di trasferimento viene continuamente adattata per rappresentare al meglio la funzione di trasferimento inversa del sistema da controllare. Esperimenti in laboratorio confermano l'efficacia del controllo nella riproduzione di segnali reali e in tipici test di sweep frequenziale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo studio dello sviluppo delle attività motorie fondamentali (FMS) nei bambini sta acquisendo in questi anni grande importanza, poiché la padronanza di queste ultime sembra essere correlata positivamente sia con la condizione di benessere fisico, sia con il mantenimento di alti livelli di autostima; si ritiene inoltre che possano contribuire al mantenimento di uno stile di vita sano in età adulta. In questo elaborato di tesi viene preso in considerazione un test di riferimento per la valutazione delle FMS, il TMGD – 2. Lo scopo è quello di fornire una valutazione quantitativa delle performance delle FMS, sulla base degli standard proposti dal protocollo TGMD-2, mediante una versione strumentata del test, utilizzando delle Inertial Measurement Unit (IMU). Questi sensori consentono di superare il limite posto dalla soggettività nella valutazione dell’operatore e permettono di esprimere un giudizio in maniera rapida e automatica. Il TGMD-2 è stato somministrato, in versione strumentata, a 91 soggetti di età compresa tra i 6 e i 10 anni. Sono stati ideati degli algoritmi che, a partire dai segnali di accelerazione e velocità angolare acquisiti mediante le IMU, consentono di conferire una valutazione a ciascuno dei task impartito dal TGMD – 2. Gli algoritmi sono stati validati mediante il confronto fra i risultati ottenuti e i giudizi di un valutatore esperto del TGMD-2, mostrando un alto grado di affinità, in genere tra l’80% e il 90%.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La camminata, sia in acqua sia a secco, è un esercizio praticato frequentemente in ambito riabilitativo. Lo scopo di questa tesi è di confrontare variabilità e stabilità del cammino dentro e fuori dall’acqua, al fine di comprendere le caratteristiche dei due tipi di cammino. L’analisi si è focalizzata sulla valutazione di misure di stabilità e variabilità che non erano mai state indagate prima per la camminata in acqua: Harmonic Ratio, Plot di Poincarè, moltiplicatori di Floquet, esponenti di Lyapunov, multiscale entropy, recurrence rate, determinism, averaged diagonal line length, maximum diagonal line length e divergenza. Gli indici sono stati calcolati su camminate di 30 e di 90 passi. Da questa analisi possiamo stimare anche quale parametro è già affidabile a 30 passi e non cambia se analizzato a 90 o se un parametro necessita di più passi per risultare affidabile. Inoltre è stata effettuata indagine statistica tramite test di Kruskal-Wallis. Dall'analisi è emerso che la camminata in acqua è più stabile, meno smooth, c’è un maggiore controllo posturale lungo gli assi antero-posteriore e medio-laterale e che il cammino è condotto in maniera meno automatica.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Nella prima parte di questo lavoro di tesi è stata effettuata una ricerca sullo stato dell’arte attuale delle macchine per prove a fatica con principio di risonanza. Pertanto viene riportata una descrizione delle necessità che portarono all’interesse verso questa metodologia di prove a fatica oltre che una descrizione delle macchine ad ultrasuoni di concezione moderna, delle loro caratteristiche e dei loro componenti tipici. Successivamente si sono riportati i dibattiti principali riguardanti la validità delle prove ottenute con questa tipologia di macchine. Si è, di seguito, utilizzata la teoria classica delle onde elastiche per illustrare il principio di funzionamento della macchina. Si sono ottenute le soluzioni esatte dei campi di spostamento, deformazione e sforzo nel caso di provini o sonotrodi a sezione costante confrontando successivamente i risultati così ottenuti con soluzione in ambito FEM per dimostrare la validità degli stessi. Lo stesso tipo di analisi è stata effettuata anche per il provino tipico di prove a fatica, ossia il provino circolare, dove la soluzione esatta è stata ottenuta per similitudine nel provino, catenoidale. Sono riportati un breve riassunto dei nuovi fenomeni di fatica che si sono riscontrati grazie alle possibilità di effettuare test in regione VHCF, laddove non era possibile con le macchine convenzionali, e le conclusioni del presente lavoro di tesi.