998 resultados para Tecniche di enhancement, Impronte digitali, Riconoscimento biometrico
Resumo:
Approfondimento di tecniche di controllo ottimo per problemi di regolazione e di inseguimento di modello. Sintesi e implementazione di un algoritmo che si occupi del controllo della dinamica laterale di una vettura attraverso il sistema di aerodinamica mobile.
Resumo:
Il termine extravergine, per un olio di alta qualità, rappresenta solo un pre-requisito: la categoria merceologica, intesa come conformità ad una serie di analisi chimico-sensoriali previste dalla normativa Europea, non è sufficiente ad esaltare il valore aggiunto che un olio può avere in termini di attributi di qualità sensoriale e salutistica. Questi ultimi sono fortemente influenzati dalla presenza di alcuni composti minori, come le molecole volatili e quelle a struttura fenolica (biofenoli). I composti volatili sono i principali responsabili dell'aroma di un olio extravergine d’oliva, mentre i biofenoli lo sono per gli attributi positivi, di amaro e piccante, già normati dal legislatore. Lo studio ha riguardato le relazioni esistenti tra le sostanze volatili e biofenoliche e le percezioni sensoriali ad esse associate. Tra gli oli extravergini di oliva partecipanti all’International Olive Oil Award di Zurigo 2012, sono stati selezionati 28 campioni monovarietali di diversa provenienza geografica (principalmente Italia, Spagna e Grecia). La valutazione sensoriale è stata eseguita dal panel dell’Institute of Food and Beverage Innovation di Zurigo con l’impiego di una scheda di profilo più descrittiva di quella ufficiale (Reg. CE 640/2008), contenente numerosi attributi positivi secondari valutati su scala discreta a 4 punti, oltre ad armonia e persistenza, su scala continua di 10 cm. I campioni sono stati sottoposti alla caratterizzazione della frazione biofenolica (indice di amaro, contenuto in fenoli totali ed analisi delle principali molecole fenoliche mediante HPLC-DAD/MSD) e dei composti volatili (SPME/GC-MSD). I dati ottenuti sono stati elaborati con l’ausilio di tecniche di analisi multivariata nel tentativo di valutare le correlazioni esistenti tra le variabili e di individuare gruppi omogenei di oli. La finalità di questo lavoro è stata quella di suggerire attributi discriminanti la qualità sensoriale di oli di pregio, che possano essere impiegati come leve di promozione dei prodotti, così come indicatori addizionali di autenticità.
Resumo:
Lo scopo di questa tesi di dottorato di ricerca consiste nel fornire la giusta collocazione della manutenzione fra le discipline dell'ingegneria, raccogliendo e formalizzando le metodologie di analisi di affidabilità e di pianificazione degli interventi all'interno di un unico processo di progettazione e di controllo. In linea di principio, un processo di analisi dei guasti e di programmazione della manutenzione deve essere in grado di fornire chiare e sicure risposte ai seguenti interrogativi: Quali sono le funzioni richieste e con quali criteri di prestazioni il sistema è chiamato ad assolverle? Qual'è l'andamento della disponibilità del sistema in funzione del tempo? Quanti guasti e di quale tipo si possono verificare durante la vita del sistema? Quali possono essere le conseguenze che ledono la sicurezza e la protezione ambientale? Quanti pezzi di ricambio sono necessari? Che tipo di interventi di manutenzione preventiva risultano tecnicamente fattibili? A quali scadenze devono essere programmati? A quanto ammonta la previsione del costo di esercizio del sistema? Quante squadre di manutenzione devono essere assegnate al sistema? Come deve essere organizzata la logistica di manutenzione? Con quali tecniche si prevede di riconoscere i guasti e quali procedure devono essere attivate per farvi fronte? E' possibile implementare tecniche di `condition monitoring' delle macchine? Su quali tempi di preavviso sui guasti si può contare? In tal senso, la manutenzione necessita delle tecniche e degli opportuni strumenti che siano in grado di misurarne l'efficacia e l'efficienza. L'efficacia in primo luogo, in quanto l'obiettivo principe consiste nel garantire che il sistema oggetto di studio continui a svolgere le proprie funzioni nei limiti di prestazioni accettabili, secondo le specifiche richieste degli utilizzatori. L'efficienza in secondo luogo, ma non per questo di minore importanza, in quanto perseguendo l'obiettivo di cui sopra, occorre impegnare il minimo di risorse possibili, organizzando con razionalità il supporto logistico del sistema al fine di raggiungere i massimi livelli di rendimento di gestione. La migliore strategia di manutenzione può essere pianificata, a priori, solo se si è in grado di prevedere con la necessaria precisione l'evoluzione del sistema nel suo contesto operativo futuro. E' allora possibile formulare un modello matematico del sistema, studiarne la dinamica ed osservare le reazioni alla simulazione di eventuali stimoli esterni. I metodi ed i modelli noti dell'ingegneria dei sistemi possono essere molto utili per la risoluzione di casi semplici, ma sovente richiedono la formulazione di ipotesi troppo restrittive che aumentano in modo inaccettabile la distanza del modello dalla realtà. Una strada alternativa ed affascinante, che ho percorso con entusiasmo durante questi tre anni di studi e ricerca, consiste nella simulazione numerica della vita del sistema, utilizzando il metodo Monte Carlo per la gestione dei processi stocastici di guasto e per l'esecuzione degli interventi di manutenzione. Ho quindi messo a punto il codice di simulazione RAMSES, perseguendo l'idea di costruire uno strumento di misura dell'efficacia e dell'efficienza di una politica di manutenzione simulata al calcolatore. Nella tesi si presentano i concetti di base dell'ingegneria dei sistemi applicata al caso della manutenzione e si introduce il formalismo della Reliability Centred Maintenance come miglior guida nella pianificazione delle schede di manutenzione. Si introducono le nozioni di base per fornire una struttura solida e corretta alla simulazione numerica dei sistemi riparabili e si presenta il codice RAMSES corredando le informazioni tecniche con i dovuti esempi ed applicazioni pratiche. Si conclude il lavoro, infine, con la presentazione di un modello di massima verosimiglianza particolarmente utile per le analisi dei dati sperimentali di guasto dei componenti.
Resumo:
In questo lavoro sono state studiate diverse miscele di conglomerato bituminoso riciclato a freddo, nelle quali si è inserito polverino di gomma proveniente da riciclaggio di pneumatici dismessi. Lo scopo è stato quello di valutare l’effetto del polverino di gomma all’interno di miscele, contenenti il 100% di fresato, confezionate a freddo con emulsione di bitume e cemento, analizzandone gli effetti sulla lavorabilità, sulla resistenza a trazione indiretta, sui moduli di rigidezza e sulle resistenze a fatica. Nel capitolo primo è introdotto il concetto di sviluppo sostenibile con particolare attenzione al campo delle pavimentazioni stradali. Sono analizzati i più recenti dati riguardanti la produzione di rifiuti di demolizione e ricostruzione in Europa e in Italia. Segue una descrizione del materiale di risulta da scarifica delle pavimentazioni stradali, dei pneumatici e delle modalità di recupero degli stessi. Nel capitolo secondo sono riportati i principali riferimenti legislativi a livello comunitario, nazionale e locale riguardanti le attività coinvolte nel processo di riciclaggio dei rifiuti per la loro utilizzazione nella costruzione di opere stradali, accompagnati dai principali documenti ausiliari, quali sentenze e disposizioni applicative a completamento del suddetto quadro normativo. Nel capitolo terzo vengono descritte le principali tecniche di riciclaggio del fresato. Particolare attenzione viene posta nella descrizione delle procedure operative e dei macchinari adottati nelle operazioni di riciclaggio in sito. Infine vengono valutati i pregi e i difetti delle tecniche di riciclaggio a freddo analizzando i vantaggi economici ed ambientali rispetto a quelle tradizionali a caldo. Nel capitolo quarto sono analizzate le singole costituenti della miscela: Emulsione Bituminosa, Cemento, Aggregati, Polverino di Gomma e Acqua, definendone per ciascuna il ruolo e le caratteristiche meccaniche e fisiche che le contraddistinguono. Nel capitolo quinto, viene sviluppato il programma sperimentale, sono definiti gli obbiettivi e descritte in modo approfondito le cinque fasi nelle quali si articola. Nella fase uno, vengono introdotte le miscele che dovranno essere studiate. Segue una caratterizzazione dei principali costituenti alla base di tali miscele: fresato , polverino di gomma, cemento, filler,emulsione bituminosa. Nella fase due avviene il confezionamento dei provini mediante compattazione con pressa giratoria. Al termine della realizzazione dei campioni, vengono descritte e analizzate le proprietà volumetriche del materiale quali il grado di addensamento, la densità, la lavorabilità. Nelle fasi tre, quattro e cinque, vengono eseguiti in successione test per la valutazione delle resistenze a trazione indiretta ITS, test per la determinazione dei moduli di rigidezza ITSM ed infine test per la valutazione delle durate dei materiali a fatica ITFT. Per ognuno dei test, sono descritte le procedure operative sulla base delle normative di riferimento vigenti. Segue l’analisi dei risultati di ciascuna prova e la valutazione dell’effetto che i singoli costituenti hanno sulle caratteristiche meccaniche della miscela.
Resumo:
Le tecniche di polimerizzazione radicalica vivente hanno acquisito negli ultimi anni grande risonanza presso la comunità scientifica, grazie alla loro versatilità sia in termini di monomeri utilizzabili, che di condizioni operative. Oltre a ciò, esse permettono un buon controllo del peso molecolare e della struttura chimica del polimero e prevedono anche la possibilità di funzionalizzare facilmente i gruppi terminali delle catene. Tra queste tecniche, la Reversible Addition–Fragmentation chain Transfer polymerization (RAFT) risulta essere una delle più conosciute ed utilizzate, in quanto permette di ottenere materiali funzionalizzati con architetture molecolari particolarmente sofisticate e/o strutture in grado di autoorganizzarsi spazialmente. In questo contesto, sono stati sintetizzati mediante RAFT dei copolimeri anfifilici contenenti cromofori azobenzenici, in grado di autoassemblarsi in micelle sensibili a stimoli esterni, quali variazioni di temperatura e irraggiamento luminoso ad una adeguata lunghezza d’onda.
Resumo:
Il cemento è il materiale da edilizia più comune al mondo e le problematiche ambientali associate all’utilizzo ed al ciclo produttivo sono numerose (rilascio di gas serra, scelta delle materie prime, risparmio energetico) e fortemente impattanti. Tuttavia, nonostante la sua diffusione sia globale e le proprietà siano note da millenni vi sono ancora alcuni processi che non sono stati correttamente spiegati. In particolare non esiste una teoria unica e consolidata che descriva efficacemente la microstruttura delle fasi minerali del cemento che si sviluppano successivamente all'idratazione, e come esso di conseguenza interagisca con principi attivi, organici o inorganici, di cui è noto l’effetto accelerante sulla cinetica di indurimento. Questa tesi si pone l'obiettivo di condurre uno studio dell'idratazione del clinker finemente macinato (CFM - principale componente di molti cementi) focalizzato sull’interazione tra elementi chimici presenti nella matrice cementizia (Calcio, Ferro e Alluminio) ed additivi acceleranti (Trietanolammina, Triisopropanolammina). Il fenomeno è stato studiato tramite osservazione dell'andamento del rilascio dei suddetti ioni su cementi in via di idratazione e tramite utilizzo di tecniche di microscopia elettronica e di diffrazione di raggi X. L'analisi del rilascio di ioni, effettuata mediante spettroscopia ad assorbimento atomico, è stata condotta al fine di approfondire l'azione di trietanolammina e triisopropanolammina sulle dinamiche di idratazione dei CFM nelle fasi precoci di idratazione, al fine di confrontare queste dinamiche con processi che avvengono in fasi successive e che coinvolgono la formazione delle principali fasi amorfe e cristalline responsabili delle proprietà del materiale. Da indagini di diffrattometria e microscopia sono inoltre state estrapolate interessanti considerazioni circa le cinetiche che portano alla formazione delle fasi cristalline tipiche dell'idratazione del cemento (portlandite, ettringite) in presenza e assenza di additivi. Nel corso dello studio sono stati sintetizzati alcuni composti alternativi agli additivi commerciali, sviluppati a partire da building blocks provenienti da fonti rinnovabili, portando quindi l'attenzione sulla sostenibilità del processo di progettazione delle molecole, anche alla luce della degradazione in ambiente delle sostanze sintetizzate. Tali molecole sono attualmente in fase di test presso i laboratori di Italcementi (ITC Group).
Resumo:
Lo studio svolto in merito alle tecniche di produzione di componenti strutturali in materiale composito ha permesso il raggiungimento di una precisa consapevolezza dello stato dell’arte del settore, in particolare in riferimento ai processi attualmente utilizzati per l’industrializzazione in media-grande serie. Con l’obiettivo di sintetizzare i principali vantaggi delle tecnologie suddette e permettere la realizzazione di forme più complesse, si è proceduto all’analisi di fattibilità, attraverso uno studio funzionale e una prima progettazione di una tecnologia di produzione per nastratura automatizzata di componenti strutturali in materiale composito. Si è voluto quindi dimostrare la flessibilità e la consistenza del processo disegnando un telaio nastrato in carbonio, intercambiabile al telaio FSAE 2009 in tubolare d’acciaio (stessi punti di attacco motore, punti di attacco telaietto posteriore, attacchi sospensioni anteriori) e che garantisca un sostanziale vantaggio in termini di peso, a pari rigidezza torsionale. La caratterizzazione di tale telaio è stata eseguita mediante l'utilizzo del calcolo strutturale, validato da prove sperimentali.
Resumo:
Il presente elaborato ha ad oggetto la direttiva PED (Pressure Equipment Directive) relativa agli apparecchi a pressione. Tale norma è stata recepita in Italia con il D.Lgs. n. 93/2000 ed è entrata in vigore definitivamente nel 2002. Essa è finalizzata alla libera circolazione delle attrezzature a pressione nella comunità europea e ne disciplina la progettazione, la costruzione, l'equipaggiamento e l'installazione in sicurezza, definendo per ciascuna delle fasi sopra elencate quali siano i documenti da presentare, gli accorgimenti da rispettare e i controlli a cui sottostare. Il presente lavoro di tesi, svolto presso lo stabilimento di Ravenna di ENI Versalis, ha avuto l’obiettivo di individuare i punti di contatto fra quanto richiesto dalla direttiva PED e quanto solitamente emerge dall’applicazione delle tecniche per l’analisi di rischio, degli standard internazionali e aziendali e delle norme di buona tecnica. Il risultato del lavoro consiste nella definizione di un iter tecnico-procedurale standardizzato ad uso dell’utilizzatore delle attrezzature a pressione tramite la quale l’azienda possa procedere alla compilazione delle Note Tecniche destinate al fabbricante delle attrezzature stesse, secondo quanto richiesto dalla direttiva. Tali Note Tecniche devono contenere le indicazioni relative ai valori progettuali di temperatura e pressione e ai Requisiti Essenziali di Sicurezza (RES) che devono essere soddisfatti, permettendo così al fabbricante di poter svolgere una corretta analisi di rischio e all’utilizzatore di ottenere la massima sicurezza negli impianti. L’elaborato è strutturato come segue. Dopo il Capitolo 1, avente carattere introduttivo, nel Capitolo 2 vengono illustrate le principali novità introdotte dalla direttiva PED e descritti i punti cardine della procedura di valutazione della conformità richiesta per le attrezzature a pressione. Nel Capitolo 3 viene esaminata l’integrazione della direttiva PED con la direttiva Macchine e la direttiva ATEX. Nel Capitolo 4 sono descritte le principali tecniche di analisi di rischio che possono essere utilizzate per rispondere ai Requisiti Essenziali di Sicurezza (RES) richiesti in fase di compilazione della Nota Tecnica. Nel Capitolo 5 si fornisce una descrizione dettagliata dell’iter tecnico-procedurale messo a punto per la valutazione di conformità delle attrezzature e degli insiemi a pressione. Nel Capitolo 6 vengono illustrati ad uno ad uno i punti che devono essere presenti in una Nota Tecnica, ciascuno dei quali costituisce un Requisito Essenziale di Sicurezza. Nel Capitolo 7 viene approfondito uno dei Requisiti più critici, l’incendio esterno. Infine nel Capitolo 8 sono riportate le considerazioni conclusive.
Resumo:
Il territorio italiano presenta una grandissima ricchezza nel campo dei Beni Culturali, sia mobili che immobili; si tratta di un patrimonio di grande importanza che va gestito e tutelato nel migliore dei modi e con strumenti adeguati, anche in relazione ai problemi ad esso legati in termini di manutenzione e di salvaguardia dai fattori di rischio a cui può essere esposto. Per una buona conoscenza del Patrimonio Culturale, è fondamentale un’acquisizione preliminare di informazioni condotte in modo sistematico e unitario, che siano diffuse ed organiche, ma anche utili ad una valutazione preventiva e ad una successiva programmazione degli interventi di restauro di tipo conservativo. In questo ambito, l'impiego delle tecniche e tecnologie geomatiche nel campo dei Beni Culturali, può fornire un valido contributo, che va dalla catalogazione e documentazione del bene culturale al suo controllo e monitoraggio. Oggigiorno il crescente sviluppo di nuove tecnologie digitali, accompagnato dai notevoli passi avanti compiuti dalle discipline della geomatica (in primo luogo topografiche e fotogrammetriche), rende possibile una efficace integrazione tra varie tecniche, favorita anche dalla diffusione di soluzioni per l’interscambio dati e per la comunicazione tra differenti dispositivi. Lo studio oggetto della presente tesi si propone, di approfondire gli aspetti legati all’uso delle tecniche e tecnologie della Geomatica, per mettere in risalto le condizioni di un bene ed il suo stato di degrado. Per la gestione e la salvaguardia di un bene culturale , si presenta il SIT Carta del Rischio che evidenzia le pericolosità legate al patrimonio, e come esse sommate alla vulnerabilità di un singolo bene, contribuiscano all’individuazione del grado di rischio. di approfondire gli aspetti legati all’uso delle tecniche e tecnologie delle Geomatica, per mettere in risalto le condizioni di un bene ed il suo stato di degrado.
Resumo:
Introduzione a tecniche di web semantico e realizzazione di un approccio in grado di ricreare un ambiente familiare di un qualsiasi motore di ricerca con funzionalità semantico-lessicali e possibilità di estrazione, in base ai risultati di ricerca, dei concetti e termini chiave che costituiranno i relativi gruppi di raccolta per i vari documenti con argomenti in comune.
Resumo:
Il dibattito sullo sviluppo delle culture dell’età del Bronzo nel territorio dell’Emilia-Romagna sta portando una rinnovata attenzione sull’area romagnola. Le indagini si sono concentrate sull’area compresa tra il fiume Panaro e il Mare Adriatico, riconoscibile nell’odierna Romagna ed in parte della bassa pianura emiliana. Si trattava un territorio strategico, un vero e proprio crocevia socio-economico fra la cultura terramaricola e quelle centro italiche di Grotta Nuova. La presente ricerca di dottorato ha portato alla ricostruzione dei sistemi di gestione e di sfruttamento delle risorse animali in Emilia-Romagna durante l’Età del Bronzo, con particolare attenzione alla definizione della capacità portante ambientale dei diversi territori indagati e delle loro modalità di sfruttamento in relazione alla razionalizzazione della pratiche di allevamento. Sono state studiate in dettaglio le filiere di trasformazione dei prodotti animali primari e secondari definendo, quindi, i caratteri delle paleoeconomie locali nel processo di evoluzione della Romagna durante l’età del Bronzo. La ricerca si è basata sullo studio archeozoologico completo su 13 siti recentemente indagati, distribuiti nelle provincie di: Bologna, Ferrara, Ravenna, Forlì/Cesena e Rimini, e su una revisione completa delle evidenze archeozoologiche prodotte da studi pregressi. Le analisi non si sono limitate al riconoscimento delle specie, ma hanno teso all’individuazione ed alla valutazione di parametri complessi per ricostruire le strategie di abbattimento e le tecniche di sfruttamento e macellazione dei diversi gruppi animali. E’ stato possibile, quindi, valutare il peso ecologico di mandrie e greggi sul territorio e l’impatto economico ed ecologico di un allevamento sempre più sistematico e razionale, sia dal punto di vista dell’organizzazione territoriale degli insediamenti, sia per quanto riguarda le ripercussioni sulla gestione delle risorse agricole ed ambientali in generale.
Resumo:
Aedes albopictus (Skuse), comunemente detta Zanzara Tigre, ha invaso, negli ultimi anni, molti paesi, soprattutto in modo passivo attraverso il commercio di pneumatici usati. Questa specie è particolarmente adatta all'applicazione della tecnica dell'insetto sterile (SIT), basata su allevamento massale, sterilizzazione e rilascio in campo di un gran numero di maschi della specie vettrice. I maschi sterili rilasciati devono essere in grado di volare, di disperdersi sul territorio, di sopravvivere, di essere sessualmente attivi abbastanza a lungo per coprire il tempo tra una fase di rilascio e la successiva, di individuare le femmine vergini selvatiche e competere con successo per l'accoppiamento con i maschi selvatici. La dispersione e la sopravvivenza dei maschi di Ae. albopictus allevati in laboratorio, sono state studiate mediante tecniche di marcatura, rilascio e ricattura. Le catture sono state eseguite da tecnici specializzati, in un raggio di 350 m dal sito di rilascio. Gli esperimenti condotti hanno dimostrato che i maschi sono in grado di disperdersi, dal sito di rilascio, per circa 200 m ma la loro longevità in campo è fortemente dipendente dalle condizioni climatiche. In studi di semi-campo e di campo è stato valutato uno speciale dispositivo progettato per essere incluso nella stazione di rilascio dei maschi in grado di fornire loro fonti energetiche per migliorarne le prestazioni. I risultati ottenuti sono stati positivi. Studi di competitività sono stati condotti in tunnel costruiti in un ambiente naturale al fine di validare un protocollo per studi sulla competitività dei maschi in questo modello sperimentale. Maschi irraggiati mediante l'applicazione di raggi gamma alla dose di 30 Gy sono stati messi in competizione con maschi fertili per l'accoppiamento con femmine vergini con diversi rapporti. I risultati ottenuti hanno dimostrato le buone prestazioni e l'affidabilità di questo modello sperimentale rimanendo però irrisolto il problema dell’elevata variabilità.
Resumo:
Le caratteristiche del 99mTc e la possibilità per gli ospedali di produrlo in loco quotidianamente grazie ai generatori, hanno reso questo radioisotopo il più utilizzato della fisica medica: è richiesto in circa l’80% delle procedure di medicina nucleare con circa 7 milioni di somministrazioni all’anno in Europa e 8 milioni negli USA. Inoltre il campo di applicabilità del 99mTc è molto vasto: viene infatti utilizzato per scintigrafie ossee, epatiche, renali, celebrali, tiroidee e per il controllo della funzionalità epatica. A causa del notevole incremento dell’insorgenza di patologie oncologiche e dell’aumento della popolazione, la richiesta di 99mTc è sempre cresciuta negli anni ed è ancora destinata a crescere nei prossimi; l’unico fattore attenuante è lo sviluppo di altre tecniche di diagnostica funzionale come la PET ( Positron Emission Tomography ). Nonostante la creazione del 99mTc da generatori di 99Mo sia ancora oggi il metodo di produzione più efficiente, si sta ponendo recentemente la necessità di ricercare nuove tecniche di produzione dell’isotopo per soddisfare le grandi quantità richieste dal mercato globale. Questo accade perché malgrado l’utilizzo del 99mTc sia in forte crescita, la produzione di 99Mo è destinata a diminuire in quanto necessita di reattori nucleari: gli ingenti costi delle moderne centrali e le elevate quantità di scorie prodotte, stanno guidando la politica mondiale verso una denuclearizzazione che renderà in pochi anni impossibile soddisfare la richiesta di 99Mo della medicina nucleare. Questo lavoro di tesi si colloca in questo contesto, cioè nella ricerca di un metodo alternativo per la produzione di 99mTc: l’irraggiamento con protoni di un target di 100Mo arricchito, in un ciclotrone ad uso medicale. L’obbiettivo che si vuole raggiungere è fornire una stima attendibile su tale produzione, valutare la qualità dell’isotopo e mettere in luce eventuali problematiche riscontrabili.
Resumo:
I virus tumorali inducono oncogenesi nel loro ospite naturale o in sistemi animali sperimentali, manipolando diverse vie cellulari. Ad oggi, sono stati identificati sette virus capaci di causare specifici tumori umani. Inoltre HPV, JCV ed SV40, sono stati associati con un grande numero di tumori umani in sedi corporee non convenzionali, ma, nonostante molti anni di ricerca, nessuna eziologia virale è stata ancora confermata. Lo scopo di questo studio è stato di valutare la presenza ed il significato sia di JCV ed SV40 in tumori ossei umani, e di HPV nel carcinoma della mammella (BC), galattoforectomie (GF), secrezioni mammarie patologiche (ND) e glioblastoma multiforme (GBM). Tecniche di biologia molecolare sono state impiegate per esaminare campioni di tessuto tumorale di 70 tumori ossei (20 osteosarcomi [OS], 20 tumori a cellule giganti [TCG], 30 condrosarcomi [CS]), 168 BCs , 30 GFs, 59 GBM e 30 campioni di ND. Il genoma di SV40 e JCV è stato trovato nel 70% dei CS + 20% degli OS, e nel 13% dei CS +10% dei TCG, rispettivamente. Il DNA di HPV è stato rilevato nel 30% dei pazienti con BC, nel 27% dei campioni GF e nel 13% dei NDs. HPV16 è stato il genotipo maggiormente osservato in tutti questi campioni, seguito da HPV18 e HPV35. Inoltre, il DNA di HPV è stato trovato nel 22% dei pazienti con GBM, in questo tumore HPV6 era il tipo più frequentemente rilevato, seguito da HPV16. L’ ISH ha mostrato che il DNA di HPV è situato all’interno di cellule tumorali mammarie e di GBM. I nostri risultati suggeriscono un possibile ruolo di JCV, SV40 e HPV in questi tumori, se non come induttori come promotori del processo neoplastico, tuttavia diversi criteri devono ancora essere soddisfatti prima di chiarirne il ruolo.
Resumo:
In questo lavoro di tesi è stato elaborato un modello analitico al fine di ottenere una stima dell’ampiezza di delaminazione a seguito di impatti a bassa velocità in laminati in composito, in particolare carbon/epoxy. Nel capitolo 2 è descritto il comportamento meccanico di tali laminati (equazioni costitutive della singola lamina, dell’intero laminato e costanti ingegneristiche dell’intero laminato per qualsiasi sistema di riferimento). Nel capitolo 3 viene descritta la filosofia di progettazione damage tolerance per tali materiali sottoposti a low-velocity impact (LVI) e richiamato il concetto di structural health monitoring. In particolare vengono descritti i tipi di difetti per un laminato in composito, vengono classificati gli impatti trasversali e si rivolge particolare attenzione agli impatti a bassa velocità. Nel paragrafo 3.4 sono invece elencate diverse tecniche di ispezione, distruttive e non, con particolare attenzione alla loro applicazione ai laminati in composito. Nel capitolo 4 è riportato lo stato dell’arte per la stima e la predizione dei danni dovuti a LVI nei laminati: vengono mostrate alcune tecniche che permettono di stimare accuratamente l’inizio del danno, la profondità dell’indentazione, la rottura delle fibre di rinforzo e la forza massima di impatto. L’estensione della delaminazione invece, è difficile da stimare a causa dei numerosi fattori che influenzano la risposta agli impatti: spesso vengono utilizzati, per tale stima, modelli numerici piuttosto dispendiosi in termini di tempo e di calcolo computazionale. Nel capitolo 5 viene quindi mostrata una prima formula analitica per il calcolo della delaminazione, risultata però inaffidabile perché tiene conto di un numero decisamente ristretto di fattori che influenzano il comportamento agli LVI. Nel capitolo 6 è mostrato un secondo metodo analitico in grado di calcolare l’ampiezza di delaminazione mediante un continuo aggiornamento della deflessione del laminato. Dal confronto con numerose prove sperimentali, sembra che il modello fornisca risultati vicini al comportamento reale. Il modello è inoltre fortemente sensibile al valore della G_IIc relativa alla resina, alle dimensioni del laminato e alle condizioni di vincolo. É invece poco sensibile alle variazioni delle costanti ingegneristiche e alla sequenza delle lamine che costituiscono il laminato. La differenza tra i risultati sperimentali e i risultati del modello analitico è influenzata da molteplici fattori, tra cui il più significativo sembra essere il valore della rigidezza flessionale, assunto costante dal modello.