947 resultados para Idrogeno stoccaggio misure analisi sperimentale strumenti energie rinnovabili
Resumo:
I processi microbiologici rivestono una grande importanza nello sviluppo di combustibili e sostanze chimiche da fonti rinnovabili (biomassa), quali: il biometano e le bioplastiche, come i poli(idrossialcanoati), PHA. I PHA sono poliesteri ottenuti per condensazione di 3-idrossiacidi, il più comune dei quali è il poli(3-idrossibutirrato, PHB). Gli alti costi di produzione del PHA da colture microbiche singole ha portato a valutare nuove strategie, tra cui l’utilizzo di colture microbiche miste (MMC) e substrati di scarto. Il bio-olio ottenuto dalla pirolisi di biomassa potrebbe essere un substrato interessante per la produzione di biogas e PHA. Gli acidi a catena corta (acidi grassi volatili, VFA), infatti, sono i prodotti intermedi nella produzione sia di biogas che di PHA. L’analisi di questi ultimi viene normalmente effettuata tramite GC-FID o GC-MS. La degradazione termica (pirolisi, Py) di PHA produce acidi alchenoici caratteristici, come l’acido crotonico. Il metodo tradizionale per la determinazione del PHA è la metanolisi seguita da un’analisi GC-MS, una procedura laboriosa con uso di solventi clorurati e sostanze corrosive. Lo scopo principale di questa tesi è stato quello di sviluppare un nuovo metodo di analisi dei PHA. Il metodo studiato si basa sulla pirolisi diretta della biomassa e determinazione degli acidi alchenoici prodotti dalla degradazione del PHA in GC-FID. La pirolisi analitica è stata studiata tramite analisi di polimeri puri (per la calibrazione) e poi è stata applicata a campioni batterici derivanti da MMC e a ceppi selezionati. Il confronto con il metodo convenzionale ha dimostrato che la Py/GC-FID è un metodo valido per l’identificazione dei PHA e per la loro quantificazione nelle matrici batteriche. Il pre-trattamento del campione è minimo e non richiede l’uso di solventi e reagenti chimici. Inoltre, è stata applicata una tecnica di analisi dei VFA nei test di biometanazione basata sull’estrazione con una microquantità di dimetilcarbonato.
Resumo:
L’evoluzione dei componenti elettronici di potenza ed il conseguente sviluppo dei convertitori statici dell’energia elettrica hanno consentito di ottenere un’elevata efficienza energetica, sia nell’ambito degli azionamenti elettrici, sia nell’ambito della trasmissione e distribuzione dell’energia elettrica. L’efficienza energetica è una questione molto importante nell’attuale contesto storico, in quanto si sta facendo fronte ad una elevatissima richiesta di energia, sfruttando prevalentemente fonti di energia non rinnovabili. L’introduzione dei convertitori statici ha reso possibile un notevolissimo incremento dello sfruttamento delle fonti di energia rinnovabili: si pensi ad esempio agli inverter per impianti fotovoltaici o ai convertitori back to back per applicazioni eoliche. All’aumentare della potenza di un convertitore aumenta la sua tensione di esercizio: le limitazioni della tensione sopportabile dagli IGBT, che sono i componenti elettronici di potenza di più largo impiego nei convertitori statici, rendono necessarie modifiche strutturali per i convertitori nei casi in cui la tensione superi determinati valori. Tipicamente in media ed alta tensione si impiegano strutture multilivello. Esistono più tipi di configurazioni multilivello: nel presente lavoro è stato fatto un confronto tra le varie strutture esistenti e sono state valutate le possibilità offerte dall’architettura innovativa Modular Multilevel Converter, nota come MMC. Attualmente le strutture più diffuse sono la Diode Clamped e la Cascaded. La prima non è modulare, in quanto richiede un’apposita progettazione in relazione al numero di livelli di tensione. La seconda è modulare, ma richiede alimentazioni separate e indipendenti per ogni modulo. La struttura MMC è modulare e necessita di un’unica alimentazione per il bus DC, ma la presenza dei condensatori richiede particolare attenzione in fase di progettazione della tecnica di controllo, analogamente al caso del Diode Clamped. Un esempio di possibile utilizzo del convertitore MMC riguarda le trasmissioni HVDC, alle quali si sta dedicando un crescente interesse negli ultimi anni.
Resumo:
In molti sistemi di distribuzione idrici una percentuale significativa di acqua viene persa passando dagli impianti di trattamento alle utenze, a causa di danneggiamenti nei diversi componenti delle reti. Le perdite idriche sono un problema costoso, non solo in termini di spreco di una preziosa risorsa naturale, ma anche in termini economici. L’obiettivo principale di questo lavoro è stato quello di identificare possibili sviluppi per le attrezzature e metodi già esistenti al fine di rilevare in modo automatico perdite idriche in condotte in plastica. A questo proposito è stata studiata l’efficacia di metodi basati sull’analisi di vibrazioni e suoni. In particolare ci si è concentrati sull’uso di accelerometri e idrofoni e, successivamente, sull’uso di sensori di emissioni acustiche. Dopo una prima fase di ricerca approfondita sulla dinamica dei fenomeni vibro-acustici che si verificano nelle condotte, sulla teoria delle emissioni acustiche, sulla caratterizzazione di segnali di perdita in condotte in plastica e sulle principali attrezzature usate attualmente per l’individuazione delle perdite, si è passati alla fase sperimentale. La fase sperimentale può essere distinta in due parti. La prima ha avuto come obiettivo il confronto tra segnali acquisiti da accelerometro e idrofono relativamente all’efficacia nell’individuazione di perdite idriche mediante apposito algoritmo ed ha coinvolto numerosi test sul campo, eseguiti sotto condizioni controllate in un impianto di rilevamento perdite sperimentale, appositamente costruito, adiacente alla sede della Divisione Reti R & S di Hera a Forlì. La seconda fase, invece, ha avuto come obiettivo la determinazione dell’efficacia del metodo delle emissioni acustiche per l’individuazione di perdite idriche ed ha visto l’esecuzione di altrettanti test, eseguiti sotto condizioni controllate, in un impianto sperimentale più semplice del precedente.
Resumo:
In questa tesi ho voluto descrivere il Timing Attack al sistema crittografico RSA, il suo funzionamento, la teoria su cui si basa, i suoi punti di forza e i punti deboli. Questo particolare tipo di attacco informatico fu presentato per la prima volta da Paul C. Kocher nel 1996 all’“RSA Data Security and CRYPTO conferences”. Nel suo articolo “Timing Attacks on Implementations of Diffie-Hellman, RSA, DSS, and Other Systems” l’autore svela una nuova possibile falla nel sistema RSA, che non dipende da debolezze del crittosistema puramente matematiche, ma da un aspetto su cui nessuno prima di allora si era mai soffermato: il tempo di esecuzione delle operazioni crittografiche. Il concetto è tanto semplice quanto geniale: ogni operazione in un computer ha una certa durata. Le variazioni dei tempi impiegati per svolgere le operazioni dal computer infatti, necessariamente dipendono dal tipo di algoritmo e quindi dalle chiavi private e dal particolare input che si è fornito. In questo modo, misurando le variazioni di tempo e usando solamente strumenti statistici, Kocher mostra che è possibile ottenere informazioni sull’implementazione del crittosistema e quindi forzare RSA e altri sistemi di sicurezza, senza neppure andare a toccare l’aspetto matematico dell’algoritmo. Di centrale importanza per questa teoria diventa quindi la statistica. Questo perché entrano in gioco molte variabili che possono influire sul tempo di calcolo nella fase di decifrazione: - La progettazione del sistema crittografico - Quanto impiega la CPU ad eseguire il processo - L’algoritmo utilizzato e il tipo di implementazione - La precisione delle misurazioni - Ecc. Per avere più possibilità di successo nell’attaccare il sistema occorre quindi fare prove ripetute utilizzando la stessa chiave e input differenti per effettuare analisi di correlazione statistica delle informazioni di temporizzazione, fino al punto di recuperare completamente la chiave privata. Ecco cosa asserisce Kocher: “Against a vulnerable system, the attack is computationally inexpensive and often requires only known ciphertext.”, cioè, contro sistemi vulnerabili, l’attacco è computazionalmente poco costoso e spesso richiede solo di conoscere testi cifrati e di ottenere i tempi necessari per la loro decifrazione.
Resumo:
Il presente lavoro ha ad oggetto l’esame della disciplina dell’arresto in flagranza e del fermo di indiziato di delitto: istituti profondamente “utili” e “d’impatto” (anche mass-mediatico) perché ontologicamente tesi, soprattutto il primo, all’immediata repressione del fenomeno criminale. Scopo e ragione di questo studio, è dunque l’individuazione di altre e più profonde finalità di tali istituti, passando per una piena comprensione del ruolo loro assegnato nel vigente impianto codicistico. La ricerca, dunque, si è sviluppata lungo tre direttrici, ciascuna rappresentata – anche dal punto di vista grafico-strutturale – nelle tre parti cin cui è diviso l’elaborato finale e ciascuna singolarmente riferibile, in un’immaginaria linea del tempo, allo ieri (e ai principi), all’oggi e al domani della disciplina delle misure coercitive di polizia giudiziaria. Nella prima parte, infatti, partendo dall’analisi storica degli istituti in esame, si è proceduto all’esame della disciplina e della giurisprudenza costituzionale in tema di strumenti di polizia giudiziari provvisoriamente limitativi della libertà personale; l’obiettivo primo di tale approfondimento, cui poi sarà informato l’analisi della dinamica degli istituti, è proprio l’individuazione delle finalità – conformi a Costituzione – dell’arresto e del fermo di indiziato di delitto. Seguirà l’analisi del concetto di libertà personale, e dei margini consentiti per la sua limitazione, in seno al sistema della Convenzione europea per la salvaguardia dei diritti dell’uomo. La seconda parte contiene un’analisi critica degli istituti dell’arresto in flagranza, del fermo di indiziato di delitto e dell’arresto urgente a fini estradizionale. Infine, la terza e ultima parte ha ad oggetto l’ulteriore di linea di ricerca che si è sviluppata a mo’ di conclusione delle predette analisi, riguardante la possibilità di utilizzare lo strumento del fermo, ampliandone le maglie applicative, come viatico per l’introduzione del contraddittorio anticipato rispetto all’applicazione delle misure cautelari personali
Resumo:
La tesi esplora la riflessione bioetica latino-americana e la sua evoluzione, valutandone i legami, intenzionali e non, con le posizioni bioetiche più consolidate e tendenzialmente dominanti del panorama internazionale. La trattazione indaga lo sviluppo della bioetica nel sub-continente latinoamericano, ponendo in evidenza lo sviluppo delle teorie morali che definiscono l'orizzonte interpretativo del dibattito contemporaneo, come pure le peculiarità della produzione sudamericana in materia di bioetica e la casistica tipica di questi territori. Per una comprensione delle caratteristiche di un pensiero bioetico, tipico di un territorio in via di sviluppo, la tesi presenta la trattazione di due precisi case studies: A- Il progetto peruviano: Propuesta de incorporación del enfoque intercultural y de representantes indígenas en los comités de ética en países multiculturales; B- La biomedicina e gli xenotrapianti in Messico. L'analisi dei casi studio è funzionale alla messa in luce delle caratteristiche costitutive del pensiero latinoamericano e della casistica tipica del territorio. La bioetica Latinoamericana, infatti, sviluppatasi circa con vent'anni di ritardo rispetto ai luoghi di nascita di questa disciplina (Gran Bretagna e USA), rivendica l'esigenza di un dibattito e di una prassi bioetica autoctone, capaci quindi di riassumere in sé stesse concetti e principi declinabili all'interno delle esperienze e delle concrete esigenze che prendono forma nella realtà culturale e socio-economica. Per questo motivo si discosta dalle cosiddette teorie bioetiche classiche rivendicando una bioetica di contestazione che si vincola costitutivamente al linguaggio dei diritti umani. La tesi propone inoltre l'utilizzo dei dati emersi dai casi studio per sviluppare una riflessione sulle modalità e su alcuni esiti della globalizzazione della bioetica. L’analisi si avvale di strumenti e categorie proprie della sociologia, dell’economia e della politica al fine di mettere in evidenza le diverse componenti costitutive e le criticità della bioetica globalizzata.
Resumo:
Nel seguente elaborato si propone lo sviluppo di un modello agli elementi finiti (FEM) del processo di friction welding del quale, attraverso i dati rilevati da prove sperimentali di validazione termica, vengono valutati i parametri ottimali di simulazione. Ai risultati così ottenuti vengono applicati anche algoritmi per la valutazione della microstruttura e della qualità della saldatura, sviluppati originariamente per l'analisi dell'estrusione: in entrambi i casi a seguito del confronto con le analisi metallografiche dei provini è stato possibile validare ulteriormente il modello creato.
Resumo:
Il bisogno di creare dei metodi per l’identificazione delle performance e strumenti di diagnosi è sempre maggiore nelle turbomacchine. Le case costruttrici di motori, in generale, sono guidate dalle richieste del mercato e da normative sempre più severe, e ricercano quindi da un lato, sempre migliori prestazioni come ad esempio la diminuzione dei consumi e, dall’altro, l’abbattimento degli agenti inquinanti. In ambito industriale si ha l’esigenza di rendere più rapidi i tempi di progettazione e sviluppo dei motori per l’abbattimento dei costi di progettazione e per minimizzare il tempo di commercializzazione. Ecco perché entra in gioco, ed assume importanza, l’uso della simulazione numerica che fornisce informazioni utili sia in fase di verifica, che in fase di progetto di tutti i componenti del motore, anche quelli che sarebbero difficilmente accessibili per misure sperimentali. Al contempo i calcolatori moderni diventano facilmente e rapidamente sempre più potenti riducendo così i tempi di calcolo, e ciò ha consentito l’uso di tecniche numeriche che prima sarebbero risultate impensabili da utilizzare. Per mezzo dell’uso di codici di tipo bi o tri-dimensionale è possibile conoscere e valutare i valori delle grandezze termodinamiche del fluido che attraversa il motore punto per punto. Questi metodi presentano un elevata accuratezza ma hanno anche lo svantaggio di richiedere un elevato costo computazionale con conseguente aumento dei tempi di calcolo. In più hanno bisogno di molti dati di input per il modello matematico, e dipendono fortemente dalle condizioni iniziali e dalle condizioni al contorno. Nasce quindi l'esigenza di un ambiente di sviluppo che consenta una modellazione semplificata degli elementi costituenti il motore, ed un rapido interfacciamento con modelli locali più sofisticati. Inoltre, se si vogliono ottimizzare dei parametri relativi all’impianto globale oppure se si desidera avere un quadro generale delle prestazioni del motore è sufficiente usare modelli 0-D e 1-D per i vari componenti del motore. Sono stati svolti molti studi concentrati sullo sviluppo di strumenti capaci di supportare operazioni di pianificazione e/o per validare analisi di diagnosi.
Resumo:
Questa relazione è frutto di un lavoro sperimentale svolto su diversi campioni di taralli del commercio forniti da un'azienda del settore, prodotti mediante ricette simili ed omogenei per dimensioni. Le attività di ricerca sono state focalizzare su: I) l'individuazione e la valutazione dei principali descrittori sensoriali in grado di caratterizzare la tipologia di prodotto; II) lo svolgimento di un'analisi sensoriale discriminante per verificare l'esistenza di differenze significativamente rilevabili tra taralli dello stesso tipo ma conservati per tempi differenti (0, 6, 12 mesi), al fine di fornire indicazioni utili per la definizione corretta della shelf-life del prodotto; III) la determinazione di specifici parametri fisici relazionati con l'apparenza e la texture dei taralli, per verificare la possibilità di utilizzare tali dati sia come supporto alla fase di allenamento del gruppo di assaggiatori, sia come approccio rapido per la valutazione della qualità e della freschezza di tali prodotti. Per la realizzazione degli obiettivi appena esposti, é stata applicata la tecnica QDA®. I dati delle singole sedute di analisi sono stati monitorati mediante PanelCheck. E' stato svolto un test triangolare attraverso cui definire se i taralli differenti per tempo di conservazione risultino significativamente discriminati per le caratteristiche sensoriali. Parallelamente alla QDA® e sullo stesso set di campioni, sono state applicate alcune analisi fisiche concernenti la valutazione dell’aspetto visivo e della texture del prodotto. Per la valutazione strumentale dell’apparenza dei campioni di taralli, si sono acquisite le immagini relative ai campioni oggetto di studio mediante un sistema di acquisizione e, successivamente, elaborate attraverso Image Pro - Plus v 6.2, per determinare elementi utili alla discriminazione dei campioni in esame. Per quanto concerne la determinazione della caratteristiche strutturali dei taralli è stato utilizzato il Texture Analyzer ed impiegato un test di penetrazione. E' stata infine condotta, mediante tecniche statistiche, un’analisi congiunta dei dati sensoriali e fisici.
Resumo:
Fino dagli albori della metodica scientifica, l’osservazione e la vista hanno giocato un ruolo fondamentale. La patologia è una scienza visiva, dove le forme, i colori, le interfacce e le architetture di organi, tessuti, cellule e componenti cellulari guidano l’occhio del patologo e ne indirizzano la scelta diagnostico-classificativa. L’osservazione del preparato istologico in microscopia ottica si attua mediante l’esame e la caratterizzazione di anomalie ad ingrandimenti progressivamente crescenti, a diverse scale spaziali, che partono dalla valutazione dell’assetto architettonico sovracellulare, per poi spostarsi ad investigare e descrivere le cellule e le peculiarità citomorfologiche delle stesse. A differenza di altri esami di laboratorio che sono pienamente quantificabili, l’analisi istologica è intrinsecamente soggettiva, e quindi incline ad un alto grado di variabilità nei risultati prodotti da differenti patologi. L’analisi d’immagine, l’estrazione da un’immagine digitale di contenuti utili, rappresenta una metodica oggettiva, valida e robusta ormai largamente impiegata a completamento del lavoro del patologo. Si sottolinea come l’analisi d’immagine possa essere vista come fase descrittiva quantitativa di preparati macroscopici e microscopici che poi viene seguita da una interpretazione. Nuovamente si sottolinea come questi descrittori siano oggettivi, ripetibili e riproducibili, e non soggetti a bassa concordanza inter operatore. La presente tesi si snoda attraverso un percorso concettuale orientato ad applicazioni di analisi d’immagine e patologia quantitativa che parte dalle applicazioni più elementari (densità, misure lineari), per arrivare a nozioni più avanzate, quali lo studio di complessità delle forme mediante l’analisi frattale e la quantificazione del pattern spaziale di strutture sovracellulari.
Propagazione di luce in mezzi disordinati: Misure di trasporto diffusivo tramite imaging stazionario
Resumo:
Nel presente lavoro di tesi è stato effettuato uno studio del trasporto di luce in sistemi diffusivi. Per effettuare tale studio è stato allestito un apparato sperimentale ottimizzato per acquisire profili di trasmissione risolti spazialmente di campioni con geometria a slab. Tramite delle misure su un campione diffusivo di riferimento è stato valutato il funzionamento dell’apparato e sono stati effettuati dei test per ottimizzare il procedimento di misurazione. L’apparato è stato poi impiegato per condurre un’analisi del trasporto in un altro sistema disordinato particolarmente interessante, una scaglia di scarafaggio bianco Chyphochilus. Questa specie presenta una bianchezza unica in natura, per via della particolare struttura ottica insita nelle sue scaglie. Le misure effettuate su questo campione hanno rivelato la presenza di anisotropia di trasporto, elemento che potrebbe rivestire un ruolo centrale nelle eccezionali proprietà macroscopiche della scaglia. Sia l’analisi sul campione diffusivo che sulla scaglia di Chyphochilus dimostrano come l’apparato messo a punto permetta di investigare le proprietà microscopiche e strutturali del processo di trasporto di luce, consentendo di stimare il grado di anisotropia dei sistemi esaminati. L’intero lavoro di tesi è stato svolto presso il laboratorio Europeo di Spettroscopia Non-lineare LENS di Firenze all’interno dell’attività di ricerca del gruppo di ottica dei sistemi complessi di Diederik Wiersma. Il campione di scaglia di Chyphochilus è stato fornito dal prof. Peter Vukusic dell’Università di Exeter, UK.
Resumo:
L’oggetto principale delle attività di tesi è la caratterizzazione numerico-sperimentale di processi di colata in sabbia di ghisa sferoidale. Inizialmente è stata effettuata un’approfondita indagine bibliografica per comprendere appieno le problematiche relative all’influenza dei parametri del processo fusorio (composizione chimica, trattamento del bagno, velocità di raffreddamento) sulle proprietà microstrutturali e meccaniche di getti ottenuti e per valutare lo stato dell’arte degli strumenti numerici di simulazione delle dinamiche di solidificazione e di previsione delle microstrutture. Sono state definite, realizzate ed impiegate attrezzature sperimentali di colata per la caratterizzazione di leghe rivolte alla misura ed alla differenziazione delle condizioni di processo, in particolare le velocità di raffreddamento, ed atte a validare strumenti di simulazione numerica e modelli previsionali. Inoltre sono stati progettati ed impiegati diversi sistemi per l’acquisizione ed analisi delle temperature all’interno di getti anche di grandi dimensioni. Lo studio, mediante analisi metallografica, di campioni di materiale ottenuto in condizioni differenziate ha confermato l’effetto dei parametri di processo considerati sulle proprietà microstrutturali quali dimensioni dei noduli di grafite e contenuto di ferrite e perlite. In getti di grandi dimensioni si è riscontrata anche una forte influenza dei fenomeni di macrosegregazione e convezione della lega su microstrutture e difettologie dei getti. Le attività si sono concentrate principalmente nella simulazione numerica FEM dei processi fusori studiati e nell’impiego di modelli empirico-analitici per la previsione delle microstrutture. I dati misurati di temperature di processo e di microstrutture sono stati impiegati per la validazione ed ottimizzazione degli strumenti numerici previsionali impiegati su un ampio intervallo di condizioni di processo. L’impiego di strumenti affidabili di simulazione del processo fusorio, attraverso l’implementazione di correlazioni sperimentali microstrutture-proprietà meccaniche, permette la valutazione di proprietà e difettologie dei getti, fornendo un valido aiuto nell’ottimizzazione del prodotto finito e del relativo processo produttivo.
Resumo:
Questa tesi descrive una prima serie di misure effettuate per caratterizzare le prestazioni di un rivelatore di fotoni MCP-PMT a multi anodo, con particolare enfasi sulla risoluzione temporale e spaziale. I risultati sono stati confrontati con quelli relativi a tre ulteriori rivelatori (un MCP-PMT a singolo anodo e due fotomoltiplicatori a silicio). Le misure sono state effettuate presso i Laboratori dell’Istituto Nazionale di Fisica Nucleare (INFN - Sezione di Bologna) per conto del Dipartimento di Fisica dell’Università di Bologna. La rivelazione della luce ha sempre occupato un posto fondamentale nella Fisica Nucleare e Subnucleare. Il principio base della rivelazione consiste nel trasformare la luce incidente in un segnale elettrico misurabile e i primi strumenti storicamente utilizzati furono i fotomoltiplicatori. Successivamente furono introdotti dei nuovi rivelatori di fotoni chiamati Micro Channel Plates, composti da un array di canali di dimensioni microscopiche, ciascuno in grado di moltiplicare gli elettroni prodotti per effetto fotoelettrico dai fotoni incidenti. Questo nuovo modello presenta ottime prestazioni in particolare per quanto riguarda la risoluzione temporale, e questa insieme ad altre caratteristiche (come la segmentazione degli anodi, che permette una risoluzione spaziale migliore), ha spinto a studiarne il funzionamento.
Resumo:
Il presente elaborato tratta dell’analisi dell’incertezza caratterizzante le misure sperimentali per la portata in massa del flusso d’aria generato dalla rotazione di una generica lama da rasaerba, eseguite attraverso l’impiego di un’apposita strumentazione sperimentale. Una campagna di sperimentazione è stata avviata dal Laboratorio di Aerodinamica sperimentale dell’Università di Bologna, in collaborazione con l’azienda Global Garden Products, dedicata alla valutazione delle prestazioni aerodinamiche, in termini di portata d’aria elaborata, di lame da rasaerba. Un’apposita apparecchiatura sperimentale è stata messa a punto, progettata per permettere il calcolo della portata in massa d’aria, elaborata da una generica lama, a partire dall’acquisizione di misure di pressione. Un’analisi dimensionale è stata applicata al modello teorico, finalizzata alla definizione di un coefficiente adimensionale di portata. Parallelamente alla definizione del metodo di sperimentazione si è proceduto alla caratterizzazione metrologica dello stesso, in termini di precisione, giustezza e accuratezza delle misure ottenibili. Nell’ambito dell’analisi dell’incertezza di misura metodologica è stata effettuata, in primo luogo, una caratterizzazione delle misure realizzate dal trasduttore di pressione impiegato nella sperimentazione. Successivamente il risultato ottenuto è stato impiegato nella definizione, a differenti livelli di ripetizione, dell’incertezza di misura, propria del metodo di sperimentazione impiegato per misurare la portata elaborata da una generica lama. L’esame dei risultati sperimentali ottenuti rivela come la strumentazione impiegata sia adeguata al compito per assolvere il quale essa è stata sviluppata.
Resumo:
Questo studio ha valutato l'efficacia di un approccio rigenerativo utilizzando cellule staminali mesenchimali (MSC) e uno scaffold di idrossiapatite pura e porosa (HA) progettata con tecnologia CAD-CAM per sostituire il condilo dell'articolazione temporomandibolare (ATM). Metodi.Uno scaffolds di HA con porosità totale del 70% è stato prototipato per sostituire i due condili temporomandibolari (sinistro e destro) dello stesso animale. MSC sono state ottenute dalla cresta iliaca ed espanse in coltura. Guide chirurgiche su misura sono state create e utilizzate per esportare la pianificazione virtuale delle linee di taglio dell'osso nell'ambiente chirurgico. Sei pecore sono state sacrificate a 4 mesi dopo l'intervento.Gli scaffold sono stati espiantati, campioni istologici sono stati preparati, ed è stata eseguota l'analisi istomorfometrica. Risultati.L'analisi della riduzione di porosità per apposizione di osso neoformato mostrata una differenza statisticamente significativa tra la formazione ossea nei condili carichi di MSC rispetto ai condili senza (