743 resultados para grado di Brouwer grado di Leray-Schauder


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Nell'industria farmaceutica la necessità di ottenere degli intermedi attivi con un elevato grado di purezza ha portato all'evoluzione di un processo di filtrazione altamente specializzato. Nasce così, negli anni 80, il filtro-essiccatore Nutsche. Si tratta di un'apparecchiatura che permette di integrare in un unico processo le operazioni di filtrazione, lavaggio ed essiccamento del pannello solido. Scopo di questo lavoro di tesi è stato quello di valutare le prestazione del filtro Nutsche definendo delle procedure per la valutazione dell'efficienza della fase di filtrazione e successiva fase di lavaggio ed essiccamento.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Il presente elaborato di tesi tratta della tematica relativa alla razionalizzazione del processo di pianificazione della produzione nell’azienda Schneider Electric Industrie Italia S.p.A. Tale progetto è nato dalla necessità aziendale di avere una schedulazione della produzione più standardizzata a seguito della crisi dei componenti e del loro difficile reperimento, in modo tale da ottenere un piano di produzione che, avviasse la produzione degli ordini producibili e ne monitorasse l’avanzamento con l’obiettivo di restituire ai clienti finali una data di consegna che fosse accurata. Per poter programmare e ottenere una sequenza di produzione ottimizzata si è deciso di applicare ad ogni linea di produzione diverse regole di carico e scegliere lo scenario migliore tra tutti quelli ottenuti. Per decidere quale fosse la schedulazione migliore sono stati calcolati diversi indici di prestazione e come parametro principale di scelta, in accordo con le priorità aziendali, si è data maggior importanza al metodo che fosse in grado di schedulare la produzione riducendo il numero di ordini in ritardo. Come risultato l’aspettativa era quella di trovare una regola di scheduling da poter applicare all’intero reparto di assemblaggio, per contro, a seguito dell’analisi effettuata, si è riscontrato che in funzione del portafoglio ordini specifico di ogni famiglia di prodotto esisteva, per ogni linea, un metodo diverso che andava a migliorare lo scenario attuale, minimizzando il numero di ordini in ritardo. Pertanto, senza congelare il piano di produzione in quanto si andrebbe a ridurre la flessibilità produttiva necessaria per rispondere prontamente ai cambiamenti dinamici del mercato, si è ottenuto che per schedulare la produzione è necessario applicare per ogni linea diversi metodi di scheduling, comparare tra di loro i risultati ottenuti e infine utilizzare quello che, a seconda del portafoglio ordini relativo a quella specifica linea, va migliorare le prestazioni di produzione.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Il presente elaborato si propone di studiare una soluzione ottimale per il dimensionamento di lotti economici di produzione nel settore lavorazioni meccaniche: il caso è stato studiato presso l’azienda Bonfiglioli Riduttori S.p.A all’interno del plant EVO, situato a Calderara di Reno (BO). Bonfiglioli Riduttori S.p.A è un’azienda che opera a livello globale occupandosi dell’intero ciclo di progettazione, produzione e distribuzione di una gamma completa di motoriduttori, dispositivi di azionamento, riduttori epicicloidali ed inverter. Il plant EVO è composto da due aree, produzione e assemblaggio, tra i quali è presente un magazzino che funge da buffer interoperazionale, contenente tutti i componenti necessari per il montaggio dei riduttori. L’obiettivo che ci si è posti è stato quello di trovare il lotto economico di produzione che fosse in grado di minimizzare i costi di gestione delle scorte ed i costi di set up della produzione, garantendo che non vi fossero rotture di stock, ossia mancanza di materiale con corrispondenti fermi macchina nel reparto assemblaggio. Ci si è concentrati sul ciclo di lavoro di uno dei componenti principali del riduttore, le corone in acciaio, e sono stati analizzati i seguenti modelli: i modelli di gestione tradizionale delle scorte, quali il modello del Lotto Economico di Acquisto (EOQ) ed il modello del Lotto Economico di Produzione (EMQ) ed il modello di gestione integrata delle scorte, noto come Consignment Stock. Studiando i risultati ottenuti è emerso che la soluzione ideale che verrà implementata a partire dai prossimi mesi è quella ibrida, ossia per i codici caratterizzati da bassi volumi si procede con i lotti calcolati attraverso il Consignment stock, caratterizzati da lotti con volumi elevati che comportano pochi set up, mentre per i codici alto rotanti si è cercato di aumentare il più possibile il numero di set up per abbassare il volume di ogni lotto e di conseguenza i costi di giacenza a magazzino.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La costante ricerca e lo sviluppo nel campo degli azionamenti e dei motori elettrici hanno portato ad una loro sempre maggiore applicazione ed utilizzo. Tuttavia, la crescente esigenza di sistemi ad alta potenza sempre più performanti da una parte ha evidenziato i limiti di certe soluzioni, dall’altra l’affermarsi di altre. In questi sistemi, infatti, la macchina elettrica trifase non rappresenta più l’unica soluzione possibile: negli ultimi anni si è assistito ad una sempre maggiore diffusione di macchine elettriche multifase. Grazie alle maggiori potenzialità che sono in grado di offrire, per quanto alcune di queste siano ancora sconosciute, risultano già essere una valida alternativa rispetto alla tradizionale controparte trifase. Sicuramente però, fra le varie architetture multifase, quelle multi-trifase (ovvero quelle con un numero di fasi multiplo di tre) rappresentano una soluzione particolarmente vantaggiosa in ambito industriale. Infatti, se impiegate all’interno di architetture multifase, la profonda conoscenza dei tradizionali sistemi trifase consente di ridurre i costi ed i tempi legati alla loro progettazione. In questo elaborato la macchina elettrica multi-trifase analizzata è una macchina sincrona esafase con rotore a magneti permanenti superficiali. Questa particolare tipologia di macchina elettrica può essere modellizzata attraverso due approcci completamente differenti: uno esafase ed uno doppio trifase. Queste possibilità hanno portato molti ricercatori alla ricerca della migliore strategia di controllo per questa macchina. L’obiettivo di questa tesi è di effettuare un’analisi comparativa tra tre diverse strategie di controllo applicate alla stessa macchina elettrica multi-trifase, analizzandone la risposta dinamica in diverse condizioni di funzionamento.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Il lavoro di tesi presentato ha come obiettivo la valutazione delle potenzialità del metodo di risk assessment per la stima dei rischi nel campo della progettazione geotecnica. In particolare, è stata approfondita l’applicazione dei metodi di trattamento dell’incertezza alla modellazione numerica di terreni caratterizzati da alcune tipologie di argille, il cui comportamento, al variare del grado di saturazione, può oscillare tra ritiro e rigonfiamento, provocando dissesti alle strutture sovrastanti. Ai modelli numerici creati sono stati associati dei modelli probabilistici sui quali sono state eseguite delle analisi di affidabilità associate a parametri del terreno opportunamente scelti in funzione dell’influenza sul meccanismo espansivo del suolo. È stata scelta come soglia, e dunque come stato limite, per il calcolo della probabilità di fallimento, il movimento massimo caratteristico del terreno ottenuto applicando il metodo di Mitchell per i due fenomeni. Questo metodo è adottato nelle Australian Standards, uno dei riferimenti scientifici più rilevanti per la progettazione su suoli espansivi, nonché normativa vigente in Australia, territorio ricco di argille attive. Le analisi hanno permesso di condurre alcune riflessioni circa la conservatività dei termini da normativa, fondati su approcci di carattere puramente deterministico, mostrando come a piccole variazioni plausibili degli input nel modello numerico, si possano ottenere variazioni discutibili nei risultati, illustrando così i vantaggi che comporta il trattamento dell’incertezza sui dati.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Negli ultimi anni si è sviluppato un crescente interesse per lo studio e il monitoraggio di fenomeni meteorologici estremi. In particolare, stanno aumentando osservazioni e testimonianze relative a manifestazioni temporalesche molto violente, spesso caratterizzate da grandine di notevole dimensione che rappresenta la causa principale di pericolo per le persone e di danni anche ingenti al comparto agricolo, infrastrutturale e alle automobili. Per questi motivi, in questo lavoro di tesi è stata presentata una nuova tecnica meteorologica denominata “Multi-sensor Approach for Satellite Hail Advection” (MASHA) che si basa sulla combinazione delle misure fornite dai satelliti geostazionari per trasportare l’informazione e da quelli in orbita polare per riconoscere le nubi grandinigene. I risultati della tecnica MASHA forniscono ogni cinque minuti su tutto il bacino del Mediterraneo la probabilità che la nube osservata abbia formato della grandine in un intervallo compreso tra 0 e 1. Le potenzialità del metodo MASHA riguardano soprattutto l’elevata risoluzione spaziale e temporale con la quale vengono riprodotti i sistemi grandinigeni, la capacità del modello di ricostruire i campi di grandine e l’evoluzione di questi sistemi anche in assenza di passaggi recenti dei satelliti polari. Per migliorare le performance della tecnica, è stato sviluppato un nuovo indice di severità chiamato Hail Severity Index (HSI) in grado di migliorare la localizzazione e la stima dell’intensità dei sistemi grandinigeni attraverso l’integrazione di nuove variabili: l’overshooting index, i fulmini e i dati radar. Le performance della tecnica MASHA e le potenzialità dell’indice HSI mostrate in questo lavoro di tesi, suggeriscono implementazioni operative a supporto di sistemi per il nowcasting di eventi temporaleschi particolarmente severi. Questo approccio, potrebbe essere molto efficace per fornire informazioni in tempo reale ai servizi meteorologici e nel contesto della protezione civile.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Ogni giorno, nel mondo, si verificano migliaia di fratture ossee e la maggior parte di esse, con il passare del tempo, riescono a rimarginarsi in modo autonomo. In casi più importanti, le fratture ossee necessitano di interventi chirurgici. Per queste motivazioni, affianco ad autoinnesti, alloinnesti e xenoinnesti, negli ultimi anni si è iniziato a parlare in modo sempre più frequente di ingegneria tissutale. In questo tipo di ingegneria, vengono sviluppate delle impalcature in grado di emulare il tessuto osseo naturale. Lo scopo di questa tesi è analizzare le varie tipologie di produzione di scaffold ossei che si ottengono attraverso la tecnologia della stampa 3D. Nella parte introduttiva dell’elaborato, viene inserita una descrizione del tessuto osseo visto sia dal punto di vista cellulare e della composizione, sia dal punto di vista delle proprietà meccaniche. Successivamente, parlando di medicina rigenerativa, vengono descritti i mezzi di osteosintesi, gli innesti e le impalcature, o scaffold, da impiantare nel sito di interesse. Per quanto riguarda gli scaffold, devono soddisfare diversi requisiti, tra cui la biomimetica, la compatibilità con l’attività cellulare, requisiti di progettazione e proprietà meccaniche adeguate. Tali scaffold possono essere realizzati attraverso diverse geometrie interne. Nella seconda parte dell’elaborato, vengono analizzate le geometrie a cubo semplice, a cubo a faccia centrata/a diamante, a cubo a corpo centrato, a dodecaedro rombico, a traliccio di ottetto, a cubo troncato, modellate attraverso il metodo delle superfici minime triplamente periodiche e con tassellatura di Voronoi. Per i vari articoli analizzati sono stati investigati i metodi di produzione e i risultati ottenuti confrontando vantaggi e svantaggi fra le differenti geometrie.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Le recenti analisi dei dati raccolti ad ALICE dimostrano che la nostra comprensione dei fenomeni di adronizzazione dei sapori pesanti è ancora incompleta, perché le misure effettuate su collisioni pp, p-Pb e Pb-Pb non sono riproducibili da modelli teorici basati su altre tipologie di collisione come e+e−. In particolare, i risultati sembrano indicare che il principio di universalità, che assume che le funzioni di frammentazione di quark e gluoni siano indipendenti dal tipo di sistema interagente, non sia valido. Per questo motivo sono stati sviluppati nuovi modelli teorici e fenomenologici, capaci di riprodurre in modo più o meno accurato i dati sperimentali. Questi modelli differiscono tra di loro soprattutto a bassi valori di impulso trasverso pT . L’analisi dati a basso pT si rivela dunque di fondamentale importanza, in quanto permette di discriminare, tra i vari modelli, quelli che sono realmente in grado di riprodurre i dati sperimentali e quelli che non lo sono. Inoltre può fornire una conferma sperimentale dei fenomeni fisici su cui tale modello si basa. In questa tesi è stato estratto il numero di barioni Λ+c (yield ) prodotto in collisioni pp a √s = 13 TeV , nel range di impulso trasverso 0 < pT (Λ+c ) < 1 GeV/c. É stato fatto uso di una tecnica di machine learning che sfrutta un algoritmo di tipo Boosted Decision Trees (BDT) implementato dal pacchetto TMVA, al fine di identificare ed eliminare una grossa parte del fondo statistico e semplificare notevolmente l’analisi vera e propria. Il grado di attendibilità della misura è stata verificata eseguendo l’estrazione dello yield con due approcci diversi: il primo, modellando il fondo combinatoriale con una funzione analitica; successivamente con la creazione di un template statistico creato ad hoc con la tecnica delle track rotations.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

L'esperimento ATLAS, come gli altri esperimenti che operano al Large Hadron Collider, produce Petabytes di dati ogni anno, che devono poi essere archiviati ed elaborati. Inoltre gli esperimenti si sono proposti di rendere accessibili questi dati in tutto il mondo. In risposta a questi bisogni è stato progettato il Worldwide LHC Computing Grid che combina la potenza di calcolo e le capacità di archiviazione di più di 170 siti sparsi in tutto il mondo. Nella maggior parte dei siti del WLCG sono state sviluppate tecnologie per la gestione dello storage, che si occupano anche della gestione delle richieste da parte degli utenti e del trasferimento dei dati. Questi sistemi registrano le proprie attività in logfiles, ricchi di informazioni utili agli operatori per individuare un problema in caso di malfunzionamento del sistema. In previsione di un maggiore flusso di dati nei prossimi anni si sta lavorando per rendere questi siti ancora più affidabili e uno dei possibili modi per farlo è lo sviluppo di un sistema in grado di analizzare i file di log autonomamente e individuare le anomalie che preannunciano un malfunzionamento. Per arrivare a realizzare questo sistema si deve prima individuare il metodo più adatto per l'analisi dei file di log. In questa tesi viene studiato un approccio al problema che utilizza l'intelligenza artificiale per analizzare i logfiles, più nello specifico viene studiato l'approccio che utilizza dell'algoritmo di clustering K-means.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Il seguente elaborato si prefigge l’obiettivo di fornire una panoramica completa ed esau- stiva sullo studio delle statistiche di fotoconteggio, ricavando i fondamentali risultati di natura teorica e al contempo illustrando le procedure di determinazione sperimentale. Il principale risultato conseguibile in tale ambito è l’inequivocabile dimostrazione della natura quantizzata della luce, rendendo definitivamente superato l’alternativo model- lo semiclassico, in cui l’ipotesi di quantizzazione è limitata all’interazione radiazione- rilevatore, mentre la luce viene considerata interamente trattabile come onda. Se infatti entrambi gli approcci forniscono previsioni in accordo con le osservazioni sperimentali per quanto riguarda sorgenti coerenti e termiche, che producono rispettivamente distri- buzioni Poissoniane o Super-Poissoniane, il secondo modello non è in grado di motivare in alcun modo l’esistenza delle distribuzioni Sub-Poissoniane, caratterizzate matemati- camente da una varianza inferiore al valor medio di conteggi ̄n. Il primo capitolo è dedicato a ricavare la forma delle statistiche di fotoconteggio basan- dosi sul modello a fotoni, riportando le più rilevanti dimostrazioni matematiche; il secondo capitolo ha invece l’obiettivo di analizzare i risultati forniti dal modello semi- classico, rivelando la perfetta compatibilità con quelli ottenuti nel capitolo precedente per quanto riguarda sorgenti di tipo classico; nel terzo capitolo si illustra una serie di esperimenti svolti presso il ”Laboratorio di Ottica Quantistica dell’Istituto Nazionale di Ottica-CNR”, nel polo scientifico di Sesto Fiorentino, realizzati con l’obiettivo di confermare la validità delle conclusioni di natura teorica esposte nei primi due capitoli; infine il quarto capitolo si prefigge lo scopo di dare un breve accenno alle distribuzioni di tipo Sub-Poissiano, attraverso una breve trattazione matematica e illustrando alcune modalità di osservazione sperimentale.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La distribuzione del valore del raggio di core rispetto all’età cronologica per gli ammassi globulari della Grande Nube di Magellano (LMC) appare alquanto peculiare, poiché tutti gli ammassi più giovani sono caratterizzati da un raggio di core limitato, mentre quelli più vecchi presentano un ampio intervallo di valori. Questo comportamento, noto come “size-age conundrum”, è stato recentemente attribuito ad un diverso livello di evoluzione dinamica degli ammassi più vecchi, con i sistemi con valori elevati del raggio di core dinamicamente più giovani rispetto a quelli con configurazioni più compatte. È attesa dunque un’anticorrelazione tra il valore del raggio di core e l’età dinamica. Questo lavoro di tesi è stato indirizzato allo studio del sistema NGC1835, un ammasso globulare vecchio e compatto della LMC in grado di fornire un’ulteriore conferma del nuovo scenario. Grazie ad immagini ad alta risoluzione acquisite tramite HST è stato possibile studiarne la popolazione stellare, la struttura, l’età cronologica e il grado di evoluzione dinamica. La stima della sua età cronologica (t=12.5±1 Gyr) ha confermato che si tratta di un sistema stellare molto antico, che si è formato all’epoca di formazione della LMC. Il profilo di densità e di brillanza superficiale sono stati utilizzati per derivare le principali caratteristiche strutturali dell’ammasso, come il raggio di core rc e il raggio a metà massa rh. Infine l’età dinamica è stata calcolata tramite il parametro A+, che misura il grado di segregazione radiale delle Blue Straggler Stars. NGC1835 è risultato l’ammasso più compatto (rc=3.60’’) e dinamicamente evoluto (A+=0.28±0.04) finora studiato nella LMC e, inserendosi con precisione all’interno dell’anticorrelazione aspettata tra il raggio di core e A+, ha ulteriormente supportato lo scenario secondo cui il livello di compattezza di un sistema dipende dal suo stadio di evoluzione dinamica.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

I generatori compatti di neutroni possono rappresentare un grande progresso nell'ambito della Medicina Nucleare. Sono una valida alternativa rispetto ai metodi tradizionali per la produzione dei radioisotopi necessari per la sintesi dei radiofarmaci, e permettono di esplorare e sviluppare nuove metodologie radioterapeutiche innovative, complementari e potenzialmente più efficaci rispetto a quelle già esistenti. Enea sta portando avanti due progetti in questo ambito. Il primo, SORGENTINA-RF, è volto allo sviluppo di una macchina in grado di produrre un fascio di neutroni a 14MeV, con la quale irradiare un target di molibdeno metallico, in modo da ottenere tecnezio-99 metastabile (99mTc), il radioisotopo più usato al mondo nelle procedure di imaging biomedico. Il secondo progetto, LINC-ER, ha lo scopo di progettare le infrastrutture necessarie ad accogliere un generatore compatto di neutroni, il cui scopo sarà quello di eliminare le residue cellule tumorali dopo un intervento chirurgico, a ferita aperta, in modo simile alle attuali tecniche di radioterapia intraoperatoria, che però sfruttano elettroni o raggi X. Questo lavoro di tesi trova posto in questi progetti perché ha contributo a portare avanti le ricerche in due aspetti specifici. Nel caso di SORGENTINA-RF, sono stati studiati tutti gli aspetti radiochimici per ottenere dal molibdeno metallico la soluzione liquida di molibdato sodico da cui si estrae il 99mTc. In questo caso si è deciso di puntare su processo “green” e innovativo basato sull’uso di perossido di idrogeno. Durante la tesi si sono studiati i più importanti fattori che governano questo processo e si è definito un meccanismo chimico che lo spiega. Nel caso di LINC-ER, invece, il lavoro sperimentale è stato quello di studiare metodi e rotte sintetiche nuove per ottenere nanoparticelle di composti di boro e bario, dispersi in hydrogels in grado di amplificare gli effetti del fascio neutronico sui tessuti cancerogeni e ridurli su quelli sani.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Questo elaborato tratta lo studio e l'implementazione della modulazione Orthogonal Time Frequency Space (OTFS) in sistemi di tipo Joint Sensing and Communication (JSC), ossia sistemi in cui le funzionalità di comunicazione e "sensing" condividono lo stesso hardware e la stessa banda di frequenze. La modulazione OTFS è una recente tecnica di modulazione bidimensionale, progettata nel dominio delay-Doppler, che sta riscuotendo particolare interesse nel panorama delle telecomunicazioni in quanto portatrice di alcuni importanti vantaggi nei sistemi delle reti cellulari. Rispetto alle moderne modulazioni multi-portante, come l'OFDM, l'OTFS si dimostra essere in grado di offrire prestazioni migliori e più robuste in condizioni di connessioni ad alta velocità (High Mobility), con una maggiore efficienza spettrale, in quanto non prevede l'utilizzo di un prefisso ciclico per la gestione del problema dell'ISI. Un altro punto di forza importante della modulazione OTFS è quello di risultare particolarmente adatta e compatibile con le applicazioni di JSC, soprattutto grazie all'estrema robustezza a grandi spostamenti Doppler, e la possibilità di fare "sensing" raggiungendo distanze decisamente maggiori rispetto all'OFDM, grazie all'assenza del prefisso ciclico. Tutto questo però viene al costo di un notevole incremento del sistema, con tempi di esecuzione molto elevati. Dopo aver presentato il sistema OTFS in generale e in ambito JSC, in un particolare scenario, lo si è implementando in MATLAB sviluppando due versioni: una standard e una a complessità ridotta, in grado di raggiungere risoluzioni molto elevate in tempi di calcolo contenuti. Infine questo sistema, in grado di stimare i parametri radar di distanza e velocità radiale relativa, associati ad un certo target, è stato simulato e i risultati relativi alle performance sulla stima dei parametri, in termini di RMSE e CRLB, sono stati riportati e posti a confronto con quelli ottenuti nel caso OFDM, a parità di scenario.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

L’Imaging di Risonanza Magnetica (MRI) è una tecnica diagnostica multiparametrica e non dannosa che permette di acquisire immagini nelle quali risiedono informazioni di natura anatomica e funzionale. Utilizzando un campo magnetico di intensità bassa è possibile ottenere scanner portatili, silenziosi, sicuri ed economici evitando l’installazione di schermature magnetiche e a radiofrequenza. La risoluzione e il rapporto segnale rumore di queste immagini non è ottimale e gli artefatti da movimento sono considerevoli. Nonostante ciò, lo scanner MRI a basso campo è in grado di fornire immagini con importante valore diagnostico, in particolare in quei contesti in cui un esame tramite risonanza tradizionale non risulta possibile.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Ogni anno milioni di persone, tra anziani e giovani, subiscono lesioni al tessuto tendineo/legamentoso. L’ingegneria tissutale sta cercando metodi alternativi per migliorare e velocizzare la loro guarigione. Negli ultimi vent’anni nel campo dell’ingegneria tissutale la tecnica dell’elettrofilatura si è rivelata particolarmente utile nella produzione di scaffold composti da nanofibre polimeriche in grado di mimare le fibrille di collagene che compongono la matrice extracellulare di questi tessuti. Parallelamente, al fine di incrementare la proliferazione e la differenziazione cellulare sugli scaffold, l’utilizzo di bioreattori per colture dinamiche ha acquisito sempre maggiore importanza. Esistono molti tipi di bioreattore, il più comune è quello meccanico, il quale ha la capacità di imprimere deformazioni meccaniche allo scaffold, permettendo alle cellule coltivate al suo interno di orientarsi in maniera più efficiente lungo la direzione del carico applicato. Il seguente elaborato vuole mostrare come l’uso di colture dinamiche effettuate in scaffold elettrofilati attraverso dei bioreattori, può migliorare notevolmente la rigenerazione dei tessuti interessati. Dopo una puntuale descrizione delle proprietà e caratteristiche dei tendini, dei legamenti, delle varie tipologie di scaffold e dei bioreattori, la tesi si sofferma sull’analisi dello stato dell’arte dei lavori scientifici che hanno utilizzato stimolazione dinamica in bioreattore su scaffold elettrofilati per tendini e legamenti. Da queste si è osservato come l’uso di sistemi dinamici possa aumentare notevolmente la produzione di matrice extracellulare, le proprietà meccaniche dei costrutti, la proliferazione, la crescita e l’orientamento delle cellule, velocizzando e migliorando i processi di guarigione rispetto ad una coltura statica.