710 resultados para Idrogeno stoccaggio misure analisi sperimentale strumenti energie rinnovabili
Resumo:
Le recenti analisi dei dati raccolti ad ALICE dimostrano che la nostra comprensione dei fenomeni di adronizzazione dei sapori pesanti è ancora incompleta, perché le misure effettuate su collisioni pp, p-Pb e Pb-Pb non sono riproducibili da modelli teorici basati su altre tipologie di collisione come e+e−. In particolare, i risultati sembrano indicare che il principio di universalità, che assume che le funzioni di frammentazione di quark e gluoni siano indipendenti dal tipo di sistema interagente, non sia valido. Per questo motivo sono stati sviluppati nuovi modelli teorici e fenomenologici, capaci di riprodurre in modo più o meno accurato i dati sperimentali. Questi modelli differiscono tra di loro soprattutto a bassi valori di impulso trasverso pT . L’analisi dati a basso pT si rivela dunque di fondamentale importanza, in quanto permette di discriminare, tra i vari modelli, quelli che sono realmente in grado di riprodurre i dati sperimentali e quelli che non lo sono. Inoltre può fornire una conferma sperimentale dei fenomeni fisici su cui tale modello si basa. In questa tesi è stato estratto il numero di barioni Λ+c (yield ) prodotto in collisioni pp a √s = 13 TeV , nel range di impulso trasverso 0 < pT (Λ+c ) < 1 GeV/c. É stato fatto uso di una tecnica di machine learning che sfrutta un algoritmo di tipo Boosted Decision Trees (BDT) implementato dal pacchetto TMVA, al fine di identificare ed eliminare una grossa parte del fondo statistico e semplificare notevolmente l’analisi vera e propria. Il grado di attendibilità della misura è stata verificata eseguendo l’estrazione dello yield con due approcci diversi: il primo, modellando il fondo combinatoriale con una funzione analitica; successivamente con la creazione di un template statistico creato ad hoc con la tecnica delle track rotations.
Resumo:
La memoria semantica, e la sua correlazione con il linguaggio, sono alla base di molti studi di neuroscienze cognitive e della formulazione di diverse teorie volte a comprendere la loro organizzazione, le unità neurali coinvolte e i meccanismi di apprendimento. In passato si cercava di rispondere a queste domande attraverso lo studio anatomico di lesioni della corteccia cerebrale in relazione al danno mnemonico che ne derivava per andare ad ipotizzare in quale area del cervello una determinata informazione veniva immagazzinata. Ricerche sempre più recenti hanno introdotto nel metodo di studio strumenti ed apparecchiature volte ad aiutare l’indagine e la ricerca, in modo da poter osservare e visualizzare quale area della corteccia viene attivata o disattivata in funzione ad uno specifico stimolo esterno. Infatti, l’attenzione dei ricercatori sui sintomi dei disturbi e sui disturbi stessi della memoria semantica, ha dato luce a molti aspetti importanti riguardo i meccanismi cerebrali fondamentali per la funzione corretta di tale memoria. Nel corso degli anni quindi attraverso questi studi sono stati sviluppati diversi modelli teorici con lo scopo di analizzare e studiare i meccanismi alla base delle diverse memorie, in questo caso della memoria semantica. È grazie a questi modelli che si può cercare di comprendere come la conoscenza del significato di parole e concetti sia immagazzinata nel sistema nervoso e successivamente utilizzata. Pertanto, si esaminano i modelli computazionali tradizionali nell'ambito dei modelli di rete (basati su associazioni libere), dei modelli di caratteristiche (basati su norme di generazione di proprietà) e dei modelli distributivi, discutendo il loro contributo a importanti dibattiti in letteratura sulla rappresentazione della conoscenza e apprendimento. Inoltre, si valuta come i moderni modelli computazionali, ad esempio modelli basati sul recupero, stanno rivisitando il tradizionale concetto di memoria "statica".
Resumo:
A fianco ai metodi più tradizionali, fin ora utilizzati, le tecnologie additive hanno subito negli ultimi anni una notevole evoluzione nella produzione di componenti. Esse permettono un ampio di range di applicazioni utilizzando materiali differenti in base al settore di applicazione. In particolare, la stampa 3D FDM (Fused Deposition Modeling) rappresenta uno dei processi tecnologici additivi più diffusi ed economicamente più competitivi. Le tempistiche e le richieste industriali obbligano sempre di più i progettisti ad uno studio predittivo delle problematiche che si possono incontrare in fare produttiva. In ambito strutturale questo è già da diversi anni la norma per componenti realizzati con tecnologia tradizionale. In ambito termico, invece, si procede ancora troppo spesso per tentativi seguendo l’esperienza del singolo. Per questo motivo, è necessario uno studio approfondito e un metodo per caratterizzare i transitori termici. Per fare ciò è necessario introdurre un modello semplificativo attraverso l’uso su un provino cilindrico. Questa semplice geometria permette di mettere in relazione la soluzione analitica, la soluzione approssimata agli elementi finiti e la soluzione sperimentale. Una volta ottenuti questi risultati sarà poi possibile, mantenendo invariati il ciclo termico e le caratteristiche termo-strutturali del materiale, modificare a piacimento la geometria per analizzare un qualsiasi componente. Questo approccio permette quindi di realizzare delle analisi FEM sui componenti da stampare e di predirne i gradienti termici e le deformazioni a partire dalle caratteristiche del materiale, della geometria e del ciclo termico a cui sono sottoposti. Permettendo così di valutare in modo preventivo e predittivo problematiche di stabilità geometrica e strutturale.
Resumo:
Il presente lavoro di tesi si basa sull’esperienza di tirocinio effettuata presso un’Azienda italiana che opera nel settore della lavorazione plastica e produce contenitori. L’Azienda, a seguito di un’innovazione su tutta la linea di prodotto, ha da poco preso la decisione di investire nell’inserimento di due nuove presse per lo stampaggio e nella realizzazione di un nuovo impianto di assemblaggio automatizzato. Questi verranno inseriti all’interno dell’attuale stabilimento ed andranno ad aumentare la capacità produttiva. Se da un lato ci sono grandi vantaggi in ciò, dall’altro va analizzato il contorno. In particolare: Come va ad impattare l’inserimento di questi elementi nelle logiche aziendali? Come cambiano i flussi di materiale all’interno dello stabilimento? Sarà sufficiente lo spazio attuale per lo stoccaggio dei semilavorati? Poste queste domande, l’obiettivo dell’elaborato è di rispondervi, attraverso l’analisi delle principali attività logistiche dell’Azienda, focalizzando l’attenzione sul layout attuale del reparto magazzino semilavorati e dei flussi di materiale. L’analisi del magazzino nella situazione As Is evidenzia una serie di criticità. Il problema principale è di definire l’adeguato layout del magazzino, che consente un utilizzo ottimale della superficie a disposizione, in modo da garantire l’efficienza e l’efficacia delle operazioni che ivi si svolgono. L’analisi ha condotto alla progettazione di un nuovo layout e di una nuova politica di allocazione dei materiali. Infine, viene effettuata un’attenta analisi dei flussi logistici, ed in particolare delle movimentazioni di materiale, sviluppata attraverso il software simulativo AutoMod. Quindi, vengono simulati degli ipotetici scenari, successivi all’inserimento del nuovo impianto di assemblaggio, per valutare le criticità che potrebbe dover affrontare l’Azienda.
Resumo:
La caccia alle minacce è una tecnica in cui si ”cercano” fisicamente i ”rischi”, possibili o esistenti, all’interno dell’infrastruttura IT. La caccia alle minacce è un processo proattivo e iterativo guidato da esseri umani che cercano attività ostili, sospette o dannose che sono sfuggite al rilevamento mediante le attuali tecniche automatizzate attraverso reti, endpoint o set di dati come i file di registro. Un caso possibile può essere quello in cui un threat hunter abbia a disposizione per la caccia solo i registri di log provenienti da fonti diverse e anche da diversi sistemi operativi. Questi file di log potrebbero per esempio essere i dati di 3 giorni di raccolta provenienti da 30 40 macchine Windows o Linux e analizzando solamente essi il cacciatore deve essere in grado di determinare se e quali siano le minacce all’interno di una o più macchine del sistema. Un problema che sorge subito all’occhio è come si possa conciliare dati provenienti da fonti differenti, e soprattutto da sistemi operativi diversi; inoltre, un ulteriore problema può essere il determinare quando un file di log sia effettivamente un segnalatore di una minaccia e non un falso positivo. Di conseguenza è richiesta una visibilità totale della rete, nonché dei dati dei dispositivi. Idealmente, sarebbe necessario uno strumento che consenta di avere una panoramica di tutti questi dati con funzionalità di ricerca in grado di contestualizzare ciò che si vede per ridurre al minimo la quantità di ricerca manuale attraverso i registri non elaborati. In questo elaborato verranno mostrate le attività. di simulazione sia su ambiente Linux che ambiente Windows, in cui si andranno a cercare, attraverso gli strumenti che verranno elencati nei primi capitoli, le varie minacce. Verranno quindi simulati degli scenari di attacchi e ne si farà infine un’analisi su come al meglio rilevarli.
Resumo:
Questo progetto di Tesi si propone come obiettivo la valutazione della convenienza economica ed ambientale di un Gruppo di Autoconsumo Collettivo da fonti rinnovabili. Per fare ciò, è stata necessaria un’attenta fase di analisi delle normative italiane ed europee attualmente in vigore, in modo da stabilire i requisiti necessari per accedere a questo tipo di configurazione. Successivamente si è iniziata una simulazione tecnico-economica del progetto. Inizialmente è stata proposta l’installazione di un impianto fotovoltaico di potenza 48 kWp e ne è stata calcolata la produzione media annua; in secondo luogo, grazie ai dati forniti dagli attori, è stato possibile effettuare una stima dei consumi annuali di tutto il Gruppo. Infine, sono stati combinati i dati di produzione e consumo per ricavare le quote di autoconsumo e di energia condivisa. Per concludere, tramite i dati estrapolati in precedenza, è stata effettuata una analisi economica dell’investimento, dimostrandone la convenienza, a cui è stata aggiunta una analisi di sensitività per dimostrare la resilienza del progetto verso il cambiamento di alcune ipotesi iniziali.
Resumo:
Il presente lavoro di tesi si occupa di identificare le possibili ubicazioni di hub logistici distributivi del gruppo aziendale FAAC Technologies e di valutare le alternative da un duplice punto di vista: economico e sostenibile. Per raggiungere il suddetto risultato è stata dapprima studiata l’attuale configurazione logistica nel centro Europa. Unendo le caratteristiche dell’azienda con le ricerche presenti in letteratura scientifica riguardo la risoluzione di Hub Location Problem, è stato implementato un modello matematico che ottimizzi economicamente il posizionamento degli stabilimenti secondo diversi scenari organizzativi. Una seconda versione del modello valuta il rispetto dei tempi di transito da parte delle soluzioni ottenute. Infine, gli stessi scenari sono stati comparati tra loro in base all’impatto ambientale in termini di CO2 emessa nell’atmosfera per via del trasporto. Sono state studiate strategie riguardanti la logistica distributiva sostenibile e sono state proposte soluzioni in grado di mitigare gli effetti dovuti all’immissione di anidride carbonica. Gli strumenti digitali utilizzati nella presente ricerca sono stati: Excel per visualizzare ed elaborare i dati aziendali; Flourish per visualizzare i dati in mappe geografiche; MATLAB per trasformare le tariffe di trasporto in equazioni matematiche; Gurobi Optimizer per ottenere le soluzioni date dall’ottimizzazione del modello matematico, programmando attraverso il linguaggio AMPL. I risultati più significativi dimostrano la possibilità di raggiungere un risparmio economico del 16,7% dei costi logistici nel caso di ubicazione di un solo hub e del 9,8% nel caso di due hub. Dal punto di vista ambientale le medesime soluzioni comportano un aumento delle emissioni di CO2 rispettivamente del 45% e 8%. L’azzeramento di queste emissioni aggiuntive è possibile e a tal fine sarebbe necessario sostenere extra costi, i quali farebbero convergere entrambe gli scenari ad un risparmio comune pari all’8,2%.
Resumo:
I dati sono una risorsa di valore inestimabile per tutte le organizzazioni. Queste informazioni vanno da una parte gestite tramite i classici sistemi operazionali, dall’altra parte analizzate per ottenere approfondimenti che possano guidare le scelte di business. Uno degli strumenti fondamentali a supporto delle scelte di business è il data warehouse. Questo elaborato è il frutto di un percorso di tirocinio svolto con l'azienda Injenia S.r.l. Il focus del percorso era rivolto all'ottimizzazione di un data warehouse che l'azienda vende come modulo aggiuntivo di un software di nome Interacta. Questo data warehouse, Interacta Analytics, ha espresso nel tempo notevoli criticità architetturali e di performance. L’architettura attualmente usata per la creazione e la gestione dei dati all'interno di Interacta Analytics utilizza un approccio batch, pertanto, l’obiettivo cardine dello studio è quello di trovare soluzioni alternative batch che garantiscano un risparmio sia in termini economici che di tempo, esplorando anche la possibilità di una transizione ad un’architettura streaming. Gli strumenti da utilizzare in questa ricerca dovevano inoltre mantenersi in linea con le tecnologie utilizzate per Interacta, ossia i servizi della Google Cloud Platform. Dopo una breve dissertazione sul background teorico di questa area tematica, l'elaborato si concentra sul funzionamento del software principale e sulla struttura logica del modulo di analisi. Infine, si espone il lavoro sperimentale, innanzitutto proponendo un'analisi delle criticità principali del sistema as-is, dopodiché ipotizzando e valutando quattro ipotesi migliorative batch e due streaming. Queste, come viene espresso nelle conclusioni della ricerca, migliorano di molto le performance del sistema di analisi in termini di tempistiche di elaborazione, di costo totale e di semplicità dell'architettura, in particolare grazie all'utilizzo dei servizi serverless con container e FaaS della piattaforma cloud di Google.
Resumo:
Il Worldwide LHC Computing Grid (WLCG) è una collaborazione internazionale costituita da decine di centri di calcolo distribuiti globalmente, la cui missione consiste nell'elaborazione delle grandi quantità di dati prodotti dai maggiori esperimenti di Fisica delle Alte Energie, in particolare quelli al CERN di Ginevra. Uno di questi centri di calcolo è ospitato presso il CNAF dell'Istituto Nazionale di Fisica Nucleare a Bologna, che contribuisce anche allo sviluppo di middleware per la gestione dell'infrastruttura. Molti componenti di tale middleware, che hanno funzionalità e scopi diversi, richiedono un servizio di autorizzazione versatile e compatibile con i meccanismi di autenticazione attualmente in uso, basati su token OAuth 2.0 e su certificati VOMS Proxy. In questa tesi si analizzerà l'architettura e l'implementazione di un proof-of-concept di un sistema di autorizzazione che soddisfi queste necessità, enfatizzando l'integrazione delle tecniche di autenticazione citate. Per dimostrare la sua versatilità, verrà illustrato il processo di interfacciamento con un componente middleware attualmente in sviluppo al CNAF. Il risultato finale ottenuto è un sistema che rispetta i vincoli richiesti e si integra facilmente con servizi eterogenei.
Resumo:
L'elaborato analizza, in maniera generica, come avviene la produzione, lo stoccaggio ed il trasporto dell'idrogeno e valuta i mezzi che sfruttano l'idrogeno come combustibile: i veicoli a fuel cell e i veicoli con motori a combustione interna alimentati a idrogeno (H2ICE). Poiché le proprietà dell'idrogeno sono molto diverse rispetto a quelle dei combustibili convenzionali, queste nuove tecnologie necessitano di celle di prova appositamente progettate e dimensionate. L'elaborato, pertanto, descrive nel dettaglio quali sono le normative, le strumentazioni e gli standard da rispettare per garantire che, all'interno della sala, i test possano essere eseguiti in totale sicurezza. Inoltre, vengono esaminati i sistemi di consegna e dosaggio dell'idrogeno, passando poi al sistema di ventilazione che gioca un ruolo fondamentale nel funzionamento dei test. Infine, sono riportati esempi di specifici set-up sperimentali volti allo studio delle problematiche riscontrate nei motori a combustione interna alimentati a idrogeno. Nel primo set-up, vengono descritti i sistemi di controllo, il tipo di motore e tutti i sensori utilizzati per analizzare l'impatto che ha l'EGR sui motori H2ICE; mentre, nel secondo, vengono esaminati i fattori che inducono la detonazione e la relativa frequenza.
Resumo:
Il piede è la struttura anatomica multi-articolare che media il contatto dell’apparato muscoloscheletrico con il suolo ed è, quindi, fondamentale per la locomozione e per la maggioranza dei task motori. Per questo, l’analisi cinematica intrarticolare in-vivo del complesso piede-caviglia risulta essere di grande interesse in ambito biomeccanico e in ambito clinico. La quantificazione del moto relativo è, però, complessa a causa del numero di ossa presenti nel piede, ben 26, e alla loro distribuzione. Tali limitazioni possono essere superate ricorrendo a misure in risonanza magnetica dinamica (DMRI). Questo elaborato presenta un primo approccio esplorativo per determinare la cinematica del piede. In particolare l’analisi si è concentrata, per semplicità, sullo studio del retropiede, quindi sul moto relativo tra tibia, talo e calcagno, nel caso di flessione plantare libera, ovvero senza alcun carico applicato. Il complesso piede-caviglia è stato scansionato suddividendo il range di movimento in 13 pose statiche. Da ognuna delle 13 acquisizioni di tipo volumetrico sono state simulate delle scansioni dinamiche, in modo da ottenere una cinematica certa di riferimento, per poter valutare la precisione dell’algoritmo utilizzato. La ricostruzione della cinematica tridimensionale del complesso esaminato si è basata su un algoritmo di registrazione, composto da un primo processo di inizializzazione semiautomatico ed una successiva registrazione 2D/3D automatica basata sull’intensità dei voxel. Di particolare interesse in questa indagine è la ricostruzione dei tre moti relativi: tibia-talo, tibia-calcagno e talo-calcagno. Per valutare la precisione dell’algoritmo nella ricostruzione della cinematica è stato calcolato l’errore medio in valore assoluto tra le coordinate dei modelli nelle pose di riferimento e le coordinate fornite dal codice. I risultati ottenuti sono di notevole interesse visto il carattere esplorativo dello studio.
Resumo:
L'adroterapia è una delle tecniche utilizzate ad oggi per trattare i tumori ed è basata sull'utilizzo di fasci di particelle cariche, come protoni e ioni carbonio, accelerati sulla zona da trattare. A differenza dei fotoni, utilizzati in radioterapia, le particelle cariche permettono un rilascio di energia più mirato, danneggiando il DNA delle cellule tumorali fino ad impedirne la duplicazione, senza intaccare i tessuti sani circostanti. Per sfruttare al meglio questa tecnica è necessario conoscere a fondo i processi di frammentazione nucleare che possono avere luogo durante il trattamento, sui quali si hanno ancora insufficienti dati sperimentali, in particolare a proposito della frammentazione del bersaglio. L'esperimento FOOT (FragmentatiOn Of Target) nasce proprio per poter misurare le sezioni d'urto differenziali dei processi di frammentazione nucleare alle tipiche energie dell'adroterapia, dai 60 MeV/u ai 400 MeV/u. Allo stato attuale l'esperimento è dotato di un apparato per la rivelazione di frammenti carichi pesanti e uno per quelli leggeri, mentre non ha un sistema di rivelazione per le particelle neutre. Si sta quindi valutando la possibilità di aggiungere rivelatori di neutroni, per esempio gli scintillatori liquidi BC-501A, i quali permettono di discriminare fotoni da neutroni grazie alla diversa forma del segnale prodotto (Pulse Shape Discrimination). Per studiare le prestazioni di questi rivelatori, essi si stanno attualmente testando alla facility n_TOF del CERN con diverse sorgenti di particelle. In questo lavoro di tesi mi sono occupata di analizzare i segnali raccolti da due BC-501A con una sorgente AmBe di raggi γ e neutroni, con schermo in piombo, e con una sorgente 88Y di soli raggi γ, evidenziando le buone capacità di questi rivelatori di identificare correttamente neutroni e fotoni.
Resumo:
Nel seguente lavoro di tesi sperimentale è stato svolto uno studio su film di poli(esametilen furanoato) additivato con filler antiossidanti estratti da una materia prima lignocellulosica, la corteccia di betulla. Tale studio ha lo scopo di incrementare le proprietà meccaniche e soprattutto conservative dei film di PHF per applicazioni nel campo del packaging alimentare. Il poli(esametilen furanoato) è un poliestere i cui monomeri di sintesi possono essere ottenuti da fonti rinnovabili, tale caratteristica lo rende completamente bio-based e di elevato interesse per l’ottenimento di materiali sostenibili. Nella fase iniziale dello studio è stato sintetizzato il polimero in esame tramite una sintesi di tipo solvent-free, in accordo con le attuali strategie sintetiche che mirano a ridurre l’impatto del solvente. Tale polimero è stato quindi caratterizzato tramite NMR e GPC. Sono state poi preparate quattro miscele di polimero additivato, due differenti composizioni per ciascuno dei due filler disponibili. Le miscele sono state preparate tramite solvent casting e in seguito stampate tramite pressofusione per ottenere dei film. È stata svolta una caratterizzazione dei film ottenuti, di tipo morfologica (SEM), termica (TGA e DSC), meccanica, comportamento barriera e con analisi antiossidanti. I filler hanno mostrato una buona miscibilità con l’omopolimero e non hanno causato interferenze nel comportamento termico. È stato osservato un miglioramento nella flessibilità dei film in tutte le miscele studiate e un aumento dell’allungamento a rottura nelle composizioni con quantità di filler pari al 5%. Le proprietà barriera si sono mantenute in linea con quelle dell’omopolimero e ancora migliori dei poliesteri attualmente in commercio. Infine, l’aggiunta del filler ha reso il film attivo per lo scavenging di radicali, valutato attraverso il test con DPPH, confermando il trasferimento delle proprietà antiossidanti dei filler alle miscele polimeriche.
Resumo:
Questa tesi vuole riassumere il percorso di tirocinio che ho intrapreso all’ interno dell’azienda Curti. L'azienda, situata a Castel Bolognese, nasce nel 1955 e opera in svariati settori. Si occupa della produzione di macchine automatiche per il packaging, per la produzione di cavi elettrici e per il settore tessile; inoltre produce componenti per l'industria aerospaziale. L’azienda è votata ad una filosofia kaizen e fonda il processo produttivo su due forti pilastri: il WCM e la Lean Production. In questa esperienza sono stato assegnato all’ ufficio di pianificazione della produzione della divisione TetraPak. Qui ho potuto osservare da vicino come funziona un’azienda e imparare diversi compiti tipici di questo ruolo. Fra le attività che ho svolto c’è la gestione delle distinte sul gestionale Alnus e su Excel e la preparazione della documentazione per la spedizione. Successivamente ho concentrato la mia attenzione su un progetto specifico, denominato “Tethered”, interfacciandomi con il reparto ricambi. Secondo una recente normativa europea, dal 2024 tutti i packaging per il beverage con capacità inferiore ai 3 litri avranno l’obbligo di mantenere i tappi attaccati al contenitore. Il reparto ricambi riceve quindi molti ordini VCK Tethered, ovvero casse con i componenti per attuare i cambiamenti necessari per conformarsi alla normativa. Qui si concentra il mio lavoro di analisi della situazione as-is e lo studio di possibili azioni migliorative. Le azioni individuate sono l’acquisto di strumentazione, la disposizione di una scaffalatura dedicata (studiando una disposizione efficiente dei componenti), l’adozione di etichette informative sui contenitori e l'ottimizzazione delle spedizioni. Sono stati creati due OPL riguardanti il prelievo e l’imballaggio dei componenti. Infine, non è stata possibile applicarla, ma è comunque stata individuata la possibilità di implementare il metodo delle 5s, in modo da ottenere postazioni di lavoro più ordinate e pulite.
Resumo:
La galvanotassi, la migrazione cellulare stimolata dalla presenza di un campo elettrico esogeno o endogeno, `e stata oggetto di studi sin dalla fine del diciannovesimo secolo. Nonostante la molteplicità di lavori a riguardo, non c’`e uniformità. a nelle tecniche sperimentali, se non per il fatto che il campo elettrico viene generato tramite una configurazione a cella elettrolitica, detta anche a generazione interna di campo elettrico. Scopo di questa tesi `e analizzare e caratterizzare la migrazione di cellule isolate in vitro in presenza e in assenza di un campo elettrostatico esterno, rendendola originale rispetto a studi precedenti. La differenza nella configurazione sperimentale `e fondamentale per spiegare le caratteristiche dei moti osservati. Per la procedura sperimentale sono state usate come campione cellule di linea di origine tumorale denominate T98G adese a una piastra in polistirene posta, non a contatto, tra due piastre in rame cariche. Sono state acquisite micrografie in contrasto di fase a intervalli regolari inizialmente in una fase di controllo, quindi applicando un campo elettrostatico, cos`ı da poter analizzare il moto cellulare nelle diverse condizioni. In particolare, l’analisi del tracking di singole cellule selezionate sulla base di criteri stabiliti a priori ha permesso di evidenziare un moto isotropo, indipendentemente dalla presenza del campo elettrostatico. Invece, mostrando che i dati sperimentali delle distanze e delle velocita seguono distribuzioni Gamma, si osserva che dipende dalla presenza del campo elettrostatico la maggiore probabilità che una cellula si sposti pi`u della media. Infine, `e stato possibile determinare che l’influenza del campo elettrostatico sul moto delle cellule non dipende dalla posizione di queste rispetto alle piastre. Il lavoro svolto in questa tesi sarà parte dei risultati inseriti in una pubblicazione su rivista internazionale.