745 resultados para controllo ottimo esponenti di Lyapunov sistemi dinamici gruppi Lie algbre geometria differenziale
Resumo:
Lo scopo di questo lavoro di tesi consiste nella produzione e ingegnerizzazione di nuovi sistemi ibridi ottenuti accoppiando nanoparticelle di titania con la microalga Chlorella Vulgaris, per applicazione nel settore del risanamento delle acque reflue. Lo studio è stato rivolto all’ottimizzazione del materiale, il quale integra due proprietà: l’attività fotocatalitica sfruttata per la degradazione degli inquinanti organici conferita dalla titania e la capacità di biosorbimento di metalli pesanti tipica della biomassa. I risultati hanno evidenziato effetti sinergici positivi promossi dalla dispersione della microalga sulla superficie dell’ossido ed in grado di migliorare le performance di biorimediazione del materiale. Al fine di favorire l’applicazione industriale del sistema catalitico preparato, i campioni prodotti in sospensione sono stati ingegnerizzati rimuovendo il solvente tramite tecnologia di Spray-Freeze-Drying. Con l’obiettivo di ottimizzare la formulazione e correlare le proprietà chimico-fisiche dei materiali alle performance ottenute, è stata svolta un’approfondita caratterizzazione sia sulle sospensioni (ELS, DLS) che sui prodotti granulati (BET, SEM-FEG, SEM-EDS). Le prestazioni funzionali dei campioni preparati sono state valutate rispetto alla reazione modello di fotodegradazione della Rodamina B e nell’assorbimento del catione rameico.
Resumo:
Obiettivo: Dimostrare che l’aggiunta di tecniche manuali passive denominate Pompage ad un intervento attivo consistente in educazione e esercizio possa avere esiti clinici migliori rispetto al solo intervento attivo, in riferimento agli outcome dolore e paura del movimento Metodi: Lo studio è un trial clinico randomizzato controllato a gruppi paralleli condotto da Dicembre 2020 a Settembre 2021. Seguendo la sequenza di randomizzazione, i pazienti sono stati allocati in due gruppi. I pazienti del gruppo di controllo hanno svolto un intervento attivo formato da educazione e esercizio a casa per 8 settimane. I pazienti del gruppo sperimentale hanno svolto lo stesso programma di quelli di controllo con l’aggiunta di una seduta di Pompage ogni settimana per 8 settimane. La paura del movimento è stata valutata con la Tampa Scale of Kinesiophobia (TSK), il dolore percepito con la Visual Analogue Scale (VAS). Entrambi gli outcome sono stati valutati alla baseline, a 8 settimane e a 6 mesi. Risultati: 70 pazienti hanno soddisfatto i criteri di inclusione e sono stati randomizzati nel gruppo sperimentale (n=35) e nel gruppo di controllo (n=35). Questi sono stati divisi in tre cicli di valutazione-trattamento-follow up. I risultati presentati sono dei pazienti del primo ciclo (15 pz): 8 nel gruppo di controllo e 7 nello sperimentale. L’analisi di confronto tra i due gruppi non ha mostrato differenze statisticamente significative per nessuno dei due outcome in nessuno dei due follow-up (p>0,05), sebbene il gruppo sperimentale a 8 settimane sia stato superiore al limite della significatività statistica (p=0,0675). Conclusioni: Non ci sono differenze statisticamente significative tra i gruppi a 8 settimane e a 6 mesi. Questi dati sono preliminari perché effettuati su un piccolo campione (n=15). Trial registration: E’ stato registrato su Clinical Trials.gov con identificativo: NCT04695730.
Resumo:
A partire dagli anni ’50 furono sviluppati numerosi modelli con l’intento di studiare i fenomeni connessi al traffico. Alcuni di essi riuscirono non solo a spiegare i fenomeni per i quali erano stati ideati ma misero in evidenza altre caratteristiche tipiche dei sistemi dinamici, come la presenza di cicli di isteresi e cambiamenti nella distribuzione dei tempi di percorrenza in situazioni di congestione. Questo lavoro si propone di verificare la validità di un modello semplificato ideato per mettere in luce i comportamenti tipici di un sistema di traffico, in particolare le congestioni che si vengono a creare sulla rete stradale. Tale modello è stato implementato per mezzo della libreria C++ Traffic Flow Dynamics Model, reperibile al link https://github.com/Grufoony/TrafficFlowDynamicsModel. Ai fini dello studio sono stati utilizzati i Diagrammi Fondamentali Macroscopici, particolari diagrammi che mettono in relazione gli osservabili principali di un network stradale quali velocità, densità e flusso. Variando il carico immesso nella rete stradale è stato possibile studiare il sistema in diversi regimi: carico costante, carico piccato e carico periodico. Mediante questi studi sono emerse diverse proprietà tipiche di ogni regime e, per alcuni di essi, è stata verificate e giustificate la presenza di uno o più cicli di isteresi. In ultimo è stata effettuata una breve analisi ad-hoc volta a evidenziare i cambiamenti nella distribuzione dei tempi di percorrenza in relazione al regime di traffico considerato.
Resumo:
Lo sviluppo della robotica collaborativa, in particolare nelle applicazioni di processi industriali in cui sono richieste la flessibilità decisionale di un utilizzatore umano e le prestazioni di forza e precisione garantite dal robot, pone continue sfide per il miglioramento della capacità di progettare e controllare al meglio questi apparati, rendendoli sempre più accessibili in termini economici e di fruibilità. Questo cambio di paradigma rispetto ai tradizionali robot industriali, verso la condivisone attiva degli ambienti di lavoro tra uomo e macchina, ha accelerato lo sviluppo di nuove soluzioni per rendere possibile l’impiego di robot che possano interagire con un ambiente in continua mutazione, in piena sicurezza. Una possibile soluzione, ancora non diffusa commercialmente, ma largamente presente in letteratura, è rappresentata dagli attuatori elastici. Tra gli attuatori elastici, l’architettura che ad oggi ha destato maggior interesse è quella seriale, in cui l’elemento cedevole viene posto tra l’uscita del riduttore ed il carico. La bibliografia mostra come alcuni limiti della architettura seriale possano essere superati a parità di proprietà dinamiche. La soluzione più promettente è l’architettura differenziale, che si caratterizza per l’utilizzo di riduttori ad un ingresso e due uscite. I vantaggi mostrati dai primi risultati scientifici evidenziano l’ottenimento di modelli dinamici ideali paragonabili alla più nota architettura seriale, superandola in compattezza ed in particolare semplificando l’installazione dei sensori necessari al controllo. In questa tesi viene effettuata un’analisi dinamica preliminare ed uno studio dell’attitudine del dispositivo ad essere utilizzato in contesto collaborativo. Una volta terminata questa fase, si presenta il design e la progettazione di un prototipo, con particolare enfasi sulla scelta di componenti commerciali ed il loro dimensionamento, oltre alla definizione della architettura costruttiva complessiva.
Resumo:
Ogni anno milioni di persone, tra anziani e giovani, subiscono lesioni al tessuto tendineo/legamentoso. L’ingegneria tissutale sta cercando metodi alternativi per migliorare e velocizzare la loro guarigione. Negli ultimi vent’anni nel campo dell’ingegneria tissutale la tecnica dell’elettrofilatura si è rivelata particolarmente utile nella produzione di scaffold composti da nanofibre polimeriche in grado di mimare le fibrille di collagene che compongono la matrice extracellulare di questi tessuti. Parallelamente, al fine di incrementare la proliferazione e la differenziazione cellulare sugli scaffold, l’utilizzo di bioreattori per colture dinamiche ha acquisito sempre maggiore importanza. Esistono molti tipi di bioreattore, il più comune è quello meccanico, il quale ha la capacità di imprimere deformazioni meccaniche allo scaffold, permettendo alle cellule coltivate al suo interno di orientarsi in maniera più efficiente lungo la direzione del carico applicato. Il seguente elaborato vuole mostrare come l’uso di colture dinamiche effettuate in scaffold elettrofilati attraverso dei bioreattori, può migliorare notevolmente la rigenerazione dei tessuti interessati. Dopo una puntuale descrizione delle proprietà e caratteristiche dei tendini, dei legamenti, delle varie tipologie di scaffold e dei bioreattori, la tesi si sofferma sull’analisi dello stato dell’arte dei lavori scientifici che hanno utilizzato stimolazione dinamica in bioreattore su scaffold elettrofilati per tendini e legamenti. Da queste si è osservato come l’uso di sistemi dinamici possa aumentare notevolmente la produzione di matrice extracellulare, le proprietà meccaniche dei costrutti, la proliferazione, la crescita e l’orientamento delle cellule, velocizzando e migliorando i processi di guarigione rispetto ad una coltura statica.
Resumo:
L’Industria 4.0 richiede sempre più tecnologie con un notevole grado di flessibilità, in modo da garantire il più alto livello di integrazione uomo-macchina e macchina- macchina. In quest’ottica, l’avvento della robotica collaborativa, ha agevolato il pro- cesso. I robot collaborativi (cobot) possono essere facilmente installati all’interno del- le linee di assemblaggio/produzione, senza necessità di barriere che vietino l’accesso agli operatori. Tra i tanti compiti a cui possono asservire i cobot, ci sono quelli dedica- ti all’ispezione delle varie macchine (e.g. microfermate di emergenza), in cui di solito, l’apertura del pannello di protezione è affidata ad un cobot montato a bordo di un AGV. È in questo contesto che si inserisce l’elaborato di tesi, volto al controllo in forza di un robot collaborativo per la movimentazione di un pannello di protezione di una mac- china automatica. In particolare, per ragioni logistiche e di ingombro, un simulacro del pannello di protezione è stato realizzato in scala, mentre il controllo real-time del cobot è stato implementato utilizzando ROS (Robot Operating System), piattaforma disponibile in modalità open-source.
Resumo:
Popillia japonica Newman (Coleoptera, Scarabaeidae) o, più volgarmente, scarabeo giapponese, è un insetto che dagli aerali d’origine in Asia orientale è arrivato negli USA a partire dai primi del '900 e infine si è diffuso in numerosi territori nel mondo. In Italia, P. japonica, classificato come insetto da quarantena, si trova principalmente in due regioni: Piemonte e Lombardia; in Emilia-Romagna la presenza è ancora sporadica. Insetto altamente polifago e capace di nutrirsi a spese di molte specie botaniche, può causare danni diretti ed indiretti che vanno a inficiare la produzione e la qualità. Sulla vite, sia europea che americana, il coleottero adulto provoca defogliazioni che, se non controllate, possono portare ad una totale perdita della superfice fogliare. Le larve non attaccano direttamente la vite ma possono causare danni alla vegetazione erbacea di interfila e sottofila. È fondamentale limitare l’espansione di P. japonica sul territorio Italiano, poiché i danni che potrebbe causare ammonterebbero a svariati milioni di euro ogni anno. Le azioni di monitoraggio, che sono eseguite principalmente tramite trappole a feromoni e rilievi visivi, sono quindi di estrema importanza. Esistono vari metodi di gestione utili a contenere le popolazioni di P. japonica sia allo stato larvale che adulto. A oggi, i più efficaci si basano sull’utilizzo di insetticidi di sintesi attivi contro larve e adulti. I metodi di gestione agronomici possono contribuire a ridurre la presenza dell’insetto contenendo soprattutto la popolazione larvale e in parte anche quella adulta. Purtroppo i risultati ottenuti tramite lotta biologica sono, invece, piuttosto scarsi.
Resumo:
La pelle dello squalo è stata validata come un efficace sistema di controllo della resistenza di attrito privilegiato in regime turbolento. Essa è stata oggetto di numerosi studi volti a rendere realizzabili repliche quanto più simili alla sua reale struttura superficiale. In questa trattazione, partendo da una breve digressione storica sull’evoluzione dello studio delle rugosità superficiali, sono state analizzate le principali campagne sperimentali svolte in merito alla replica di superfici con Riblets 2D. Di queste ultime, sono state stimate le prestazioni per sezioni triangolari, smerlate, a lama e, per ciascuna di esse, è stata fornita la rispettiva ottimizzazione dei parametri caratteristici della geometria. Inoltre, è stato presentato uno studio sperimentale, in cui sono state impiegate Riblets 3D a lama trapezoidale, mostrando le criticità rispetto alle Riblets 2D. Successivamente, è stata fornita un’analisi che ha evidenziato il ruolo dell’orientazione delle superfici Riblet e delle nervature tridimensionali disposte sopra di esse, rispetto al flusso; in quanto è stato supposto che, nella reale pelle di squalo, ciò avrebbe potuto compensare la perdita di prestazioni rispetto al caso 2D. Infine, sono state discusse le tecniche di fabbricazione delle superfici Riblet tramite micro-goffratura e micro-stampaggio, considerando qulle più efficaci per la produzione di superfici ad alte prestazioni, commercializzabili in ambito industriale. In particolare, in questa trattazione è stata discussa la produzione di pellicole di rivestimento per la superficie esterna dei velivoli, stimando la riduzione della resistenza su diversi profili alari in differenti regimi di moto e sono state confrontate le prestazioni delle riblets su tre diversi tessuti impiegati per il nuoto competitivo.
Resumo:
La crittografia ha sempre rivestito un ruolo primario nella storia del genere umano, dagli albori ai giorni nostri, e il periodo in cui viviamo non fa certo eccezione. Al giorno d'oggi, molti dei gesti che vengono compiuti anche solo come abitudine (operazioni bancarie, apertura automatica dell'auto, accedere a Facebook, ecc.), celano al loro interno la costante presenza di sofisticati sistemi crittografici. Proprio a causa di questo fatto, è importante che gli algoritmi utilizzati siano in qualche modo certificati come ragionevolmente sicuri e che la ricerca in questo campo proceda costantemente, sia dal punto di vista dei possibili nuovi exploit per forzare gli algoritmi usati, sia introducendo nuovi e sempre più complessi sistemi di sicurezza. In questa tesi viene proposto una possibile implementazione di un particolare tipo di attacco crittoanalitico, introdotto nel 2000 da due ricercatori dell'Università "La Sapienza" di Roma, e conosciuto come "Crittoanalisi Logica". L'algoritmo su cui è incentrato il lavoro è il Data Encryption Standard (DES), ostico standard crittografico caduto in disuso nel 1999 a causa delle dimensioni ridotte della chiave, seppur tuttora sia algebricamente inviolato. Il testo è strutturato nel seguente modo: il primo capitolo è dedicato ad una breve descrizione di DES e della sua storia, introducendo i concetti fondamentali con cui si avrà a che fare per l'intera dissertazione Nel secondo capitolo viene introdotta la Crittoanalisi Logica e viene fornita una definizione della stessa, accennando ai concetti matematici necessari alla comprensione dei capitoli seguenti. Nel capitolo 3 viene presentato il primo dei due software sviluppati per rendere possibile l'attuazione di questo attacco crittoanalitico, una libreria per la rappresentazione e la manipolazione di formule logiche scritta in Java. Il quarto ed ultimo capitolo descrive il programma che, utilizzando la libreria descritta nel capitolo 3, elabora in maniera automatica un insieme di proposizioni logiche semanticamente equivalenti a DES, la cui verifica di soddisfacibilità, effettuata tramite appositi tools (SAT solvers) equivale ad effettuare un attacco di tipo known-plaintext su tale algoritmo.
Resumo:
Questa tesi ha come oggetto la riqualificazione energetica e funzionale della scuola media statale “P. Amaducci” di Bertinoro e la realizzazione, all’interno della stessa area, di una scuola elementare che condivida, con la struttura esistente, spazi per attività parascolastiche e sportive. Il lotto di intervento è situato ai margini del centro urbano, circondato da un’area identificata dalla pubblica amministrazione come di possibile espansione residenziale; esso presenta diverse criticità, tra cui la poca sicurezza dei percorsi pedonali, la frammentarietà del sistema degli spazi aperti, la mancanza di adeguate aree di sosta e di parcheggio. Grazie alla sua posizione elevata e alla collocazione all’interno di un ambito di interesse paesaggistico, dall’area si gode di un’ampia visuale sul territorio circostante, caratterizzato dalla coltivazione della vite. L’attuale scuola media statale “P. Amaducci”, realizzata nel 1990, è un edificio di circa 17800 mc con disposizione planimetrica a corte aperta, sviluppato su tre piani, ad est del quale nel 2000 è stato collocato un edificio a blocco di 12000 mc, che ospita un palazzetto dello sport di rilevanza provinciale. Nonostante la sua recente costruzione, la struttura presenta diverse carenze progettali, tra cui lo sfavorevole orientamento delle aule per la didattica, che determina un elevato livello di discomfort, la scarsa prestazione energetica che colloca l’edificio in classe energetica E, e il generale sovradimensionamento del complesso e dei singoli spazi interni (circa 180% di spazio in più rispetto a quanto previsto dal D.M.del 1975 sull’edilizia scolastica. La scuola era originariamente progettata per ospitare tre sezioni, per un totale di 225 alunni; attualmente è frequentata da solo 132 studenti, con conseguente mancata utilizzazione di una parte consistente dell’edificio. Gli obiettivi dell’intervento sono quelli fissati dall’Amministrazione comunale e consistono essenzialmente in: - Riunificazione della scuola media con la scuola elementare in un unico polo scolastico, mettendo in comune una serie di ambienti quali l'auditorium, la mensa, le aule speciali, l’adiacente palazzetto dello sport. - Realizzazione di un ampliamento per la nuova scuola elementare, con capacità di 10 aule. Esso andrebbe realizzato a monte dell'attuale scuola media favorendo un ingresso separato dei due ordini di scuola. - Revisione di alcune soluzioni progettuali ed energetiche errate o non funzionali presenti nell'attuale struttura. A seguito di alcune analisi effettuate sulla popolazione di Bertinoro e sull’accesso ai plessi scolastici dalle frazioni vicine (Fratta Terme, Capocolle, Panighina) è emersa la scarsa dinamica demografica del comune, la quale ha suggerito di prevedere la riduzione degli spazi destinati alla scuola media e l’utilizzo dei locali eccedenti per ospitare aule per la didattica ad uso della nuova scuola elementare, prevedendo inoltre l’uso congiunto degli spazi per attività parascolastiche tra le due scuole (mensa, biblioteca, auditorium e palestra) e progettando un ampliamento per ospitare le altre attività necessarie al funzionamento della nuova scuola elementare. Il progetto ha assunto la sostenibilità e il minimo impatto sull’ambiente come principi generatori gli elementi del contesto naturale come risorse: mantiene l’edificio adagiato sul declivio del terreno e valorizza la vista verso la vallata circostante, in modo da aprirlo sul paesaggio. Per limitare una delle criticità funzionali rilevate, il progetto si è proposto di separare i percorsi pedonali da quelli carrabili inserendo zone filtro con la funzione di proteggere l’accesso al polo scolastico e al palazzetto dello sport e, al fine di evitare la promiscuità delle utenze, di differenziare altimetricamente gli ingressi dei diversi edifici e di prevedere due parcheggi, uno a monte dell’area (di pertinenza della nuova scuola primaria), e uno a valle (ad uso degli utenti della scuola secondaria di primo grado e della palestra). Nella nuova configurazione spaziale dell’edificio esistente, le aule per la didattica sono collocate sul fronte principale orientato a sud-est e dotate di ampie aperture provviste di schermature studiate sulla radiazione solare locale. Per raggiungere un ottimo livello di illuminamento si è “scavato” un canale di luce all’interno dell’edificio, che fornisce alle aule un apporto di luce naturale aggiuntivo rispetto a quello che entra dalle facciate. Sul fronte nord-ovest si localizzano invece le aule speciali e i servizi, affacciati sulla corte. L’ingresso e il vano scala esistenti, in rapporto al volume ridimensionato della scuola media, risultano così in posizione baricentrica. La tesi presenta due diverse ipotesi di ampliamento, che prevedono entrambe la collocazione dei nuovi volumi a monte dell’edificio esistente, connessi ad esso tramite lo spazio dell’ingresso e la localizzazione di quattro aule per la didattica in una parte dell’edificio esistente. Il primo progetto di ampliamento si propone di ridefinire e valorizzare la corte interna attraverso l’inserimento a monte dell’edificio esistente di un volume su un solo piano, che si va ad inserire nel profilo della collina, secondo il principio del minimo impatto sul paesaggio circostante. Il secondo progetto di ampliamento punta invece sulla continuità visiva tra gli spazi aperti e il paesaggio: per questo si è collocato il nuovo volume, che si sviluppa su due piani (nella ricerca di un ottimale rapporto di forma) in adiacenza all’edificio esistente,dando luogo ad un ampio spazio verde su cui si affacciano le aule esposte a sud-est.
Resumo:
Con il termine Smart Grid si intende una rete urbana capillare che trasporta energia, informazione e controllo, composta da dispositivi e sistemi altamente distribuiti e cooperanti. Essa deve essere in grado di orchestrare in modo intelligente le azioni di tutti gli utenti e dispositivi connessi al fine di distribuire energia in modo sicuro, efficiente e sostenibile. Questo connubio fra ICT ed Energia viene comunemente identificato anche con il termine Smart Metering, o Internet of Energy. La crescente domanda di energia e l’assoluta necessità di ridurre gli impatti ambientali (pacchetto clima energia 20-20-20 [9]), ha creato una convergenza di interessi scientifici, industriali e politici sul tema di come le tecnologie ICT possano abilitare un processo di trasformazione strutturale di ogni fase del ciclo energetico: dalla generazione fino all’accumulo, al trasporto, alla distribuzione, alla vendita e, non ultimo, il consumo intelligente di energia. Tutti i dispositivi connessi, diventeranno parte attiva di un ciclo di controllo esteso alle grandi centrali di generazione così come ai comportamenti dei singoli utenti, agli elettrodomestici di casa, alle auto elettriche e ai sistemi di micro-generazione diffusa. La Smart Grid dovrà quindi appoggiarsi su una rete capillare di comunicazione che fornisca non solo la connettività fra i dispositivi, ma anche l’abilitazione di nuovi servizi energetici a valore aggiunto. In questo scenario, la strategia di comunicazione sviluppata per lo Smart Metering dell’energia elettrica, può essere estesa anche a tutte le applicazioni di telerilevamento e gestione, come nuovi contatori dell’acqua e del gas intelligenti, gestione dei rifiuti, monitoraggio dell’inquinamento dell’aria, monitoraggio del rumore acustico stradale, controllo continuo del sistema di illuminazione pubblico, sistemi di gestione dei parcheggi cittadini, monitoraggio del servizio di noleggio delle biciclette, ecc. Tutto ciò si prevede possa contribuire alla progettazione di un unico sistema connesso, dove differenti dispositivi eterogenei saranno collegati per mettere a disposizione un’adeguata struttura a basso costo e bassa potenza, chiamata Metropolitan Mesh Machine Network (M3N) o ancora meglio Smart City. Le Smart Cities dovranno a loro volta diventare reti attive, in grado di reagire agli eventi esterni e perseguire obiettivi di efficienza in modo autonomo e in tempo reale. Anche per esse è richiesta l’introduzione di smart meter, connessi ad una rete di comunicazione broadband e in grado di gestire un flusso di monitoraggio e controllo bi-direzionale esteso a tutti gli apparati connessi alla rete elettrica (ma anche del gas, acqua, ecc). La M3N, è un’estensione delle wireless mesh network (WMN). Esse rappresentano una tecnologia fortemente attesa che giocherà un ruolo molto importante nelle futura generazione di reti wireless. Una WMN è una rete di telecomunicazione basata su nodi radio in cui ci sono minimo due percorsi che mettono in comunicazione due nodi. E’ un tipo di rete robusta e che offre ridondanza. Quando un nodo non è più attivo, tutti i rimanenti possono ancora comunicare tra di loro, direttamente o passando da uno o più nodi intermedi. Le WMN rappresentano una tipologia di rete fondamentale nel continuo sviluppo delle reti radio che denota la divergenza dalle tradizionali reti wireless basate su un sistema centralizzato come le reti cellulari e le WLAN (Wireless Local Area Network). Analogamente a quanto successo per le reti di telecomunicazione fisse, in cui si è passati, dalla fine degli anni ’60 ai primi anni ’70, ad introdurre schemi di rete distribuite che si sono evolute e man mano preso campo come Internet, le M3N promettono di essere il futuro delle reti wireless “smart”. Il primo vantaggio che una WMN presenta è inerente alla tolleranza alla caduta di nodi della rete stessa. Diversamente da quanto accade per una rete cellulare, in cui la caduta di una Base Station significa la perdita di servizio per una vasta area geografica, le WMN sono provviste di un’alta tolleranza alle cadute, anche quando i nodi a cadere sono più di uno. L'obbiettivo di questa tesi è quello di valutare le prestazioni, in termini di connettività e throughput, di una M3N al variare di alcuni parametri, quali l’architettura di rete, le tecnologie utilizzabili (quindi al variare della potenza, frequenza, Building Penetration Loss…ecc) e per diverse condizioni di connettività (cioè per diversi casi di propagazione e densità abitativa). Attraverso l’uso di Matlab, è stato quindi progettato e sviluppato un simulatore, che riproduce le caratteristiche di una generica M3N e funge da strumento di valutazione delle performance della stessa. Il lavoro è stato svolto presso i laboratori del DEIS di Villa Grifone in collaborazione con la FUB (Fondazione Ugo Bordoni).
Resumo:
“Perdita di fase tra il gruppo riempimento polvere/cronoidi con LVDT ed il gruppo piattello durante la fase di arresto a causa della mancanza imprevista di corrente elettrica”. La perdita della fase tra differenti gruppi può avvenire per due ragioni: 1) a causa della cedevolezza di alcuni elementi della catena cinematica 2) per problemi relativi al software che comanda gli assi elettronici e che è responsabile del movimento coordinato dei vari gruppi. La prima ipotesi è molto improbabile in macchine come l’ADAPTA, dove non sono presenti elementi cinematici con elevata cedevolezza (come ad esempio delle cinghie) essendo i movimenti guidati da camme scanalate (che, contrariamente, sono molto rigide) e/o da camme elettriche (motori Brushless). Il secondo caso invece avviene ogni volta che viene a mancare la corrente elettrica in maniera accidentale (ad esempio a causa di un black-out). La mancanza di energia elettrica impedisce al computer a bordo macchina di continuare a monitorare e controllare il funzionamento dei vari assi elettronici della macchina, che sono comandati da motori brushless, che quindi continuano per inerzia il loro moto fino a fermarsi. Siccome ogni gruppo ha un’inerzia e una velocità/accelerazione istantanea diversa e variabile in funzione della posizione assunta all’interno del proprio ciclo nel momento della mancanza di corrente elettrica, i tempi di arresto risultano differenti, e questo causa la perdita di fase. I gruppi riempimento polvere/cronoidi e spingitori fondelli presentano interferenza meccanica col gruppo piattello per una certa durata del suo ciclo; in questa fase gli elementi entrano nelle boccole porta fondelli delle slitte mobili del piattello. È l’unico caso in tutta la macchina in cui parti meccaniche di gruppi diversi, vanno a “intersecare” i propri spostamenti. La progettazione di macchine che presentano interferenze di questo genere è generalmente sconsigliabile poiché si potrebbe presentare il rischio di uno scontro nel caso avvenga una perdita di fase tra i gruppi. Si sono cercate diverse soluzioni mirate a evitare un urto, derivato dall’interferenza meccanica, in caso di black-out oppure di ridurre il più possibile i danni che questa casualità può portare alla macchina. Il gruppo piattello è definito master rispetto a tutti gli altri gruppi; ha un’inerzia molto piccola e questo fa si che, in caso di black-out, il suo arresto avvenga praticamente istantaneamente, al contrario di ciò che avviene per tutti gli altri gruppi slave dotati di inerzia maggiore. Siccome l’arresto del piattello è istantaneo, il pericolo per tastatori e punzoni sollevatori di urto può avvenire solamente per compenetrazione: se gli elementi sono già all’interno della boccola, e restando fermo il piattello, l’inerzia del gruppo che fa proseguire il moto per alcuni istanti non farebbe altro che portarli fuori dalla boccola, non provocando alcun danno. Non vi è perciò il pericolo di “taglio” di questi elementi da parte del piattello. Perciò l’unica possibilità è che il black-out avvenga in un istante del ciclo dove gli elementi si stanno muovendo per entrare nelle boccole mentre anche il piattello è in rotazione.
Resumo:
Nella definizione di incidente rilevante presente nelle Direttive Seveso, come pure nel loro recepimento nella legislazione italiana, rientrano eventi incidentali che abbiano conseguenze gravi per il bersaglio “ambiente”, sia in concomitanza sia in assenza di effetti dannosi per l’uomo. Tuttavia, a fronte di questa attenzione al bersaglio “ambiente” citata dalle norme, si constata la mancanza di indici quantitativi per la stima del rischio di contaminazione per i diversi comparti ambientali e, conseguentemente, anche di metodologie per il loro calcolo. Misure di rischio quantitative consolidate e modelli condivisi per la loro stima riguardano esclusivamente l’uomo, con la conseguenza che la valutazione di rischio per il bersaglio “ambiente” rimane ad un livello qualitativo o, al più, semi-quantitativo. Questa lacuna metodologica non consente di dare una piena attuazione al controllo ed alla riduzione del rischio di incidente rilevante, secondo l’obiettivo che le norme stesse mirano a raggiungere. E d‘altra parte il verificarsi periodico di incidenti con significativi effetti dannosi per l’ambiente, quali, ad esempio lo sversamento di gasolio nel fiume Lambro avvenuto nel febbraio 2010, conferma come attuale e urgente il problema del controllo del rischio di contaminazione ambientale. La ricerca presentata in questo lavoro vuole rappresentare un contributo per colmare questa lacuna. L’attenzione è rivolta al comparto delle acque superficiali ed agli sversamenti di liquidi oleosi, ovvero di idrocarburi insolubili in acqua e più leggeri dell’acqua stessa. Nel caso in cui il rilascio accidentale di un liquido oleoso raggiunga un corso d’acqua superficiale, l’olio tenderà a formare una chiazza galleggiante in espansione trasportata dalla corrente e soggetta ad un complesso insieme di trasformazioni fisiche e chimiche, denominate fenomeni di “oil weathering”. Tra queste rientrano l’evaporazione della frazione più volatile dell’olio e la dispersione naturale dell’olio in acqua, ovvero la formazione di una emulsione olio-in-acqua nella colonna d’acqua al di sotto della chiazza di olio. Poiché la chiazza si muove solidale alla corrente, si può ragionevolmente ritenere che l’evaporato in atmosfera venga facilmente diluito e che quindi la concentrazione in aria dei composti evaporati non raggiunga concentrazioni pericolose esternamente alla chiazza stessa. L’effetto fisico dannoso associato allo sversamento accidentale può pertanto essere espresso in doversi modi: in termini di estensione superficiale della chiazza, di volume di olio che emulsifica nella colonna d’acqua, di volume della colonna che si presenta come emulsione olio-in-acqua, di lunghezza di costa contaminata. In funzione di questi effetti fisici è possibile definire degli indici di rischio ambientale analoghi alle curve di rischio sociale per l’uomo. Come una curva di rischio sociale per l’uomo esprime la frequenza cumulata in funzione del numero di morti, così le curve di rischio sociale ambientale riportano la frequenza cumulata in funzione dell’estensione superficiale della chiazza, ovvero la frequenza cumulata in funzione del volume di olio che emulsifica in acqua ovvero la frequenza cumulata in funzione del volume di colonna d’acqua contaminato ovvero la frequenza cumulata in funzione della lunghezza di costa contaminata. Il calcolo degli indici di rischio così definiti può essere effettuato secondo una procedura analoga al calcolo del rischio per l’uomo, ovvero secondo i seguenti passi: 1) descrizione della sorgente di rischio; 2) descrizione del corso d’acqua che può essere contaminato in caso di rilascio dalla sorgente di rischio; 3) identificazione, degli eventi di rilascio e stima della loro frequenza di accadimento; 4) stima, per ogni rilascio, degli effetti fisici in termini di area della chiazza, di volume di olio emulsificato in acqua, di volume dell’emulsione olio-in-acqua, lunghezza di costa contaminata; 5) ricomposizione, per tutti i rilasci, degli effetti fisici e delle corrispondenti frequenze di accadimento al fine di stimare gli indici di rischio sopra definiti. Al fine di validare la metodologia sopra descritta, ne è stata effettuata l’applicazione agli stabilimenti a rischio di incidente rilevante presenti nei bacini secondari che fanno parte del bacino primario del Po. E’ stato possibile calcolare gli indici di rischio per ogni stabilimento, sia in riferimento al corso d’acqua del bacino secondario a cui appartengono, sia in riferimento al Po, come pure ottenere degli indici di rischio complessivi per ogni affluente del Po e per il Po stesso. I risultati ottenuti hanno pienamente confermato la validità degli indici di rischio proposti al fine di ottenere una stima previsionale del rischio di contaminazione dei corsi d’acqua superficiali, i cui risultati possano essere utilizzati per verificare l’efficacia di diverse misure di riduzione del rischio e per effettuare una pianificazione d’emergenza che consenta, in caso di incidente, di contenere, recuperare e favorire la dispersione dell’olio sversato.
Resumo:
In un'epoca in cui l'informatizzazione si diffonde a macchia d'olio in ogni aspetto della vita quotidiana e la possibilità di essere connessi ad internet risulta vitale per aggiornarsi o anche semplicemente per mantenere contatti è possibile e allo stesso tempo necessario cercare di sfruttare la rete nel migliore dei modi in ambito lavorativo, per migliorare i propri prodotti e cercando di offrire all'utente beni e servizi sempre migliori, al passo coi tempi e col pensiero moderno. É in questo ambiente che la connettività si rende necessaria anche nel settore dell'automobile in modo da gestire in maniera efficiente l'enorme quantità di dati scambiati dalle varie sottoparti del sistema il cui compito è quello di supervisionare i componenti elettronici e meccanici. L'obiettivo è quello quindi di centralizzare ed elaborare le informazioni in modo da semplificare ed ottimizzare la gestione del veicoli per ottenere importanti vantaggi dalla fase di test fino a quella di utilizzo, passando per quella di manutenzione. Per questo risulta fondamentale, nell'epoca in cui viviamo, concedere la possibilità al veicolo di interagire con la rete internet in modo da poter sfruttare tutti i vantaggi comunicativi, siano essi con l'ambiente circostante o con persone, che essa prevede. Una volta quindi trovato il modo di interfacciarsi con la rete e sviluppato un software adeguato è fondamentale implementare fisicamente il dispositivo in modo da ottenere un dispositivo altamente integrabile nel sistema veicolo in modo da non alterare in maniera significativa la disposizione dei componenti di base (meccanici, elettrici ed elettronici) dell'automobile elettrica. È in quest'ottica che s'inserisce il progetto di una scheda per una vera e propria telemetria del veicolo elettrico con l'obiettivo di ottenere un sistema ad hoc, ma che mantenga una molteplicità di interfacce che permettano al dispositivo di rimanere aggiornato con l'evoluzione in atto relativa alle tecniche e ai protocolli (standard) di comunicazione permettendo quindi comunicazioni tramite rete ethernet, Wi-Fi o GPRS, cercando anche di sfruttare sistemi di posizionamento come il GPS. Per questo motivo si è cercato di realizzare la scheda seguendo la filosofia dei sistemi embedded, architetture il cui compito è quello di eseguire operazioni molto specifiche spesso con vincoli sull'esecuzione in tempo reale. Questo permette di ridurre al minimo l'hardware in termini di spazio, consumo e costo di realizzazione. Queste dispositivi si sono evoluti recentemente virando sulla creazione di architetture modulari che permettono il riutilizzo delle risorse disponibili; in questo modo si ottengono comunque dispositivi ottimizzati ma in grado di mantenere un certo tipo di flessibilità nello sviluppo delle applicazioni e allargando quindi lo spettro dei possibili impieghi. Secondo questi principi si è cercato quindi di realizzare la scheda in modo che implementasse e realizzasse il software dedicato alla comunicazione del veicolo con internet ma che, grazie all'hardware a disposizione, potesse essere programmata da mani esperte anche per numerosi utilizzi alternativi e resa quindi disponibile all'utente finale in possibili forme. In questo è risultato fondamentale l'utilizzo della piattaforma Arduino, basata sul microcontrollore ATmega328, che permette appunto una rapida espansione fisica del sistema.
Resumo:
Negli ultimi anni si è assistito ad una radicale rivoluzione nell’ambito dei dispositivi di interazione uomo-macchina. Da dispositivi tradizionali come il mouse o la tastiera si è passati allo sviluppo di nuovi sistemi capaci di riconoscere i movimenti compiuti dall’utente (interfacce basate sulla visione o sull’uso di accelerometri) o rilevare il contatto (interfacce di tipo touch). Questi sistemi sono nati con lo scopo di fornire maggiore naturalezza alla comunicazione uomo-macchina. Le nuove interfacce sono molto più espressive di quelle tradizionali poiché sfruttano le capacità di comunicazione naturali degli utenti, su tutte il linguaggio gestuale. Essere in grado di riconoscere gli esseri umani, in termini delle azioni che stanno svolgendo o delle posture che stanno assumendo, apre le porte a una serie vastissima di interessanti applicazioni. Ad oggi sistemi di riconoscimento delle parti del corpo umano e dei gesti sono ampiamente utilizzati in diversi ambiti, come l’interpretazione del linguaggio dei segni, in robotica per l’assistenza sociale, per indica- re direzioni attraverso il puntamento, nel riconoscimento di gesti facciali [1], interfacce naturali per computer (valida alternativa a mouse e tastiera), ampliare e rendere unica l’esperienza dei videogiochi (ad esempio Microsoft 1 Introduzione Kinect© e Nintendo Wii©), nell’affective computing1 . Mostre pubbliche e musei non fanno eccezione, assumendo un ruolo cen- trale nel coadiuvare una tecnologia prettamente volta all’intrattenimento con la cultura (e l’istruzione). In questo scenario, un sistema HCI deve cercare di coinvolgere un pubblico molto eterogeneo, composto, anche, da chi non ha a che fare ogni giorno con interfacce di questo tipo (o semplicemente con un computer), ma curioso e desideroso di beneficiare del sistema. Inoltre, si deve tenere conto che un ambiente museale presenta dei requisiti e alcune caratteristiche distintive che non possono essere ignorati. La tecnologia immersa in un contesto tale deve rispettare determinati vincoli, come: - non può essere invasiva; - deve essere coinvolgente, senza mettere in secondo piano gli artefatti; - deve essere flessibile; - richiedere il minor uso (o meglio, la totale assenza) di dispositivi hardware. In questa tesi, considerando le premesse sopracitate, si presenta una sistema che può essere utilizzato efficacemente in un contesto museale, o in un ambiente che richieda soluzioni non invasive. Il metodo proposto, utilizzando solo una webcam e nessun altro dispositivo personalizzato o specifico, permette di implementare i servizi di: (a) rilevamento e (b) monitoraggio dei visitatori, (c) riconoscimento delle azioni.