218 resultados para compressibilità edometro sabbia sabbie granulometria limiti di Atterberg
Resumo:
L'industria automobilistica sta assistendo ad un importante cambiamento verso motorizzazioni con cilindrata unitaria minore, turbocompressi, e con iniezione diretta in camera, a causa delle normative sempre più stringenti sull'emissione di inquinanti allo scarico, inclusa la CO2 per ragioni legate all'effetto serra ed al contenimento dei consumi di fonti energetiche non rinnovabili. I motori turbocompressi lavorano con una pressione media effettiva maggiore, con conseguenti maggiori pressioni e temperature in camera, che di fatto aumentano il rischio di insorgenza di eventi di combustione anomale come pre-accensione e detonazione. Questo porta ad utilizzare il motore con angoli sub-ottimali di anticipo di accensione e con arricchimento della miscela per diminuire le temperature dei gas in ingresso alla turbina. Queste strategie non sono più compatibili con le nuove regolamentazioni, in quanto superano i limiti imposti di emissioni e consumo specifico in cicli reali di utilizzo su strada. Tra le varie possibili soluzioni, l'iniezione d'acqua è una tecnologia già conosciuta, che permette un controllo della tendenza alla detonazione. Il principio consiste nella riduzione della temperatura della carica grazie all'elevato calore latente di vaporizzazione della massa d'acqua iniettata. In questo lavoro sono stati valutati entrambi i layout di iniezione d'acqua, nel condotto e in camera di combustione, in due punti motore: massima potenza e massima coppia. La metodica di ricerca è stata di tipo numerico tramite l'utilizzo di simulazioni tridimensionali CFD a partire da una metodologia basata su modelli fisici solidamente validati. Il software commerciale utilizzato è stato AVL FIRE, che permette di manipolare in modo agevole i risultati sia al suo interno, sia tramite ambienti di calcolo esterno.
Resumo:
Dall’inizio del XXI secolo, un’importante rivoluzione tecnologica è in corso nel campo delle neuroscienze: l’idea di base è quella di attivare/inibire con la luce un neurone che normalmente non è in grado di rispondere a tale stimolo. Si tratta di un approccio che integra metodi ottici e genetici per controllare l’attività di cellule eccitabili e di circuiti neuronali. La combinazione di metodi ottici con strumenti fotosensibili geneticamente codificati (optogenetica) offre l’opportunità di modulare e monitorare rapidamente un gran numero di eventi neuronali e la capacità di ricreare i modelli fisiologici, spaziali e temporali dell’attività cerebrale. Le tecniche di stimolazione ottica possono rispondere ad alcune delle problematiche legate alla stimolazione elettrica, fornendo una stimolazione più selettiva, una maggiore risoluzione spaziale e una minore invasività del dispositivo, evitando gli artefatti elettrici che complicano le registrazioni dell’attività neuronale elettricamente indotta. Quest’innovazione ha motivato lo sviluppo di nuovi metodi ottici per la fotostimolazione neuronale, tra cui la fotostimolazione neuronale nell’infrarosso, le tecniche di scansione del fascio e di fotostimolazione parallela, ciascuna con i suoi vantaggi e limiti. Questa tesi illustra i principi di funzionamento delle tecniche di fotostimolazione ed il loro utilizzo in optogenetica, presentandone i vantaggi e gli inconvenienti. Infine, nell’elaborato è presa in considerazione la possibilità di combinare i metodi di fotostimolazione con approcci di imaging ottico funzionale innovativi per un’indagine più ampia, mirata e completa del circuito neuronale. Sebbene siano necessari ulteriori studi, le tecniche di fotostimolazione in optogenetica sono quindi molto promettenti per la comprensione dei disturbi neuronali, svelando la codifica neurale e facilitando nuovi interventi per la diagnosi e terapia di malattie neurologiche.
Resumo:
Il presente lavoro di Tesi Magistrale nasce dall’esigenza di trovare soluzioni alle problematiche legate alla produzione e smaltimento delle plastiche, prevalentemente provenienti dal packaging alimentare. Una delle strategie maggiormente utilizzate in alternativa all’accumulo in discarica, è il riciclo. Questa soluzione ha però alcuni limiti: basse performance rispetto al materiale vergine e costi di processo troppo elevati a causa dei problemi di contaminazione e delle strutture multistrato. Alla luce di ciò, la ricerca scientifica si è orientata verso nuovi approcci come la sintesi di bioplastiche compostabili. Il poli(butilene furanoato) (PBF), è un buon candidato come materiale plastico per il packaging alimentare, ma possiede scarse caratteristiche di biodegradabilità e proprietà meccaniche non adeguate all’imballaggio flessibile. Per superare tali limitazioni, è stata messa a punto la sintesi di un nuovo poliestere, il poli(dietilene furanoato) (PDEF), un polimero biobased che si differenzia dal PBF per la presenza di un atomo di ossigeno etereo nella sub-unità glicolica. I due polimeri sono stati sottoposti ad una completa caratterizzazione chimico-fisica, con lo scopo di valutare l’effetto dell’introduzione di ossigeni eterei lungo la catena polimerica sulle proprietà finali del materiale. Oltre alla caratterizzazione molecolare e strutturale, è stato studiato anche il comportamento termico, la risposta meccanica e la permeabilità a diversi tipi di gas oltre che le caratteristiche di compostabilità. I risultati ottenuti hanno mostrato come nel PDEF vi sia un netto miglioramento delle proprietà non idonee per applicazioni nel packaging flessibile del PBF, in particolare quelle meccaniche, insieme a un ulteriore potenziamento delle già buone proprietà barriera. Inoltre, aspetto di fondamentale importanza nell’ottica della realizzazione di un materiale ecosostenibile, il PDEF mostra una velocità di degradazione in compost eccezionalmente elevata.
Resumo:
Grazie agli sviluppi delle nanotecnologie biomedicali nell’ambito del rilascio controllato di farmaci e dell’ingegneria tissutale, sta diventando sempre più concreta la possibilità di superare i principali limiti della medicina tradizionale, basata nel primo caso su somministrazioni ripetute e a livello sistemico di principio attivo, e nel secondo caso sul trapianto (con relativi problemi di rigetto e carenza di donatori) e su trattamenti farmacologici non risolutivi. Tramite lo studio dei biomateriali e delle loro proprietà è invece possibile realizzare soluzioni ad hoc per l’ingegneria tissutale e per il rilascio controllato e mirato di farmaco. Nel presente studio, sono stati realizzati, mediante elettrofilatura, scaffolds a partire da blend fisiche di poli(butilene succinato) (PBS) e cheratina, a diversa composizione. Il primo è un polimero sintetico biocompatibile e approvato dalla Food and Drug Administration, con buone resistenza meccanica e lavorabilità, ma tempi di degradazione piuttosto lenti, a differenza della cheratina, polimero naturale, che risulta troppo rigido e difficile da processare, ma con buoni tempi di degradazione ed un’ottima biocompatibilità. Le blend sono state sottoposte a studi di miscibilità, mentre sui tappetini elettrofilati è stata effettuata una caratterizzazione morfologica, termica e meccanica. Inoltre, in vista di possibili applicazioni nell’ambito dell’ingegneria tissutale e del rilascio controllato di farmaco, si sono svolti anche test di biodegradazione in ambiente enzimatico e prove di biocompatibilità in vitro, nel primo caso, e studi di rilascio di diclofenac, comune antinfiammatorio, e test di adesione alla pelle, nel secondo caso. In conclusione, ogni tipo di indagine, seppur preliminare, ha comprovato che l’unione tra il PBS e la cheratina ha dato vita a nuove miscele facilmente processabili per potenziali utilizzi in due ambiti biomedicali di particolare interesse applicativo.
Resumo:
I rifiuti plastici, oggigiorno, rappresentano una grande minaccia per l’ambiente, per gli ecosistemi e per la salute umana, tanto da essere al centro della attenzione di numerosi studi. La preoccupazione maggiore è destata dalle microplastiche (frammenti di dimensioni inferiori ai 5 mm) che per la loro dimensione, la loro ubiquità e la loro lunga persistenza in ambiente possono interferire in maniera allarmante con gli organismi viventi. L’ampia gamma di dimensioni delle microplastiche e la natura complessa delle loro forme, colori e tipi di polimero hanno impedito ai ricercatori di sviluppare una classificazione coerente data anche dall'attuale assenza di una standardizzazione nel metodo di campionamento, preparazione e analisi del campione. Infatti lo studio di questa tipologia di inquinanti può essere effettuato mediante diverse metodologie analitiche sia di tipo spettroscopico che termico. Con questo studio si è cercato di valutare le potenzialità della pirolisi analitica (PyGCMS) per la quantificazione e identificazione di sei polimeri: PE, PP, PS, PET, PVC e PA. Tramite un attento confronto con la letteratura sono stati identificati alcuni punti critici nell'analisi quantitativa di alcuni polimeri in miscela. In particolare, la miscela PET/PA è risultata essere soggetta a grandi interferenze date dalla comparsa di prodotti pirolitici secondari che ne impediscono una corretta quantificazione. Inoltre un diverso rapporto dei polimeri nella miscela binaria va a modificare la risposta quantitativa rendendola non prevedibile. L’uso di derivatizzanti come agenti metilanti sembra ridurre alcuni effetti di interazione in pirolisi, ma non sembra essere così vantaggioso come riportato in altri studi. Complessivamente la pirolisi analitica risulta una tecnica applicabile alla identificazione e quantificazione delle microplastiche, ma emerge dallo studio una scarsa conoscenza in letteratura delle interazioni in fase pirolitica tra prodotti di pirolisi di diversi polimeri.
Resumo:
L'abbandono del cliente, ossia il customer churn, si riferisce a quando un cliente cessa il suo rapporto con l'azienda. In genere, le aziende considerano un cliente come perso quando un determinato periodo di tempo è trascorso dall'ultima interazione del cliente con i servizi dell'azienda. La riduzione del tasso di abbandono è quindi un obiettivo di business chiave per ogni attività. Per riuscire a trattenere i clienti che stanno per abbandonare l'azienda, è necessario: prevedere in anticipo quali clienti abbandoneranno; sapere quali azioni di marketing avranno maggiore impatto sulla fidelizzazione di ogni particolare cliente. L'obiettivo della tesi è lo studio e l'implementazione di un sistema di previsione dell'abbandono dei clienti in una catena di palestre: il sistema è realizzato per conto di Technogym, azienda leader nel mercato del fitness. Technogym offre già un servizio di previsione del rischio di abbandono basato su regole statiche. Tale servizio offre risultati accettabili ma è un sistema che non si adatta automaticamente al variare delle caratteristiche dei clienti nel tempo. Con questa tesi si sono sfruttate le potenzialità offerte dalle tecnologie di apprendimento automatico, per cercare di far fronte ai limiti del sistema storicamente utilizzato dall'azienda. Il lavoro di tesi ha previsto tre macro-fasi: la prima fase è la comprensione e l'analisi del sistema storico, con lo scopo di capire la struttura dei dati, di migliorarne la qualità e di approfondirne tramite analisi statistiche il contenuto informativo in relazione alle features definite dagli algoritmi di apprendimento automatico. La seconda fase ha previsto lo studio, la definizione e la realizzazione di due modelli di ML basati sulle stesse features ma utilizzando due tecnologie differenti: Random Forest Classifier e il servizio AutoML Tables di Google. La terza fase si è concentrata su una valutazione comparativa delle performance dei modelli di ML rispetto al sistema storico.
Resumo:
Questa tesi sostiene l'efficacia delle immagini satellitari per monitorare e valutare lo stato di conservazione dei siti archeologici soggetti a minacce antropiche, facendo riferimento alla situazione di crisi che è in atto in Siria a causa della guerra civile. Sono descritti nello specifico i vantaggi e i limiti del loro uso per riconoscere e seguire l’evoluzione dei saccheggi e delle altre forme di danno: in particolare vengono valutati i danni presenti su 68 tell pre-classici situati nel nord della Siria. È stato utilizzato un approccio foto interpretativo mediante il software QGIS, confrontando immagini satellitari provenienti da piattaforme open source quali Google, Bing, Esri con immagini d’archivio risalenti al 2010. Sono state effettuate diverse analisi volte a mappare la distribuzione dei danni sul territorio e stimarne l’incremento avvenuto tra il 2014 e il 2019, sottolineando l’impatto della militarizzazione e degli scavi clandestini. Sono state inoltre acquistate due immagini ad altissima risoluzione del satellite WorldView-2 per fare un riconoscimento semiautomatico dei cambiamenti avvenuti dal 2010 al 2020 su due dei tell appartenenti all’area di indagine, attraverso l’uso del software ENVI: dopo avere eseguito le opportune correzioni geometriche e atmosferiche è stata effettuata l’analisi delle componenti principali (PCA) ottenendo due immagini raster nelle quali vengono evidenziate le fosse di saccheggio e i danni compiuti sopra i due tell. Questo approccio ha consentito di individuare con maggiore chiarezza le caratteristiche che non erano altrettanto ben visibili nelle immagini rese disponibili dalle fonti open source. I risultati ottenuti dimostrano l’importanza delle immagini satellitari che rappresentano una fonte oggettiva di informazioni per avere una stima dei danni al suolo e possono aiutare le autorità competenti a prendere le misure necessarie per prevenire un'ulteriore diffusione del saccheggio e delle altre forme di danno.
Resumo:
Le microplastiche (MP) rientrano nella categoria di contaminanti emergenti per la loro pericolosità e persistenza nell'ecosistema. Gli impianti di trattamento acque sono identificati come una fonte principale di MP per l’ambiente. A causa della mancanza di metodi di separazione standard per le MP da fanghi ed acque reflue, nel presente lavoro sperimentale, sono testati diversi metodi di separazione delle MP da campioni di fanghi e acque di due impianti reali. Tramite analisi allo stereomicroscopio e identificazione della struttura polimerica mediante spettroscopia infrarossa in riflettanza totale attenuata (FTIR-ATR) si sono ottenute delle prime stime sulle quantità di MP all’interno dei depuratori che andranno vagliate con successive prove. In generale c’è una grande variabilità associata al punto di prelievo, al periodo di campionamento e alle caratteristiche del refluo. I dati sperimentali confermano la presenza di MP sia nelle acque che nei fanghi. Per la linea acque sono esaminati un trattamento convenzionale a fanghi attivi di un piccolo impianto (1) e un trattamento terziario di filtrazione a sabbia con peracetico e UV di un impianto di potenzialità superiore (2). Seppure le efficienze di rimozione siano alte (93,37% per l’impianto 1 e 59,80% per il 2), i carichi di MP rilasciati in ambiente sono elevati a causa delle portate trattate. Il fatto che MP della stessa morfologia e colore si ritrovino in setacci di differenti dimensioni e che le concentrazioni aumentino al diminuire della dimensione, suggerisce che subiscano svariate frammentazioni a monte del campionamento. Per i fanghi sono testati 3 metodi di pretrattamento individuando il migliore in quello con pre-digestione con H2O2 e separazione per densità con NaI che verrà in seguito implementata. Nei fanghi tendono a concentrarsi le MP rimosse dalla linea acque che di solito sono quelle di densità maggiore, infatti si riscontra prevalenza di microparticelle.
Resumo:
Il problema del rumore derivante dai volumi di traffico sempre crescente richiede la ricerca di svariate soluzioni, tra cui l'installazione di barriere di sicurezza e antirumore, definite anche integrate. La tesi, svolta in collaborazione con Piacentini Ingegneri srl, dopo un primo inquadramento del problema dei livelli di rumore eccessivi e dei limiti imposti da normativa, descrive le possibili soluzioni trovate nel tempo e in corso di ricerca. Vengono dunque descritte nel dettaglio le barriere integrate, specialmente quelle trovate nei tratti autostradali di Genova e Milano nel corso del tirocinio svolto presso Piacentini Ingegneri srl. È stata eseguita una modellazione FEM delle barriere Integauto-s e diverse prove sperimentali sui new jersey e sulle opere di supporto alle barriere (pull-out, carotaggi, prove a trazione, ecc). Dai certificati delle prove si ricavano i parametri di resistenza degli elementi (barriera e cordoli di sostegno) grazie ai quali, in aggiunta alla documentazione originale fornita da Autostrade per l'Italia, si raggiunge il Livello di Conoscenza accurato, il massimo possibile: LC3. Ciò è indispensabile per rispettare la procedura per il rialzamento delle barriere integrate concordate tra le 2 società sopracitate. Quindi, si procede con le verifiche delle barriere e delle opere di supporto alle barriere (cordolo su terreno, cordolo con micropali o pali, cordolo su opera d'arte esistente, pile da ponte). L'intera tesi è finalizzata alla definizione delle altezze delle barriere integrate, in quanto per motivi di sicurezza erano state abbassate. I calcoli strutturali, la modellazione FEM e le prove condotte hanno portato alla conoscenza massima possibile delle seguenti barriere: Integauto-s, NJBP C1.2 Martellona, e NJBP Ecotecnica (trovate nei tratti autostradali oggetto di rialzamento).
Resumo:
Data la pervasività dell’elettronica nella vita moderna, sempre più interesse è stato posto nelle applicazioni di localizzazione. In ambienti indoor e outdoor, dove sono richieste precisioni dell’ordine delle decine di centimetri, i classici servizi GNSS non sono applicabili. Una tecnologia promettente è quella a banda ultra-larga (UWB), affermata recentemente sul mercato. Un’alternativa potrebbe essere l’utilizzo di sensori ottici con marker di riferimento, però la presenza di fumo e idrometeore presenti nell’ambiente potrebbero andare ad oscurare i marker, rendendo impossibile la localizzazione. Lo scopo della tesi è volto a studiare un sistema di localizzazione UWB, progettato dall’Università di Bologna, ora sviluppato e commercializzato, in un’applicazione robotica. In particolare, l’idea è quella di porre il sistema di localizzazione sopra un elemento mobile, per esempio nella parte terminale di un braccio meccanico, al fine di localizzare un oggetto dotato di nodo UWB, ricavando dinamicamente la posizione relativa tra il braccio e l’oggetto. La tesi si concentra inizialmente a livello teorico sulle caratteristiche delle principali tecnologie coinvolte, in particolare i sistemi UWB e il filtraggio Bayesiano, per poi trattare i limiti teorici della localizzazione, nei concetti di Cramér-Rao lower bound (CRLB) e geometric dilution of precision (GDOP). Da questi, si motiva l’utilizzo della tecnica two-way ranging (TWR) come principio di raccolta delle misure per la localizzazione, per poi ricavare le curve teoriche dell’errore di localizzazione, tenendo conto dei limiti geometrici imposti, utilizzate come riferimento per l’analisi dell’errore ottenuto con il sistema reale. La tecnologia viene testata in tre campagne di misura. Nelle prime due si osserva la presenza di un piano metallico parallelo alla direzione di propagazione, per esaminare gli effetti delle riflessioni sulla localizzazione, mentre nella terza campagna si considera la presenza di acqua dolce.
Resumo:
Dagli anni '40, la produzione di materiali plastici è aumentata in modo esponenziale. La loro versatilità, resistenza ed economicità li hanno resi accessibili globalmente. Questi vantaggi hanno comportato però molti danni a ecosistemi e specie marine, tra cui anche Caretta caretta. Recenti studi hanno dimostrato, ad esempio, la capacità delle microplastiche di influenzare negativamente l’ambiente di incubazione delle uova, causando impatti sullo sviluppo embrionale e sul successo di schiusa. I metalli pesanti svolgono un ruolo chiave nella contaminazione oceanica poiché molto stabili e non biodegradabili. Gli organismi non riescono quindi a eliminarli, ma tendono ad accumularli nei tessuti, determinando conseguentemente il loro inserimento nella catena trofica. Recentemente, l'analisi di campioni di sangue di esemplari vivi di tartaruga marina ha consentito di studiare le loro potenziali implicazioni sulla salute e sul successo riproduttivo delle popolazioni. Tuttavia, poche informazioni sono ancora disponibili sull'esposizione delle uova ai metalli e sul trasferimento di questi dalla madre all'embrione. In questo lavoro di tesi si è andati quindi a verificare i livelli di esposizione ai metalli pesanti, mediante l’analisi all’ICP-OES delle uova, e i livelli di esposizione alle microplastiche, grazie a un nuovo metodo basato sul principio della flottazione della densità applicato sui campioni di sabbia, nei nidi di C. caretta rinvenuti durante la stagione di deposizione 2021 lungo la costa ionica della provincia di Catanzaro. Successivamente è stata valutata la correlazione tra i livelli di esposizione e il successo di schiusa della specie: i risultati ottenuti hanno permesso di affermare che per le concentrazioni dei metalli si ha una correlazione negativa (p=0,022) tra il contenuto di Pb in tuorlo e albume combinati e il successo di schiusa registrato nei nidi presi in analisi, mentre ciò non è stato possibile per le concentrazioni delle microplastiche.
Resumo:
Le tecniche di fluidodinamica computazionale vengono utilizzate in numerosi settori dell’ingegneria per risolvere in modo efficiente i problemi di flusso e di termodinamica nei fluidi. Uno di questi settori in cui si è diffuso l’utilizzo delle tecniche CFD (Computational Fluid Dynamics) è il settore dell’ingegneria antincendio. Tra i vari software di simulazione presenti, FDS (Fire Dynamics Simulator) è quello più diffuso nella comunità antincendio e utilizzato all’interno della presente analisi. L’elaborato introduce le basi dell’ingegneria antincendio spiegando le varie fasi attraverso il quale passa la metodologia prestazionale, passando poi ad approfondire le dinamiche d’incendio, in particolare nelle gallerie stradali e le tecniche di modellazione termo fluidodinamica degli incendi. L’analisi tratta il confronto tra delle prove d’incendio in scala reale effettuate all’interno di una galleria e le relative simulazioni fluidodinamiche realizzate al fine di verificare la corrispondenza tra la modellazione con software e l’effettiva evoluzione dell’incendio. Nell’analisi verranno confrontati diversi metodi di modellazione, evidenziando i vantaggi e i limiti incontrati nel corso delle simulazioni, confrontandoli al tempo stesso con i risultati ottenuti dai test in scala reale. I modelli ottenuti hanno permesso di estendere le simulazioni a focolari di potenza maggiore al fine di effettuare un’analisi delle prestazioni antincendio della galleria oggetto di studio.
Resumo:
Un danneggiamento in una struttura altera le sue caratteristiche dinamiche quali frequenze naturali, indici di smorzamento e forme modali associate ad ogni frequenza naturale. In particolare, nel caso di travi, una variazione di rigidezza flessionale è in generale definibile danneggiamento se corrisponde ad una riduzione della stessa; tuttavia, anche un incremento altera i parametri dinamici della struttura. Il presente elaborato investiga l’applicazione del cambiamento nelle curvature modali per identificare un incremento di rigidezza flessionale in una trave metallica semplicemente appoggiata studiata presso il laboratorio LISG dell’Università di Bologna. Utilizzando le differenze centrali, le curvature modali sono state calcolate dalle forme modali ottenute sperimentalmente. Le modalità di calcolo utilizzate per identificare le forme modali della trave sono accomunate dall’utilizzo delle funzioni di trasferimento sperimentali ricavate sia dal rapporto tra le trasformate di output ed input, sia facendo uso della densità di potenza spettrale (PSD e CPSD). A supporto delle indagini sperimentali e per validare le modalità di calcolo utilizzate è stata modellata tramite elementi finiti una trave semplicemente appoggiata che simula la configurazione iniziale e quella irrigidita localmente in un suo tratto. I risultati numerici condotti validano le modalità utilizzate per la determinazione delle forme modali, evidenziando una forte sensibilità delle curvature modali all’irrigidimento locale. Come atteso, lato sperimentale le forme modali risultano meno accurate di quelle dedotte dalle esperienze numeriche. I risultati ottenuti evidenziano limiti e potenzialità dell’algoritmo di identificazione impiegato.
Resumo:
Sin dal suo ingresso nel mercato della traduzione, la machine translation (MT) è stata impiegata in numerosi settori professionali e ha suscitato l’interesse del grande pubblico. Con l’avvento della traduzione automatica neurale, la MT ha avuto un ulteriore impulso e ci si è iniziati a interrogare sulla possibilità di estenderne il raggio d’azione all’ambito letterario, che sembra tuttora non toccato dagli automatismi delle macchine in virtù della funzione espressiva e del contenuto creativo dei testi. Il presente elaborato nasce quindi con l’obiettivo di valutare l’effettiva applicabilità della traduzione automatica in ambito letterario attraverso un’attenta analisi dell’output prodotto dalla MT supportata da un confronto con la traduzione svolta da un professionista. Questa analisi si baserà sulla traduzione di un estratto del romanzo Hunger Games di Suzanne Collins e le traduzioni verranno effettuate da due dei migliori software di traduzione automatica neurale attualmente sul mercato: ModernMT e DeepL. Una volta terminata la valutazione dei singoli output verranno mostrati i risultati e determinati i limiti e i vantaggi della machine translation.
Resumo:
Lo sviluppo della robotica collaborativa, in particolare nelle applicazioni di processi industriali in cui sono richieste la flessibilità decisionale di un utilizzatore umano e le prestazioni di forza e precisione garantite dal robot, pone continue sfide per il miglioramento della capacità di progettare e controllare al meglio questi apparati, rendendoli sempre più accessibili in termini economici e di fruibilità. Questo cambio di paradigma rispetto ai tradizionali robot industriali, verso la condivisone attiva degli ambienti di lavoro tra uomo e macchina, ha accelerato lo sviluppo di nuove soluzioni per rendere possibile l’impiego di robot che possano interagire con un ambiente in continua mutazione, in piena sicurezza. Una possibile soluzione, ancora non diffusa commercialmente, ma largamente presente in letteratura, è rappresentata dagli attuatori elastici. Tra gli attuatori elastici, l’architettura che ad oggi ha destato maggior interesse è quella seriale, in cui l’elemento cedevole viene posto tra l’uscita del riduttore ed il carico. La bibliografia mostra come alcuni limiti della architettura seriale possano essere superati a parità di proprietà dinamiche. La soluzione più promettente è l’architettura differenziale, che si caratterizza per l’utilizzo di riduttori ad un ingresso e due uscite. I vantaggi mostrati dai primi risultati scientifici evidenziano l’ottenimento di modelli dinamici ideali paragonabili alla più nota architettura seriale, superandola in compattezza ed in particolare semplificando l’installazione dei sensori necessari al controllo. In questa tesi viene effettuata un’analisi dinamica preliminare ed uno studio dell’attitudine del dispositivo ad essere utilizzato in contesto collaborativo. Una volta terminata questa fase, si presenta il design e la progettazione di un prototipo, con particolare enfasi sulla scelta di componenti commerciali ed il loro dimensionamento, oltre alla definizione della architettura costruttiva complessiva.