999 resultados para Macchina automatica, analisi dinamica di meccanismi, aumento di produttività
Resumo:
La tesi si pone l'obiettivo di analizzare e approfondire il principio dei lavori virtuali, un importante strumento per la ricerca delle condizioni di equilibrio di un sistema meccanico. L'intera trattazione si svolge nell'ambito della meccanica classica e in un primo momento l'analisi si concentra in ambito statico, successivamente verrà ampliata in ambito dinamico, fino ad enunciare il principio di D'Alembert. Tale principio permette di ricondurre un qualsiasi problema di dinamica ad un equivalente problema di statica, fornendo un metodo generale per lo studio del moto di un qualunque sistema meccanico. La tesi si conclude con un approfondimento storico, in cui si evidenziano le tappe salienti e le personalità matematiche che hanno contribuito all'enunciazione ultima dei due principi citati.
Resumo:
la gestione ottimale del rischio alluvionale è un ambito di ricerca di grande rilevanza a livello nazionale e internazionale. Con riferimento alle alluvioni, infatti, sono state proposte in letteratura diverse tecniche innovative per la previsione e la mitigazione del rischio alluvionale. Tra di esse spiccano le tecniche speditive di mappatura della pericolosità idraulica ottenute attraverso l'utilizzo di descrittori geomorfici. Detti approcci derivano descrittori morfologici analizzando modelli digitali delle quote del terreno (DEM) ed in base ad essi forniscono una mappatura di pericolosità idraulica da alluvione. Che gioco svolge la risoluzione del DEM di partenza sull'accuratezza dei prodotti finali? La combinazione di DEM a diversa risoluzione migliora le prestazioni dei singoli dataset? Il lavoro di Tesi analizza l'importanza della risoluzione del DEM di partenza sull'accuratezza delle mappature conseguibili, utilizzando come riferimento l'area del bacino del Samoggia con chiusura a Calcara. I risultati ottenuti mostrano come: (a) le caratteristiche dei descrittori geomorfici considerati sembrano essere influenzate significativamente da quelle del DEM utilizzato come dato in ingresso e (b) DEM ad elevata risoluzione portino ad un aumento nell'accuratezza della mappatura di pericolosità.
Resumo:
Sin dal suo ingresso nel mercato della traduzione, la machine translation (MT) è stata impiegata in numerosi settori professionali e ha suscitato l’interesse del grande pubblico. Con l’avvento della traduzione automatica neurale, la MT ha avuto un ulteriore impulso e ci si è iniziati a interrogare sulla possibilità di estenderne il raggio d’azione all’ambito letterario, che sembra tuttora non toccato dagli automatismi delle macchine in virtù della funzione espressiva e del contenuto creativo dei testi. Il presente elaborato nasce quindi con l’obiettivo di valutare l’effettiva applicabilità della traduzione automatica in ambito letterario attraverso un’attenta analisi dell’output prodotto dalla MT supportata da un confronto con la traduzione svolta da un professionista. Questa analisi si baserà sulla traduzione di un estratto del romanzo Hunger Games di Suzanne Collins e le traduzioni verranno effettuate da due dei migliori software di traduzione automatica neurale attualmente sul mercato: ModernMT e DeepL. Una volta terminata la valutazione dei singoli output verranno mostrati i risultati e determinati i limiti e i vantaggi della machine translation.
Resumo:
I notevoli sviluppi tecnologici che hanno caratterizzato l’ultimo decennio hanno portato con sé alcune minacce alla sicurezza. In questa tesi, completamento di un progetto di tirocinio svolto presso il CINECA, ci si concentra sulla realizzazione di una baseline dinamica in grado di apprendere il comportamento degli utenti. Grazie ad essa e con l’aiuto di uno script Python, è possibile rilevare i comportamenti anomali e segnalarli agli interessati. Il focus principale del progetto riguarda il possibile esaurimento di sessioni in applicazioni web e la conseguente negazione del servizio. La raccolta dei dati dai vari applicativi è stata possibile utilizzando il SIEM QRadar di IBM, le funzionalità in esso presenti e le API che hanno consentito un agevole interfacciamento con gli script esterni.
Resumo:
Negli ultimi anni si sono riscontrati in tutto il territorio Nazionale un consistente aumento di eventi incendiari negli impianti di stoccaggio e smaltimento rifiuti. In questo elaborato troviamo una prima panoramica sulle normative nazionali riguardanti la prevenzione incendi, le emergenze e l’ambiente. Successivamente si focalizza l’attenzione sulle Linee Guida dei piani di Emergenza Esterni .La parte delle linee guida relativa al “Metodo ad indici per la classificazione del rischio incendio negli impianti di stoccaggio e trattamento rifiuti” , è stata elaborata a partire dalla metodologia per la gestione del rischio di incendio negli impianti di deposito di rifiuti. Le linee guida a cui ci si riferisce hanno ritenuto di considerare l'incendio quale scenario di riferimento per la valutazione del rischio dell'impianto, anche a seguito della complessità e variabilità delle caratteristiche dei rifiuti che comportano una differente pericolosità degli effluenti. La procedura sviluppata prevede un metodo di valutazione del rischio ad indici che consiste nell’attribuire determinati punteggi a fattori di rischio e misure di prevenzione e protezione presenti nell’impianto e considerando i pericoli per la salute umana e l’ambiente circostante. Il metodo ha l’obiettivo di semplificare e unificare i criteri di classificazione dei livelli di rischio in tali impianti, in base al livello viene quindi stabilita una certa distanza di attenzione su cui poi si baseranno i Piani di Emergenza Esterni. Il metodo ad indici esposto nelle Linee Guida è stato quindi testato su un caso studio. I risultati ottenuti da tale elaborazione sono stati poi integrati e contestualizzati con l’ausilio del software QGIS attraverso il quale si sono ricavate mappe raffiguranti i vari impianti e le loro rispettive distanze di attenzione, le quali saranno conferite alle autorità competenti per lo sviluppo di efficienti Piani di Emergenza Esterni.
Resumo:
Il presente lavoro di tesi si occupa di identificare le possibili ubicazioni di hub logistici distributivi del gruppo aziendale FAAC Technologies e di valutare le alternative da un duplice punto di vista: economico e sostenibile. Per raggiungere il suddetto risultato è stata dapprima studiata l’attuale configurazione logistica nel centro Europa. Unendo le caratteristiche dell’azienda con le ricerche presenti in letteratura scientifica riguardo la risoluzione di Hub Location Problem, è stato implementato un modello matematico che ottimizzi economicamente il posizionamento degli stabilimenti secondo diversi scenari organizzativi. Una seconda versione del modello valuta il rispetto dei tempi di transito da parte delle soluzioni ottenute. Infine, gli stessi scenari sono stati comparati tra loro in base all’impatto ambientale in termini di CO2 emessa nell’atmosfera per via del trasporto. Sono state studiate strategie riguardanti la logistica distributiva sostenibile e sono state proposte soluzioni in grado di mitigare gli effetti dovuti all’immissione di anidride carbonica. Gli strumenti digitali utilizzati nella presente ricerca sono stati: Excel per visualizzare ed elaborare i dati aziendali; Flourish per visualizzare i dati in mappe geografiche; MATLAB per trasformare le tariffe di trasporto in equazioni matematiche; Gurobi Optimizer per ottenere le soluzioni date dall’ottimizzazione del modello matematico, programmando attraverso il linguaggio AMPL. I risultati più significativi dimostrano la possibilità di raggiungere un risparmio economico del 16,7% dei costi logistici nel caso di ubicazione di un solo hub e del 9,8% nel caso di due hub. Dal punto di vista ambientale le medesime soluzioni comportano un aumento delle emissioni di CO2 rispettivamente del 45% e 8%. L’azzeramento di queste emissioni aggiuntive è possibile e a tal fine sarebbe necessario sostenere extra costi, i quali farebbero convergere entrambe gli scenari ad un risparmio comune pari all’8,2%.
Resumo:
Il Worldwide LHC Computing Grid (WLCG) è una collaborazione internazionale costituita da decine di centri di calcolo distribuiti globalmente, la cui missione consiste nell'elaborazione delle grandi quantità di dati prodotti dai maggiori esperimenti di Fisica delle Alte Energie, in particolare quelli al CERN di Ginevra. Uno di questi centri di calcolo è ospitato presso il CNAF dell'Istituto Nazionale di Fisica Nucleare a Bologna, che contribuisce anche allo sviluppo di middleware per la gestione dell'infrastruttura. Molti componenti di tale middleware, che hanno funzionalità e scopi diversi, richiedono un servizio di autorizzazione versatile e compatibile con i meccanismi di autenticazione attualmente in uso, basati su token OAuth 2.0 e su certificati VOMS Proxy. In questa tesi si analizzerà l'architettura e l'implementazione di un proof-of-concept di un sistema di autorizzazione che soddisfi queste necessità, enfatizzando l'integrazione delle tecniche di autenticazione citate. Per dimostrare la sua versatilità, verrà illustrato il processo di interfacciamento con un componente middleware attualmente in sviluppo al CNAF. Il risultato finale ottenuto è un sistema che rispetta i vincoli richiesti e si integra facilmente con servizi eterogenei.
Resumo:
Il piede è la struttura anatomica multi-articolare che media il contatto dell’apparato muscoloscheletrico con il suolo ed è, quindi, fondamentale per la locomozione e per la maggioranza dei task motori. Per questo, l’analisi cinematica intrarticolare in-vivo del complesso piede-caviglia risulta essere di grande interesse in ambito biomeccanico e in ambito clinico. La quantificazione del moto relativo è, però, complessa a causa del numero di ossa presenti nel piede, ben 26, e alla loro distribuzione. Tali limitazioni possono essere superate ricorrendo a misure in risonanza magnetica dinamica (DMRI). Questo elaborato presenta un primo approccio esplorativo per determinare la cinematica del piede. In particolare l’analisi si è concentrata, per semplicità, sullo studio del retropiede, quindi sul moto relativo tra tibia, talo e calcagno, nel caso di flessione plantare libera, ovvero senza alcun carico applicato. Il complesso piede-caviglia è stato scansionato suddividendo il range di movimento in 13 pose statiche. Da ognuna delle 13 acquisizioni di tipo volumetrico sono state simulate delle scansioni dinamiche, in modo da ottenere una cinematica certa di riferimento, per poter valutare la precisione dell’algoritmo utilizzato. La ricostruzione della cinematica tridimensionale del complesso esaminato si è basata su un algoritmo di registrazione, composto da un primo processo di inizializzazione semiautomatico ed una successiva registrazione 2D/3D automatica basata sull’intensità dei voxel. Di particolare interesse in questa indagine è la ricostruzione dei tre moti relativi: tibia-talo, tibia-calcagno e talo-calcagno. Per valutare la precisione dell’algoritmo nella ricostruzione della cinematica è stato calcolato l’errore medio in valore assoluto tra le coordinate dei modelli nelle pose di riferimento e le coordinate fornite dal codice. I risultati ottenuti sono di notevole interesse visto il carattere esplorativo dello studio.
Resumo:
Nel TCR - Termina container Ravenna, è importante che nel momento di scarico del container sul camion non siano presenti persone nell’area. In questo elaborato si descrive la realizzazione e il funzionamento di un sistema di allarme automatico, in grado di rilevare persone ed eventualmente interrompere la procedura di scarico del container. Tale sistema si basa sulla tecnica della object segmentation tramite rimozione dello sfondo, a cui viene affiancata una classificazione e rimozione delle eventuali ombre con un metodo cromatico. Inoltre viene identificata la possibile testa di una persona e avendo a disposizione due telecamere, si mette in atto una visione binoculare per calcolarne l’altezza. Infine, viene presa in considerazione anche la dinamica del sistema, per cui la classificazione di una persona si può basare sulla grandezza, altezza e velocità dell’oggetto individuato.
Resumo:
La perfusione ex-vivo, ossia dopo il prelievo e prima del trapianto, degli organi si afferma come una delle possibili strategie per superare il divario esistente tra il numero dei pazienti in lista d’attesa e il numero degli organi disponibili e idonei al trapianto. Questo divario ha portato alla necessità di includere tra i donatori anche quelli marginali (anziani, con comorbidità, con cause di morte come l’arresto cardiaco e tempi di ischemia), fino ad oggi considerati non trapiantabili. L’utilizzo di questi organi ha messo in evidenza alcuni limiti di quella che, ad oggi, è stata considerata la tecnica di riferimento per la preservazione ex-vivo degli organi: la conservazione statica ipotermica che risulta, infatti, efficace per gli organi ottimali, mentre per quelli più compromessi, sembra accentuare di più il danno d’organo e incrementare il rischio di fallimento o di complicazioni. Si sono, perciò, affermate tecniche di conservazione dinamica per poter conservare gli organi in un ambiente simil-fisiologico, limitando i tempi di ischemia, valutandone la funzionalità ed eventualmente applicando dei trattamenti terapeutici. I diversi protocolli di perfusione sono stati implementati in numerosi sistemi per l’esecuzione dei trattamenti di perfusione ex-vivo. Essi differiscono principalmentente per la modalità termica eseguita: ipotermia (4-12°C), midtermia (13-24°C), subnormotermia (25-35°C), normotermia (35-37°C) o modalità combinate: tanto più la temperatura si avvicina a quella del corpo, tanto più occorre ricreare un ambiente fisiologico per l’organo. L’analisi delle unità termiche costituenti i sistemi di perfusione dei reni e fegati disponibili ha messo in evidenza i principali limiti e vantaggi di ogni soluzione adottata. Risulta evidente che una gestione ideale della termoregolazione constente di coprire i più vasti intervalli di temperatura, di combinare le diverse modalità, senza complicazioni esecutive e con limitati interventi da parte dell’operatore.
Resumo:
L'elaborato si occupa di analizzare diverse tecnologie di accumulo elettrochimico con lo scopo di dimensionare un sistema di accumulo che verrà accoppiato ad un parco eolico, collocato in Sicilia. Lo standard di connessione sarà in AT a 36 kV, un nuovo standard di Terna che permette di snellire le connessioni di impianti rinnovabili con potenza inferiore a 100 MW. A seguito di un primo dimensionamento analitico e di un confronto con i fornitori, si è optato per l'utilizzo della tecnologia Litio-ione, meno costosa e più performante e il cui impatto ambientale risulta essere controllato. Infine, si è realizzata una valutazione economica del sistema, ipotizzando tre diverse destinazioni di utilizzo del sistema di accumulo, che può offrire servizi ancillari alla rete o partecipare al nuovo mercato delle capacità di Terna, con lo scopo di creare una riserva di energia e partecipare al controllo e alla stabilità della rete. Si è quindi stimato un possibile tempo di ritorno dell'investimento, tenendo conto anche dell'aumento dei prezzi legato all'attuale condizione politico-economica.
Resumo:
Nell’ambito di questa Tesi è stata svolta un’analisi sperimentale delle prestazioni di una pompa di calore dual-source (DSHP). Essa è una pompa di calore a doppia sorgente in grado di scambiare potenza termica con due diversi serbatoi termici esterni: aria e terreno. Il campo sonde è composto da quattro sonde geotermiche a doppio tubo ad U, due da 60m e due da 100m, disposte in linea ed accoppiate ad una camera climatica per test su pompe di calore elettriche. Sono stati eseguiti test sul prototipo DSHP in configurazione geotermica stabilendo dei criteri per lo svolgimento delle prove, che in corso d’opera sono stati perfezionati. è stata eseguita la calibrazione dei sensori di temperatura, le termocoppie e le termoresistenze, che sono state collocate lungo il circuito idronico e in camera climatica, dove è installata la DSHP. Invece, per monitorare la temperatura del terreno viene impiegato un filo in fibra ottica inserito rispettivamente nella mandata e nel ritorno di uno dei tubi ad U delle sonde da 60m e da 100m. Si è stabilito di affidarci esclusivamente ai valori di offset che la centralina DTS, alla quale sono collegati i quattro filamenti in fibra ottica, applica di volta in volta sulle misurazioni di temperatura. È stata curata nel dettaglio una prova condotta mantenendo attive tutte le sonde del campo geotermico. Al fine di definire le prestazioni della pompa di calore, è stato eseguito il calcolo del Coefficient of Performance (COP) della macchina lungo lo svolgimento della prova, in modo da poter confrontare questo risultato con quelli ottenuti nelle differenti configurazioni analizzate in questa Tesi. I risultati contenuti in questa tesi hanno permesso di stabilire i tempi di scarica e recupero del terreno, l’entità dell’interferenza che si genera tra sonde adiacenti sottoposte ad un carico termico e di studiare il comportamento del terreno nei suoi strati più superficiali in funzione delle condizioni metereologiche esterne.
Resumo:
Il presente elaborato descrive il percorso effettuato sulla macchina XTREMA, prodotta dalla divisione Life del gruppo IMA. Il progetto ha come fine il miglioramento delle prestazioni della macchina, quantificate principalmente in termini di accuratezza del prodotto dosato e di prodotti processati in un arco di tempo. Il Capitolo 1 fornisce un iniziale studio delle caratteristiche e del funzionamento della macchina, con successiva focalizzazione sul sistema di controllo peso. Con l’obiettivo di definire le prestazioni del sistema di controllo peso, nel Capitolo 2 è impostata una campagna sperimentale di test che permette di studiare lo stato attuale del sistema, identificando l’influenza dei vari parametri di funzionamento sulle perfomances, portando alla luce le criticità della macchina. Viene quindi analizzato il gruppo, individuando le cause delle problematiche e identificando su quali campi agire per incrementare velocità di funzionamento e accuratezza del sistema. All’interno del Capitolo 3 entrambi i componenti del sistema di controllo peso, discensore e gruppo di bilance, sono quindi riprogettati per risolvere le criticità rilevate. Nel Capitolo 4 viene affrontato il montaggio del prototipo in una macchina dedicata alle prove, dove viene impostata una nuova campagna di test con l’obiettivo collaudare il sistema e validarne le prestazioni. Confrontando le prove si dimostrerà che il nuovo prototipo, oltre ad aumentare il numero di flaconi pesati al minuto, permette di risolvere le problematiche del precedente sistema, consentendo di ottenere un’accuratezza del controllo peso superiore a quanto riscontrato nella campagna iniziale di prove svolta inizialmente.
Resumo:
La ricerca di documenti rilevanti è un task fondamentale, può avvenire tramite ambienti chiusi, come le biblioteche digitali o tramite ambienti aperti, come il World Wide Web. Quello che analizzeremo in questo progetto di tesi riguarderà le interfacce per mostrare i risultati di ricerca su una collezione di documenti. L'obiettivo, tuttavia, non è l'analisi dei motori di ricerca, ma analizzare i diversi meccanismi che permettono di visualizzare i risultati. Vedremo, inoltre, le diverse visualizzazioni rilevanti nella ricerca di informazioni sul web, in particolare parleremo di visualizzazioni nello spazio, messe a confronto con la classica visualizzazione testuale. Analizzeremo anche la classificazione in una collezione di documenti, oltre che la personalizzazione, ovvero la configurazione della visualizzazione a vantaggio dell'utente. Una volta trovati i documenti rilevanti, analizzeremo i frammenti di testo come, gli snippet, i riassunti descrittivi e gli abstract, mettendo in luce il modo in cui essi aiutato l'utente a migliorare l'accesso a determinati tipi di risultati. Infine, andremo ad analizzare le visualizzazioni di frammenti rilevanti all'interno di un testo. In particolare presenteremo le tecniche di navigazione e la ricerca di determinate parole all'interno di documenti, vale a dire le panoramiche di documenti e del metodo preferito dall'utente per cercare una parola.
Resumo:
Una delle limitazioni funzionali più comunemente citate dai soggetti con amputazione agli arti inferiori è il deficit nel controllo dell’equilibrio. La perdita, più o meno parziale, di un arto è accompagnata da mancanze e succisivi adattamenti del sistema di controllo posturale. Considerando l’aumento dell’età della popolazione generale e la crescente incidenza delle cause di amputazioni su di essa, vi è un’inequivocabile necessità di indagare come il controllo posturale cambi in questi individui. A tal riguardo, è stata condotta una revisione sistematica dei metodi proposti in letteratura riguardanti l’analisi del controllo posturale in soggetti con amputazione unilaterale agli arti inferiori, mediante la posturografia dinamica. Partendo dall’articolo di riferimento: “Balance control in lower extremity amputees during quiet standing: A systematic review” (Ku et al., 2013), a dicembre 2022 è stata evidenziata ed estesa la ricerca, fino all’anno corrente, degli articoli riguardanti il medesimo argomento, ma esclusivamente in ambito dinamico. Dalla ricerca, condotta su PubMed e Scopus, sono stati selezionati 8 articoli scientifici, nei quali, attraverso l’utilizzo di dispositivi di equilibrio, vengono analizzati i meccanismi alla base del controllo posturale nelle persone con amputazione agli arti inferiori. Dai risultati si è potuto dimostrare che gli amputati unilaterali degli arti inferiori fanno molto affidamento su input visivi, vestibolari e segnali somatosensoriali dalla loro gamba intatta per compensare le informazioni somatosensoriali mancanti dell'arto amputato. Quando uno di questi viene compromesso, mostrano uno scarso controllo posturale rispetto agli individui normodotati.