1000 resultados para modellazione e simulazione, reti wireless, qualità del servizio, protocollo MAC
Resumo:
L’idrovolante è un velivolo in grado di decollare ed ammarare su uno specchio d’acqua e che, quindi, non necessita di infrastrutture di terra come aeroporti. Questa caratteristica lo rende ideale per certe tipologie di missione e gli permette di operare in zone remote e poco accessibili ai velivoli convenzionali. Il prezzo da pagare per questa maggiore libertà di impiego sono le peggiori prestazioni di un idrovolante rispetto alle sue controparti di terra, soprattutto in termini di peso e resistenza aerodinamica. In questa tesi si analizzano i metodi per la progettazione di un idrovolante e, in particolare, dei suoi scarponi, che sono il dispositivo che gli consente di galleggiare e svolgere operazioni sull’acqua. Successivamente, si applicano queste metodologie alla progettazione degli scarponi per tre velivoli in configurazione convenzionale. Si descrive in seguito come produrre un disegno CAD di questi velivoli con e senza scarponi tramite il software Solidworks e, sempre con questo programma, come svolgere simulazioni di fluidodinamica per un calcolo indicativo del loro coefficiente di resistenza aerodinamica in condizioni di volo livellato. Si vede, poi, come effettuare una stima del peso totale al decollo di un velivolo e si calcola l’aumento percentuale di questo parametro nella trasformazione dei velivoli selezionati in idrovolanti. Infine, si confrontano i risultati ottenuti per i coefficienti di resistenza e per il peso massimo al decollo per quantificare il calo di prestazioni causato dalla presenza degli scarponi. Osservando come questo sia significativo, si conclude che l’impiego degli idrovolanti è destinato a rimanere limitato ai soli casi in cui le operazioni da specchi d’acqua non presentino altre alternative: questo a meno che non si riescano ad ideare nuove soluzioni costruttive in grado di risolvere le principali problematiche di questo tipo di velivolo.
Resumo:
Il Deep Learning ha radicalmente trasformato il mondo del Machine Learning migliorando lo stato dell'arte in diversi campi che spaziano dalla computer vision al natural language processing. Non fermandosi a problemi di classificazione, negli ultimi anni, applicazioni di tipo generativo hanno portato alla creazione di immagini realistiche e documenti letterali. Il mondo della musica non è esente da una moltitudine di esperimenti nello stesso campo, con risultati ancora acerbi ma comunque potenzialmente interessanti. In questa tesi verrà discussa l'applicazione di un di modello appartenente alla famiglia del Deep Learning per la generazione di musica simbolica.
Resumo:
L'oggetto del mio studio sono i contenuti televisivi (pubblicità, programmi, promozioni televisive) che accompagnano i film archiviati nelle videocassette contenute nell'archivio della videoteca del Dipartimento delle Arti. Una prima fase del lavoro, di natura pratica, mi ha fisicamente portato in videoteca per studiare un campione di più di 2500 videocassette in poco più di un mese e raccogliere dati relativi a quali contenuti di natura televisiva vi si presentassero insieme al film archiviato. Ho visionato e censito, con la supervisione del dott. Gianmario Merizzi, circa 1800 cassette VHS, corrispondenti alla filmografia italiana e francese, raccolte e registrate in un periodo compreso tra gli anni '80 e i primi 2000. Dopo aver raccolto tutte le informazioni utili, ho eseguito un'analisi palinsestuale e pubblicitaria su un campione ridotto di 7 videocassette scelte secondo criteri ben precisi. L'analisi palinsestuale, con il supporto del correlatore, il prof. Luca Barra, ha rivelato i cambiamenti delle strategie di programmazione messe in atto dalle reti in risposta ai cambiamenti normativi, tecnologici e competitivi che hanno segnato la TV italiana negli anni '80 e '90; L'analisi pubblicitaria ha preso in esame i 25 messaggi pubblicitari contenuti nei 7 volumi approfonditi, descrivendone le dinamiche sia del messaggio pubblicitario stesso, sia di come questo si contestualizza all'interno della programmazione televisiva. Infine, ho dedicato un capitolo al valore archivistico dei contenuti della videoteca, raccogliendo le testimonianze del dott. Gianmario Merizzi e della dott.ssa Michela Giorgi, i quali mi hanno aiutato a ricostruire i momenti salienti della costituzione dell'archivio e a riflettere sul futuro incerto che questi servizi oggi affrontano, in un presente sempre più virtuale e ipermediato.
Resumo:
Negli ultimi anni la forte evoluzione tecnologica ha avuto un impatto significativo su un ampio numero di settori ed in particolar modo sull’industria manifatturiera, specie in quelle aziende che hanno saputo cogliere le opportunità di business che essa ha generato. La forte dinamicità dei requisiti con cui si sono trovati a fare i conti gli sviluppatori software, ha portato alla stesura, poco più di vent’anni fa’, dell’oramai noto "Manifesto per lo Sviluppo Agile di Software" all’interno del quale sono introdotti i principi cardini che in un secondo momento hanno contribuito alla formazione dell’approccio Agile. Questa occasione ha senza dubbio cambiato radicalmente l’ottica con cui era sempre stato visto, almeno fino a quel momento, il classico processo utilizzato per concepire e successivamente sviluppare il codice: costituito da una sequenza di fasi predefinite, dove l’insieme dei requisiti era definito nella sua interezza, prima della fase di effettiva implementazione. Il metodo di lavoro più "tradizionale" non rappresenta un approccio sbagliato o inefficace ma è una modalità che si prestava bene ad essere impiegata in scenari dove il concetto di business assumeva connotati diversi rispetto a quello degli ultimi anni, caratterizzati da un’elevata incertezza, repentini cambiamenti e alta probabilità di dover ridefinire i requisiti, al contrario i cambiamenti avvenivano con una scarsa frequenza e per questo risultavano facilmente gestibili. La presente attività di tesi si propone di analizzare i maggiori vantaggi e le principali criticità, che l’impiego di metodologie Agile devono affrontare all’interno di un contesto manifatturiero ed in particolare in un caso di studio reale: un’iniziativa progettuale per la realizzazione di distinte di servizio e istruzioni di montaggio e smontaggio elettroniche all’interno dell’organizzazione Bonfiglioli S.P.A., una multinazionale leader nella produzione e nella vendita di riduttori e motoriduttori.
Resumo:
Il seguente elaborato affronta l'implementazione di un algoritmo che affronta un problema di controllo di processo in ambito industriale utilizzando algoritmi di object detection. Infatti, il progetto concordato con il professore Di Stefano si è svolto in collaborazione con l’azienda Pirelli, nell’ambito della produzione di pneumatici. Lo scopo dell'algoritmo implementato è di verificare il preciso orientamento di elementi grafici della copertura, utilizzati dalle case automobilistiche per equipaggiare correttamente le vetture. In particolare, si devono individuare delle scritte sul battistrada della copertura e identificarne la posizione rispetto ad altri elementi fissati su di essa. La tesi affronta questo task in due parti distinte: la prima consiste nel training di algoritmi di deep learning per il riconoscimento degli elementi grafici e del battistrada, la seconda è un decisore che opera a valle del primo sistema utilizzando gli output delle reti allenate.
Resumo:
La seguente tesi studia il processo γγ → WW osservato per la prima volta dall’esperimento ATLAS nel 2017 facendo collidere due fasci di protoni con un’energia totale di 13 GeV. Grazie all’analisi dell’evento (in un dominio da 0 a 500 GeV in momento trasverso) è possibile misurare il valore (o trovare l’intervallo di confidenza) di determinati coefficienti associati alla lagrangiana in EFT. Si pensa infatti che questo evento, reso possibile anche dalla lagrangiana del Modello Standard, possa avvenire sfruttando teorie oltre il Modello Standard sull’accoppiamento quartico tra bosoni vettori, identificati da operatori di dimensione otto. Lo scopo ultimo dell’analisi è quello di trovare l’intervallo di confidenza all’interno del quale ci si aspetta di trovare questi coefficienti (associati agli operatori di dimensione otto), con livello di confidenza del 95%. Tali misurazioni sono estremamente importanti per la fisica teorica in quanto permettono di verificare la veridicità dei modelli teorici e accertarsi che questi ultimi siano compatibili con i dati. Lo scopo di questa tesi é antecedente alla misurazione e consiste, grazie alle simulazioni, nell’applicare dei processi di selezione e restringere il dominio delle distribuzioni dei dati (in momento trasverso), così da ottimizzare le misurazioni. E' stato trovato infatti che se si restringe il dominio del momento trasverso si riesce a misurare un più ampio e accurato range di valori per i coefficienti di EFT. Nello specifico questa tesi si é occupata di studiare alcuni di questi coefficienti (M), trovando la miglior regione per l’analisi ([180,500] GeV) e, per ogni coefficiente, il limite inferiore con un C.L. del 95%.
Specifiche generali dei biomateriali di interesse per l'ingegneria dei tessuti del distretto uterino
Resumo:
Lo scopo di questa trattazione è quello di fornire una panoramica sui metodi di ingegnerizzazione dell’utero ad oggi sperimentati. L’obiettivo degli studi qui analizzati è quello di creare in vitro uno scaffold per l’utero umano con adeguate caratteristiche strutturali e determinati componenti al fine di permettere ai tessuti vicini di rigenerarsi e per poterne studiare le proprietà in vivo. Gli scaffold analizzati sono a base di collagene, fatti di materiali sintetici o costituiti dalle dECM. Per effettuare la decellularizzazione delle ECM sono stati impiegati detergenti come SDS e Triton X-100 o alta pressione idrostatica. Le impalcature realizzate sono state poi valutate per quanto riguarda le proprietà istologiche, IHC, strutturali e meccaniche e tramite angiografia è stata esaminata la conservazione delle reti vascolari negli scaffold dECM. I risultati hanno confermato l'efficacia del protocollo di decellularizzazione tramite HHP o l’utilizzo combinato di SDS e Triton X-100 per fornire scaffold dell’utero con caratteristiche e componenti della ECM simili all'utero nativo. Per quanto riguarda i materiali sintetici, i polimeri sono risultati particolarmente idonei date le loro caratteristiche, quali elevata porosità e proprietà biomeccaniche regolabili; per i materiali naturali invece, il collagene è stato quello più utilizzato e che ha portato ad ottimi risultati, anche in quanto componente principale dell’ECM. Gli studi in vivo hanno poi dimostrato la biocompatibilità e il potenziale rigenerativo degli scaffold e hanno suggerito un percorso di segnalazione come meccanismo di base per il processo rigenerativo. Tra i vari studi è stato analizzato anche il primo protocollo di decellularizzazione efficiente basato sulla perfusione per ottenere scaffold dell’intero utero umano. I risultati raccolti potrebbero essere impiegati in futuri studi di ingegneria del tessuto uterino umano che potrebbero portare allo sviluppo di nuovi trattamenti per pazienti sterili.
Resumo:
La forte espansione del mercato della mobilità elettrica degli ultimi anni ha portato sotto i riflettori nuove esigenze, tecnologie e problematiche per il Power Train di questi veicoli. L’attenzione all’affidabilità del motore elettrico è ormai al pari di quella verso prestazioni, efficienza e costi. Al fine di garantire una vita utile al motore congrua con quella del veicolo, che si attesta tra mediamente tra i 5 e i 10 anni, è necessario conoscere attentamente quali sono le criticità del sistema isolante (EIS) della macchina. All’interno di questo ambito, questa tesi si è concentrata sull’analisi dei diversi componenti che costituiscono l’EIS dello statore di un motore elettrico impiegato in una super car ibrida. Il primo passo è stato caratterizzare i sottocomponenti dello statore, a partire dai fili (Litz Wires) con cui sono realizzati i suoi avvolgimenti. I tempi di endurance dei fili sotto attività di scarica parziale (PD) nell'ordine dei minuti hanno dimostrato la necessità di operare in assenza di scariche. Per questo motivo è stato studiato l'andamento del PDIV sotto diverse forme d'onda e per provini invecchiati termicamente. Lo studio è stato poi esteso allo statore completo, sottoponendo l’EIS a cicli di invecchiamento, al fine di diagnosticare, attraverso prove elettriche, se le sue prestazioni restano accettabili per l’interezza della vita prevista dall’applicazione. In conclusione, sono state trattate le problematiche della qualifica dell’EIS completo di un motore elettrico. È stata proposta una soluzione per realizzare un sistema idoneo a sottoporre lo statore da invecchiare a stress elettrico e termico contemporaneamente. Gli studi effettuati in merito hanno dimostrato la fattibilità ed i benefici di questo sistema, permettendo di rispecchiare al meglio le condizioni di servizio della macchina, con l’obiettivo di perfezionare le attuali procedure di qualifica.
Resumo:
L’elaborato si pone l’obiettivo di realizzare e validare dei campioni in resina epossidica per la rilevazione di attività di scariche parziali interne. Nella prima fase dell’attività di ricerca, sono definite le linee progettuali riguardanti la scelta dei materiali da utilizzare, al fine di creare degli stampi per poter ottenere dei campioni di forma idonea e, successivamente, si procede alla scelta del tipo di resina e degli elettrodi da adoperare. All’interno dei provini, viene iniettata, con una siringa di precisione dotata di un ago sottile, una cavità di aria indicante un eventuale difetto nella matrice polimerica dell’isolante, se sottoposto a un determinato tipo di stress (elettrico, termico, meccanico). I provini sono testati in un circuito di prova ad alto voltaggio per la misura della tensione di innesco alla quale si verificano le scariche; attraverso l’utilizzo di un software specifico, viene poi ricavato il PD pattern utile per l’approccio all’identificazione della tipologia di scarica. Inoltre, sono effettuate delle simulazioni con l’ambiente di calcolo Comsol ottenendo il valore del campo elettrico all’interno della cavità di aria. Il PD pattern viene, in seguito, analizzato estrapolando dei marker statistici di interesse per l’applicazione della fuzzy logic. Questa tipologia di logica prevede la verifica di regole linguistiche per la corretta identificazione del tipo di scarica, individuata dal pattern in esame (interna, superficiale o corona). A seconda dei valori ricavati dai marker, vengono applicate le regole della fuzzy logic per poter classificare, nei campioni esaminati, l’attività di scarica parziale come interna.
Resumo:
La simulazione computerizzata è uno strumento per prevedere il comportamento di un sistema quando il sistema non è indagabile. Molti sono gli ambiti in cui viene utilizzata. Uno fra questi è l'evacuazione di folle. Le numerose tragedie, conseguenti a situazioni o eventi in presenza di folle, che hanno luogo in ogni parte del mondo a causa dell'incapacità di reagire in maniera coordinata a situazioni di emergenza, rendono necessario un innalzamento della comprensione delle dinamiche che emergono durante l'evacuazione. Molti studi hanno analizzato quelli che sono gli aspetti psicologici dell'essere umano che entrano in gioco in situazioni di panico. Ma è anche necessario considerare che cosa accade a un livello fisico. Questo contributo ha come obiettivo l'introduzione, all'interno del simulatore Alchemist, di elementi di micro-interazione fisica che possano fare da ponte a ciò che accade a livello cognitivo, così che sia possibile far emergere caratteristiche osservabili, come spinte e cadute, nell'ottica di aumentare il realismo nelle simulazioni di evacuazione di folle.
Resumo:
Negli ultimi anni vi è stato un aumento della sensibilità in merito alle tematiche ambientali e questo ha riguardato anche il settore della mobilità, spingendo sempre più verso l’elettrificazione dei trasporti. Una delle possibilità per elettrificare i trasporti sono le reti filoviarie. Di quelle già esistenti, però, la maggior parte è stata realizzata nel secolo scorso. Inoltre, non vengono effettuate misure per valutare quale sia lo stato del carico sulla rete. In questa tesi si è valutata la fattibilità di realizzazione di un sensore non intrusivo per la misura delle correnti sulle filovie di reti esistenti, al fine di poter ottenere i dati relativi ai flussi di potenza e permettere quindi, in futuro, una migliore gestione della rete. Per effettuare la misura di corrente in modo non invasivo si è pensato di utilizzare un sensore di campo magnetico stazionario. Per valutare l’intensità del campo magnetico, al fine di scegliere il sensore che si confacesse alle caratteristiche dell’applicazione, si è proceduto a sviluppare diversi modelli per rappresentare i conduttori della filovia. Da queste simulazioni è stato inoltre possibile valutare quale fosse la posizione più idonea al collocamento del sensore. Per l’alimentazione del sensore, si sono valutate più possibilità che permettessero di non ricorrere ad un cablaggio ausiliario, tra cui l’utilizzo di un pannello fotovoltaico eventualmente accoppiato ad una batteria. Per la trasmissione dei dati, sono stati valutati più protocolli e dispositivi di comunicazione per trovare quello che meglio combinasse le necessità di trasmissione su distanze medio-lunghe e la necessità di minimizzare i consumi energetici. Infine, sono state effettuate prove sperimentali per validare l'affidabilità delle misure, ovvero verificare che fosse realmente possibile stimare il valore delle correnti nei conduttori della filovia partendo da una misura di campo magnetico, e se i consumi energetici stimati fossero in linea con quelli reali.
Resumo:
I gangli della base (BG) sono un gruppo di nuclei subcorticali che si trovano alla base del telencefalo e nella parte superiore del mesencefalo. La funzione dei BG è il controllo e la regolazione delle attività delle aree corticali motorie e premotorie in modo che i movimenti possano essere eseguiti fluidamente, ma sono coinvolti in numerosi altri processi motori e cognitivi. L’obiettivo che si pone questo lavoro di tesi è di simulare il comportamento dei BG attraverso un nuovo modello neurocomputazionale. È stato valutato il funzionamento del modello in varie condizioni, di base ed alterate, per illustrare casi standard (soggetti sani) e casi patologici (deplezione di dopamina nei pazienti Parkinson o ipermedicazione della dopamina tramite levodopa) durante un compito di probabilistic reversal learning (RL). Sono stati variati parametri di dopamina tonica e di rumore applicato ai soggetti e ai dati per simulare il modello durante il “one-choice task” presente in letteratura. I risultati raccolti indicano come il modello funzioni in maniera del tutto confrontabile con i risultati in letteratura, dimostrando la sua validità ed un utilizzo corretto dei parametri e della regola di apprendimento. Non è stato possibile dire altrettanto per seconda fase del RL, in cui la regola viene invertita: i soggetti non risultano apprendere in maniera coerente rispetto ai dati in letteratura, ma risultano restii all’individuazione del nuovo stimolo vincente. Tale risultato è da ricondursi probabilmente ad alcuni fattori: il numero di epoche utilizzate per il test sono esigue, lasciando ai soggetti poco tempo per apprendere la nuova regola; la regola di apprendimento usata nel reversal potrebbe non rappresentare la scelta migliore per rendere i soggetti più esplorativi nei confronti delle scelte proposte. Tali limiti sono spunti per futuri sviluppi del modello e del suo funzionamento, utilizzando regole di apprendimento diverse e più efficaci rispetto ai diversi contesti di azione.
Resumo:
L’obiettivo dell’elaborato è quello di presentare una soluzione di collegamento ed interfacciamento tra il supercondensatore (SC) dell’HESS (sistema ibrido di accumulo dell’energia situato all’interno di un veicolo elettrico) e il DC-link (bus che fornisce la potenza necessaria all’inverter che pilota il motore elettrico) attraverso un convertitore DC-DC ad alta efficienza che utilizzi tecnologie di potenza al nitruro di gallio (GaN). Il convertitore presentato è un convertitore DC-DC bidirezionale in configurazione Half-Bridge, esso dovrà funzionare in modalità Boost, ogni qualvolta il motore richieda energia extra dal SC, in modalità Buck per ricaricare il SC durante la frenata rigenerativa. In seguito ad un’introduzione ai veicoli elettrici, alla loro architettura e al perché il SC è così fondamentale, verrà presentata una breve introduzione ai convertitori di potenza (Capitolo 1). Si passerà poi alla presentazione delle tecnologie GaN mostrando come esse rappresentino il futuro dell’elettronica di potenza grazie ai loro numerosi vantaggi (Capitolo 2). Nel capitolo 3 si entrerà nel vivo della progettazione, è qui che sarà progettata ed implementata la soluzione proposta. Verrà effettuata una prima simulazione del circuito, tenendo conto degli effetti parassiti dei soli componenti, attraverso l’ausilio del software LTSpice. Il Capitolo 4 prevede una breve introduzione alle tecniche di layout, utili nella costruzione del circuito stampato presentata all’interno del medesimo capitolo. Il PCB sarà modellato mediante un secondo software denominato KiCAD. Infine, nel Capitolo 5, si procederà con la simulazione elettromagnetica del circuito stampato, essa permetterà di individuare gli effetti parassiti dovuti alle non idealità del layout e di mostrare l’effettiva differenza di efficienza tra un caso semi-ideale e un caso semi-reale.
Resumo:
La Tesi affronta il tema della progettazione del cantiere di messa in sicurezza del Palazzo Gonzaghesco di Vescovato di Portiolo, ed è frutto della collaborazione del laureando con lo studio associato Borra di Mantova. Lo studio si è svolto in diverse fasi. È stata dapprima approfondita la storia dell’edificio storico ripercorrendo le sue fasi costruttive. Quindi si è affrontato il tema dell’analisi diagnostica, che è stata svolta con particolare approfondimento sia sulle strutture che sulle finiture dell’edificio per comprendere quali fossero le condizioni dei vari elementi ed il relativo valore dal punto di vista storico-testimoniale. L’analisi del degrado ha individuato le strutture ammalorate e collabenti dando importanti indicazioni per il cantiere di messa in sicurezza che è stato concordato con la Soprintendenza ai beni Architettonici della Regione Lombardia. La tesi si è quindi concentrata sulla progettazione della vera e propria organizzazione di cantiere, a partire dalle planimetrie della cantierizzazione e della distribuzione degli spazi, le planimetrie esplicative dei rischi presenti, per poi passare al progetto delle opere provvisionali, nonché alla definizione delle loro metodologie di realizzazione. Si è studiato in particolare l’analisi delle lavorazioni in quota, che costituiscono un elemento di notevole complessità, date le dimensioni dell’immobile e le condizioni della copertura. Sono state progettate e comparate tramite analisi SWOT due diverse strategie esecutive, una tramite l’impiego di linee vita e reti anticaduta ed una alternativa che si attua tramite il posizionamento di un sottoponte. L’analisi ha individuato nella seconda ipotesi la strategia più congrua alle necessità operative e di intervento.
Resumo:
Il presente lavoro di tesi si basa sull’esperienza di tirocinio effettuata presso un’Azienda italiana che opera nel settore della lavorazione plastica e produce contenitori. L’Azienda, a seguito di un’innovazione su tutta la linea di prodotto, ha da poco preso la decisione di investire nell’inserimento di due nuove presse per lo stampaggio e nella realizzazione di un nuovo impianto di assemblaggio automatizzato. Questi verranno inseriti all’interno dell’attuale stabilimento ed andranno ad aumentare la capacità produttiva. Se da un lato ci sono grandi vantaggi in ciò, dall’altro va analizzato il contorno. In particolare: Come va ad impattare l’inserimento di questi elementi nelle logiche aziendali? Come cambiano i flussi di materiale all’interno dello stabilimento? Sarà sufficiente lo spazio attuale per lo stoccaggio dei semilavorati? Poste queste domande, l’obiettivo dell’elaborato è di rispondervi, attraverso l’analisi delle principali attività logistiche dell’Azienda, focalizzando l’attenzione sul layout attuale del reparto magazzino semilavorati e dei flussi di materiale. L’analisi del magazzino nella situazione As Is evidenzia una serie di criticità. Il problema principale è di definire l’adeguato layout del magazzino, che consente un utilizzo ottimale della superficie a disposizione, in modo da garantire l’efficienza e l’efficacia delle operazioni che ivi si svolgono. L’analisi ha condotto alla progettazione di un nuovo layout e di una nuova politica di allocazione dei materiali. Infine, viene effettuata un’attenta analisi dei flussi logistici, ed in particolare delle movimentazioni di materiale, sviluppata attraverso il software simulativo AutoMod. Quindi, vengono simulati degli ipotetici scenari, successivi all’inserimento del nuovo impianto di assemblaggio, per valutare le criticità che potrebbe dover affrontare l’Azienda.