999 resultados para Scorrimenti traslativi, Marnoso Arenacea, analisi a ritroso, analisi di stabilità


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La geometria frattale permette di definire un indice di complessitá strutturale di oggetti che presentano, fino a un certo livello d’ingrandimento, caratteristiche di auto-similaritá: il cervello umano ha un alto livello di complessitá, che cambia durante il corso della vita e con l’insorgenza di patologie. Tale complessitá puó essere descritta tramite la dimensione frattale (FD). L’obiettivo di questo elaborato ́e sviluppare un metodo di calcolo della FD surface-based, partendo dalla ricostruzione mediante mesh triangolari della superficie cerebrale. A questo scopo ́e stata implementata una procedura che utilizza gli strumenti di analisi di neuroimmagini, come FSL e FreeSurfer; l’algoritmo ́e stato validato su fantocci tridimensionali e testato su immagini di risonanza magnetica pesate in T1 del dataset International Consortium for Brain Mapping (ICBM), composto da 86 soggetti sani con etá compresa tra i 19 e gli 85 anni. Dalla ricerca condotta é emerso che il calcolo della FD surface-based restituisce valori accurati per i fantocci e permette di differenziare significativamnete gli uomini dalle donne. Concludendo, riteniamo che la FD surface-based si possa candidare come marcatore di complessitá strutturale nelle neuroimmagini, in modo complementare agli indici morfologici convenzionali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il seguente elaborato affronta l'implementazione di un algoritmo che affronta un problema di controllo di processo in ambito industriale utilizzando algoritmi di object detection. Infatti, il progetto concordato con il professore Di Stefano si è svolto in collaborazione con l’azienda Pirelli, nell’ambito della produzione di pneumatici. Lo scopo dell'algoritmo implementato è di verificare il preciso orientamento di elementi grafici della copertura, utilizzati dalle case automobilistiche per equipaggiare correttamente le vetture. In particolare, si devono individuare delle scritte sul battistrada della copertura e identificarne la posizione rispetto ad altri elementi fissati su di essa. La tesi affronta questo task in due parti distinte: la prima consiste nel training di algoritmi di deep learning per il riconoscimento degli elementi grafici e del battistrada, la seconda è un decisore che opera a valle del primo sistema utilizzando gli output delle reti allenate.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi ricade nell'ambito della modellazione dei solidi ed in particolare nel riconoscimento automatico di lavorazioni su di esso presenti con l'obiettivo principale di risolvere alcune delle problematiche presenti nel software SolidPlus. Quest'ultimo ha come scopo quello di acquisire un solido progettato con un software commerciale di progettazione Cad, di rilevare le possibili lavorazioni presenti sulla parte assimilata e generare un file in un formato riconoscibile dalle macchine a controllo numerico per poterlo lavorare. Nel primo capitolo si introduce la rivoluzione industriale scaturita dall'attuazione dei principi dell'industria 4.0. Nel secondo capitolo si esegue un'analisi di alcune delle soluzioni attualmente presenti in letteratura per rilevare e classificare le lavorazioni, con particolare riferimento a quelle soluzioni che si basano sull'analisi del BRep, modello alla base del Cad. Il terzo capitolo riguarda invece il software oggetto di analisi definendo quelle che sono le funzionalità attualmente presenti e le problematiche riscontrate. Il quarto capitolo consiste nell'esame di alcuni casi di fallimento nel riconoscimento delle lavorazioni e delle relative strategie attuate per la risoluzione delle problematiche. In appendice sono stati introdotti i concetti relativi all'iso 10303, standard alla base dei file d'interscambio tra il software di progettazione Cad e le proprietà dei linguaggi a marcatori, fondamentale per lo scambio dati tra software ufficio e macchina

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo sviluppo di questa tesi è stato quello di analizzare diversi campioni di pasta di cacao e di cioccolato liquido prelevati, rispettivamente, dai tank prima del dosaggio degli ingredienti e dal preleva campioni della conca fine concaggio. Le analisi di viscosità effettuate sui campioni hanno l’obiettivo di determinare la causa della variazione di viscosità in una particolare ricetta di cioccolato. La viscosità è una proprietà che può essere influenzata da numerosi fattori, perciò è difficile tenere sempre in considerazione tutte le variabili. Ciò che ho riscontrato durante questa ricerca è stato il fatto che la viscosità del cioccolato viene influenzata, o comunque dipende, dalla viscosità della pasta cacao. Un altro fattore importante è la distribuzione particellare del cioccolato; questa ipotesi origina dal fatto che si hanno viscosità diverse delle conche a parità di altre variabili come l’umidità, la temperatura, la percentuale in grassi o l’aggiunta di lecitina. Questo ulteriore fattore di grandezza delle particelle necessita l’ottimizzazione dei parametri di raffinazione per poter ottenere sempre la stessa distribuzione e può dipendere dalla variabilità delle materie prime (pasta cacao) o dalle dimensioni dello zucchero. I diversi fattori che possono essere presi in considerazione per la variabilità della viscosità sono la distribuzione particellare dello zucchero, che può determinare la presenza o l’assenza di grumi all’interno del cioccolato, la viscosità della materia prima della pasta cacao e la presenza di una percentuale troppo elevata di umidità o di grasso. Ci possono anche essere fattori di processo che alterano la corretta produzione del cioccolato, come il controllo non adeguato delle impostazioni degli strumenti che comporterebbe temperature o velocità scorrette di produzione, oppure la variazione della sequenza di dosaggio che consiste nell’aggiunta di un ingrediente prima o dopo di quando viene richiesto dalla specifica ricetta di quel cioccolato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo studio si basa sull’analisi di campioni di neve superficiale (0-3 cm) e sub-superficiale (3-6 cm) raccolti nei pressi della “clean area” di Concordia Station, nel plateau Antartico, e di campioni di deposizione raccolti a seguito di eventi di precipitazione nello stesso sito. Il sito di campionamento “clean area” è designato allo studio dei valori di fondo nel plateau antartico, poiché ritenuto privo di contaminazione antropica. L’obiettivo è la quantificazione delle concentrazioni in ultra-tracce di mercurio per lo studio di eventuali patterns relativi al ciclo geochimico dell’elemento nei periodi interessati da radiazione solare. Inoltre, per studiare i processi che controllano il ciclo del mercurio nel plateau Antartico sono stati considerati sia i parametri meteorologici che le variazioni di elementi chimici usati per tracciare le possibili sorgenti emissive ed i meccanismi di scambio che avvengono per il mercurio all’interfaccia aria-neve. Le analisi sono state svolte con ICP-SFMS, una tecnica di spettrometria in grado di rilevare concentrazioni nell’ordine del ppt. A causa dei limiti di rilevazione molto bassi, tutte le provette usate per le analisi e la conservazione dei campioni sono state trattate al fine di minimizzare la contaminazione. I campioni destinati alle analisi di mercurio sono stati trattati con acido, seguendo la procedura per la stabilizzazione di metalli volatili. Il lavoro svolto non ha identificato particolari processi di trasporto e di scambio mentre invece riporta episodi di contaminazione della “clean area” dovuti in parte alla non usuale provenienza del vento ed in parte al crescente impatto antropico dovuto alle attività delle stazioni di ricerca. Lo studio ha messo in luce le problematiche legate al possibile impatto della base di ricerca Concordia Station sui processi naturali evidenziando la necessità di ulteriori studi e approfondimenti sul tema della contaminazione della designata “area pulita” per il campionamento di neve.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La quantificazione del benzene ematico è un tema di grande interesse nell'ambito della tossicologia occupazionale. La determinazione dell'analita, estratto nello spazio di testa di un vial, è eseguita mediante l'utilizzo di un gascromatografo con rilevatore a ionizzazione di fiamma (GC-FID). Si è cercato di ottimizzare il processo di estrazione del benzene dal sangue allo spazio di testa ed il successivo trasferimento dell'analita nella colonna cromatografica, mediante l'applicazione di un disegno sperimentale fattoriale a tre fattori e due livelli (DoE). I fattori individuati per impostare il piano sperimentale sono stati: variazione della temperatura di incubazione (A) del vial contenente il campione di sangue, pH del campione (B), modulato mediante aggiunta di una soluzione di H2SO4 e forza ionica (C), regolata mediante una soluzione acquosa di NaCl. I livelli scelti per ciascuna variabile sono stati: per A 40 e 60 °C; per B pH naturale del campione e pH a seguito dell'aggiunta di 1 mL di H2SO4 1.8 M; per C FI naturale del campione e FI dovuta all'aggiunta di una soluzione acquosa di sodio cloruro (5 g/L). Dall'analisi dei risultati forniti dal DoE, si è osservato che A, B e C hanno effetti tra loro contrastanti, per questo motivo non sembra essere vantaggioso combinare variabili differenti. In compenso, sia l'aumento di temperatura che l'aggiunta di acido solforico portano a significativi miglioramenti nell'estrazione di benzene dal sangue. Tra i tre trattamenti risulta essere B quello più efficace, motivo per il quale si ritiene che l'aggiunta di una soluzione acquosa di H2SO4 al campione di sangue porti ad una maggiore sensibilità e risoluzione strumentale. Sicuramente la sensibilità del metodo elaborato non può essere paragonata alle tradizionali determinazioni con spettrometro di massa, ma si ritiene possa essere sufficientemente soddisfacente per valutare l'esposizione a benzene dei lavoratori a rischio e come analisi di screening rapida ed economica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'ecosistema dello sport tech, caratterizzato dalle complesse relazioni che avvengono tra chi sviluppa innovazione per lo sport, chi ne usufruisce e chi investe su di essa, ha vissuto una vera e propria impennata negli ultimi 5 anni, sia in termini di investimenti che di nascita di nuove realtà. Nel corso degli ultimi 3 anni in particolare, lo sport tech ha saputo fronteggiare in maniera ottimale la crisi pandemica, che avrebbe potuto destabilizzare il sistema causandone un forte rallentamento, mentre in realtà ha permesso alle startup di dimostrare alle organizzazioni sportive e agli investitori le proprie capacità di innovare i modelli di business per rispondere a cambiamenti improvvisi e imprevedibili degli scenari. Nonostante la svolta vissuta a livello globale, in Italia le startup dello sport tech si trovano in una condizione singolare: nonostante operino in un settore di grande interesse per il Paese (muove circa il 3% del Pil) caratterizzato da un forte interesse, trovano difficoltà importanti nel momento in cui si trovano a dover rendere scalabile il proprio business, fondamentalmente per la mancanza di un ecosistema strutturato che regoli le interazioni tra i vari attori. Lo scopo di questa tesi è quello di fornire, in primo luogo, una contestualizzazione dell'ecosistema a livello globale, attraverso l'analisi di report e di alcuni successi di startup internazionali, e successivamente di analizzare la situazione italiana, evidenziando i motivi per cui non si può ancora parlare di ecosistema sport tech nonostante la presenza di diversi casi di successo, e documentando gli sforzi attualmente in essere finalizzati alla creazione del suddetto ecosistema, ovvero l'incubatore di startup sport tech Wylab e l'acceleratore WeSportUp. Per la ricostruzione delle attività di questi ultimi, si è fatto ricorso a dichiarazioni di addetti ai lavori ed esperti del settore, rilasciate durante video interviste sul web, masterclass o colloqui con i diretti interessati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le galassie sono gli elementi fondamentali dell’Universo: alcune hanno una struttura abbastanza semplice, altre, invece, sono sistemi complessi costituiti prevalentemente da stelle, nubi di gas e polveri. Protagoniste di questo elaborato sono le galassie ellittiche che verranno analizzate dapprima dal punto di vista morfologico, introducendo brevemente la sequenza proposta da Hubble per la classificazione di tutte le galassie, per poi passare ad una analisi di tipo fotometrico attraverso le leggi fondamentali che valgono per le galassie ellittiche. Infine, nell’ultimo capitolo, che rappresenta l’anima di questo testo, si tratteranno i principali meccanismi che partecipano all’ emissione della radiazione elettromagnetica nella banda ottica, X e radio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Obiettivo di questo elaborato è fornire un quadro generale del fumetto e della sua traduzione. Partendo dalla definizione teorica di questo tipo di opera, vengono poi descritti gli elementi che la compongono e i webcomic, fumetti digitali nati grazie all’avvento di Internet. L’attenzione è successivamente focalizzata sulla traduzione del fumetto, la quale è direttamente condizionata sia dagli elementi che lo compongono, sia da altri fattori come preferenze del target e convenzioni culturali, e che condivide molti dei suoi aspetti con il processo di localizzazione. Segue una spiegazione della pratica nota come scanlation, ovvero la traduzione non professionale di fumetti svolta da appassionati. Essa viene condivisa su Internet da gruppi di scanlation e presenta alcune peculiarità nel suo svolgimento. Per concludere viene proposta l’analisi di due traduzioni non professionali in italiano del manhua Tamen de gushi 她们的故 di Tan Jiu 坛九, le quali sono state confrontate sia con la scanlation in inglese dell’opera, sia con il testo originale in cinese mandarino.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'obiettivo principale di molti problemi industriali è tipicamente massimizzare i profitti o minimizzare costi o tempi di produzione. Questi problemi sono detti "di ottimizzazione" poiché bisogna ottimizzare determinati processi o attività attraverso decisioni che portino alla soluzione ottima del problema. Il giusto utilizzo di modelli matematici può condurre, tramite l'utilizzo di algoritmi esatti, alla soluzione ottima di un problema di questo tipo. Queste tecniche sono spesso basate su l'enumerazione completa di tutte le possibili soluzioni e ciò potrebbe pertanto richiedere una quantità di calcoli talmente elevata da renderle di fatto inutilizzabili. Per risolvere problemi di grandi dimensioni vengono quindi utilizzati i cosiddetti algoritmi euristici, i quali non assicurano di trovare la soluzione ottima del problema, ma promettono di trovarne una di buona qualità. In questa tesi vengono analizzati, sviluppati e confrontati entrambi gli approcci, attraverso l'analisi di un problema reale che richiede la pianificazione delle attività di un satellite.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Strappare Lungo i Bordi, serie TV animata scritta e diretta dal fumettista romano Zerocalcare e distribuita da Netflix, offre un interessante spunto di riflessione sulle difficoltà dell'adattamento di prodotti audiovisivi culturalmente specifici. Dopo aver offerto un quadro generale sulla nascita e lo sviluppo della pratica del doppiaggio e sulle problematiche della traduzione audiovisiva, verranno trattati più approfonditamente i temi della traduzione di variazioni linguistiche, nello specifico i dialetti, e dello humour, così da facilitare uno studio di questi elementi all'interno del prodotto in questione. Infine, attraverso l'analisi di traduzioni scelte, si potranno osservare le varie strategie che il traduttore ha utilizzato durante l'adattamento del dialetto romanesco e dell'elemento umoristico presenti in Strappare Lungo i Bordi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente elaborato propone la sottotitolazione e la conseguente analisi di un episodio della serie animata russa per bambini "Troe iz Prostokvašino". In particolare, vengono analizzate le caratteristiche principali relative alla traduzione audiovisiva e alle produzioni per l'infanzia, con particolare riguardo per il settore dei cartoni animati. Vengono inoltre illustrati i problemi riscontrati e le scelte effettuate durante il processo traduttivo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo progetto di Tesi si propone come obiettivo la valutazione della convenienza economica ed ambientale di un Gruppo di Autoconsumo Collettivo da fonti rinnovabili. Per fare ciò, è stata necessaria un’attenta fase di analisi delle normative italiane ed europee attualmente in vigore, in modo da stabilire i requisiti necessari per accedere a questo tipo di configurazione. Successivamente si è iniziata una simulazione tecnico-economica del progetto. Inizialmente è stata proposta l’installazione di un impianto fotovoltaico di potenza 48 kWp e ne è stata calcolata la produzione media annua; in secondo luogo, grazie ai dati forniti dagli attori, è stato possibile effettuare una stima dei consumi annuali di tutto il Gruppo. Infine, sono stati combinati i dati di produzione e consumo per ricavare le quote di autoconsumo e di energia condivisa. Per concludere, tramite i dati estrapolati in precedenza, è stata effettuata una analisi economica dell’investimento, dimostrandone la convenienza, a cui è stata aggiunta una analisi di sensitività per dimostrare la resilienza del progetto verso il cambiamento di alcune ipotesi iniziali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro si propone di implementare tre scenari di compromissione informatica tramite l'ausilio della strumentazione fornita da Ansible e Docker. Dopo una prima parte teorica di presentazione delle più recenti vulnerabilità/compromissioni informatiche, si passa all'illustrazione degli strumenti e dell'architettura degli scenari, anche tramite l'ausilio di codice. Tramite la funzione UNIX time si effettua l'analisi di diverse tecniche di distribuzione, dimostrando come l'automazione abbia effettivi e seri vantaggi rispetto ad una continua implementazione manuale, principalmente da un punto di vista temporale e computazionale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo elaborato è stato svolto all'interno della Marchesini Group, nell'Headquarter di Pianoro al secondo piano nell'ufficio analisi ordini. Nella prima parte di questo documento è stata fatta una profonda analisi di quello che è il contesto industriale di riferimento, packaging farmaceutico, dell'industria 4.0 e di come l'Azienda si approccia a tutto ciò. Prosegue con una breve descrizione dell'azienda e delle normative di rifermento. Nella seconda parte dell'elaborato è stata svolta una profonda analisi del processo che va dalla ricezione dell'ordine alla spedizione della macchina/linea al cliente, quindi dell'intero ciclo di vita della commessa. Attraverso questa analisi sono state analizzate le criticità delle diverse attività svolte, da diverse risorse e gli strumenti, utilizzati, attraverso cui vengono portate a termine. La figura del Project coordinator, la scheda prodotto, la macro-pianificazione e il cruscotto sono gli elementi che sono stati maggiormente analizzati. Sono stati analizzati i loro punti deboli e proposte soluzioni migliorative. E' stato analizzato il modo di introdurle e valutato il loro impatto a livello economico nel breve periodo. Alla fine c'è una piccola considerazione su quali aspetti andrebbero ulteriormente approfonditi.