999 resultados para Macchina automatica, analisi dinamica di meccanismi, aumento di produttività
Resumo:
The thesis objectives are to develop new methodologies for study of the space and time variability of Italian upper ocean ecosystem through the combined use of multi-sensors satellite data and in situ observations and to identify the capability and limits of remote sensing observations to monitor the marine state at short and long time scales. Three oceanographic basins have been selected and subjected to different types of analyses. The first region is the Tyrrhenian Sea where a comparative analysis of altimetry and lagrangian measurements was carried out to study the surface circulation. The results allowed to deepen the knowledge of the Tyrrhenian Sea surface dynamics and its variability and to defined the limitations of satellite altimetry measurements to detect small scale marine circulation features. Channel of Sicily study aimed to identify the spatial-temporal variability of phytoplankton biomass and to understand the impact of the upper ocean circulation on the marine ecosystem. An combined analysis of the satellite of long term time series of chlorophyll, Sea Surface Temperature and Sea Level field data was applied. The results allowed to identify the key role of the Atlantic water inflow in modulating the seasonal variability of the phytoplankton biomass in the region. Finally, Italian coastal marine system was studied with the objective to explore the potential capability of Ocean Color data in detecting chlorophyll trend in coastal areas. The most appropriated methodology to detect long term environmental changes was defined through intercomparison of chlorophyll trends detected by in situ and satellite. Then, Italian coastal areas subject to eutrophication problems were identified. This work has demonstrated that satellites data constitute an unique opportunity to define the features and forcing influencing the upper ocean ecosystems dynamics and can be used also to monitor environmental variables capable of influencing phytoplankton productivity.
Resumo:
La presente tesi tratta il comportamento meccanico delle fasce di piano in muratura composite. Con tale termine ci si riferisce alle fasce di piano che hanno al di sotto un elemento portante in conglomerato cementizio armato, come ad esempio cordoli o solai. Assieme ai maschi murari, le fasce di piano costituiscono gli elementi portanti di una parete in muratura. Tuttavia, in caso di analisi sismica di un edificio in muratura, l’effetto fornito da tali elementi è trascurato e si considera solamente il contributo dei maschi murari. Ciò è dovuto anche alla scarsa conoscenza che ancora oggi si possiede sul loro comportamento meccanico. Per questo motivo diversi gruppi di ricerca tutt’ora sono impegnati in tale studio. In particolare, il lavoro di questa tesi, s’inserisce nel più ampio progetto di ricerca condotto dalla professoressa Katrin Beyer, direttrice del Laboratorio di Ingegneria Sismica e Dinamica Strutturale del Politecnico di Losanna (Svizzera).
Resumo:
Lo scopo di questo progetto è la progettazione dell'interfaccia utente di un Decision Support System (DSS) web based per la gestione integrata dei vigneti utilizzando lo user centered design. Questo sistema permetterà di facilitare il lavoro dei viticoltori confrontando una serie di variabili e fattori che verranno utilizzati per migliorare le loro capacita decisionali ed ottenere un livello ottimale di produttività del vino.
Resumo:
Nell'ambito delle nanostrutture, un ruolo primario è svolto dai punti quantici. In questo lavoro siamo interessati all'analisi teorica del processo di creazione dei punti quantici: esso può avvenire per eteroepitassia, in particolare secondo il metodo studiato da Stranski-Krastanov. Un film di Germanio viene depositato su un substrato di Silicio in modo coerente, cioè senza dislocazioni, e, a causa del misfit tra le maglie dei due materiali, c'è un accumulo di energia elastica nel film. A una certa altezza critica questa energia del film può essere ridotta se il film si organizza in isole (punti quantici), dove la tensione può essere rilassata lateralmente. L'altezza critica dipende dai moduli di Young (E, υ), dal misfit tra le maglie (m) e dalla tensione superficiali (γ). Il trasporto di materiale nel film è portato avanti per diffusione superficiale. Il punto focale nell'analisi delle instabilità indotte dal misfit tra le maglie dei materiali è la ricerca delle caratteristiche che individuano il modo di crescita più rapido dei punti quantici. In questo lavoro siamo interessati ad un caso particolare: la crescita di punti quantici non su una superficie piana ma sulla superficie di un nanofilo quantico a geometria cilindrica. L'analisi delle instabilità viene condotta risolvendo le equazioni all'equilibrio: a tal fine sono state calcolate le distribuzioni del tensore delle deformazioni e degli sforzo di un nanofilo core-shell con una superficie perturbata al primo ordine rispetto all'ampiezza della perturbazione. L'analisi è stata condotta con particolari condizioni al contorno ed ipotesi geometriche, e diverse scelte dello stato di riferimento del campo degli spostamenti. Risolto il problema elastico, è stata studiata l'equazione dinamica di evoluzione descrivente la diffusione di superficie. Il risultato dell'analisi di instabilità è il tasso di crescita in funzione del numero d'onda q, con diversi valori del raggio del core, spessore dello shell e modo normale n, al fine di trovare il più veloce modo di crescita della perturbazione.
Resumo:
Anche se la politica editoriale comunista rappresenta un campo di indagine fondamentale nella ricerca sul Pci, la sua attività editoriale è caduta in un oblio storico. Assumendo il libro come supporto materiale e veicolo della cultura politica comunista, e la casa editrice come canale di socializzazione, questa ricerca s’interroga sui suoi processi di costruzione e di diffusione. La ricerca si muove in due direzioni. Nel primo capitolo si è tentato di dare conto delle ragioni metodologiche dell’indagine e della messa a punto delle ipotesi di ricerca sul “partito editore”, raccogliendo alcune sfide poste alla storia politica da altri ambiti disciplinari, come la sociologia e la scienza politica, che rappresentano una vena feconda per la nostra indagine. La seconda direzione, empirica, ha riguardato la ricognizione delle fonti e degli strumenti di analisi per ricostruire le vicende del “partito editore” dal 1944 al 1956. La suddivisione della ricerca in due parti – 1944-1947 e 1947-1956 – segue a grandi linee la periodizzazione classica individuata dalla storiografia sulla politica culturale del Pci, ed è costruita su quattro fratture storiche – il 1944, con la “svolta di Salerno”; il 1947, con la “svolta cominformista”; il 1953, con la morte di Stalin e il disgelo; il 1956, con il XX Congresso e i fatti d’Ungheria – che sono risultate significative anche per la nostra ricerca sull’editoria comunista. Infine, il presente lavoro si basa su tre livelli di analisi: l’individuazione dei meccanismi di decisione politica e dell’organizzazione assunta dall’editoria comunista, esaminando gli scopi e i mutamenti organizzativi interni al partito per capire come i mutamenti strategici e tattici si sono riflessi sull’attività editoriale; la ricostruzione della produzione editoriale comunista; infine, l’identificazione dei processi di distribuzione e delle politiche per la lettura promosse dal Pci.
Resumo:
L'utilizzo dell'idrogeno come vettore energetico è uno dei temi, riguardanti la sostenibilità energetica, di maggior rilievo degli ultimi anni. Tuttavia ad oggi è ancora in corso la ricerca di un sistema che ne permetta un immagazzinamento efficiente. Il MgH2 costituisce un valido candidato per la produzione di sistemi per lo stoccaggio di idrogeno allo stato solido. In questa tesi, per migliorare le proprietà cinetiche e termodinamiche di cui questo sistema, sono stati sintetizzati dei campioni nanostrutturati composti da Mg-Ti attraverso la tecnica Inert Gas Condensation. I campioni così ottenuti sono stati analizzati dal punto di vista morfologico e composizionale, mediante la microscopia elettronica a scansione, la microanalisi e la diffrazione di raggi X. Tali analisi hanno mostrato che le dimensioni delle nanoparticelle sono comprese tra i 10-30 nm e che la tecnica IGC permette una distribuzione uniforme del titanio all'interno della matrice Mg. Le misure di caratterizzazione per l'assorbimento reversibile di idrogeno sono state effettuate attraverso il metodo volumetrico, Sievert. I campioni sono stati analizzati a varie temperature (473K-573K). Cineticamente la presenza di titanio ha provocato un aumento della velocità delle cinetiche sia per i processi di desorbimento che per quelli di assorbimento ed ha contribuito ad una diminuzione consistente delle energie di attivazione di entrambi i processi rispetto a quelle note in letteratura per il composto MgH2. Dal punto di vista termodinamico, sia le pressioni di equilibrio ottenute dalle analisi PCT a diverse temperature, che l'entalpia e l'entropia di formazione risultano essere in accordo con i valori conosciuti per il sistema MgH2. All'interno di questo lavoro di tesi è inoltre presentata un'analisi preliminare di un campione analizzato con la tecnica Synchrotron Radiation-Powder X Ray Diffraction in situ, presso la facility MAX-lab (Svezia), all’interno dell’azione COST, MP1103 per la ricerca di sistemi per lo stoccaggio di idrogeno allo stato solido.
Resumo:
Realizzazione di un supporto CoAP per il framework Kura con le seguenti caratteristiche: 1. Ottima scalabilità, ad organizzazione gerarchica, con aggiunta e rimozione dinamica di nodi e gestione automatica delle disconnessioni. 2. Integrazione efficiente di tecnologie CoAP ed MQTT progettate appositamente per l’IoT tramite lo sviluppo di un pattern di comunicazione per la gestione degli scambi delle informazioni. 3. Un limitato uso di risorse con modifiche su entrambe le implementazioni standard dei protocolli usati in modo tale da adattarle agli obiettivi prefissati. Il tutto a un costo bassissimo, dato che si basa su tecnologie open e grazie alla possibilità di utilizzo su Raspberry Pi.
Resumo:
In questa analisi si cercherà di comprendere cosa caratterizza questa l'ondata di progresso tecnologico che sta cambiando il mercato del lavoro. Il principale aspetto negativo di questo progresso si chiama "Technological Unemployment". Benché gli esperti si trovino in disaccordo su quali siano le cause della persistente alta disoccupazione, Brynjolfsson e McAfee puntano il dito contro l'automazione che ha soppiantato i lavori ripetitivi delle aziende. Tuttavia, è anche vero che il progresso ha sempre portato aumenti di produttività, e soprattutto nuovi tipi di occupazioni che hanno compensato la perdita di posti di lavoro, nel medio-lungo termine. Keynes evidenzia che la disoccupazione dovuta alla scoperta di strumenti economizzatori di manodopera procede con ritmo più rapido di quello con cui riusciamo a trovare nuovi impieghi per la manodopera stessa. Da ciò si crea ansia per il futuro, più o meno motivata. Gli stessi esperti sono spaccati a metà tra chi ha fiducia nei possibili risvolti positivi del progresso e chi invece teme possa comportare scenari catastrofici. Le macchine ci rubano lavoro o ci liberano da esso? Con questa ricerca ci si pone l'obiettivo di analizzare le effettive prospettive dei prossimi decenni. Nel capitolo 2 che è il corpo della tesi prenderemo soprattutto in conto il lavoro accademico di Frey ed Osborne dell'Oxford Martin School, intitolato "The future of employment: how susceptible are jobs to computerisation?" (2013). Essi sono stati tra i primi a studiare e quantificare cosa comporteranno le nuove tecnologie in termini di impiego. Il loro obiettivo era individuare le occupazioni a rischio, da qui a vent'anni, nel mercato del lavoro degli Stati Uniti e la relazione che intercorre tra la loro probabilità di essere computerizzati e i loro salari e livello d'istruzione medi, il tutto valutato attraverso l'ausilio di una nuova metodologia che si vedrà nel dettaglio. A conclusioni simili alle loro, per certi aspetti, è successivamente giunto anche Autor; tra l'altro viene spesso citato per altre sue opere dagli stessi Frey e Osborne, che usano le sue categorizzazioni per impostare la struttura del loro calcolo dell'automatizzabilità dei lavori utilizzando i recenti miglioramenti nelle scienze ingegneristiche quali ML (Machine Learning ad esempio Data mining, Machine vision, Computational statistics o più in generale AI) e MR (Mobile robotics) come strumenti di valutazione. Oltre alle sue ricerche, si presenteranno brevemente i risultati di un recente sondaggio tenuto dal Pew Research Center in cui importanti figure dell'informatica e dell'economia esprimono il loro giudizio sul futuro panorama del mondo del lavoro, considerando l'imminente ondata di innovazioni tecnologiche. La tesi si conclude con un'elaborazione personale. In questo modo si prenderà coscienza dei problemi concreti che il progresso tecnologico potrebbe procurare, ma anche dei suoi aspetti positivi.
Resumo:
L’interruzione dell’attività di formazione stellare nelle galassie attraverso l’azione di venti guidati dalla potenza dell’AGN e/o dall’attività di starburst è una fase prevista da tutti i modelli di coevoluzione tra i buchi neri super massicci e la galassia ospite. La recente scoperta di venti molecolari massivi in alcune ULIRG locali ha fornito una prova forte a favore dell’esistenza del meccanismo di feedback negativo nelle galassie. Ad oggi non è chiaro il ruolo che l'attività di AGN e di starburst hanno nella produzione dei venti: tuttavia, la maggior parte delle ULIRG in cui sono stati osservati i venti molecolari presentano elevati tassi e velocità di outflow, suggerendo che l'AGN giochi un ruolo principale. IRAS 13120-5453 rappresenta un caso particolare: la sua attività e dominata dalla formazione stellare, ma sembra anche ospitare un AGN oscurato al suo interno. Tuttavia, non presenta elevati tassi di outflow e velocità dei venti: non è quindi chiaro quale dei due fenomeni vi sia all'origine. In questo lavoro di tesi si è operata un'analisi multibanda di questa sorgente con lo scopo di studiarne le principali proprietà fisiche. Lo studio in banda X attraverso l'analisi dei dati provenienti dai satelliti XMM-Newton, Chandra e NuSTAR ha permesso di conoscere parametri importanti come il grado di oscuramento della sorgente e la potenza dell'AGN. Con l'analisi in banda IR, è stato possibile conoscere il contributo dell'AGN e della starburst alla luminosità IR e i principali parametri fisici di questa galassia. L’obiettivo di tale lavoro è quello di capire il ruolo svolto da questi due principali fenomeni e quale possa essere la connessione con i venti molecolari.
Resumo:
In un mondo che richiede sempre maggiormente un'automazione delle attività della catena produttiva industriale, la computer vision rappresenta uno strumento fondamentale perciò che viene già riconosciuta internazionalmente come la Quarta Rivoluzione Industriale o Industry 4.0. Avvalendomi di questo strumento ho intrapreso presso l'azienda Syngenta lo studio della problematica della conta automatica del numero di foglie di una pianta. Il problema è stato affrontato utilizzando due differenti approcci, ispirandosi alla letteratura. All'interno dell'elaborato è presente anche la descrizione progettuale di un ulteriore metodo, ad oggi non presente in letteratura. Le metodologie saranno spiegate in dettaglio ed i risultati ottenuti saranno confrontati utilizzando i primi due approcci. Nel capitolo finale si trarranno le conclusioni sulle basi dei risultati ottenuti e dall'analisi degli stessi.
Resumo:
L'elaborato si impegna ad esporre i risultati derivanti da una revisione estensiva della letteratura riguardante le pratiche di misurazione della sostenibilità in azienda. Si è scelto un approccio al problema di impostazione bibliometrico, consistente in analisi statistiche di dati bibliografici ricavabili osservando le relazioni tra documenti. Si sono utilizzati strumenti di clustering per categorizzare la letteratura ed individuare le aree di maggior interesse potenziali per aziende che desiderino investire con successo nella sostenibilità. Come risultato, si è ottenuta una chiara identificazione delle principali tematiche che devono essere tenute in considerazione nell’affrontare valutazioni relative alla misurazione e valorizzazione dei concetti di sostenibilità e impatto ambientale in ambito aziendale. Il presente lavoro si presenta inoltre come guida metodologica per un approccio quantitativo alla revisione della letteratura, adattabile ed applicabile in maniera iterativa per un continuo monitoraggio del tema o per indagini in altri ambiti. Questa tesi si pone dunque come base per ricerche e analisi successive finalizzate alla comprensione della letteratura.
Resumo:
Con la crescita in complessità delle infrastrutture IT e la pervasività degli scenari di Internet of Things (IoT) emerge il bisogno di nuovi modelli computazionali basati su entità autonome capaci di portare a termine obiettivi di alto livello interagendo tra loro grazie al supporto di infrastrutture come il Fog Computing, per la vicinanza alle sorgenti dei dati, e del Cloud Computing per offrire servizi analitici complessi di back-end in grado di fornire risultati per milioni di utenti. Questi nuovi scenarii portano a ripensare il modo in cui il software viene progettato e sviluppato in una prospettiva agile. Le attività dei team di sviluppatori (Dev) dovrebbero essere strettamente legate alle attività dei team che supportano il Cloud (Ops) secondo nuove metodologie oggi note come DevOps. Tuttavia, data la mancanza di astrazioni adeguata a livello di linguaggio di programmazione, gli sviluppatori IoT sono spesso indotti a seguire approcci di sviluppo bottom-up che spesso risulta non adeguato ad affrontare la compessità delle applicazione del settore e l'eterogeneità dei compomenti software che le formano. Poichè le applicazioni monolitiche del passato appaiono difficilmente scalabili e gestibili in un ambiente Cloud con molteplici utenti, molti ritengono necessaria l'adozione di un nuovo stile architetturale, in cui un'applicazione dovrebbe essere vista come una composizione di micro-servizi, ciascuno dedicato a uno specifica funzionalità applicativa e ciascuno sotto la responsabilità di un piccolo team di sviluppatori, dall'analisi del problema al deployment e al management. Poichè al momento non si è ancora giunti a una definizione univoca e condivisa dei microservices e di altri concetti che emergono da IoT e dal Cloud, nè tantomento alla definzione di linguaggi sepcializzati per questo settore, la definzione di metamodelli custom associati alla produzione automatica del software di raccordo con le infrastrutture potrebbe aiutare un team di sviluppo ad elevare il livello di astrazione, incapsulando in una software factory aziendale i dettagli implementativi. Grazie a sistemi di produzione del sofware basati sul Model Driven Software Development (MDSD), l'approccio top-down attualmente carente può essere recuperato, permettendo di focalizzare l'attenzione sulla business logic delle applicazioni. Nella tesi viene mostrato un esempio di questo possibile approccio, partendo dall'idea che un'applicazione IoT sia in primo luogo un sistema software distribuito in cui l'interazione tra componenti attivi (modellati come attori) gioca un ruolo fondamentale.
Resumo:
La tesi si propone l'obiettivo di esaminare le caratteristiche della lingua dell'aviazione, il cosiddetto Aviation English (AE), rivolgendo un'attenzione particolare alle dinamiche delle interazioni verbali che avvengono tra piloti e controllori del traffico aereo. A partire da un breve excursus sui diversi tipi di linguaggi, da quelli specialistici alle lingue controllate, si cercherà di fornire una chiara definizione dell'AE, delineando gli aspetti che lo rendono una vera e propria lingua e non una semplice varietà di inglese. La tesi passerà in rassegna tutte le convenzioni e le regole che compongono questa lingua e che rendono la comunicazione in volo efficace a livello internazionale. Si vedrà anche come la comunicazione in aviazione sia suscettibile a molti fattori linguistici (e non), il che comporta per gli operatori del settore, l'obbligo di conoscerla a fondo, più della loro stessa lingua madre. In conclusione, si eseguirà un'analisi conversazionale di una comunicazione terra-bordo-terra realmente avvenuta in un'emergenza. Più precisamente, si tratta dell'estratto del volo US Airways 1549, diventato famoso come "il miracolo dell'Hudson". Questo permetterà di mettere in risalto le regole dell'AE, applicate in un caso concreto, quanto singolare, e notare come queste siano efficaci nel gestire, a livello comunicativo e operativo, gli imprevisti.
Resumo:
The ambitious goals of increasing the efficiency, performance and power densities of transportation drives cannot be met with compromises in the motor reliability. For the insulation specialists the challenge will be critical as the use of wide-bandgap converters (WBG, based on SiC and GaN switches) and the higher operating voltages expected for the next generation drives will enhance the electrical stresses to unprecedented levels. It is expected for the DC bus in aircrafts to reach 800 V (split +/-400 V) and beyond, driven by the urban air mobility sector and the need for electrification of electro-mechanical/electro-hydraulic actuators (an essential part of the "More Electric Aircraft" concept). Simultaneously the DC bus in electric vehicles (EV) traction motors is anticipated to increase up to 1200 V very soon. The electrical insulation system is one of the most delicate part of the machine in terms of failure probability. In particular, the appearance of partial discharges (PD) is disruptive on the reliability of the drive, especially under fast repetitive transients. Extensive experimental activity has been performed to extend the body of knowledge on PD inception, endurance under PD activity, and explore and identify new phenomena undermining the reliability. The focus has been concentrated on the impact of the WGB-converter produced waveforms and the environmental conditions typical of the aeronautical sector on insulation models. Particular effort was put in the analysis at the reduced pressures typical of aircraft cruise altitude operation. The results obtained, after a critical discussion, have been used to suggest a coordination between the insulation PD inception voltage with the converter stresses and to propose an improved qualification procedure based on the existing IEC 60034-18-41 standard.
Resumo:
Nella letteratura economica e di teoria dei giochi vi è un dibattito aperto sulla possibilità di emergenza di comportamenti anticompetitivi da parte di algoritmi di determinazione automatica dei prezzi di mercato. L'obiettivo di questa tesi è sviluppare un modello di reinforcement learning di tipo actor-critic con entropy regularization per impostare i prezzi in un gioco dinamico di competizione oligopolistica con prezzi continui. Il modello che propongo esibisce in modo coerente comportamenti cooperativi supportati da meccanismi di punizione che scoraggiano la deviazione dall'equilibrio raggiunto a convergenza. Il comportamento di questo modello durante l'apprendimento e a convergenza avvenuta aiuta inoltre a interpretare le azioni compiute da Q-learning tabellare e altri algoritmi di prezzo in condizioni simili. I risultati sono robusti alla variazione del numero di agenti in competizione e al tipo di deviazione dall'equilibrio ottenuto a convergenza, punendo anche deviazioni a prezzi più alti.