999 resultados para sistemi di numerazione storia della matematica matematica ricreativa, frattali
Resumo:
La tesi è il risultato di un tirocinio, della durata di cinque mesi, svolto presso l'Azienda 'Aliva', che si occupa di sistemi di facciate. Lo scopo della tesi è la realizzazione di un nuovo sistema di fissaggio a scomparsa di lastre in vetro. Tutta la ricerca è scaturita dalla richiesta dell'azienda per realizzare un nuovo prodotto di fissaggio di lastre di grandi dimensioni in vetro con impatto visivo molto ridotto. Il sistema unisce due tecnologie: - sistema meccanico; - sistema adesivo strutturale di alte performance. Partendo da dei test di laboratorio, la tesi consisterà nell'effettuare le verifiche agli elementi finiti, con l'ausilio del software Strauss7, di lastre in vetro stratificato e vetro camera.
Resumo:
Sono indagate le implicazioni teoriche e sperimentali derivanti dall'assunzione, nella teoria della relatività speciale, di un criterio di sincronizzazione (detta assoluta) diverso da quello standard. La scelta della sincronizzazione assoluta è giustificata da alcune considerazioni di carattere epistemologico sullo status di fenomeni quali la contrazione delle lunghezze e la dilatazione del tempo. Oltre che a fornire una diversa interpretazione, la sincronizzazione assoluta rappresenta una estensione del campo di applicazione della relatività speciale in quanto può essere attuata anche in sistemi di riferimento accelerati. Questa estensione consente di trattare in maniera unitaria i fenomeni sia in sistemi di riferimento inerziali che accelerati. L'introduzione della sincronizzazione assoluta implica una modifica delle trasformazioni di Lorentz. Una caratteristica di queste nuove trasformazioni (dette inerziali) è che la trasformazione del tempo è indipendente dalle coordinate spaziali. Le trasformazioni inerziali sono ottenute nel caso generale tra due sistemi di riferimento aventi velocità (assolute) u1 e u2 comunque orientate. Viene mostrato che le trasformazioni inerziali possono formare un gruppo pur di prendere in considerazione anche riferimenti non fisicamente realizzabili perché superluminali. È analizzato il moto rigido secondo Born di un corpo esteso considerando la sincronizzazione assoluta. Sulla base delle trasformazioni inerziali si derivano le trasformazioni per i campi elettromagnetici e le equazioni di questi campi (che sostituiscono le equazioni di Maxwell). Si mostra che queste equazioni contengono soluzioni in assenza di cariche che si propagano nello spazio come onde generalmente anisotrope in accordo con quanto previsto dalle trasformazioni inerziali. L'applicazione di questa teoria elettromagnetica a sistemi accelerati mostra l'esistenza di fenomeni mai osservati che, pur non essendo in contraddizione con la relatività standard, ne forzano l'interpretazione. Viene proposto e descritto un esperimento in cui uno di questi fenomeni è misurabile.
Resumo:
La presente tesi intende compiere un’indagine, dal punto di vista storico-educativo, sulla storia delle case di correzione. Nello specifico si è tentato di analizzare il “caso” del Discolato bolognese, operando un confronto con altre analoghe istituzioni, sorte in due città campione, come Roma e Milano, per quanto riguarda il contesto italiano, e con la situazione inglese, per quanto riguarda il contesto internazionale. Il focus della ricerca si è incentrato sul rapporto tra devianza e internamento, considerato secondo una declinazione pedagogica. A tal proposito si è cercato di far emergere le modalità educative, nonché i principi e le finalità che sottostavano agli interventi istituzionali, non solo soffermandosi su quanto i regolamenti e gli statuti prescrivevano all’interno delle strutture correzionali, ma analizzando la reclusione nella sua effettiva organizzazione quotidiana. Per quanto riguarda la situazione bolognese è stata analizzata un’ampissima documentazione, conservata presso l’Archivio storico Provinciale di Bologna, che ha permesso di svolgere un’analisi di tipo quantitativo su un totale di 1105 individui al fine di delineare le principali caratteristiche demografiche e sociali delle persone internate nel Discolato bolognese. L’interpretazione delle fonti ha permesso anche un’indagine qualitativa, nel tentativo di ricostruire le storie di vita dei singoli reclusi. Da questa ricerca emerge un’immagine complessa delle case di correzione. Nel corso dei secoli, in modo particolare nelle diverse realtà prese in esame, esse hanno assunto caratteristiche e peculiarità differenti. La loro inefficacia fu la motivazione principale che condusse alla definitiva chiusura, quando si fece via via sempre più evidente la difficoltà a tradurre in pratica ciò che regolamenti e statuti - a livello teorico - prescrivevano.
Resumo:
Questo elaborato nasce da uno stage presso lo stabilimento Bonfiglioli Trasmital S.p.A. di Forlì, un’azienda manifatturiera specializzata nella produzione, costruzione e distribuzione di motoriduttori di velocità, sistemi di azionamento e motoriduttori epicicloidali applicati nel campo industriale, dell’automazione, delle macchine movimento terra e nell’ambito delle energie alternative. Il progetto ha lo scopo di aumentare la disponibilità di un impianto di tempra ad induzione. La scelta di tale impianto quale oggetto dell’attività, proviene da un’analisi delle ore di disponibilità perse per inefficienza, nell’anno 2012, in tutto il reparto di lavorazione meccanica dello stabilimento produttivo di Forlì e dall’analisi dell’OEE (Overall equipment effectiveness), indicatore principale per stabilire l’efficienza di un impianto. Analizzando la natura delle perdite del macchinario, tipicamente guasti, micro fermate e setup, si è deciso di applicare le tecniche di TPM e dello SMED: il TPM (Total Productive Maintenance) persegue l’obiettivo di migliorare la produttività degli impianti e la loro efficacia, grazie alla riduzione delle cause di perdita ricercando il miglioramento continuo del processo di produzione e della qualità, mentre lo SMED (Single-Minute Exchange of Die) è una metodologia volta alla riduzione dei tempi di cambio produzione; la grande innovazione di tale teoria risiede nella possibilità di ridurre fortemente i tempi impiegati per effettuare un’operazione di setup con un solo digit ossia in un lasso di tempo inferiore a dieci minuti.
Resumo:
Nell’ambito delle problematiche relative agli impianti a rischio di incidente rilevante, riscontra particolare interesse l’analisi dell’effetto domino, sia per la grande severità delle conseguenze degli eventi incidentali che esso comporta, sia per l’indeterminazione ancora presente nelle metodologie di analisi e di valutazione del fenomeno stesso. Per effetto domino si intende la propagazione di un evento incidentale primario dall’apparecchiatura dalla quale ha avuto origine alle apparecchiature circostanti, che diventano sorgenti di eventi incidentali secondari. Infatti elevati valori dell’irraggiamento, della sovrappressione di picco ed il lancio di proiettili, imputabili all’evento primario, possono innescare eventi secondari determinando una propagazione a catena dell’incidente così come si propaga la catena di mattoncini nel gioco da tavolo detto “domino”. Le Direttive Europee 96/82/EC e 2012/18/EU denominate, rispettivamente “Seveso II” e “Seveso III” stabiliscono la necessità, da parte del gestore, di valutare l’effetto domino, in particolare in aree industriali ad elevata concentrazione di attività a rischio di incidente rilevante. L’analisi consiste nel valutare, in termini di frequenza e magnitudo, gli effetti indotti su apparecchiature cosiddette “bersaglio” da scenari incidentali che producono irraggiamenti, onde di pressione e lancio di proiettili. Il presente lavoro di tesi, svolto presso lo stabilimento di Ravenna di ENI Versalis, ha lo scopo di presentare una metodologia per l’analisi dell’effetto domino adottata in un caso reale, in mancanza di un preciso riferimento normativo che fissi i criteri e le modalità di esecuzione di tale valutazione. Inoltre esso si presta a valutare tutte le azioni preventive atte a interrompere le sequenze incidentali e quindi i sistemi di prevenzione e protezione che possono contrastare un incidente primario evitando il propagarsi dell’incidente stesso e quindi il temuto effetto domino. L’elaborato è strutturato come segue. Dopo il Capitolo 1, avente carattere introduttivo con l’illustrazione delle linee guida e delle normative in riferimento all’effetto domino, nel Capitolo 2 sono descritte le principali tecniche di analisi di rischio che possono essere utilizzate per l’individuazione degli eventi incidentali credibili ovvero degli eventi incidentali primari e della loro frequenza di accadimento. Nel Capitolo 3 vengono esaminati i criteri impiegati da ENI Versalis per la valutazione dell’effetto domino. Nei Capitoli 4 e 5 sono descritti gli iter tecnico-procedurali messi a punto per la progettazione della protezione antincendio, rispettivamente attiva e passiva. Nel Capitolo 6 viene approfondito un aspetto particolarmente critico ovvero la valutazione della necessità di dotare di protezione le tubazioni. Nel Capitolo 7 viene illustrata la progettazione antifuoco di un caso di studio reale dello stabilimento ENI Versalis di Ravenna: l’unità di Idrogenazione Selettiva. Infine nel Capitolo 8 sono riportate alcune considerazioni conclusive.
Resumo:
L’obbiettivo del lavoro è quello di delimitare uno spazio critico che consenta di ripensare il concetto di modernità nelle culture ispanoamericane degli inizi del XX secolo. In questa direzione, si è deciso di focalizzare l’attenzione su un’opera letteraria, quella dell’uruguaiano Julio Herrera y Reissig, del tutto particolare se comparata al resto delle produzioni estetiche a essa più immediatamente contigue. Tornare a leggere Herrera y Reissig equivale, infatti, nella sostanza, a rimettere mano criticamente a tutta l’epoca modernista, interpretandola non in senso unitario, bensì plurale e frammentario. Spunto di partenza dell’analisi sono state le coordinate culturali comuni in cui quelle estetiche si sono determinate e sviluppate, per poi procedere verso una moltiplicazione di percorsi in grado di rendere conto della sostanziale discrepanza di mezzi e finalità che intercorre fra Julio Herrera y Reissig e gran parte del Modernismo a lui contemporaneo. Mantenendo come base metodologica i presupposti dell’archeologia culturale foucauldiana, è stato possibile rintracciare, nell’opera dell’uruguaiano, un eterogeneo ma costante movimento di riemersione e riutilizzo delle più svariate esperienze del pensiero – estetico e non – occidentale. Nelle particolarità d’uso a cui la tradizione è sottomessa nella scrittura di Herrera y Reissig si è reso così possibile tornare a ragionare sui punti focali dell’esperienza della modernità: il legame fra patrimonio culturale e attualità, la relazione fra sedimentazione tradizionale e novità, nonché, in definitiva, le modalità attraverso le quali alla letteratura è consentito di pensare e dire la propria storia – passata, presente e futura – e, in conseguenza, metabolizzarla, per tornare ad agire attivamente su di essa.
Resumo:
Lo studio presentato in questa sede concerne applicazioni di saldatura LASER caratterizzate da aspetti di non-convenzionalità ed è costituito da tre filoni principali. Nel primo ambito di intervento è stata valutata la possibilità di effettuare saldature per fusione, con LASER ad emissione continua, su pannelli Aluminum Foam Sandwich e su tubi riempiti in schiuma di alluminio. Lo studio ha messo in evidenza numerose linee operative riguardanti le problematiche relative alla saldatura delle pelli esterne dei componenti ed ha dimostrato la fattibilità relativa ad un approccio di giunzione LASER integrato (saldatura seguita da un post trattamento termico) per la realizzazione della giunzione completa di particolari tubolari riempiti in schiuma con ripristino della struttura cellulare all’interfaccia di giunzione. Il secondo ambito di intervento è caratterizzato dall’applicazione di una sorgente LASER di bassissima potenza, operante in regime ad impulsi corti, nella saldatura di acciaio ad elevato contenuto di carbonio. Lo studio ha messo in evidenza come questo tipo di sorgente, solitamente applicata per lavorazioni di ablazione e marcatura, possa essere applicata anche alla saldatura di spessori sub-millimetrici. In questa fase è stato messo in evidenza il ruolo dei parametri di lavoro sulla conformazione del giunto ed è stata definita l’area di fattibilità del processo. Lo studio è stato completato investigando la possibilità di applicare un trattamento LASER dopo saldatura per addolcire le eventuali zone indurite. In merito all’ultimo ambito di intervento l’attività di studio si è focalizzata sull’utilizzo di sorgenti ad elevata densità di potenza (60 MW/cm^2) nella saldatura a profonda penetrazione di acciai da costruzione. L’attività sperimentale e di analisi dei risultati è stata condotta mediante tecniche di Design of Experiment per la valutazione del ruolo preciso di tutti i parametri di processo e numerose considerazioni relative alla formazione di cricche a caldo sono state suggerite.
Resumo:
La caratterizzazione di sedimenti contaminati è un problema complesso, in questo lavoro ci si è occupati di individuare una metodologia di caratterizzazione che tenesse conto sia delle caratteristiche della contaminazione, con analisi volte a determinare il contenuto totale di contaminanti, sia della mobilità degli inquinanti stessi. Una adeguata strategia di caratterizzazione può essere applicata per la valutazione di trattamenti di bonifica, a questo scopo si è valutato il trattamento di soil washing, andando ad indagare le caratteristiche dei sedimenti dragati e del materiale in uscita dal processo, sabbie e frazione fine, andando inoltre a confrontare le caratteristiche della sabbia in uscita con quelle delle sabbie comunemente usate per diverse applicazioni. Si è ritenuto necessario indagare la compatibilità dal punto di vista chimico, granulometrico e morfologico. Per indagare la mobilità si è scelto di applicare i test di cessione definiti sia a livello internazionale che italiano (UNI) e quindi si sono sviluppate le tecnologie necessarie alla effettuazione di test di cessione in modo efficace, automatizzando la gestione del test a pHstat UNI CEN 14997. Questo si è reso necessario a causa della difficoltà di gestire il test manualmente, per via delle tempistiche difficilmente attuabili da parte di un operatore. Le condizioni redox influenzano la mobilità degli inquinanti, in particolare l’invecchiamento all’aria di sedimenti anossici provoca variazioni sensibili nello stato d’ossidazione di alcune componenti, incrementandone la mobilità, si tratta quindi di un aspetto da considerare quando si individuano le adeguate condizioni di stoccaggio-smaltimento, si è eseguita a questo scopo una campagna sperimentale.
Resumo:
Il presente lavoro è stato svolto presso la struttura di Radioterapia del Policlinico S. Orsola - Malpighi e consiste nella caratterizzazione di un sistema di acquisizione per immagini portali (EPID) come dosimetro relativo bidimensionale da usare nei controlli di qualità sui LINAC. L’oggetto di studio è il sistema di acquisizione di immagini portali OPTIVUE 1000ST (Siemens), dispositivo flat panel di silicio amorfo (a-Si) assemblato all’acceleratore lineare Siemens Oncor. La risposta dell’EPID è stata analizzata variando i parametri di consegna della dose, mantenendo fissa la distanza fuoco-rivelatore. Le condizioni di stabilità, ottimali per lavorare, si hanno intorno alle 50 U.M. Dalle curve dei livelli di grigio ottenute risulta evidente che in diverse condizioni d’irraggiamento il sistema risponde con curve di Dose-Risposta differenti, pur restando nello stesso range di dose. Lo studio include verifiche sperimentali effettuate con l’OPTIVUE e usate per espletare alcuni controlli di qualità di tipo geometrico come la coincidenza campo luminoso – campo radiante e la verifica del corretto posizionamento delle lamelle del collimatore multilamellare. Le immagini portali acquisite verranno poi confrontate con quelle ottenute irraggiando tradizionalmente una CR (computed radiography), per la coincidenza e una pellicola radiocromica EBT 3, per l’MLC. I risultati ottenuti mostrano che, per il primo controllo, in entrambi i modi, si è avuta corrispondenza tra campo radiante e campo luminoso; il confronto fra le due metodiche di misura risulta consistente entro i valori di deviazioni standard calcolati, l’OPTIVUE può essere utilizzato efficacemente in tale controllo di qualità. Nel secondo controllo abbiamo ottenuto differenze negli errori di posizionamento delle lamelle individuati dai due sistemi di verifica dell’ordine di grandezza dei limiti di risoluzione spaziale. L’OPTIVUE è in grado di riconoscere errori di posizionamento preesistenti con un’incertezza che ha come limite la dimensione del pixel. Il sistema EPID, quindi, è efficace, affidabile, economico e rapido.
Resumo:
La presente ricerca consiste nel validare ed automatizzare metodiche di Adaptive Radiation Therapy (ART), che hanno come obiettivo la personalizzazione continua del piano di trattamento radioterapico in base alle variazioni anatomiche e dosimetriche del paziente. Tali variazioni (casuali e/o sistematiche) sono identificabili mediante l’utilizzo dell’imaging diagnostico. Il lavoro svolto presso la struttura di Fisica Medica dell’Azienda Ospedaliera Universitaria del Policlinico di Modena, si inserisce in un progetto del Ministero della Salute del bando Giovani Ricercatori dal titolo: “Dose warping methods for IGRT and ADAPTIVERT: dose accumulation based on organ motion and anatomical variations of the patients during radiation therapy treatments”. Questa metodica si sta affermando sempre più come nuova opportunità di trattamento e, per tale motivo, nasce l’esigenza di studiare e automatizzare processi realizzabili nella pratica clinica, con un utilizzo limitato di risorse. Si sono sviluppati script che hanno permesso l’automazione delle operazioni di Adaptive e deformazioni, raccogliendo i dati di 51 pazienti sottoposti a terapia mediante Tomotherapy. L’analisi delle co-registrazioni deformabili delle strutture e delle dosi distribuite, ha evidenziato criticità del software che hanno reso necessario lo sviluppo di sistemi di controllo dei risultati, per facilitare l’utente nella revisione quotidiana dei casi clinici. La letteratura riporta un numero piuttosto limitato di esperienze sulla validazione e utilizzo su larga scala di questi tools, per tale motivo, si è condotto un esame approfondito della qualità degli algoritmi elastici e la valutazione clinica in collaborazione di fisici medici e medici radioterapisti. Sono inoltre stati sviluppati principi di strutturazione di reti Bayesiane, che consentono di predirre la qualità delle deformazioni in diversi ambiti clinici (H&N, Prostata, Polmoni) e coordinare il lavoro quotidiano dei professionisti, identificando i pazienti, per i quali sono apprezzabili variazioni morfo-dosimetriche significative. Da notare come tale attività venga sviluppata automaticamente durante le ore notturne, sfruttando l’automation come strumento avanzato e indipendente dall’operatore. Infine, il forte sviluppo, negli ultimi anni della biomeccanica applicata al movimento degli organi (dimostrato dalla numerosa letteratura al riguardo), ha avuto come effetto lo sviluppo, la valutazione e l’introduzione di algoritmi di deformazione efficaci. In questa direzione, nel presente lavoro, si sono analizzate quantitivamente le variazioni e gli spostamenti delle parotidi, rispetto all’inizio del trattamento, gettando le basi per una proficua linea di ricerca in ambito radioterapico.
Resumo:
La pratica del remix è al giorno d’oggi sempre più diffusa e un numero sempre più vasto di persone ha ora le competenze e gli strumenti tecnologici adeguati per eseguire operazioni un tempo riservate a nicchie ristrette. Tuttavia, nella sua forma audiovisiva, il remix ha ottenuto scarsa attenzione a livello accademico. Questo lavoro esplora la pratica del remix intesa al contempo come declinazione contemporanea di una pratica di lungo corso all’interno della storia della produzione audiovisiva – ovvero il riuso di immagini – sia come forma caratteristica della contemporaneità mediale, atto di appropriazione grassroots dei contenuti mainstream da parte degli utenti. La tesi si articola in due sezioni. Nella prima, l’analisi di tipo teorico e storico-critico è suddivisa in due macro-aree di intervento: da una parte il remix inteso come pratica, atto di appropriazione, gesto di riciclo, decontestualizzazione e risemantizzazione delle immagini mediali che ha attraversato la storia dei media audiovisivi [primo capitolo]. Dall’altra, la remix culture, ovvero il contesto culturale e sociale che informa l’ambiente mediale entro il quale la pratica del remix ha conosciuto, nell’ultimo decennio, la diffusione capillare che lo caratterizza oggi [secondo capitolo]. La seconda, che corrisponde al terzo capitolo, fornisce una dettagliata panoramica su un caso di studio, la pratica del fan vidding. Forma di remix praticata quasi esclusivamente da donne, il vidding consiste nel creare fan video a partire da un montaggio d’immagini tratte da film o serie televisive che utilizza come accompagnamento musicale una canzone. Le vidders, usando specifiche tecniche di montaggio, realizzano delle letture critiche dei prodotti mediali di cui si appropriano, per commentare, criticare o celebrare gli oggetti di loro interesse. Attraverso il vidding il presente lavoro indaga le tattiche di rielaborazione e riscrittura dell’immaginario mediale attraverso il riuso di immagini, con particolare attenzione al remix inteso come pratica di genere.
Resumo:
Il tumore al seno si colloca al primo posto per livello di mortalità tra le patologie tumorali che colpiscono la popolazione femminile mondiale. Diversi studi clinici hanno dimostrato come la diagnosi da parte del radiologo possa essere aiutata e migliorata dai sistemi di Computer Aided Detection (CAD). A causa della grande variabilità di forma e dimensioni delle masse tumorali e della somiglianza di queste con i tessuti che le ospitano, la loro ricerca automatizzata è un problema estremamente complicato. Un sistema di CAD è generalmente composto da due livelli di classificazione: la detection, responsabile dell’individuazione delle regioni sospette presenti sul mammogramma (ROI) e quindi dell’eliminazione preventiva delle zone non a rischio; la classificazione vera e propria (classification) delle ROI in masse e tessuto sano. Lo scopo principale di questa tesi è lo studio di nuove metodologie di detection che possano migliorare le prestazioni ottenute con le tecniche tradizionali. Si considera la detection come un problema di apprendimento supervisionato e lo si affronta mediante le Convolutional Neural Networks (CNN), un algoritmo appartenente al deep learning, nuova branca del machine learning. Le CNN si ispirano alle scoperte di Hubel e Wiesel riguardanti due tipi base di cellule identificate nella corteccia visiva dei gatti: le cellule semplici (S), che rispondono a stimoli simili ai bordi, e le cellule complesse (C) che sono localmente invarianti all’esatta posizione dello stimolo. In analogia con la corteccia visiva, le CNN utilizzano un’architettura profonda caratterizzata da strati che eseguono sulle immagini, alternativamente, operazioni di convoluzione e subsampling. Le CNN, che hanno un input bidimensionale, vengono solitamente usate per problemi di classificazione e riconoscimento automatico di immagini quali oggetti, facce e loghi o per l’analisi di documenti.
Analisi e riprogettazione del processo di ict risk management: un caso applicativo in Telecom Italia
Resumo:
Questo lavoro di tesi muove da tematiche relative alla sicurezza IT e risulta dagli otto mesi di lavoro all’interno della funzione Technical Security di Telecom Italia Information Technology. Il compito primario di questa unità di business è ridurre il rischio informatico dei sistemi di Telecom Italia per mezzo dell’attuazione del processo di ICT Risk Management, che coinvolge l’intera organizzazione ed è stato oggetto di una riprogettazione nel corso del 2012. Per estendere tale processo a tutti i sistemi informatici, nello specifico a quelli caratterizzati da non conformità, all’inizio del 2013 è stato avviato il Programma Strutturato di Sicurezza, un aggregato di quattro progetti dalla durata triennale particolarmente articolato e complesso. La pianificazione di tale Programma ha visto coinvolto, tra gli altri, il team di cui ho fatto parte, che ha collaborato con Telecom Italia assolvendo alcune delle funzioni di supporto tipiche dei Project Management Office (PMO).
Resumo:
Il traffico dei veicoli sulla rete stradale è un fenomeno molto vario e complesso ma cresce sempre di più l'esigenza di monitoraggio e controllo. La difficoltà di studio secondo norme codificate porta a risultati diversi e disomogenei, si è quindi resa necessaria l'esigenza di definire una metodologia standardizzata agli analisti e operatori del settore. Lo scopo principale di questo tipo di analisi è quello di innalzare il livello di sicurezza stradale, creando degli archivi sulla base dei dati registrati dal sistema, per fare ciò vi è stata la necessità di: 1. Istallare dispositivi di rilevamento del flusso veicolare per trovare i punti di maggiore congestione del traffico. 2. Istallare dispositivi per misurare la quantità di agenti atmosferici e acustici inquinanti. Lo studio in questione nasce inoltre da ulteriori esigenze, sia da parte degli addetti alla sicurezza stradale, che dagli stessi utenti/automobilisti per rispondere a determinate esigenze quali: • Regolazione del traffico stradale • Conoscenza globale delle strade • Rilevamento di infrazioni • Assistenza agli utenti • Sicurezza delle infrastrutture stradali (gallerie, passaggi a livello, ecc.) • Manutenzione della strada • Studio e ricerca Oltre ai sistemi che hanno come scopo principale la sicurezza, è nata l'esigenza di progettare sistemi utili agli automobilisti per avere informazioni immediate, aggiornate e per conoscere in tempo reale le condizioni di scorrevolezza delle strade e quindi di risparmiare risorse in termini di tempo e carburante ed aumentare la coordinazione tra i veicoli. Il requisito fondamentale dei sistemi basati su questo tipo di funzionalità è quello di registrare in tempo reale le segnalazioni pervenute e di renderle immediatamente disponibili a tutti gli utenti/utilizzatori del sistema allo scopo di avere informazioni rilevanti riguardanti lo stato del traffico che consentano a questi ultimi di effettuare la scelta ottimale e quindi migliorare la mobilità generale in termini di riduzione della congestione, risparmio di consumi energetici e di conseguenza di emissioni di inquinanti ambientali. I sistemi di questo tipo possono essere definiti adattivi, cioè in grado di modificarsi in base a condizioni esterne al fine di coordinare efficacemente il flusso veicolare. Lo scopo di questi software è sopratutto funzionale, stimando infatti i tempi di percorrenza in determinate strade gli utenti avranno piena consapevolezza delle condizioni di quei segmenti quasi istantaneamente e potranno quindi agire di conseguenza in modo da migliorare i tempi di percorrenza.
Resumo:
All’ascolto dell’incompiuto Matrimonio di Musorgskij, Borodin aveva sentenziato lapidariamente: «une chose manquée». Uguale commento viene riservato tuttora alla produzione operistica di Sergej Rachmaninov. In questo caso però non ci troviamo di fronte a un teatro rivoluzionario che si trova costretto a fare un passo indietro rispetto ai principi programmatici di cui si vuol far portatore, bensì a un potenziale inespresso, a un profilo drammaturgico mai giunto a piena maturazione. L’evidente eterogeneità della produzione operistica lasciataci in eredità dal compositore non permette infatti di determinarne con chiarezza le ‘linee guida’ e ne rende problematica la collocazione nel contesto musicale a lui coevo. Scopo della presente dissertazione è indagare l’apprendistato e il debutto operistico del compositore russo attraverso l’analisi di materiale documentario, testi letterari, partiture nonché delle fonti critiche in lingua russa, difficilmente accessibili per lo studioso italiano. Il cuore dell’elaborato è un’analisi dettagliata di Aleko, un atto unico presentato nel 1892 dal compositore come prova finale al corso di ‘Libera composizione’ del Conservatorio di Mosca. L’opera viene considerata nel suo complesso come organismo drammatico-musicale autonomo (rapporto fonte/libretto, articolazione interna, sistema delle forme, costellazione dei personaggi, distribuzione delle voci, ecc.), ma inquadrata al contempo nel più ampio contesto del teatro musicale coevo (recezione critica sia da parte della pubblicistica coeva sia da parte della storiografia musicale). Viene fornita in appendice un’edizione del libretto con traduzione a fronte. Incorniciano l’analisi dell’opera un capitolo in cui si offre una rilettura estetica del ‘caso Rachmaninov’ e un aperçu sulla produzione operistica matura del compositore, alla luce delle riflessioni proposte nel corso della dissertazione.