970 resultados para Di Meglio, Gabriel


Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi si propone di definire una strategia di riqualificazione urbana per l'area del “Pilastro”, un esteso comparto residenziale sito nella zona più esterna del quartiere San Donato, a Bologna. Questa area periferica rispetto al nucleo urbano di Bologna presenta numerose criticità tipiche delle “periferie”, ma anche importanti potenzialità. Le analisi condotte hanno permesso di individuare meglio criticità e punti di forza, fissando i riferimenti per un progetto di riqualificazione. La tesi affronta il tema della riqualificazione del patrimonio italiano di edilizia sociale, occupandosi in particolare, all’interno dell’area del “Pilastro”, di alcuni edifici residenziali ancora prevalentemente di proprietà pubblica. Si è quindi analizzata l’evoluzione della domanda e dell’offerta di social housing e le caratteristiche della popolazione a cui, nel contesto di Bologna, si rivolge questa soluzione abitativa. Il progetto ha riguardato nel dettaglio due dei quattro edifici residenziali a torre presenti nella zona nord dell’area “Pilastro”, ma ha previsto anche alcuni interventi di riorganizzazione delle aree circostanti, della viabilità, del verde e delle altre due torri residenziali del comparto. Il progetto ipotizza 3 principali azioni dell’intervento di riqualificazione: 1 La ridefinizione del parcheggio (“la piastra”), trasformandolo da semplice superficie di servizio in un sistema su più livelli che incrementa la capienza attuale di posti auto e aggiunge aree verdi, piccoli servizi e attività commerciali. 2 L'ampliamento dell'offerta abitativa (“le nuove residenze”) collocando nelle zone meglio soleggiate del lato nord nuovi edifici in linea destinati ad introdurre il mix sociale residenza sociale. La riqualificazione delle residenze esistenti, puntando a correggerne le principali criticità registrate: l'elevato consumo energetico, il sovradimensionamento delle superfici degli alloggi, la struttura portante rigida, la mancanza di spazi di socializzazione. Gli alloggi sono stati ridimensionati in base alle caratteristiche della domanda abitativa e sono stati dotati di servizi comuni al piano terra e nei due piani interrati (sale sociali, lavanderie, spazi gioco per i bambini, depositi).L'introduzione di un impianto eolico, l’aggiunta di un involucro isolante ed un intervento sull’impianto di acqua calda sanitaria hanno migliorato il comportamento energetico dell’edificio, arricchendone anche l’aspetto e la fruibilità.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Riconoscere un gesto, tracciarlo ed identificarlo è una operazione complessa ed articolata. Negli ultimi anni, con l’avvento massivo di interfacce interattive sempre più sofisticate, si sono ampliati gli approcci nell’interazione tra uomo e macchina. L’obiettivo comune, è quello di avere una comunicazione “trasparente” tra l’utente e il computer, il quale, deve interpretare gesti umani tramite algoritmi matematici. Il riconoscimento di gesti è un modo per iniziare a comprendere il linguaggio del corpo umano da parte della macchina. Questa disciplina, studia nuovi modi di interazione tra questi due elementi e si compone di due macro obiettivi : (a) tracciare i movimenti di un particolare arto; (b) riconoscere tale tracciato come un gesto identificativo. Ognuno di questi due punti, racchiude in sé moltissimi ambiti di ricerca perché moltissimi sono gli approcci proposti negli anni. Non si tratta di semplice cattura dell’immagine, è necessario creare un supporto, a volte molto articolato, nel quale i dati grezzi provenienti dalla fotocamera, necessitano di filtraggi avanzati e trattamenti algoritmici, in modo tale da trasformare informazioni grezze, in dati utilizzabili ed affidabili. La tecnologia riguardo la gesture recognition è rilevante come l’introduzione delle interfacce tattili sui telefoni intelligenti. L’industria oggi ha iniziato a produrre dispositivi in grado di offrire una nuova esperienza, la più naturale possibile, agli utenti. Dal videogioco, all’esperienza televisiva gestita con dei piccoli gesti, all’ambito biomedicale, si sta introducendo una nuova generazione di dispositivi i cui impieghi sono innumerevoli e, per ogni ambito applicativo, è necessario studiare al meglio le peculiarità, in modo tale da produrre un qualcosa di nuovo ed efficace. Questo lavoro di tesi ha l’obiettivo di apportare un contributo a questa disciplina. Ad oggi, moltissime applicazioni e dispositivi associati, si pongono l’obiettivo di catturare movimenti ampi: il gesto viene eseguito con la maggior parte del corpo e occupa una posizione spaziale rilevante. Questa tesi vuole proporre invece un approccio, nel quale i movimenti da seguire e riconoscere sono fatti “nel piccolo”. Si avrà a che fare con gesti classificati fini, dove i movimenti delle mani sono compiuti davanti al corpo, nella zona del torace, ad esempio. Gli ambiti applicativi sono molti, in questo lavoro si è scelto ed adottato l’ambito artigianale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nella presente analisi si è avuta l’eccezionale disponibilità di dati longitudinali su molti individui (6000studenti frequentanti le scuole superiori bolognesi). Per ottenere un modello che al meglio spiegasse e riproducesse l’andamento degli esiti scolastici (promozione alla classe successiva) tenendo conto del percorso scolastico nel tempo, si è scelto il modello a curva latente condizionato. La variabile risposta è combinazione lineare dell’esito di fine anno (Promosso/Non promosso); riassume, per ogni studente/anno scolastico, classe frequentata ed esito finale. Le variabili esplicative sono state selezionate tra le informazioni disponibili per gli individui. Vengono presentati alcuni dati aggregati, poi descritti i dati individuali che entreranno nel modello, evidenziando la composizione degli studenti. La prima fase è la stima del modello logistico, con specificazione delle criticità, che hanno indotto alla scelta successiva del modello dipendente dal tempo. Dopo la descrizione della metodologia principale utilizzata, la teoria del conditionalLCM, e la selezione degli indicatori di fitting, viene delineata la procedura di stima, e raggiunto il modello ottimale. Le variabili significative per spiegare l’andamento delle promozioni individuali nel tempo risultano: cittadinanza (italiani con risultati significativamente migliori degli stranieri), sesso (ragazze con percorso scolastico mediamente migliore dei ragazzi: la differenza risulta però significativa soltanto negli istituti tecnici e professionali), tipologia di scuola frequentata (studenti del liceo con risultati significativamente migliori di chi frequenta altri tipi di istituto). I risultati risultano fortemente dipendenti dai dati impiegati, specie riguardo al limite territoriale. Precedenti analisi evidenziavano una forte differenziazione dei risultati scolastici tra studenti del nord e del sud Italia, oltre che tra studenti dei comuni maggiormente popolati e studenti dei comuni di provincia. Sarebbe interessante disporre di dati individuali analoghi a quelli qui utilizzati, ma riferiti all’intero territorio nazionale, oppure ad un zona maggiormente vasta dell’Italia, onde saggiare l’entità dell’influenza sul percorso scolastico,ed in particolare sulla regolarità, della differenza territoriale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Negli ultimi anni si è assistito ad una radicale rivoluzione nell’ambito dei dispositivi di interazione uomo-macchina. Da dispositivi tradizionali come il mouse o la tastiera si è passati allo sviluppo di nuovi sistemi capaci di riconoscere i movimenti compiuti dall’utente (interfacce basate sulla visione o sull’uso di accelerometri) o rilevare il contatto (interfacce di tipo touch). Questi sistemi sono nati con lo scopo di fornire maggiore naturalezza alla comunicazione uomo-macchina. Le nuove interfacce sono molto più espressive di quelle tradizionali poiché sfruttano le capacità di comunicazione naturali degli utenti, su tutte il linguaggio gestuale. Essere in grado di riconoscere gli esseri umani, in termini delle azioni che stanno svolgendo o delle posture che stanno assumendo, apre le porte a una serie vastissima di interessanti applicazioni. Ad oggi sistemi di riconoscimento delle parti del corpo umano e dei gesti sono ampiamente utilizzati in diversi ambiti, come l’interpretazione del linguaggio dei segni, in robotica per l’assistenza sociale, per indica- re direzioni attraverso il puntamento, nel riconoscimento di gesti facciali [1], interfacce naturali per computer (valida alternativa a mouse e tastiera), ampliare e rendere unica l’esperienza dei videogiochi (ad esempio Microsoft 1 Introduzione Kinect© e Nintendo Wii©), nell’affective computing1 . Mostre pubbliche e musei non fanno eccezione, assumendo un ruolo cen- trale nel coadiuvare una tecnologia prettamente volta all’intrattenimento con la cultura (e l’istruzione). In questo scenario, un sistema HCI deve cercare di coinvolgere un pubblico molto eterogeneo, composto, anche, da chi non ha a che fare ogni giorno con interfacce di questo tipo (o semplicemente con un computer), ma curioso e desideroso di beneficiare del sistema. Inoltre, si deve tenere conto che un ambiente museale presenta dei requisiti e alcune caratteristiche distintive che non possono essere ignorati. La tecnologia immersa in un contesto tale deve rispettare determinati vincoli, come: - non può essere invasiva; - deve essere coinvolgente, senza mettere in secondo piano gli artefatti; - deve essere flessibile; - richiedere il minor uso (o meglio, la totale assenza) di dispositivi hardware. In questa tesi, considerando le premesse sopracitate, si presenta una sistema che può essere utilizzato efficacemente in un contesto museale, o in un ambiente che richieda soluzioni non invasive. Il metodo proposto, utilizzando solo una webcam e nessun altro dispositivo personalizzato o specifico, permette di implementare i servizi di: (a) rilevamento e (b) monitoraggio dei visitatori, (c) riconoscimento delle azioni.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questa tesi di laurea si affronta l’analisi di diversi modelli per il calcolo della capacità di un’intersezione a rotatoria: alcuni di questi sono di tipo empirico, altri invece sono di tipo teorico (teoria del gap acceptance). Innanzitutto si descrivono le caratteristiche di tutti i modelli studiati e si esaminano i risultati ottenuti nel calcolo della capacità al variare del flusso circolante, effettuato su un campione di venti rotatorie. In particolare si cerca di confrontare tra loro i vari modelli e di interpretare il significato dei parametri che compaiono nelle diverse formule. Successivamente si amplia l’analisi, utilizzando i dati raccolti come punto di partenza per una serie di altre elaborazioni ed interpolazioni. Alla base di questa seconda parte dello studio c’è l’idea di provare a vedere se sia possibile ricavare un nuovo modello, derivante da quelli studiati, che possa riassumerli in maniera semplice e aiutare a chiarire quali sono i parametri più importanti dai quali dipende il valore di capacità di una rotatoria. Questo nuovo modello dovrebbe eventualmente servire più che altro per interpretare i modelli studiati e per capire se uno di questi si comporti meglio degli altri in situazioni particolari oppure se sia più adatto in determinate condizioni di traffico piuttosto che in altre. Uno degli obiettivi principali di questo studio è infatti quello di provare a capire se la capacità di una rotatoria è influenzata maggiormente da aspetti geometrici, legati quindi alla forma e alle dimensioni della rotatoria stessa, oppure se un ruolo predominante è svolto da fattori comportamentali, legati quindi all’interazione tra i veicoli e ai processi di scelta degli utenti, che devono decidere se immettersi o meno nella rotatoria.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

UML è ampiamente considerato lo standard de facto nella fase iniziale di modellazione di sistemi software basati sul paradigma Object-Oriented; il suo diagramma delle classi è utilizzato per la rappresentazione statica strutturale di entità e relazioni che concorrono alla definizione delle specifiche del sistema; in questa fase viene utilizzato il linguaggio OCL per esprimere vincoli semantici sugli elementi del diagramma. Il linguaggio OCL però soffre della mancanza di una verifica formale sui vincoli che sono stati definiti. Il linguaggio di modellazione Alloy, inserendosi in questa fase, concettualmente può sopperire a questa mancanza perchè può descrivere con le sue entità e relazioni un diagramma delle classi UML e, tramite propri costrutti molto vicini all'espressività di OCL, può specificare vincoli semantici sul modello che verranno analizzati dal suo ambiente l'Alloy Analyzer per verificarne la consistenza. In questo lavoro di tesi dopo aver dato una panoramica generale sui costrutti principali del linguaggio Alloy, si mostrerà come è possibile creare una corrispondenza tra un diagramma delle classi UML e un modello Alloy equivalente. Si mostreranno in seguito le analogie che vi sono tra i costrutti Alloy e OCL per la definizione di vincoli formali, e le differenze, offrendo nel complesso soluzioni e tecniche che il modellatore può utilizzare per sfruttare al meglio questo nuovo approccio di verifica formale. Verranno mostrati anche i casi di incompatibilità. Infine, come complemento al lavoro svolto verrà mostrata, una tecnica per donare una dinamicità ai modelli statici Alloy.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introduzione Una delle maggiori difficoltà durante la produzione dei prodotti surgelati riguarda la loro stabilizzazione e il mantenimento della catena del freddo durante tutte le fasi del processo produttivo. Tramite il seguente lavoro si propone di determinare a che temperatura e dopo quanto tempo, diverse tipologie di confezioni di surgelati (pisellini, melanzane e spinaci), raggiungono la temperatura ipotetica di inizio di scongelamento. Con lo scopo di analizzare, in maniera rapida ed economica, molte diverse combinazioni di tempo - temperatura dell’ambiente di produzione di diverse tipologie di prodotti surgelati (pisellini, melanzane e spinaci), sono stati sviluppati dei modelli numerici capaci di descrivere i fenomeni termici che intervengono durante il confezionamento dei prodotti. Materiali e Metodi Il modello sviluppatotiene conto sia dei fenomeni di convezione naturale che avvengono tra la superficie della confezione e il flusso esterno di aria, sia dei fenomeni di conduzione che interessano l'interno della confezione, la confezione (busta) ed il piano di appoggio. In figura vengono schematizzati i fenomeni termici presi in esame. La geometria del modelli rispecchia le reali dimensioni delle confezioni dei prodotti presi in esame. La mesh dei modelli 3D è costituita da elementi triangolari, posizionati sulle boundaries, tetraedrici e prismatici, posizionati in tutto il restante dominio. Trattandosi di trasferimenti di calore per superfici, nelle zone di interfaccia è stata adottata una mesh particolarmente fine. In figura viene riportata la mesh dell'intera geometria ed un particolare della mesh interna dove, i diversi colori indicano elementi tetraedrici o prismatici di diverse dimensioni. Per ottenere un accurato modello numerico è necessario descrivere nel modo più realistico possibile i materiali coinvolti, quindi è stato necessario descrivere i prodotti surgelati tramite le loro reali proprietà termiche in funzione della temperatura (conducibilità termica, calore specifico, diffusività termica). I valori delle proprietà termiche utilizzati nel modello tengono conto del fatto che il materiale interno alla busta è poroso, infatti è costituito da una "miscela" di aria e prodotto Successivamente sono state impostate le equazioni del modello e le condizioni al contorno. All'interno del volume della confezione, il trasfermiento del calore avviene per conduzione, mentre sulla superficie avviene per convezione, nelle zone esposte all'aria e per contatto nelle zone di contatto tra confezione e piano di appoggio. La validazione è stata effettuata riproducendo numericamente le medesime condizioni utilizzate durante la sperimentazione. I parametri tenuti in considerazione sono i seguenti: tipologia di confezione (definita numericamente dai parametri dimensionali), tipologia di prodotto (contraddistinto da specifiche proprietà termo-fisiche), temperatura della cella di conservazione, tempo di conservazione, temperatura iniziale all'interno della confezione pari. Risultati In figura viene riportato un esempio di configurazione dell’andamento della temperatura all’interno della confezione di pisellini dopo 20 minuti di condizionamento a 5°C. E’ possibile osservare che la temperatura della parte di confezione a diretto contatto con il piano di acciaio, raggiunge zero gradi (zona rossa), mentre la parte centrale della confezione si mantiene sui -22°C (zona blu). Con lo scopo di simulare la conservazione della confezione posizionata verticalmente, è stata eliminata la condizione di contatto tra piano d'acciaio e confezione. E’ possibile osservare che, in questo caso, la variazione della temperatura nei diversi punti della confezione è meno elevata, infatti la temperatura massima registrata è pari a circa -8°C (zona rossa), mentre la parte centrale della confezione si mantiene sui -22°C (zona blu). La confezione di melanzane è risultata essere la meno adatta al mantenimento della temperatura in quanto è caratterizzata da un ampia area di contatto con il piano e da uno spessore abbastanza limitato; la confezione che mantiene la temperatura più a lungo è quella costituita dagli spinaci, anche se le temperature medie delle confezioni di spinaci e pisellini sono pressoché simili. A fronte dei risultati ottenuti confrontando gli andamenti della temperatura delle tre differenti confezione, è stato valutato l'effetto del volume della confezione sull'andamento della temperatura media e al centro della confezione. Le prove sono state effettuate dimezzando e aumentando del doppio il volume della confezione di pisellini. Differenze significative sono state riscontrate solo tra la confezione standard e quella con volume raddoppiato. Dalla validazione sperimentale è risultato che il modello che meglio si adatta ai dati sperimentali è quello relativo ai pisellini, probabilmente perché il prodotto all'interno della confezione è distribuito in maniera piuttosto uniforme. Nelle confezioni degli spinaci e delle melanzane, risulta molto più difficile definire un valore di porosità che può variare anche da busta a busta. Tuttavia, a fronte di questa variabilità, i modelli risultano essere adatti ad un uso industriale. Conclusioni -I modelli numerici sviluppati permettono di analizzare un numero arbitrario di combinazioni delle variabili durata del confezionamento, temperatura ambiente, temperatura iniziale del prodotto, forma e dimensioni della confezione. - Il modello permette di osservare il campo di temperatura con un grado di dettaglio irraggiungibile dalle tecniche sperimentali. -I risultati, in forma integrale, si trovano in ottimo accordo con quelli osservati sperimentalmente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

"I computer del nuovo millennio saranno sempre più invisibili, o meglio embedded, incorporati agli oggetti, ai mobili, anche al nostro corpo. L'intelligenza elettronica sviluppata su silicio diventerà sempre più diffusa e ubiqua. Sarà come un'orchestra di oggetti interattivi, non invasivi e dalla presenza discreta, ovunque". [Mark Weiser, 1991] La visione dell'ubiquitous computing, prevista da Weiser, è ormai molto vicina alla realtà e anticipa una rivoluzione tecnologica nella quale l'elaborazione di dati ha assunto un ruolo sempre più dominante nella nostra vita quotidiana. La rivoluzione porta non solo a vedere l'elaborazione di dati come un'operazione che si può compiere attraverso un computer desktop, legato quindi ad una postazione fissa, ma soprattutto a considerare l'uso della tecnologia come qualcosa di necessario in ogni occasione, in ogni luogo e la diffusione della miniaturizzazione dei dispositivi elettronici e delle tecnologie di comunicazione wireless ha contribuito notevolmente alla realizzazione di questo scenario. La possibilità di avere a disposizione nei luoghi più impensabili sistemi elettronici di piccole dimensioni e autoalimentati ha contribuito allo sviluppo di nuove applicazioni, tra le quali troviamo le WSN (Wireless Sensor Network), ovvero reti formate da dispositivi in grado di monitorare qualsiasi grandezza naturale misurabile e inviare i dati verso sistemi in grado di elaborare e immagazzinare le informazioni raccolte. La novità introdotta dalle reti WSN è rappresentata dalla possibilità di effettuare monitoraggi con continuità delle più diverse grandezze fisiche, il che ha consentito a questa nuova tecnologia l'accesso ad un mercato che prevede una vastità di scenari indefinita. Osservazioni estese sia nello spazio che nel tempo possono essere inoltre utili per poter ricavare informazioni sull'andamento di fenomeni naturali che, se monitorati saltuariamente, non fornirebbero alcuna informazione interessante. Tra i casi d'interesse più rilevanti si possono evidenziare: - segnalazione di emergenze (terremoti, inondazioni) - monitoraggio di parametri difficilmente accessibili all'uomo (frane, ghiacciai) - smart cities (analisi e controllo di illuminazione pubblica, traffico, inquinamento, contatori gas e luce) - monitoraggio di parametri utili al miglioramento di attività produttive (agricoltura intelligente, monitoraggio consumi) - sorveglianza (controllo accessi ad aree riservate, rilevamento della presenza dell'uomo) Il vantaggio rappresentato da un basso consumo energetico, e di conseguenza un tempo di vita della rete elevato, ha come controparte il non elevato range di copertura wireless, valutato nell'ordine delle decine di metri secondo lo standard IEEE 802.15.4. Il monitoraggio di un'area di grandi dimensioni richiede quindi la disposizione di nodi intermedi aventi le funzioni di un router, il cui compito sarà quello di inoltrare i dati ricevuti verso il coordinatore della rete. Il tempo di vita dei nodi intermedi è di notevole importanza perché, in caso di spegnimento, parte delle informazioni raccolte non raggiungerebbero il coordinatore e quindi non verrebbero immagazzinate e analizzate dall'uomo o dai sistemi di controllo. Lo scopo di questa trattazione è la creazione di un protocollo di comunicazione che preveda meccanismi di routing orientati alla ricerca del massimo tempo di vita della rete. Nel capitolo 1 vengono introdotte le WSN descrivendo caratteristiche generali, applicazioni, struttura della rete e architettura hardware richiesta. Nel capitolo 2 viene illustrato l'ambiente di sviluppo del progetto, analizzando le piattaforme hardware, firmware e software sulle quali ci appoggeremo per realizzare il progetto. Verranno descritti anche alcuni strumenti utili per effettuare la programmazione e il debug della rete. Nel capitolo 3 si descrivono i requisiti di progetto e si realizza una mappatura dell'architettura finale. Nel capitolo 4 si sviluppa il protocollo di routing, analizzando i consumi e motivando le scelte progettuali. Nel capitolo 5 vengono presentate le interfacce grafiche utilizzate utili per l'analisi dei dati. Nel capitolo 6 vengono esposti i risultati sperimentali dell'implementazione fissando come obiettivo il massimo lifetime della rete.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Studio di alcuni dispositivi presenti nelle vetture di formula 1, ma anche in quelle di serie più comuni, per l’ancoraggio e per l’isolamento delle vibrazioni fra componentistiche elettriche e telaio del veicolo. Questi dispositivi, noti come antivibranti (AV), svolgono un ruolo essenziale nel cercare di preservare i dispositivi elettrici: centraline, scatole cablate e connessioni elettriche. Il diffondersi di strumentazione adeguata a costi non più proibitivi ha permesso di studiare più in dettaglio e più scientificamente il comportamento degli AV per sfruttarli al meglio. Obiettivo di questo studio è dare una caratterizzazione scientifica e rigorosa alla maggior parte degli antivibranti presenti in STR7 monoposto Toro Rosso (mondiale di F1 2012), buona parte dei quali verrà utilizzata anche nelle successive vetture. Si volevano, inoltre, sviluppare alcuni modelli che potessero simulare correttamente montaggi di centraline generiche con tutte le diverse tipologie di antivibranti, in modo tale da poter vedere, prima ancora di realizzarli, come si comportavano i sistemi in quelle condizioni e dunque poter apportare modifiche al progetto tali da ottenere la configurazione di montaggio migliore. La continua ricerca di miglioramenti prestazionali che una competizione motoristica ad altissimi livelli richiede, il costante bisogno di alleggerimenti e maggiore affidabilità spingono la ricerca e l'azienda voleva passare da una progettazione basata sulla ripetizione delle configurazioni dimostratesi affidabili nel passato ad una progettazione più tecnica, scientifica e prestazionale. Per una buona caratterizzazione delle proprietà degli antivibranti sono stati progettati specifici test da eseguire al banco vibrante con i quali, lavorando nel dominio delle frequenze, si sono sfruttate le funzioni di risposte in frequenze di ogni antivibrante per ricavare i parametri caratteristici degli stessi nelle varie configurazioni. Con strategie grafiche, numeriche e teoriche si sono ricavati, con buone precisioni, i valori dei coefficienti di smorzamento e di rigidezza che caratterizzano i componenti studiati. Per l’esecuzione di questi test sono stati utilizati tutti gli strumenti messi a disposizione da Scuderia Toro Rosso nel laboratorio per prove vibrazionali recentemente approntato. Per la parte di simulazione numerica invece sono stati sfruttati i risultati ottenuti nella caratterizzazione degli antivibranti per creare programmi in ambiente Matlab che possano simulare il comportamento di generiche centraline montate in generici modi. Risultati di questo studio saranno gli andamenti dei coefficienti di rigidezza e smorzamento dei vari antivibranti nelle diverse configurazioni; inoltre si renderanno disponibili ai progettisti istruzioni e semplici programmi per la valutazione delle scelte fatte al fine di minimizzare le vibrazioni dei dispositivi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

I farmaci sono una nuova classe di inquinanti ambientali ubiquitari che raggiungono, insieme alle acque fognarie, i depuratori urbani che non sono in grado di rimuoverli o degradarli. Così le acque depurate, ancora ricche di farmaci, si riversano nei canali riceventi portando questo carico di inquinanti fino ai fiumi e ai laghi. L’obiettivo del presente studio è stato fornire un contributo alla valutazione del rischio ecologico associato al rilascio di miscele di farmaci nell’ambiente acquatico, verificando con esperimenti di laboratorio gli effetti dell’esposizione congiunta a propranololo e fluoxetina sulla riproduzione di Daphnia magna, crostaceo planctonico d’acqua dolce. Il propranololo è un farmaco beta-bloccante, ossia blocca l'azione dell'adrenalina sui recettori adrenergici di tipo beta del cuore e viene utilizzato contro l’ipertensione. La fluoxetina è un antidepressivo, inibitore selettivo della ricaptazione della serotonina. Sono stati eseguiti test cronici (21 giorni) con solo propranololo (0,25 - 2,00 mg/L) e con solo fluoxetina (0,03 - 0,80 mg/L) che hanno stimato un EC50 per la riproduzione di 0,739 mg/L e di 0,238 mg/L, rispettivamente. L’ultima fase sperimentale consisteva in un test cronico con 25 miscele contenti percentuali diverse dei due farmaci (0%; 25%; 50%; 75%; 100%) e con diverse concentrazioni totali (0,50; 0,71; 1,00; 1,41; 2,00 unità tossiche). Le unità tossiche sono state calcolate sulla base degli EC50 dei precedenti test cronici con i singoli farmaci. I dati sperimentali del test sono stati analizzati utilizzando MixTox, un metodo statistico per la previsione degli effetti congiunti di miscele di sostanze tossiche, che ha permesso di stabilire quale fosse il modello in grado di rappresentare al meglio i risultati sperimentali. Il modello di riferimento utilizzato è stato la concentration addition (CA) a partire dal quale si è identificato il modello che meglio rappresenta l’interazione tra i due farmaci: antagonism (S/A) dose ratio dependent (DR). Infatti si evidenzia antagonismo per tutte le miscele dei due farmaci, ma più accentuato in presenza di una maggiore percentuale di propranololo. Contrariamente a quanto verificato in studi su altre specie e su effetti biologici diversi, è comunque stato possibile evidenziare un affetto avverso sulla riproduzione di D. magna solo a concentrazioni di propranololo e fluoxetina molto più elevate di quelle osservate nelle acque superficiali.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa tesi di laurea vuole fornire delle ipotesi per un possibile riutilizzo della casa del Dopolavoro nella città di Imola. Di questo edificio, dismesso ormai da anni, verrà fatta un'analisi storica attraverso i documenti di archivio, riviste dell'epoca e disegni originali, e verranno avanzate ipotesi progettuali sulla base di disegni storici e rilievi attuali. Per meglio render comprensibili gli interventi previsti da questa tesi di laurea, il progetto prevede la suddivisione degli spazi in quattro macrozone principali, ognuna delle quali viene affrontata singolarmente. Di ogni macrozona viene fatto un confronto tra stato di fatto e progetto, identificandone i fattori più rilevanti e spiegando le motivazioni che hanno portato ad eventuali interventi di ripristino od alla nuova destinazione d'uso, così da poterne meglio identificarne la posizione nella struttura dell'edificio nella visione complessiva.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Agricoltura ed Energia sono le due parole cardine attorno a cui ruota questa tesi. La prima si trova ad oggi ad essere investita da enormi aspettative: ha implicazioni economiche, sociali, ambientali e territoriali. Offre opportunità occupazionali nelle aree rurali, favorisce il mantenimento di un tessuto sociale, ha funzioni produttive e di tutela ambientale. In Italia è profondamente diffusa ma mantiene caratteristiche molto differenti legate ai prodotti, al territorio e al paesaggio agrario. Andrebbe quindi meglio conosciuta, tutelata, ma soprattutto rinnovata per essere efficientemente inserita nel contesto dello sviluppo del nostro Paese. Ricercando nuove soluzioni e nuove idee, che dovrebbero essere alla base della ripresa dal periodo di crisi, ci si collega al secondo termine, meglio definito con un aggettivo descrittivo: rinnovabile. L'utilizzo di queste fonti è alla base delle odierne necessità di risparmio energetico e dell'uso razionale delle energie. Il primo passo è annullare gli sprechi incrementando lʼefficienza dei dispositivi che producono energia. Vengono qui analizzate diversi impianti ad energie rinnovabili proposti in un luogo specifico che si presta a vedere le diverse fonti agire in sinergia ed a servizio dell'agricoltura che rimane la vocazione principale del luogo in esame. La sinergia diventa quindi la chiave di lettura della tesi in quanto le rinnovabili sono caratterizzate da una imprevedibile variabilità per cui risulta funzionale un sistema integrativo che porti il progetto finale ad avere una maggiore continuità nel servizio in ogni periodo dell'anno.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa trattazione si propone di fornire una spiegazione del fenomeno di Gibbs in termini matematici. Con l'espressione fenomeno di Gibbs intendiamo la presenza di forti oscillazioni nei polinomi di Fourier di una funzione con discontinuità di prima specie. Si osserva che queste anomalie, presenti vicino ai punti di discontinuità, non sembrano diminuire aumentando il grado del polinomio, al punto che la serie pare non convergere alla funzione sviluppata. Osserveremo che utilizzando un altro tipo di polinomi trigonometrici, quelli di Fejér in luogo di quelli di Fourier, scomparirà il fenomeno di Gibbs. Nonostante ciò, spesso si preferisce rappresentare una funzione utilizzando il suo polinomio di Fourier poiché questo è il polinomio trigonometrico che meglio approssima la funzione in norma quadratica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le musiche “popolaresche” urbane, in genere trascurate nella letteratura etnomusicologica, sono state quasi completamente ignorate nel caso della Romania. Il presente studio si propone di colmare almeno in parte questa lacuna, indagando questo fenomeno musicale nella Bucarest degli anni Trenta e Quaranta del Novecento. Le musiche esaminate sono tuttavia inserite entro una cornice storica più ampia, che data a partire dalla fine del XVIII secolo, e messe in relazione con alcune produzioni di origine rurale che con queste hanno uno stretto rapporto. Il caso di Maria Lătărețu (1911-1972) si è rivelato particolarmente fecondo in questo senso, dal momento che la cantante apparteneva ad entrambi i versanti musicali, rurale e urbano, e nepadroneggiava con disinvoltura i rispettivi repertori. Dopo il suo trasferimento nella capitale, negli anni Trenta, è diventata una delle figure di maggior spicco di quel fenomeno noto come muzică populară (creazione musicale eminentemente urbana e borghese con radici però nel mondo delle musiche rurali). L’analisi del repertorio (o, per meglio dire, dei due repertori) della Lătărețu, anche nel confronto con repertori limitrofi, ha permesso di comprendere più da vicino alcuni dei meccanismi musicali alla base di questa creazione. Un genere musicale che non nasce dal nulla nel dopo-guerra, ma piuttosto continua una tradizione di musica urbana, caratterizzata in senso locale, ma influenzata dal modello della canzone europea occidentale, che data almeno dagli inizi del Novecento. Attraverso procedimenti in parte già collaudati da compositori colti che sin dal XIX secolo, in Romania come altrove, si erano cimentati con la creazione di melodie in stile popolare o nell’armonizzazione di musiche di provenienza contadina, le melodie rurali nel bagaglio della cantante venivano trasformate in qualcosa di inedito. Una trasformazione che, come viene dimostrato efficacemente nell’ultimo capitolo, non investe solo il livello superficiale, ma coinvolge in modo profondo la sintassi musicale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nell'ambito di un'indagine sull'identità del rivoluzionario nel XIX secolo, calata tra gli attivisti coinvolti nella Comune di Parigi, si è trattato di selezionare quelle autobiografie scritte e pubblicate da comunardi come parte integrante della loro attività politica, e così porre il problema del rapporto tra pratica autobiografica e rivoluzione, ovvero chiarire le condizioni del passage au récit, la scelta autobiografica e insieme la mise en intrigue tra esperienze individuali e rivoluzione. Questa ricerca si presenta dunque come un lavoro sulle pratiche autobiografiche all'interno delle pratiche di attivismo politico, ovvero più specificamente sulla relazione tra autobiografia e rivoluzione. In altri termini si analizza il modo in cui i rivoluzionari narravano la loro identità in pubblico, perché lo avessero fatto e cosa veicolavo in termini di stili di vita e convinzioni particolari. In quanto rivoluzionari, l'autobiografia diviene fonte e parte di ciò che essi reputavano in quel momento la propria traiettoria rivoluzionaria, la narrazione di quella che in quel momento ritenevano comunicare al pubblico come propria identità narrativa. La ricerca si articola in tre momenti. Nel primo capitolo analizzo le biografie, o meglio un piccolo gruppo tra la massa di biografie di comunardi edite all'indomani della Comune da parte della pubblicistica tanto ostile quanto partigiana della Comune. Queste narrazioni biografiche diffuse nei mesi successivi alla repressione della rivoluzione comunalista consentono di affrontare una delle condizioni fondamentali del passage au récit autobiografico che si manifesterà solo posteriormente. Il secondo e il terzo capitolo sono dedicati a due progetti autobiografici di diversa natura: la trilogia autobiografica di Jules Vallès (1879, 1881, 1886) e le Mémoires di Louise Michel (1886).