981 resultados para Compattazione intelligente modulo vibratorio sito Altopascio, Bomag
Resumo:
Sviluppo di un modello di ottimizzazione dei tempi di evacuazione da aerei da trasporto mediante disposizione intelligente dei passeggeri effettuata con un algoritmo basato sulla Ant Colony Optimization.
Resumo:
Questo lavoro di Tesi Magistrale, si focalizza sulla più importante delle aritmie atriali, ovvero la Fibrillazione Atriale, e sul trattamento della stessa attraverso le procedure di ablazione a radio frequenza (RF). Il lavoro di tesi, svolto presso l'Ospedale 'M. Bufalini' di Cesena, affronta in particolare l'uso della tecnologia EnSite NavX (un sistema di mappaggio elettroanatomico delle cavità cardiache) ed EnSite Contact (un sistema basato sulla misura dell'impedenza locale per la valutazione del contatto elettrodo tessuto). L'acquisizione e l'analisi dei dati di ECI (indice di accoppiamento elettrico), forniti dal modulo Contact, hanno permesso di comprendere come questo parametro, derivato dalla misura dell'impedenza locale, possa contribuire a fornire importanti informazioni in real-time all'elettrofisiologo e come lo studio della sua dinamica, con particolare attenzione alle variazioni tra pre e post ablazione, possa risultare utile per verificare l'avvenuta erogazione di energia ai tessuti.
Resumo:
La tesi tratta in primo piano la personalizzazione di un sistema Android utilizzata come piattaforma per la seconda parte del lavoro. Quest'ultima consiste nell'installazione sul sistema operativo Android, personalizzato, un modulo e un'applicazione, il primo denominato Transmission Error Detector (TED), che estende il funzionamento della tecnologia WiFi e la seconda denominata Wvdial che estende invece il funzionamento della tecnologia 3G(o UMTS). Entrambi fanno parte di una architettura per il supporto alla mobilità in contesti eterogenei.
Resumo:
Il presente lavoro è strutturato in quattro parti analizzando e comparando le pubblicazioni del settore scientifico italiano, anglofono e tedesco di riferimento. Nel primo capitolo della tesi viene proposta una riflessione sulle parole che ruotano attorno al tema dei DSA e della disabilità. Nel secondo capitolo vengono presentati, a partire dalla letteratura scientifica di riferimento, gli indicatori di rischio che segnalano possibili disturbi specifici di apprendimento e le caratteristiche di apprendimento dei DSA mettendo in luce potenzialità e talenti spesso intrinseci. Nel terzo capitolo viene vagliata la normativa di riferimento, in particolare la recente Legge 170/2010 e le relative Linee Guida. Nel quarto capitolo, partendo dal tema della diffusione delle tecnologie dell’informazione e della comunicazione (da ora in poi TIC) nel mondo della scuola, sono ampiamente trattati i principali strumenti compensativi (sintesi vocale, libri digitali, mappe concettuali, Lavagna Interattiva Multimediale) e le misure dispensative adottabili. Nel quinto capitolo viene analizzato in tutte le sue parti il Piano Didattico Personalizzato (da ora in poi PDP) e viene proposto un possibile modello di PDP pubblicato sul sito dell'Ufficio per l’Ambito Territoriale di Bologna. Nel sesto capitolo della tesi viene presentato il Progetto Regionale ProDSA. Il Progetto, rivolto a studenti, con diagnosi di DSA, delle scuole secondarie di primo grado e del primo biennio delle secondarie di secondo grado dell’Emilia-Romagna, ha visto, grazie a un finanziamento della Regione, la consegna in comodato d'uso gratuito di tecnologie compensative agli alunni che hanno aderito. La sezione empirica del presente lavoro indaga l’uso reale che è stato fatto degli strumenti proposti in comodato d’uso e le motivazioni legate alla scelta di non utilizzarli in classe. Nel settimo capitolo vengono proposti strumenti progettati per rispondere concretamente alle criticità emerse dall'analisi dei dati e per sensibilizzare il mondo della scuola sulle caratteristiche dei DSA.
Resumo:
Nel contesto economico odierno i sistemi di raccomandazione rappresentano uno strumento utile al fine di aumentare le vendite con pubblicità e promozioni su misura per ciascun utente. Tali strumenti trovano numerose applicazioni nei siti di e-commerce, si pensi ad Amazon o a MovieLens. Esistono diverse tipologie di sistemi di raccomandazione, che si differenziano principalmente per il modo con cui sono prodotte le raccomandazioni per gli utenti. In questa tesi se ne vuole definire una nuova tipologia, che superi la restrizione del vincolo ad un sito a ad una società, fornendo agli utenti raccomandazioni di prodotti acquistabili in negozi reali e il più possibile accessibili, nel senso geografico del termine. Si e inoltre astratto il concetto di raccomandazione, passando da un insieme omogeneo di oggetti ad un insieme eterogeneo di entità ottenibili attraverso lo svolgimento di attività. Con queste premesse il sistema da definire dovrà raccomandare non più solo entità, ma entità e shop presso i quali sono disponibili per le persone.
Resumo:
Il presente lavoro ha lo scopo di presentare gli studi e i risultati ottenuti durante l’attività di ricerca svolta sul Displacement-based Assessment (DBA) dei telai in cemento armato. Dopo alcune considerazioni iniziali sul tema della vulnerabilità sismica e sui metodi di analisi e verifica, si procede alla descrizione teorica del metodo. Sono stati analizzati tre casi studio di telai piani, progettati per soli carichi verticali e secondo normative non più in vigore che non prevedevano l’applicazione della gerarchia delle resistenze. I telai considerati, destinati ad abitazione civile, hanno diversa altezza e numero di piani, e diverso numero di campate. Si è proceduto all’applicazione del metodo, alla valutazione della vulnerabilità sismica in base alla domanda in termini di spostamento costituita da uno spettro elastico previsto dall’EC8 e alla validazione dei risultati ottenuti mediante analisi non lineari statiche e dinamiche e mediante l’applicazione dei teoremi dell’Analisi limite dei telai, proposta come procedura alternativa per la determinazione del meccanismo anelastico e della capacità in termini di taglio alla base. In ultimo si è applicata la procedura DBA per la valutazione della vulnerabilità sismica di un edificio scolastico, realizzato tra il 1969 e il 1975 in un sito caratterizzato da una accelerazione di picco orizzontale pari a 0,24g e una probabilità di superamento del 10% in 75 anni.
Resumo:
Il presente studio si colloca nell’ambito del progetto europeo (FP7) THESEUS, fra i cui scopi c’è quello di fornire informazioni su vulnerabilità e resilienza degli habitat costieri in seguito all’aumento di frequenza delle inondazioni dovuto al sea level rise. E’ stata indagata la zona intertidale di spiagge sabbiose, come recettore di cambiamenti climatici. All’interno dell’habitat intertidale le comunità macrobentoniche sono di solito individuate come indicatori delle variazioni dei parametri fisico-chimici e morfodinamici. Lo scopo di questo lavoro è consistito nell’analisi delle comunità macrobentoniche e della loro interazioni con le variabili ambientali lungo tre spiagge del Nord Adriatico sottoposte a fenomeni di erosione e differenti fra di loro per caratteristiche morfodinamiche: Lido di Spina, Bellocchio e la zona della Bassona di Lido di Dante. La risposta delle comunità bentoniche è stata indagata utilizzando i dati tassonomici delle specie e raggruppando le stesse nei rispettivi gruppi trofici. Le variabili ambientali considerate sono state quelle relative alla tipologia del sedimento e quelle relative alla morfodinamica Le comunità macrobentoniche delle spiagge di Lido di Spina e di Lido di Dante sono risultate relativamente più simili tra loro, nonostante i due siti fossero i più distanti. A Lido di Spina e Lido di Dante sono state rinvenute associazioni di specie, come Scolelepis squamata ed Eurydice spinigera, tipiche delle spiagge sabbiose europee esposte al moto ondoso. In questi due siti, è risultato dominante il bivalve Lentidium mediterraneum, la cui ecologia e modalità di distribuzione aggregata permette di evidenziare il maggiore idrodinamismo che caratterizza i due siti. A Bellocchio, invece, è stato riscontrato un maggior numero di specie. Questo sito è caratterizzato dalla presenza di patch di giovanili del bivalve Mytilus galloprovincialis che sembrerebbe determinare il pattern del resto della comunità fungendo da ecosystem engineer. In termini di gruppi trofici, a Lido di Spina e a Lido di Dante prevalgono Filtratori, Carnivori e Detritivori di Superficie mentre Bellocchio è dominato da Filtratori e Misti discostandosi dagli altri siti per le sue condizioni del tutto particolari. Per quanto riguarda i descrittori abiotici, Lido di Spina e Lido di Dante, rispetto a Bellocchio, presentano una fascia intertidale più corta, pendenze maggiori, granulometrie più grossolane e risultando quindi, in generale, meno dissipative.
Resumo:
L’approccio performance-based nell’Ingegneria sismica è una metodologia di progetto che tiene esplicitamente in conto la performance dell’edificio tra i criteri progettuali. Nell’ambito dei metodi PBEE (Performance-Based Earthquake Engineering) di seconda generazione, quello proposto dal PEER (Pacific Earthquake Engineering Research Center) risulta essere il più diffuso. In esso la performance dell’edificio oggetto di studio viene valutata in termini quantitativi secondo le 3D’s (dollars, deaths, downtime – soldi, decessi, inutilizzo), quantità di notevole interesse per l’utente finale. Il metodo si compone di quattro step, indipendenti tra loro fino alla sintesi finale. Essi sono: l’analisi di pericolosità, l’analisi strutturale, l’analisi di danno, l’analisi delle perdite o di loss. Il risultato finale è la curva di loss, che assegna ad ogni possibile perdita economica conseguente all’evento sismico una probabilità di superamento nell’arco temporale di riferimento. Dopo la presentazione del metodo PEER, si è provveduto ad una sua applicazione su di un caso di studio, nella fattispecie un telaio piano di quattro campate, multipiano, in calcestruzzo armato, costruito secondo le norme del ’92. Per l’analisi di pericolosità si è fatto ricorso alle mappe di pericolosità disponibili sul sito INGV, mentre per l’analisi strutturale si è utilizzato il software open-source OpenSees. Le funzioni di fragilità e quelle di loss sono state sviluppate facendo riferimento alla letteratura scientifica, in particolare il bollettino Fib numero 68 “Probabilistic performance-based seismic design”. In questa sede ci si è concentrati unicamente sulla stima delle perdite economiche, tralasciando le altre due variabili decisionali. Al termine del procedimento si è svolta un’analisi di sensitività per indagare quali parametri influenzino maggiormente la curva di loss. Data la curva di pericolosità, il legame EDP(IM) e la deformazione ultima a collasso risultano essere i più rilevanti sul risultato dell’analisi.
Resumo:
L’elaborato ha lo scopo di presentare le nuove opportunità di business offerte dal Web. Il rivoluzionario cambiamento che la pervasività della Rete e tutte le attività correlate stanno portando, ha posto le aziende davanti ad un diverso modo di relazionarsi con i propri consumatori, che sono sempre più informati, consapevoli ed esigenti, e con la concorrenza. La sfida da accettare per rimanere competitivi sul mercato è significativa e il mutamento in rapido sviluppo: gli aspetti che contraddistinguono questo nuovo paradigma digitale sono, infatti, velocità, mutevolezza, ma al tempo stesso misurabilità, ponderabilità, previsione. Grazie agli strumenti tecnologici a disposizione e alle dinamiche proprie dei diversi spazi web (siti, social network, blog, forum) è possibile tracciare più facilmente, rispetto al passato, l’impatto di iniziative, lanci di prodotto, promozioni e pubblicità, misurandone il ritorno sull’investimento, oltre che la percezione dell’utente finale. Un approccio datacentrico al marketing, attraverso analisi di monitoraggio della rete, permette quindi al brand investimenti più mirati e ponderati sulla base di stime e previsioni. Tra le più significative strategie di marketing digitale sono citate: social advertising, keyword advertising, digital PR, social media, email marketing e molte altre. Sono riportate anche due case history: una come ottimo esempio di co-creation in cui il brand ha coinvolto direttamente il pubblico nel processo di produzione del prodotto, affidando ai fan della Pagina Facebook ufficiale la scelta dei gusti degli yogurt da mettere in vendita. La seconda, caso internazionale di lead generation, ha permesso al brand di misurare la conversione dei visitatori del sito (previa compilazione di popin) in reali acquirenti, collegando i dati di traffico del sito a quelli delle vendite. Esempio di come online e offline comunichino strettamente.
Resumo:
Il lavoro è stato strutturato in due parti distinte. La prima riguarda il riordino delle informazioni contenute nella Banca Dati sui Castelli dell’Emilia Romagna ultimata nel 2004, arricchendo le informazioni con nuove fonti sia edite che inedite e fotografie, mettendo poi tutti i dati online sul sito Geologia Storia Turismo della Regione Emilia Romagna. La seconda parte ha riguardato invece l’analisi dell’area reggiana e, in particolare, di tre castelli: Rubiera, Salvaterra e Dinazzano che, a partire dalla fine del XII secolo, hanno costituito quella che è stata definita la Cintura sul Secchia, una vera e propria catena difensiva costruita dal comune di Reggio Emilia a protezione del suo confine orientale, quello con Modena. Nella prima parte si è predisposto l’avvio di un Atlante dei castelli esistenti e scomparsi dell’Emilia Romagna, strutturato provincia per provincia, con corredo di piante e grafici che indicano la consistenza del fenomeno nelle diverse aree della Regione; poi, per l’area reggiana, si è completata la disamina con una serie di grafici che mettono in luce la dislocazione per aree, la localizzazione sicura dei castelli in rapporto alla loro condizione attuale e la densità per aree del fenomeno. Infine si sono inserite informazioni ricavate da materiale inedito per verificare possibili sviluppi della Banca Dati. La seconda parte ha ricostruito non solo le vicende storico-costruttive dei castelli di Rubiera, Salvaterra e Dinazzano, ma ha approfondito anche la genesi e l’evoluzione di questo progetto di difesa territoriale: studiare questo progetto significa capire come il comune di Reggio Emilia, nell’arco di oltre un secolo, ha governato i propri castelli, come ne ha organizzato la difesa e la manutenzione e come ne ha progettato il popolamento.
Resumo:
La tesi si propone di sviluppare un modello, l'architettura e la tecnologia per il sistema di denominazione del Middleware Coordinato TuCSoN, compresi gli agenti, i nodi e le risorse. Identità universali che rappresentano queste entità, sia per la mobilità fisica sia per quella virtuale, per un Management System (AMS, NMS, RMS) distribuito; tale modulo si occupa anche di ACC e trasduttori, prevedendo questioni come la tolleranza ai guasti, la persistenza, la coerenza, insieme con il coordinamento disincarnata in rete, come accade con le tecnologie Cloud. All’interno dell’elaborato, per prima cosa si è fatta una introduzione andando a descrivere tutto ciò che è contenuto nell’elaborato in modo da dare una visione iniziale globale del lavoro eseguito. Di seguito (1° capitolo) si è descritta tutta la parte relativa alle conoscenze di base che bisogna avere per la comprensione dell’elaborato; tali conoscenze sono relative a TuCSoN (il middleware coordinato con cui il modulo progettato dovrà interfacciarsi) e Cassandra (sistema server distribuito su cui si appoggia la parte di mantenimento e salvataggio dati del modulo). In seguito (2° capitolo) si è descritto JADE, un middleware da cui si è partiti con lo studio per la progettazione del modello e dell’architettura del modulo. Successivamente (3° capitolo) si è andati a spiegare la struttura e il modello del modulo considerato andando ad esaminare tutti i dettagli relativi alle entità interne e di tutti i legami fra esse. In questa parte si è anche dettagliata tutta la parte relativa alla distribuzione sulla rete del modulo e dei suoi componenti. In seguito (4° capitolo) è stata dettagliata e spiegata tutta la parte relativa al sistema di denominazione del modulo, quindi la sintassi e l’insieme di procedure che l’entità consumatrice esterna deve effettuare per ottenere un “nome universale” e quindi anche tutti i passaggi interni del modulo per fornire l’identificatore all’entità consumatrice. Nel capitolo successivo (5° capitolo) si sono descritti tutti i casi di studio relativi alle interazioni con le entità esterne, alle entità interne in caso in cui il modulo sia o meno distribuito sulla rete, e i casi di studio relativi alle politiche, paradigmi e procedure per la tolleranza ai guasti ed agli errori in modo da dettagliare i metodi di riparazione ad essi. Successivamente (6° capitolo) sono stati descritti i possibili sviluppi futuri relativi a nuove forme di interazione fra le entità che utilizzano questo modulo ed alle possibili migliorie e sviluppi tecnologici di questo modulo. Infine sono state descritte le conclusioni relative al modulo progettato con tutti i dettagli in modo da fornire una visione globale di quanto inserito e descritto nell’elaborato.
Resumo:
L'elaborato illustra una serie di modelli termici, che si differenziano principalmente per la loro accuratezza e velocità di calcolo, per essere in grado di scegliere il modello più adatto da utilizzare in relazione all'applicazione prevista e alle esigenze richieste. Per una migliore comprensione del problema, vengono introdotti inizialmente alcuni concetti generali legati alle temperature in gioco nei componenti elettronici di potenza e alla trasmissione del calore, poi si passa alla determinazione della sorgente del calore (ovvero le perdite) in un modulo IGBT. Vengono quindi descritti alcuni modelli che siano in grado di rappresentare il sistema in esame dal punto di vista termico. Infine viene implementato in Simulink uno dei modelli proposti, mettendo così in pratica gran parte dei concetti esposti. Per il calcolo delle perdite, per i modelli e per la simulazione ci si è concentrati su un determinato componente elettronico di potenza per entrare nel cuore di un problema termico. È stato scelto l’IGBT perché è un dispositivo relativamente nuovo, in continuo miglioramento ed è sempre più utilizzato.
Resumo:
Lo scopo della tesi è quello di studiare una delle applicazioni della teoria dei campi finiti: il segnale GPS. A questo scopo si descrivono i registri a scorrimento a retroazione lineare (linear feedback shift register, LFSR), dispositivi utili in applicazioni che richiedono la generazione molto rapida di numeri pseudo-casuali. I ricevitori GPS sfruttano il determinismo di questi dispositivi per identificare il satellite da cui proviene il segnale e per sincronizzarsi con esso. Si inizia con una breve introduzione al funzionamento del GPS, poi si studiano i campi finiti: sottocampi, estensioni di campo, gruppo moltiplicativo e costruzione attraverso la riduzione modulo un polinomio irriducibile, fattorizzazione di polinomi, formula per il numero e metodi per la determinazione di polinomi irriducibili, radici di polinomi irriducibili, coniugati, teoria di Galois (automorfismo ed orbite di Frobenius, gruppo e corrispondenza di Galois), traccia, polinomio caratteristico, formula per il numero e metodi per la determinazione di polinomi primitivi. Successivamente si introducono e si esaminano sequenze ricorrenti lineari, loro periodicità, la sequenza risposta impulsiva, il polinomio caratteristico associato ad una sequenza e la sequenza di periodo massimo. Infine, si studiano i registri a scorrimento che generano uno dei segnali GPS. In particolare si esamina la correlazione tra due sequenze. Si mostra che ogni polinomio di grado n-1 a coefficienti nel campo di Galois di ordine 2 può essere rappresentato univocamente in n bit; la somma tra polinomi può essere eseguita come XOR bit-a-bit; la moltiplicazione per piccoli coefficienti richiede al massimo uno shift ed uno XOR. Si conclude con la dimostrazione di un importante risultato: è possibile inizializzare un registro in modo tale da fargli generare una sequenza di periodo massimo poco correlata con ogni traslazione di se stessa.
Resumo:
Nel presente lavoro si espone un algoritmo che riproduce la forma dell'involucro di un pallone aerostatico ad aria calda. Si utilizza il metodo della cloth simulation per simulare il comportamento del tessuto sotto l'azione di forze di pressione, forze elastiche e forza di gravità. Si confrontano infine i risultati ottenuti variando la pressione interna dell'involucro, il modulo di elasticità del tessuto e i carichi applicati.
Resumo:
Nell'elaborato svolto viene presentato un ballast elettronico destinato ad applicazioni di illuminazione stradale. L'alimentatore deve sostituire il tradizionale reattore elettromagnetico attualmente montato sui lampioni, deve poter alimentare lampade HID fino a 150 W, deve soddisfare le più stringenti normative di futura approvazione, deve garantire ulteriori servizi aggiuntivi legati sia al migliore sfruttamento della lampada che a eventuali esigenze legate all'innovativo concetto di palo intelligente (alimentazioni ausiliarie e strategie di risparmio energetico).