481 resultados para SWIMBLADDER RETE MIRABILE


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In un contesto di crisi economica come quello attuale emerge chiara la necessità delle imprese italiane, in particolare delle PMI, di sfruttare le potenzialità della Rete per far fronte alle difficoltà. All’interno delle PMI, in particolare a quelle legate al fenomeno del Made in Italy, si avverte però spesso la mancanza delle competenze adeguate per portare con successo il proprio business online; questa tesi ha quindi l’obiettivo di fornire indicazioni alle aziende artigiane per definire e attuare la propria strategia online. Tali suggerimenti sono stati determinati a partire dallo studio di aziende che, grazie alla digitalizzazione, all'online advertising e all'internazionalizzazione della propria attività di e-commerce, sono riuscite ad affermarsi sul territorio italiano e all’estero.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La perdita di pacchetti durante una trasmissione su una rete Wireless influisce in maniera fondamentale sulla qualità del collegamento tra due End-System. Lo scopo del progetto è quello di implementare una tecnica di ritrasmissione asimmetrica anticipata dei pacchetti perduti, in modo da minimizzare i tempi di recupero dati e migliorare la qualità della comunicazione. Partendo da uno studio su determinati tipi di ritrasmissione, in particolare quelli implementati dal progetto ABPS, Always Best Packet Switching, si è maturata l'idea che un tipo di ritrasmissione particolarmente utile potrebbe avvenire a livello Access Point: nel caso in cui la perdita di pacchetti avvenga tra l'AP e il nodo mobile che vi è collegato via IEEE802.11, invece che attendere la ritrasmissione TCP e Effettuata dall'End-System sorgente è lo stesso Access Point che e effettua una ritrasmissione verso il nodo mobile per permettere un veloce recupero dei dati perduti. Tale funzionalità stata quindi concettualmente divisa in due parti, la prima si riferisce all'applicazione che si occupa della bufferizzazione di pacchetti che attraversano l'AP e della loro copia in memoria per poi ritrasmetterli in caso di segnalazione di mancata acquisizione, la seconda riguardante la modifica al kernel che permette la segnalazione anticipata dell'errore. E' già stata sviluppata un'applicazione che prevede una ritrasmissione anticipata da parte dell'Access Point Wifi, cioè una ritrasmissione prima che la notifica di avvenuta perdita raggiunga l'end-point sorgente e appoggiata su un meccanismo di simulazione di Error Detection. Inoltre è stata anche realizzata la ritrasmissione asincrona e anticipata del TCP. Questo documento tratta della realizzazione di una nuova applicazione che fornisca una più effciente versione del buffer di pacchetti e utilizzi il meccanismo di una ritrasmissione asimmetrica e anticipata del TCP, cioè attivare la ritrasmissione su richiesta del TCP tramite notifiche di validità del campo Acknowledgement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'integrazione multisensoriale è la capacità da parte del sistema nervoso centrale di integrare informazioni provenienti da diverse sorgenti sensoriali. In particolare, l'integrazione audio-visiva avviene anche nelle cortecce visive e acustiche, in principio ritenute puramente unisensoriali. L'integrazione audio-visiva non è un'abilità innata, ma si sviluppa progressivamente nel tempo sulla base dell'esperienza. In questa Tesi viene presentato un modello matematico di rete neurale in grado di simulare lo sviluppo in un ambiente multisensoriale dei neuroni delle cortecce primarie visive e uditive nei primi mesi di vita di un neonato, e gli effetti dell'integrazione audio-visiva successivi a tale addestramento. In particolare il modello vuole mostrare, a partire da una condizione basale in cui i neuroni visivi e acustici non sono in grado di discriminare spazialmente la posizione degli input esterni e in cui non sussiste alcuna correlazione tra le due aree corticali primarie visive e uditive, come l'addestramento migliori la precisione della percezione spaziale degli stimoli esterni e come si stabiliscano tra le due aree in esame dei collegamenti stabili a lungo termine. Terminato l'addestramento, si verifica se la rete sia in grado di riprodurre gli effetti di integrazione audio-visiva nella corteccia primaria, quali la "cattura" dello stimolo acustico da parte di quello visivo (ventriloquismo) e il rafforzamento della risposta neurale allo stimolo acustico se contemporaneamente accompagnato da uno stimolo visivo nella stessa posizione spaziale (enhancement). Il modello potrebbe essere utilizzato in futuro anche per simulare altri fenomeni illusori come il fenomeno offline del ventriloquismo e il ventriloquismo a livello temporale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La diffusione di Internet negli ultimi anni e lo sviluppo sempre crescente nell'ambito delle reti di telecomunicazione, hanno portato oggi ad una vera e propria esplosione della diffusione di nuove tecnologie di trasmissione. Inizialmente il protocollo di trasporto dati, TCP, non era stato pensata per operare in scenari diversi da quello della rete fissa. Con l'introduzione di nuovi scenari, come quello wireless, wimax e satellitare, si è notato come le prestazioni peggiorino in questi ambienti. Proprio per questo, il protocollo TCP ha subito parecchie modifiche negli anni e sono state realizzate alternative atte a migliorare l'inefficienza del protocollo. Le modifiche, a cui il TCP è stato sottoposto, sono basate su alcuni criteri di valutazione e l'introduzione di meccanismi come il controllo del flusso o il controllo di congestione in modo da migliorare le performance in ambienti “ostili”. Molti ricercatori si sono concentrati nello studio e modifica di questi nuovi meccanismi cercando di adattare al meglio il TCP secondo diversi scenari di rete, trascurando così altri criteri un pò meno noti. Dopo aver introdotto lo scenario con la descrizione del protocollo TCP, andremo a descrivere e illustrare questi “nuovi criteri” presentando alcuni recenti studi effettuati, in seguito andremo a presentare un nuova versione del protocollo chiamata Early Warning TCP e nell'ultimo capitolo andremo a presentare delle conclusioni degli studi presentati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro, dopo un'introduzione sul panorama contemporaneo, si è analizzato lo standard IEEE 802.21, illustrandone i motivi che hanno portato al suo sviluppo, la timeline del processo di standardizzazione, gli obbiettivi del working group, l'architettura del sistema specificato e le sue funzionalità, con particolare riguardo all'utilità in applicazioni reali, al fine di darne un giudizio completo sulla sua effettiva efficacia. Dopo aver citato qualche esempio di possibile applicazione dello standard e descritto lo stato attuale dell'arte, si è studiata una sua implementazione cross-platform chiamata ODTONE, descrivendone i vari componenti e le loro funzionalità, ma anche sottolineando le attuali mancanze per arrivare ad una implementazione completa sotto tutti i punti di vista. Successivamente si è studiata ed implementata un'applicazione, MIH-proxy, che potesse sfruttare in modo costruttivo i servizi specificati dallo standard per creare un proxy che potesse scegliere su quale interfaccia instradare i pacchetti a seconda dello stato attuale di tutti i collegamenti, realizzato in versione unidirezionale e bidirezionale. In particolare questa applicazione è in grado di restare in ascolto di cambiamenti di stato delle interfacce di rete, e.g. quando viene stabilita una connessione oppure cade, e, di conseguenza, stabilire di volta in volta quali collegamenti utilizzare per inviare dati. Nella versione bidirezionale è anche possibile far comunicare tra loro applicazioni che normalmente utilizzerebbero il protocollo di trasporto TCP attraverso un ulteriore componente, phoxy, che si preoccupa di convertire, in modo trasparente, un flusso TCP in datagrammi UDP eventualmente cifrati. Sarà quindi possibile creare un collegamento criptato ad alta affidabilità tra le applicazioni che possa sfruttare tutte le interfacce disponibili, sia per inviare, sia per ricevere.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Quando la probabilità di misurare un particolare valore di una certa quantità varia inversamente come potenza di tale valore, il quantitativo è detto come seguente una power-law, conosciuta anche come legge di Zipf o distribuzione di Pareto. Obiettivo di questa tesi sarà principalmente quello di verificare se il campione esteso di imprese segue la power-law (e se sì, in che limiti). A tale fine si configureranno i dati in un formato di rete monomodale, della quale si studieranno alcune macro-proprietà di struttura a livllo complessivo e con riferimento alle componenti (i singoli subnet distinti) di maggior dimensione. Successivamente si compiranno alcuni approfondimenti sulla struttura fine di alcuni subnet, essenzialmente rivolti ad evidenziare la potenza di unapproccio network-based, anche al fine di rivelare rilevanti proprietà nascoste del sistema economico soggiacente, sempre, ovviamente, nei limiti della modellizzazione adottata. In sintesi, ciò che questo lavoro intende ottenere è lo sviluppo di un approccio alternativo al trattamento dei big data a componente relazionale intrinseca (in questo caso le partecipazioni di capitale), verso la loro conversione in "big knowledge": da un insieme di dati cognitivamente inaccessibili, attraverso la strutturazione dell'informazione in modalità di rete, giungere ad una conoscenza sufficientemente chiara e giustificata.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il traffico dei veicoli sulla rete stradale è un fenomeno molto vario e complesso ma cresce sempre di più l'esigenza di monitoraggio e controllo. La difficoltà di studio secondo norme codificate porta a risultati diversi e disomogenei, si è quindi resa necessaria l'esigenza di definire una metodologia standardizzata agli analisti e operatori del settore. Lo scopo principale di questo tipo di analisi è quello di innalzare il livello di sicurezza stradale, creando degli archivi sulla base dei dati registrati dal sistema, per fare ciò vi è stata la necessità di: 1. Istallare dispositivi di rilevamento del flusso veicolare per trovare i punti di maggiore congestione del traffico. 2. Istallare dispositivi per misurare la quantità di agenti atmosferici e acustici inquinanti. Lo studio in questione nasce inoltre da ulteriori esigenze, sia da parte degli addetti alla sicurezza stradale, che dagli stessi utenti/automobilisti per rispondere a determinate esigenze quali: • Regolazione del traffico stradale • Conoscenza globale delle strade • Rilevamento di infrazioni • Assistenza agli utenti • Sicurezza delle infrastrutture stradali (gallerie, passaggi a livello, ecc.) • Manutenzione della strada • Studio e ricerca Oltre ai sistemi che hanno come scopo principale la sicurezza, è nata l'esigenza di progettare sistemi utili agli automobilisti per avere informazioni immediate, aggiornate e per conoscere in tempo reale le condizioni di scorrevolezza delle strade e quindi di risparmiare risorse in termini di tempo e carburante ed aumentare la coordinazione tra i veicoli. Il requisito fondamentale dei sistemi basati su questo tipo di funzionalità è quello di registrare in tempo reale le segnalazioni pervenute e di renderle immediatamente disponibili a tutti gli utenti/utilizzatori del sistema allo scopo di avere informazioni rilevanti riguardanti lo stato del traffico che consentano a questi ultimi di effettuare la scelta ottimale e quindi migliorare la mobilità generale in termini di riduzione della congestione, risparmio di consumi energetici e di conseguenza di emissioni di inquinanti ambientali. I sistemi di questo tipo possono essere definiti adattivi, cioè in grado di modificarsi in base a condizioni esterne al fine di coordinare efficacemente il flusso veicolare. Lo scopo di questi software è sopratutto funzionale, stimando infatti i tempi di percorrenza in determinate strade gli utenti avranno piena consapevolezza delle condizioni di quei segmenti quasi istantaneamente e potranno quindi agire di conseguenza in modo da migliorare i tempi di percorrenza.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo studio indaga le relazioni tra la scelta del percorso dei ciclisti e le caratteristiche operativo – funzionali delle diverse dotazioni ciclabili, partendo dall’ osservazione che alcuni archi realizzati in promiscuità con pedoni vengono esclusi dalla scelta del percorso di alcuni utenti. Uno dei fattori cui viene posta maggiore, soprattutto tra coloro che utilizzano la bicicletta per spostamenti sistematici casa-lavoro o scuola, è la velocità media. Se su un arco tale velocità risulta bassa l'utente può associare a tale arco una bassa utilità ed escluderlo quindi durante la fase di scelta del percorso. La condivisione dello spazio con pedoni determina interferenze e conflitti, che possono indurre una riduzione della velocità media, che può determinare una minore attrattività della dotazione. È stata condotta una campagna di indagine su tre archi ciclabili della rete ciclabile del Comune di Bologna, che ha visto l’utilizzo di telecamera portatile montata su casco di sicurezza, consentendo di poter usufruire di diversi vantaggi nel verificare l’entità delle interferenze e quantificarne l’ effetto sulla prestazione di velocità. Attraverso l’analisi statistica, non solo della velocità media mantenuta dagli operatori su pista e su strada, ma anche della sua variazione percentuale, si definisce il peso che viene attribuito alla presenza di altri utenti, pedoni, nell’ utilizzo delle infrastrutture ciclabili condivise attraverso la determinazione di un coefficiente di equivalenza bici-pedoni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Considerando l'elevato grado di inquinamento del pianeta e la forte dipendenza delle attività antropiche dai combustibili fossili, stanno avendo notevole sviluppo e incentivazione gli impianti per la produzione di energia elettrica da fonti rinnovabili. In particolare, la digestione anaerobica è in grande diffusione in Italia. Lo studio in oggetto si prefigge l'obiettivo di determinare, mediante analisi di Life Cycle Assessment (LCA), i carichi ambientali di un impianto di digestione anaerobica, e della sua filiera, per valutarne l'effettiva ecosostenibilità. L'analisi considera anche gli impatti evitati grazie all'immissione in rete dell'energia elettrica prodotta e all'utilizzo del digestato in sostituzione dell'urea. Lo studio analizza sei categorie d'impatto: Global warming potential (GWP), Abiotic depletion potential (ADP), Acidification potential (AP), Eutrophication potential (EP), Ozone layer depletion potential (ODP) e Photochemical oxidant formation potential (POFP). I valori assoluti degli impatti sono stati oggetto anche di normalizzazione per stabilire la loro magnitudo. Inoltre, è stata effettuata un'analisi di sensitività per investigare le variazioni degli impatti ambientali in base alla sostituzione di differenti tecnologie per la produzione di energia elettrica: mix elettrico italiano, carbone e idroelettrico. Infine, sono stati analizzati due scenari alternativi all'impianto in esame che ipotizzano la sua conversione ad impianto per l'upgrading del biogas a biometano. I risultati mostrano, per lo scenario di riferimento (produzione di biogas), un guadagno, in termini ambientali, per il GWP, l'ADP e il POFP a causa dei notevoli impatti causati dalla produzione di energia elettrica da mix italiano che la filiera esaminata va a sostituire. I risultati evidenziano anche quanto gli impatti ambientali varino in base alla tipologia di alimentazione del digestore anaerobica: colture dedicate o biomasse di scarto. I due scenari alternativi, invece, mostrano un aumento degli impatti, rispetto allo scenario di riferimento, causati soprattutto dagli ulteriori consumi energetici di cui necessitano sia i processi di purificazione del biogas in biometano sia i processi legati alla digestione anaerobica che, nel caso dello scenario di riferimento, sono autoalimentati. L'eventuale conversione dell'attuale funzione dell'impianto deve essere fatta tenendo anche in considerazione i benefici funzionali ed economici apportati dalla produzione del biometano rispetto a quella del biogas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dal punto di vista geometrico, il tracciato delle linee AV/AC è determinato in funzione delle velocità di progetto, attualmente variabili tra 250 e 300 km/h, e in modo da limitare i parametri cinematici. In questa maniera è assicurata la corretta qualità di marcia dei treni ad alta velocità. La sovrastruttura ferroviaria è realizzata in modo da sopportare i carichi dinamici trasmessi dai convogli transitanti a elevate velocità, e da garantire la sicurezza della circolazione e il comfort di marcia. In particolare, la qualità del binario ferroviario è determinata attraverso una serie di parametri geometrici fondamentali, definiti da Rete Ferroviaria Italiana. A seconda dei valori assunti da tali parametri, il binario rientra in un livello di qualità geometrica: sono definiti tre livelli per i quali la circolazione ferroviaria avviene senza limitazioni e un livello che richiede l’imposizione di vincoli all’esercizio (rallentamenti o interruzioni). L’introduzione dei parametri geometrici e dei rispettivi valori di riferimento ha lo scopo di mantenere elevati livelli qualitativi e di sicurezza per l’infrastruttura ferroviaria, in materia di geometria dell’armamento. Infatti, il superamento di certe soglie da parte dei parametri, implica l’intervento manutentivo sul binario, al fine di ripristinare la corretta geometria e di garantire così la qualità della marcia dei treni. La politica è quella d’intervento prima del raggiungimento del quarto livello di qualità, per il quale sono necessarie restrizioni alla circolazione e interventi correttivi immediati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi è stato affrontato un metodo sperimentale per la caratterizzazione elettromagnetica di un materiale plastico, ovvero l'acetato di cellulosa, fornito all'Università da una azienda della regione interessata ad un futuro impiego dell'acetato come materiale principale nelle "cover" di smartphone di ultima generazione. Il fine principale è quello di determinare le principali proprietà dielettriche del materiale, ovvero la permettività relativa o costante dielettrica e il fattore di dissipazione, o tangente di perdita, la cui conoscenza risulta il primo passo per per lo scopo iniziale dell'azienda. Il metodo impiegato fa uso di un risonatore in microstriscia a T, dato che il pattern della metallizzazione superiore assume questa forma. In questa tecnica avviene un confronto tra un prototipo reale di riferimento analizzato con VNA e un modello dello stesso risonatore realizzato all'interno del simulatore elettromagnetico CST, in particolare un confronto tra le frequenze di risonanza dei due casi, ricavate dall'andamento risonante dell'ampiezza di S21. I valori di permettività relativa e tangente di perdita vengono ricavati realizzando una moltitudine di simulazioni con CST fino a trovare il modello più simile al prototipo reale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Tesi sviluppa alcune ipotesi di riqualificazione degli asentamientos informales di Buenos Aires, quartieri periferici della metropoli dove si insedia –abusivamente- la popolazione con minori risorse economiche. Adottando l’approccio delle “agopunture”, l’ipotesi progettuale investe diverse scale d’intervento che dialogano tra loro, cercando di valorizzarne gli effetti combinati e di favorirne la reciproca integrazione. Assunte le limitate risorse esistenti come condizioni date, l’approccio adottato identifica nel capitale sociale il fattore di rinnovamento: la cooperazione tra gli abitanti –uniti per la risoluzione di problematiche comuni- diventa lo strumento per la generazione di micro-comunità più efficienti e vivibili. La strategia di un’ibridazione tra tecnologie tradizionali con materiali poveri ed elementi industrializzati e standardizzati garantisce una soluzione low cost e di maggior consenso da parte dei vecinos. Pur rinunciando a conseguire gli standard normativi, il progetto punta a soddisfare alcune fondamentali esigenze degli abitanti, migliora le loro condizioni di vita ed innesca dinamiche relazionali positive tra i vecinos. Gli interventi proposti prevedono il miglioramento della tenuta all’acqua dell’alloggio, la realizzazione di servizi igienici domiciliari, un sistema di allontanamento e trattamento dei reflui che trasformato in biogas alimenta la rete di illuminazione stradale, una serie di punti di prelievo e distribuzione di acqua potabile, la raccolta e lo smistamento dei rifiuti, un nuovo luogo d’incontro per la comunità. La parte preliminare affronta lo studio del contesto storico, sociale, territoriale, economico e l’assetto del settore delle costruzioni dell’Argentina e di Buenos Aires. La seconda parte della ricerca si concentra sul conurbano bonoarense e sugli asentamientos informales, per i quali i numerosi Piani governativi e di ONG sono risultate inefficaci. Si evita così un’operazione ‘calata dall’alto’. Dopo aver identificato le sette principali criticità riscontrate negli insediamenti, la ricerca delinea per ognuna di esse una o più strategie di miglioramento, ipotizzando azioni e possibili alternative che, valutate secondo una metodica comparativa, consentono di definire la soluzione più adeguata. Tra le sette proposte, la comunità definirà le priorità di intervento, quindi le modalità di esecuzione e di gestione ritenute adeguate per la realizzazione delle singole azioni. La ricerca approfondisce la conoscenza e tenta di mitigare il disagio di vivere ai margini, un tema di estrema rilevanza sociale, a cui l’architettura può fornire qualche risposta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Viene proposta una possibile soluzione al problema del tracking multitarget, tramite una rete di sensori radar basata su tecnoligia ultra wide-band. L'area sorvegliata ha una superficie pari a 100 metri quadri e all'interno di essa si vuole tracciare la traiettoria di più persone.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo del clustering è quindi quello di individuare strutture nei dati significative, ed è proprio dalla seguente definizione che è iniziata questa attività di tesi , fornendo un approccio innovativo ed inesplorato al cluster, ovvero non ricercando la relazione ma ragionando su cosa non lo sia. Osservando un insieme di dati ,cosa rappresenta la non relazione? Una domanda difficile da porsi , che ha intrinsecamente la sua risposta, ovvero l’indipendenza di ogni singolo dato da tutti gli altri. La ricerca quindi dell’indipendenza tra i dati ha portato il nostro pensiero all’approccio statistico ai dati , in quanto essa è ben descritta e dimostrata in statistica. Ogni punto in un dataset, per essere considerato “privo di collegamenti/relazioni” , significa che la stessa probabilità di essere presente in ogni elemento spaziale dell’intero dataset. Matematicamente parlando , ogni punto P in uno spazio S ha la stessa probabilità di cadere in una regione R ; il che vuol dire che tale punto può CASUALMENTE essere all’interno di una qualsiasi regione del dataset. Da questa assunzione inizia il lavoro di tesi, diviso in più parti. Il secondo capitolo analizza lo stato dell’arte del clustering, raffrontato alla crescente problematica della mole di dati, che con l’avvento della diffusione della rete ha visto incrementare esponenzialmente la grandezza delle basi di conoscenza sia in termini di attributi (dimensioni) che in termini di quantità di dati (Big Data). Il terzo capitolo richiama i concetti teorico-statistici utilizzati dagli algoritimi statistici implementati. Nel quarto capitolo vi sono i dettagli relativi all’implementazione degli algoritmi , ove sono descritte le varie fasi di investigazione ,le motivazioni sulle scelte architetturali e le considerazioni che hanno portato all’esclusione di una delle 3 versioni implementate. Nel quinto capitolo gli algoritmi 2 e 3 sono confrontati con alcuni algoritmi presenti in letteratura, per dimostrare le potenzialità e le problematiche dell’algoritmo sviluppato , tali test sono a livello qualitativo , in quanto l’obbiettivo del lavoro di tesi è dimostrare come un approccio statistico può rivelarsi un’arma vincente e non quello di fornire un nuovo algoritmo utilizzabile nelle varie problematiche di clustering. Nel sesto capitolo saranno tratte le conclusioni sul lavoro svolto e saranno elencati i possibili interventi futuri dai quali la ricerca appena iniziata del clustering statistico potrebbe crescere.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Studio e realizzazione di una rete wireless di microcontrollori dotati di sensori, che comunicano mediante protocollo ZigBee (basato sul protocollo IEEE 802.15.4).