952 resultados para Memoria semantica, Reti neurali, Regola di hebb, Memorie associative


Relevância:

100.00% 100.00%

Publicador:

Resumo:

I sistemi di intelligenza artificiale vengono spesso messi a confronto con gli aspetti biologici riguardanti il cervello umano. L’interesse per la modularità è in continua crescita, che sta portando a risultati davvero interessanti attraverso l’utilizzo di sistemi artificiali intelligenti, come le reti neuronali. Molte reti, sia biologiche sia artificiali sono organizzate in moduli, i quali rappresentano cluster densi di parti interconnesse fra loro all’interno di una rete complessa. Nel campo dell’ingegneria, si usano design modulari per spiegare come una macchina è costituita da parti separate. Lo studio della struttura e delle funzioni di organismi/processi complessi si basa implicitamente su un principio di organizzazione modulare, vale a dire si dà per acquisito il fatto che siano modulari, cioè composti da parti con forma e/o funzioni diverse. Questo elaborato si propone di esporre gli aspetti fondamentali riguardanti la modularità di reti neuronali, le sue origini evolutive, le condizioni necessarie o sufficienti che favoriscono l’emergere dei moduli e relativi vantaggi. Il primo capitolo fornisce alcune conoscenze di base che permettono di leggere gli esperimenti delle parti successive con consapevolezza teorica più profonda. Si descrivono reti neuronali artificiali come sistemi intelligenti ispirati alla struttura di reti neurali biologiche, soffermandosi in particolare sulla rete feed-forward, sull’algoritmo di backpropagation e su modelli di reti neurali modulari. Il secondo capitolo offre una visione delle origini evolutive della modularità e dei meccanismi evolutivi riguardanti sistemi biologici, una classificazione dei vati tipi di modularità, esplorando il concetto di modularità nell’ambito della psicologia cognitiva. Si analizzano i campi disciplinari a cui questa ricerca di modularità può portare vantaggi. Dal terzo capitolo che inizia a costituire il corpo centrale dell’elaborato, si dà importanza alla modularità nei sistemi computazionali, illustrando alcuni casi di studio e relativi metodi presenti in letteratura e fornendo anche una misura quantitativa della modularità. Si esaminano le varie possibilità di evoluzione della modularità: spontanea, da specializzazione, duplicazione, task-dependent, ecc. passando a emulare l’evoluzione di sistemi neurali modulari con applicazione al noto modello “What-Where” e a vari modelli con caratteristiche diverse. Si elencano i vantaggi che la modularità produce, soffermandosi sull’algoritmo di apprendimento, sugli ambienti che favoriscono l’evoluzione della modularità con una serie di confronti fra i vari tipi, statici e dinamici. In ultimo, come il vantaggio di avere connessioni corte possa portare a sviluppare modularità. L’obiettivo comune è l’emergere della modularità in sistemi neuronali artificiali, che sono usati per applicazioni in numerosi ambiti tecnologici.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

"Ricordi di scuola", il più celebre e personale tra i romanzi del giornalista, scrittore, umorista, nonché vignettista Giovanni Mosca, è il diario di un giovane maestro delle scuole elementari nella Roma fascista degli anni ’30. Il libro presenta uno stile semplice, fresco e lineare e racconta gli episodi di un maestro elementare e dei suoi alunni. La figura prevalente è sicuramente quella del maestro, un uomo “speciale” dalla personalità gentile, disponibile e per nulla severo, come ci si potrebbe aspettare, data l’epoca in cui il romanzo è ambientato, dimostrandosi comprensivo ed indulgente con i propri alunni senza però dimenticare la sua funzione educativa. Dal punto di vista della didattica il maestro Mosca si mostra diverso, quasi “rivoluzionario”. E’ un maestro che non dà voti e non boccia, che critica il nozionismo, i problemi astrusi e le poesie a memoria. Il racconto si compone di ventuno episodi, nei quali l’autore non nasconde la sua simpatia nei confronti degli alunni per la loro fantasia e la loro candida immaginazione e la sua ironia e la sua disapprovazione nei confronti degli adulti, di quei “grandi” che pensano di possedere la saggezza e la verità, ma che spesso si rivelano personaggi più immaturi e fragili dei loro stessi alunni. L’elaborato si compone di: introduzione al libro, traduzione di alcuni capitoli in lingua spagnola e analisi delle difficoltá traduttive incontrate durante la stesura.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le reti transeuropee sono uno dei vettori della competitività, dell’integrazione e dello sviluppo sostenibile dell’Unione. La tesi mette in luce la progressiva affermazione di una coerente politica infrastrutturale europea a carattere strumentale, esaminando tale evoluzione sotto tre profili: normativo, istituzionale e finanziario. In primo luogo, sotto il profilo normativo, la tesi evidenzia, da un lato, la progressiva emancipazione delle istituzioni dell’Unione dall’influenza degli Stati membri nell’esercizio delle proprie competenze in materia di reti transeuropee e, dall’altro, lo sviluppo di relazioni di complementarietà e specialità tra la politica di reti e altre politiche dell’Unione. L’elaborato sottolinea, in secondo luogo, sotto il profilo istituzionale, il ruolo del processo di «integrazione organica» dei regolatori nazionali e del processo di «agenzificazione» nel perseguimento degli obiettivi di interconnessione e accesso alle reti nazionali. La tesi osserva, infine, sotto il profilo finanziario, l’accresciuta importanza del sostegno finanziario dell’UE alla costituzione delle reti, che si è accompagnata al parziale superamento dei limiti derivanti dal diritto dell’UE alla politiche di spesa pubblica infrastrutturale degli Stati membri. Da un lato rispetto al diritto della concorrenza e, in particolare, al divieto di aiuti di stato, grazie al rapporto funzionale tra reti e prestazione di servizi di interesse economico generale, e dall’altro lato riguardo ai vincoli di bilancio, attraverso un’interpretazione evolutiva della cd. investment clause del Patto di stabilità e crescita. La tesi, in conclusione, rileva gli sviluppi decisivi della politica di reti europea, ma sottolinea il ruolo che gli Stati membri sono destinati a continuare ad esercitare nel suo sviluppo. Da questi ultimi, infatti, dipende la concreta attuazione di tale politica, ma anche il definitivo superamento, in occasione di una prossima revisione dei Trattati, dei retaggi intergovernativi che continuano a caratterizzare il diritto primario in materia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo elaborato si riporta la caratterizzazione energetica di un sistema a microcontrollore basato su tecnologia FRAM. Sono state analizzate le innovazioni e i vantaggi portati dall'introduzione della memoria FRAM, le migliori configurazioni di funzionamento del microcontrollore studiato al fine di raggiungere consumi energetici di sistema il più basso possibile.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il documento tratta la famiglia di metodologie di allenamento e sfruttamento delle reti neurali ricorrenti nota sotto il nome di Reservoir Computing. Viene affrontata un'introduzione sul Machine Learning in generale per fornire tutti gli strumenti necessari a comprendere l'argomento. Successivamente, vengono dati dettagli implementativi ed analisi dei vantaggi e punti deboli dei vari approcci, il tutto con supporto di codice ed immagini esplicative. Nel finale vengono tratte conclusioni sugli approcci, su quanto migliorabile e sulle applicazioni pratiche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo elaborato di tesi, viene progettata ed implementata una soluzione per gestire il processo di handover in ambiente Android. Tale proposta, è costituita da un algoritmo in grado di gestire automaticamente le interfacce di connessione dei dispostivi, in relazione alle preferenze e agli spostamenti effettuati dall'utente. Le prove sperimentali effettuate, confermano che tale proposta è una buona base per risolvere il problema dell'handover e si presta bene a cooperare con altri protocolli quali ABPS (Always Best Packet Switching). Inoltre l'applicazione si presta bene ad un semplice utilizzo e può essere impiegata anche come servizio eseguito in background, non richiedendo frequenti interazioni da parte dell'utente. Oltre all'algoritmo citato in precedenza, sono stati proposti altri dettagli implementativi, non presenti in letteratura. In particolare, vengono modificate alcune impostazioni di sistema, accedendo agli opportuni file, in modo tale che Android gestisca correttamente le scansioni delle interfacce e la loro attivazione/disattivazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La nostra tesi propone un progetto di riqualificazione funzionale ed energetica di una porzione dell’area dismessa delle Ex Officine Reggiane a Reggio Emilia che comprende uno spazio scoperto di circa 42.500 m2 e un fabbricato, nel quale proponiamo di realizzare il museo delle officine, spazi per esposizioni temporanee e il nuovo polo archivistico di Reggio Emilia. Le Officine Meccaniche Reggiane sono state un polo industriale di particolare rilevanza a livello nazionale ed internazionale, diventando negli anni ’40 la quarta potenza industriale italiana dopo Fiat,Ansaldo e Breda. Dismesse dal 2009, si presentano oggi come un’area abbandonata di ben 260.000 m2 nella quale convivono la memoria e la speranza futura di rilancio della città di Reggio Emilia nel panorama europeo. Sulle tracce dei progetti già messi in atto dall’Amministrazione comunale, abbiamo fornito una proposta progettuale che consideri le vocazioni funzionali dell’area e le strategie energetiche possibili per rendere il progetto sostenibile sia dal punto di vista ambientale che dal punto di vista economico. Il lavoro è partito dalla definizione di un quadro conoscitivo dell’area attraverso una prima fase di analisi a livello territoriale e microclimatico servendosi per queste ultime del software di simulazione in regime dinamico ENVI-met. Questa prima fase si è conclusa con l’elaborazione di un masterplan, in seguito al quale ci siamo soffermate sul progetto di riqualificazione del capannone 15 e del grande spazio vuoto antistante ad esso. L’intervento sul costruito si può riassumere in tre parole chiave: conservare, aggiornare, integrare. Abbiamo scelto infatti di mantenere la robusta e ritmata struttura in acciaio, ripensare l’involucro edilizio in termini di una maggiore efficienza energetica e confinare i locali climatizzati in volumi autoportanti, garantendo, nell’atrio, condizioni di comfort termico accettabili unicamente attraverso strategie energetiche passive. Per verificare l’effettiva opportunità della soluzione ipotizzata ci siamo servite del software di simulazione fluidodinamica IES VE, il quale, attraverso la simulazione oraria del cambiamento dei parametri ambientali più rilevanti e degli indicatori di benessere (PMV, Comfort index, PPD..), ha confermato le nostre aspettative verificando che non è necessario intervenire con l’introduzione di sistemi di climatizzazione convenzionale. Per quanto riguarda i padiglioni entro i quali sono pensate le attività di servizio e supporto al museo e l’archivio, è stata verificata la soddisfacente prestazione energetica raggiunta attraverso l’utilizzo del software Termolog Epix5, il quale ha attestato che essi rientrano nella classe A con un consumo energetico di 4,55 kWh/m3annuo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le azioni che un robot dovrà intraprendere per riuscire a portare a termine un determinato task non sono sempre note a priori. In situazioni dove l’ambiente in cui il robot si muove e con cui interagisce risulta impredicibile, variabile o persino ignoto, diventa pressocché impossibile progettare un algoritmo universale, che tenga conto di tutte le possibili variabili, avvalendosi dei metodi classici di programmazione e design. La Robotica Evolutiva (ER) è una branca della Computazione Evolutiva (EC) che si occupa di risolvere questo problema avvalendosi di specifici Algoritmi Evolutivi (EA) applicati alla robotica. Gli utilizzi della Robotica Evolutiva sono molteplici e spaziano dalla ricerca di soluzioni per problemi/task complessi allo studio e alla riproduzione di fenomeni fisiologici e biologici per riuscire a comprendere (o ipotizzare) l’evoluzione di alcuni tratti genetici presenti nel genere animale/umano. Lo scopo di questo elaborato è di predisporre una base, una visione generale per chiunque voglia intraprendere studi approfonditi nella Robotica Evolutiva, esaminando lo stato attuale delle sperimentazioni, gli obiettivi raggiunti e le sfide che ogni ricercatore di ER deve affrontare ogni giorno per riuscire portare questo campo di studi nel mondo reale, fuori dall’ambiente simulato e ideale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo elaborato concerne la revisione della letteratura scientifica relativa alla teorizzazione e realizzazione tecnologica del memristor, un nuovo componente elettronico teorizzato nel 1971 e realizzato solo nel 2008 nei laboratori della HP (Hewlett Packard, Palo Alto, California). Dopo una descrizione in termini matematici della teoria fisica alla base del dispositivo e del suo funzionamento, viene descritta la sua realizzazione tecnologica e il corrispettivo modello teorico. Succesivamente il lavoro discute la possibile analogia tra il funzionamento del memristor ed il funzionamento di neuroni e sinapsi biologiche all'interno del Sistema Nervoso Centrale. Infine, vengono descritte le architetture recentemente proposte per l'implementazione di reti neurali artificiali fondate su un sistema computazionale parallelo e realizzate mediante sistemi ibridi transistors/memristors.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Description based on: Ser. 2, t. 1, pub. 1881.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi si occupa della teoria delle ranking functions di W. Spohn, dottrina epistemologica il cui fine è dare una veste logica rigorosa ai concetti di causalità, legge di natura, spiegazione scientifica, a partire dalla nozione di credenza. Di tale teoria manca ancora una esposizione organica e unitaria e, soprattutto, formulata in linguaggio immediatamente accessibile. Nel mio lavoro, che si presenta come introduzione ad essa, è anche messa a raffronto con le teorie che maggiormente l’hanno influenzata o rispetto alle quali si pone come avversaria. Il PRIMO CAPITOLO si concentra sulla teoria di P. Gärdenfors, il più diretto predecessore e ispiratore di Spohn. Questo consente al lettore di acquisire familiarità con le nozioni di base della logica epistemica. La conoscenza, nella teoria del filosofo svedese, è concepita come processo di acquisizione ed espulsione di credenze, identificate con proposizioni, da un insieme. I tre maggiori fenomeni epistemici sono l’espansione, la revisione e la contrazione. Nel primo caso si immagazzina una proposizione in precedenza sconosciuta, nel secondo se ne espelle una a causa dell’acquisizione della sua contraddittoria, nel terzo si cancella una proposizione per amore di ipotesi e si investigano le conseguenze di tale cancellazione. Controparte linguistica di quest’ultimo fenomeno è la formulazione di un condizionale controfattuale. L’epistemologo, così come Gärdenfors concepisce il suo compito, è fondamentalmente un logico che deve specificare funzioni: vale a dire, le regole che deve rispettare ciascun passaggio da un insieme epistemico a un successivo per via di espansione, revisione e contrazione. Il SECONDO CAPITOLO tratta infine della teoria di Spohn, cercando di esporla in modo esauriente ma anche molto semplice. Anche in Spohn evidentemente il concetto fondamentale è quello di funzione: si tratta però in questo caso di quella regola di giudizio soggettivo che, a ciascuna credenza, identificata con una proposizione, associa un grado (un rank), espresso da un numero naturale positivo o dallo zero. Un rank è un grado di non-credenza (disbelief). Perché la non-credenza (che comporta un notevole appesantimento concettuale)? Perché le leggi della credenza così concepite presentano quella che Spohn chiama una “pervasiva analogia” rispetto alle leggi della probabilità (Spohn la chiama persino “armonia prestabilita” ed è un campo su cui sta ancora lavorando). Essenziale è il concetto di condizionalizzazione (analogo a quello di probabilità condizionale): a una credenza si associa un rank sulla base di (almeno) un’altra credenza. Grazie a tale concetto Spohn può formalizzare un fenomeno che a Gärdenfors sfugge, ossia la presenza di correlazioni interdoxastiche tra le credenze di un soggetto. Nella logica epistemica del predecessore, infatti, tutto si riduce all’inclusione o meno di una proposizione nell’insieme, non si considerano né gradi di credenza né l’idea che una credenza sia creduta sulla base di un’altra. Il TERZO CAPITOLO passa alla teoria della causalità di Spohn. Anche questa nozione è affrontata in prospettiva epistemica. Non ha senso, secondo Spohn, chiedersi quali siano i tratti “reali” della causalità “nel mondo”, occorre invece studiare che cosa accade quando si crede che tra due fatti o eventi sussista una correlazione causale. Anche quest’ultima è fatta oggetto di una formalizzazione logica rigorosa (e diversificata, infatti Spohn riconosce vari tipi di causa). Una causa “innalza lo status epistemico” dell’effetto: vale a dire, quest’ultimo è creduto con rank maggiore (ossia minore, se ci si concentra sulla non-credenza) se condizionalizzato sulla causa. Nello stesso capitolo espongo la teoria della causalità di Gärdenfors, che però è meno articolata e minata da alcuni errori. Il QUARTO CAPITOLO è tutto dedicato a David Lewis e alla sua teoria controfattuale della causalità, che è il maggiore avversario tanto di Spohn quanto di Gärdenfors. Secondo Lewis la migliore definizione di causa può essere data in termini controfattuali: la causa è un evento tale che, se non fosse accaduto, nemmeno l’effetto sarebbe accaduto. Naturalmente questo lo obbliga a specificare una teoria delle condizioni di verità di tale classe di enunciati che, andando contro i fatti per definizione, non possono essere paragonati alla realtà. Lewis ricorre allora alla dottrina dei mondi possibili e della loro somiglianza comparativa, concludendo che un controfattuale è vero se il mondo possibile in cui il suo antecedente e il suo conseguente sono veri è più simile al mondo attuale del controfattuale in cui il suo antecedente è vero e il conseguente è falso. Il QUINTO CAPITOLO mette a confronto la teoria di Lewis con quelle di Spohn e Gärdenfors. Quest’ultimo riduce i controfattuali a un fenomeno linguistico che segnala il processo epistemico di contrazione, trattato nel primo capitolo, rifiutando così completamente la dottrina dei mondi possibili. Spohn non affronta direttamente i controfattuali (in quanto a suo dire sovraccarichi di sottigliezze linguistiche di cui non vuole occuparsi – ha solo un abbozzo di teoria dei condizionali) ma dimostra che la sua teoria è superiore a quella di Lewis perché riesce a rendere conto, con estrema esattezza, di casi problematici di causalità che sfuggono alla formulazione controfattuale. Si tratta di quei casi in cui sono in gioco, rafforzandosi a vicenda o “concorrendo” allo stesso effetto, più fattori causali (casi noti nella letteratura come preemption, trumping etc.). Spohn riesce a renderne conto proprio perché ha a disposizione i rank numerici, che consentono un’analisi secondo cui a ciascun fattore causale è assegnato un preciso ruolo quantitativamente espresso, mentre la dottrina controfattuale è incapace di operare simili distinzioni (un controfattuale infatti è vero o falso, senza gradazioni). Il SESTO CAPITOLO si concentra sui modelli di spiegazione scientifica di Hempel e Salmon, e sulla nozione di causalità sviluppata da quest’ultimo, mettendo in luce soprattutto il ruolo (problematico) delle leggi di natura e degli enunciati controfattuali (a questo proposito sono prese in considerazione anche le famose critiche di Goodman e Chisholm). Proprio dalla riflessione su questi modelli infatti è scaturita la teoria di Gärdenfors, e tanto la dottrina del filosofo svedese quanto quella di Spohn possono essere viste come finalizzate a rendere conto della spiegazione scientifica confrontandosi con questi modelli meno recenti. Il SETTIMO CAPITOLO si concentra sull’analisi che la logica epistemica fornisce delle leggi di natura, che nel capitolo precedente sono ovviamente emerse come elemento fondamentale della spiegazione scientifica. Secondo Spohn le leggi sono innanzitutto proposizioni generali affermative, che sono credute in modo speciale. In primo luogo sono credute persistentemente, vale a dire, non sono mai messe in dubbio (tanto che se si incappa in una loro contro-istanza si va alla ricerca di una violazione della normalità che la giustifichi). In secondo luogo, guidano e fondano la credenza in altre credenze specifiche, che sono su di esse condizionalizzate (si riprendono, con nuovo rigore logico, le vecchie idee di Wittgenstein e di Ramsey e il concetto di legge come inference ticket). In terzo luogo sono generalizzazioni ricavate induttivamente: sono oggettivazioni di schemi induttivi. Questo capitolo si sofferma anche sulla teoria di legge offerta da Gärdenfors (analoga ma embrionale) e sull’analisi che Spohn fornisce della nozione di clausola ceteris paribus. L’OTTAVO CAPITOLO termina l’analisi cominciata con il sesto, considerando finalmente il modello epistemico della spiegazione scientifica. Si comincia dal modello di Gärdenfors, che si mostra essere minato da alcuni errori o comunque caratterizzato in modo non sufficientemente chiaro (soprattutto perché non fa ricorso, stranamente, al concetto di legge). Segue il modello di Spohn; secondo Spohn le spiegazioni scientifiche sono caratterizzate dal fatto che forniscono (o sono finalizzate a fornire) ragioni stabili, vale a dire, riconducono determinati fenomeni alle loro cause e tali cause sono credute in modo persistente. Con una dimostrazione logica molto dettagliata e di acutezza sorprendente Spohn argomenta che simili ragioni, nel lungo periodo, devono essere incontrate. La sua quindi non è solo una teoria della spiegazione scientifica che elabori un modello epistemico di che cosa succede quando un fenomeno è spiegato, ma anche una teoria dello sviluppo della scienza in generale, che incoraggia a perseguire la ricerca delle cause come necessariamente coronata da successo. Le OSSERVAZIONI CONCLUSIVE fanno il punto sulle teorie esposte e sul loro raffronto. E’ riconosciuta la superiorità della teoria di Spohn, di cui si mostra anche che raccoglie in pieno l’eredità costruttiva di Hume, al quale gli avversari si rifanno costantemente ma in modo frammentario. Si analizzano poi gli elementi delle teorie di Hempel e Salmon che hanno precorso l’impostazione epistemica. La teoria di Spohn non è esente però da alcuni punti ancora problematici. Innanzitutto, il ruolo della verità; in un primo tempo Spohn sembra rinunciare, come fa esplicitamente il suo predecessore, a trattare la verità, salvo poi invocarla quando si pone il grave problema dell’oggettivazione delle ranking functions (il problema si presenta poiché di esse inizialmente si dice che sono regole soggettive di giudizio e poi si identificano in parte con le leggi di natura). C’è poi la dottrina dei gradi di credenza che Spohn dice presentarsi “unitamente alle proposizioni” e che costituisce un inutile distacco dal realismo psicologico (critica consueta alla teoria): basterebbe osservare che i gradi di credenza sono ricavati o per condizionalizzazione automatica sulla base del tipo di fonte da cui una proposizione proviene, o per paragone immaginario con altre fonti (la maggiore o minore credenza infatti è un concetto relazionale: si crede di più o di meno “sulla base di…” o “rispetto a…”). Anche la trattazione delle leggi di natura è problematica; Spohn sostiene che sono ranking functions: a mio avviso invece esse concorrono a regole di giudizio, che prescrivono di impiegare le leggi stesse per valutare proposizioni o aspettative. Una legge di natura è un ingranaggio, per così dire, di una valutazione di certezza ma non si identifica totalmente con una legge di giudizio. I tre criteri che Spohn individua per distinguere le leggi poi non sono rispettati da tutte e sole le leggi stesse: la generalizzazione induttiva può anche dare adito a pregiudizi, e non di tutte le leggi si sono viste, individualmente, istanze ripetute tanto da giustificarle induttivamente. Infine, un episodio reale di storia della scienza come la scoperta della sintesi dell’urea da parte di F. Wöhler (1828 – ottenendo carbammide, organico, da due sostanze inorganiche, dimostra che non è vera la legge di natura fini a quel momento presunta tale secondo cui “sostanze organiche non possono essere ricavate da sostanze inorganiche”) è indice che le leggi di natura non sono sempre credute in modo persistente, cosicché per comprendere il momento della scoperta è pur sempre necessario rifarsi a una teoria di tipo popperiano, rispetto alla quale Spohn presenta invece la propria in assoluta antitesi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The need for high bandwidth, due to the explosion of new multi\-media-oriented IP-based services, as well as increasing broadband access requirements is leading to the need of flexible and highly reconfigurable optical networks. While transmission bandwidth does not represent a limit due to the huge bandwidth provided by optical fibers and Dense Wavelength Division Multiplexing (DWDM) technology, the electronic switching nodes in the core of the network represent the bottleneck in terms of speed and capacity for the overall network. For this reason DWDM technology must be exploited not only for data transport but also for switching operations. In this Ph.D. thesis solutions for photonic packet switches, a flexible alternative with respect to circuit-switched optical networks are proposed. In particular solutions based on devices and components that are expected to mature in the near future are proposed, with the aim to limit the employment of complex components. The work presented here is the result of part of the research activities performed by the Networks Research Group at the Department of Electronics, Computer Science and Systems (DEIS) of the University of Bologna, Italy. In particular, the work on optical packet switching has been carried on within three relevant research projects: the e-Photon/ONe and e-Photon/ONe+ projects, funded by the European Union in the Sixth Framework Programme, and the national project OSATE funded by the Italian Ministry of Education, University and Scientific Research. The rest of the work is organized as follows. Chapter 1 gives a brief introduction to network context and contention resolution in photonic packet switches. Chapter 2 presents different strategies for contention resolution in wavelength domain. Chapter 3 illustrates a possible implementation of one of the schemes proposed in chapter 2. Then, chapter 4 presents multi-fiber switches, which employ jointly wavelength and space domains to solve contention. Chapter 5 shows buffered switches, to solve contention in time domain besides wavelength domain. Finally chapter 6 presents a cost model to compare different switch architectures in terms of cost.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il progetto di intervento per la ricostruzione dell’Aquila è il frutto del lavoro sul discusso e attuale tema del terremoto del 6 aprile 2009 in Abruzzo, che ha profondamente colpito la città ed il suo territorio. Quest’ultimo è stato l’elemento fondativo da cui partire in fase progettuale, affinchè la memoria possa diventare nuovamente fonte di identità e dove il paesaggio rappresenti un dialogo costante tra passato e presente, dove gli spazi aperti assumano il ruolo di rinnovata struttura generativa. Lo scenario che si prospetta dopo il sisma, mostra come sia forte la necessità di ritornare alla propria città, l’Aquila, attraverso la fruizione di spazi di relazione pubblici quali le piazze, le chiese e gli spazi privati dell’abitazione. L’intervento all’interno del quartiere di San Silvestro in cui si è sviluppato il progetto, rappresenta una realtà molteplice e complessa in cui più elementi interagiscono tra loro. Per questo, il progetto si pone come obiettivo quello di “intrecciare relazioni”, ossia creare legami tra sistemi ed elementi ora disgiunti che, se tra loro connessi, diventano l’occasione per far rivivere la città. La volontà di creare relazioni si è definita attraverso diverse azioni; una di queste è la scelta di intervenire a scala urbana, definendo un nuovo sistema viario che possa svincolare il centro dal percorso congestionato di via Duca degli Abruzzi. L’intervento previsto su macroscala non solo ha l’obbiettivo di tutelare il centro storico dal traffico carrabile, ma privilegia la circolazione pedonale all’interno del quartiere, cercando di restituire una percezione dello spazio a misura d’uomo. Altro aspetto caratterizzante il progetto è la volontà di “ricostruire scene urbane” caratteristiche del centro storico aquilano, consolidando gli spazi di aggregazione già esistenti come piazza san Silvestro e inserendo nuovi spazi di relazione in corrispondenza di porta Branconia, un punto nevralgico del progetto perché congiunge la cinta muraria con il centro storico e con la città all’esterno delle mura. Il progetto prevede che il sistema del verde retrostante sia accessibile attraverso percorsi nel verde che, dal centro, confluiscono sull’asse commerciale di via della Croce Rossa. La definizione della parte più storica del quartiere di San Silvestro avviene attraverso un sistema di nuovi elementi che dialogano con le preesistenze storiche: un complesso di alloggi che si sviluppa nel lotto adiacente la chiesa, secondo la tipologia a schiera, ha un duplice affaccio, su via Duca degli Abruzzi da un lato e su via Sant’Agnese dall’altro; un nuovo museo per la città che si colloca su piazza San Silvestro confrontandosi direttamente con la Chiesa e col palazzo Branconi-Farinosi, rispettandone il ruolo e l’importanza. Nell’area di espansione, limitrofa al già esistente quartiere di San Silvestro, si è cercati di privilegiare la relazione della città col suolo: a tal proposito l’andamento delle curve di livello presenti, dà origine a strade per l’accesso agli alloggi sociali che confluiscono nel verde adiacente le mura della città. L’elemento unificatore di questo nuovo impianto risulta essere dunque il parco pubblico che costeggia le mura, congiungendo piazza S. Silvestro con l’estremità ovest dell’area e con i percorsi pedonali che caratterizzano tutta l’area di progetto trovando la massima espressione in prossimità proprio delle mura storiche. Attraverso queste prime intenzioni progettuali si è cercato di sviluppare un sistema organico e coerente di elementi capaci di dialogare con il contesto circostante e di instaurare nuove relazioni con la città. Se consideriamo le diverse componenti che formano il sistema possiamo evidenziare la presenza di elementi serventi, quali gli spazi aventi funzione pubblica, e di elementi serviti, come le residenze, aventi funzione privata. In particolare, il sistema residenziale, assume uno sviluppo uniforme ed omogeneo all’interno dell’area di intervento articolandosi con differenti connotazioni a seconda del diverso contesto circostante.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il Cloud Storage è un modello di conservazione dati su computer in rete, dove i dati stessi sono memorizzati su molteplici server, reali e/o virtuali, generalmente ospitati presso strutture di terze parti o su server dedicati. Tramite questo modello è possibile accedere alle informazioni personali o aziendali, siano essi video, fotografie, musica, database o file in maniera “smaterializzata”, senza conoscere l’ubicazione fisica dei dati, da qualsiasi parte del mondo, con un qualsiasi dispositivo adeguato. I vantaggi di questa metodologia sono molteplici: infinita capacita’ di spazio di memoria, pagamento solo dell’effettiva quantità di memoria utilizzata, file accessibili da qualunque parte del mondo, manutenzione estremamente ridotta e maggiore sicurezza in quanto i file sono protetti da furto, fuoco o danni che potrebbero avvenire su computer locali. Google Cloud Storage cade in questa categoria: è un servizio per sviluppatori fornito da Google che permette di salvare e manipolare dati direttamente sull’infrastruttura di Google. In maggior dettaglio, Google Cloud Storage fornisce un’interfaccia di programmazione che fa uso di semplici richieste HTTP per eseguire operazioni sulla propria infrastruttura. Esempi di operazioni ammissibili sono: upload di un file, download di un file, eliminazione di un file, ottenere la lista dei file oppure la dimensione di un dato file. Ogniuna di queste richieste HTTP incapsula l’informazione sul metodo utilizzato (il tipo di richista, come GET, PUT, ...) e un’informazione di “portata” (la risorsa su cui effettuare la richiesta). Ne segue che diventa possibile la creazione di un’applicazione che, facendo uso di queste richieste HTTP, fornisce un servizio di Cloud Storage (in cui le applicazioni salvano dati in remoto generalmene attraverso dei server di terze parti). In questa tesi, dopo aver analizzato tutti i dettagli del servizio Google Cloud Storage, è stata implementata un’applicazione, chiamata iHD, che fa uso di quest’ultimo servizio per salvare, manipolare e condividere dati in remoto (nel “cloud”). Operazioni comuni di questa applicazione permettono di condividere cartelle tra più utenti iscritti al servizio, eseguire operazioni di upload e download di file, eliminare cartelle o file ed infine creare cartelle. L’esigenza di un’appliazione di questo tipo è nata da un forte incremento, sul merato della telefonia mobile, di dispositivi con tecnologie e con funzioni sempre più legate ad Internet ed alla connettività che esso offre. La tesi presenta anche una descrizione delle fasi di progettazione e implementazione riguardanti l’applicazione iHD. Nella fase di progettazione si sono analizzati tutti i requisiti funzionali e non funzionali dell’applicazione ed infine tutti i moduli da cui è composta quest’ultima. Infine, per quanto riguarda la fase di implementazione, la tesi presenta tutte le classi ed i rispettivi metodi presenti per ogni modulo, ed in alcuni casi anche come queste classi sono state effettivamente implementate nel linguaggio di programmazione utilizzato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Perché L’Aquila? A seguito del sisma del 2009, L’Aquila offre un’occasione per riflessioni su temi urbanistici e di composizione urbana, oltre che un reale campo di sperimentazione architettonica. Perché il centro storico? Come cuore culturale ed economico dell’intera vallata dell’Aterno, il centro storico rappresenta una priorità per la Ricostruzione; il suo valore storico è la sintesi consolidata nel tempo del rapporto di una società con i luoghi della propria residenza. Una memoria da difendere attraverso l’elaborazione di strategie di intervento e idee di progetto. Qual è l’obiettivo? Il lavoro di ricerca e di progettazione mira ad individuare degli scenari e proporre delle idee di ricostruzione per tornare ad abitare il centro storico. Qual è il metodo? Per affrontare una situazione così complessa è indispensabile una conoscenza storica della struttura urbana della città prima del sisma. Inoltre è necessario comprendere l’evoluzione degli eventi (da aprile del 2009 al luglio 2011) al fine di riconoscere quali direzioni possibili può prendere un progetto che si inserisce, oggi, in un sistema ancora in cerca di un equilibrio. La Ricostruzione, intesa come processo strategico e progettuale di ridefinizione degli equilibri e delle prospettive, consente, ma forse ancor meglio esige, un ripensamento complessivo ed organico dell’intera struttura urbana. Si tratta quindi di ridefinire le relazioni tra la città storica e la sua periferia comprendendo il rapporto che un progetto di Ricostruzione può avere nel medio e lungo termine, il tutto in un contesto economico e soprattutto sociale in forte trasformazione. Il progetto propone così un nuovo complesso di residenze universitarie che potrà accogliere settantadue studenti insieme a diversi servizi quali sale lettura, sale polivalenti e una mensa. Si prevede inoltre il potenziamento della struttura di accoglienza dei salesiani con 8 nuovi alloggi per professori e una nuova Biblioteca. Il progetto vuole ricreare una continuità nel sistema del verde urbano come mezzo più appropriato e idoneo per relazionare la prima periferia alla città murata.