533 resultados para Unite Cube


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ambient Intelligence (AmI) envisions a world where smart, electronic environments are aware and responsive to their context. People moving into these settings engage many computational devices and systems simultaneously even if they are not aware of their presence. AmI stems from the convergence of three key technologies: ubiquitous computing, ubiquitous communication and natural interfaces. The dependence on a large amount of fixed and mobile sensors embedded into the environment makes of Wireless Sensor Networks one of the most relevant enabling technologies for AmI. WSN are complex systems made up of a number of sensor nodes, simple devices that typically embed a low power computational unit (microcontrollers, FPGAs etc.), a wireless communication unit, one or more sensors and a some form of energy supply (either batteries or energy scavenger modules). Low-cost, low-computational power, low energy consumption and small size are characteristics that must be taken into consideration when designing and dealing with WSNs. In order to handle the large amount of data generated by a WSN several multi sensor data fusion techniques have been developed. The aim of multisensor data fusion is to combine data to achieve better accuracy and inferences than could be achieved by the use of a single sensor alone. In this dissertation we present our results in building several AmI applications suitable for a WSN implementation. The work can be divided into two main areas: Multimodal Surveillance and Activity Recognition. Novel techniques to handle data from a network of low-cost, low-power Pyroelectric InfraRed (PIR) sensors are presented. Such techniques allow the detection of the number of people moving in the environment, their direction of movement and their position. We discuss how a mesh of PIR sensors can be integrated with a video surveillance system to increase its performance in people tracking. Furthermore we embed a PIR sensor within the design of a Wireless Video Sensor Node (WVSN) to extend its lifetime. Activity recognition is a fundamental block in natural interfaces. A challenging objective is to design an activity recognition system that is able to exploit a redundant but unreliable WSN. We present our activity in building a novel activity recognition architecture for such a dynamic system. The architecture has a hierarchical structure where simple nodes performs gesture classification and a high level meta classifiers fuses a changing number of classifier outputs. We demonstrate the benefit of such architecture in terms of increased recognition performance, and fault and noise robustness. Furthermore we show how we can extend network lifetime by performing a performance-power trade-off. Smart objects can enhance user experience within smart environments. We present our work in extending the capabilities of the Smart Micrel Cube (SMCube), a smart object used as tangible interface within a tangible computing framework, through the development of a gesture recognition algorithm suitable for this limited computational power device. Finally the development of activity recognition techniques can greatly benefit from the availability of shared dataset. We report our experience in building a dataset for activity recognition. Such dataset is freely available to the scientific community for research purposes and can be used as a testbench for developing, testing and comparing different activity recognition techniques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract L’utilizzo dei dati satellitari per la gestione dei disastri naturali è fondamentale nei paesi in via di sviluppo, dove raramente esiste un censimento ed è difficile per i governi aggiornare le proprie banche dati con le tecniche di rilevamento e metodi di mappatura tradizionali che sono entrambe lunghe e onerose. A supporto dell’importanza dell’impiego del telerilevamento e per favorirne l’uso nel caso di catastrofi, vi è l’operato di diverse organizzazioni internazionali promosse da enti di ricerca, da agenzie governative o da organismi sopranazionali, le quali svolgono un lavoro di cruciale valore, fornendo sostegno tecnico a chi si occupa di far giungere alle popolazioni colpite gli aiuti umanitari e i soccorsi nel più breve tempo possibile. L’attività di tesi è nata proprio dalla collaborazione con una di esse, ITHACA (Information Technology for Humanitarian Assistance, Cooperation and Action), organizzazione no-profit, fondata dal Politecnico di Torino e SiTI (Istituto Superiore sui Sistemi Territoriali per l’Innovazione), la quale a sua volta collabora con il WFP (World Food Programme) delle Nazioni Unite, realizzando cartografie speditive necessarie per la valutazione delle conseguenze di un evento catastrofico, attraverso l’impiego di dati acquisiti da satellite. Su questo tema si è inserito il presente lavoro che ha come obiettivo quello di dimostrare la valenza dei dati telerilevati, siano essi di tipo ottico o Radar, nel caso di alcuni dei disastri naturali più catastrofici, le alluvioni. In particolare è stata studiata la vulnerabilità del Bangladesh, il quale annualmente si trova ad affrontare eventi alluvionali, spesso di grave intensità. Preliminarmente allo studio, è stata condotta una ricerca bibliografica al fine di avere una buona conoscenza dell’area sia in termini geografici e fisici che di sviluppo e tipologia di urbanizzazione. E’stata indagata in particolare l’alluvione che ha colpito il paese nel Luglio del 2004, attraverso delle immagini satellitari multispettrali, in particolare Landsat 7, per un inquadramento pre-evento, ed ASTER per studiare la situazione a distanza di tre mesi dall’accaduto (immagine rilevata il 20 Ottobre 2004). Su tali immagini sono state condotte delle classificazioni supervisionate con il metodo della massima verosimiglianza che hanno portato la suddivisione del territorio in quattro classi di destinazione d’uso del suolo: urbano (Build-up), campi e vegetazione (Crops&Vegetation), sabbia e scavi (Sand&Excavation), idrografia e zone alluvionate (Water). Dalla sperimentazione è emerso come tali immagini multispettrali si prestino molto bene per l’analisi delle differenti caratteristiche del territorio, difatti la validazione condotta sulla mappa tematica derivata dall’immagine Landsat 7 ha portato ad un’accuratezza del 93% circa, mentre la validazione dell’immagine ASTER è stata solo di tipo qualitativo, in quanto, considerata l’entità della situazione rilevata, non è stato possibile avere un confronto con dei punti da assumere come verità a terra. Un’interpretazione della mappa tematica derivante dalla classificazione dell’immagine ASTER è stata elaborata incrociandola in ambiente GIS con dati forniti dal CEGIS (Center for Environmental and Geographic Information Services) riguardanti il landuse della zona in esame; da ciò è emerso che le zone destinate alla coltivazione del riso sono più vulnerabili alle inondazioni ed in particolare nell’Ottobre 2004 il 95% delle aree esondate ha interessato tali colture. Le immagini ottiche presentano un grosso limite nel caso delle alluvioni: la rilevante copertura nuvolosa che spesso accompagna siffatti eventi impedisce ai sensori satellitari operanti nel campo dell’ottico di rilevare il territorio, e per questo di frequente essi non si prestano ad essere impiegati per un’indagine nella fase di prima emergenza. In questa circostanza, un valido aiuto giunge dall’impiego di immagini Radar, le quali permettono osservazioni ad ogni ora del giorno e della notte, anche in presenza di nuvole, rendendole di fondamentale importanza nelle situazioni descritte. Per dimostrare la validità di questi sensori si sono analizzati due subset derivanti da un mosaico di immagini della nuova costellazione italiana ad alta risoluzione CosmoSkymed: il primo va dalla città di Dhaka al Golfo del Bengala ed il secondo copre la zona più a Nord nel distretto di Sylhet. Dalla sperimentazione condotta su tali immagini radar, che ha comportato come ovvio problematiche del tutto differenti rispetto alle elaborazioni tradizionalmente condotte su immagini nel campo dell’ottico, si è potuto verificare come l’estrazione dei corpi d’acqua e più in generale dell’idrografia risulti valida e di veloce computazione. Sono emersi tuttavia dei problemi, per esempio per quanto riguarda la classificazione dell’acqua in presenza di rilievi montuosi; tali complicazioni sono dovute alla presenza di zone d’ombra che risultano erroneamente assegnate alla classe water, ma è stato possibile correggere tali errori di attribuzione mascherando i rilievi con l’ausilio di una mappa delle pendenze ricavata da modelli di elevazione SRTM (Shuttle Radar Topographic Mission). La validazione dei risultati della classificazione, condotta con un grande numero di check points, ha fornito risultati molto incoraggianti (ca. 90%). Nonostante le problematiche riscontrate, il Radar, in sé o in accoppiamento con altri dati di diversa origine, si presta dunque a fornire in breve tempo informazioni sull’estensione dell’esondazione, sul grado di devastazione, sulle caratteristiche delle aree esondate, sulle vie di fuga più adatte, diventando un’importante risorsa per chi si occupa di gestire l’emergenza in caso di eventi calamitosi. L’integrazione con i dati di tipo ottico è inoltre essenziale per pervenire ad una migliore caratterizzazione del fenomeno, sia in termini di change detection che di monitoraggio post-evento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Benessere delle popolazioni, gestione sostenibile delle risorse, povertà e degrado ambientale sono dei concetti fortemente connessi in un mondo in cui il 20% della popolazione mondiale consuma più del 75% delle risorse naturali. Sin dal 1992 al Summit della Terra a Rio de Janeiro si è affermato il forte legame tra tutela dell’ambiente e riduzione della povertà, ed è anche stata riconosciuta l’importanza di un ecosistema sano per condurre una vita dignitosa, specialmente nelle zone rurali povere dell’Africa, dell’Asia e dell’America Latina. La natura infatti, soprattutto per le popolazioni rurali, rappresenta un bene quotidiano e prezioso, una forma essenziale per la sussistenza ed una fonte primaria di reddito. Accanto a questa constatazione vi è anche la consapevolezza che negli ultimi decenni gli ecosistemi naturali si stanno degradando ad un ritmo impressionate, senza precedenti nella storia della specie umana: consumiamo le risorse più velocemente di quanto la Terra sia capace di rigenerarle e di “metabolizzare” i nostri scarti. Allo stesso modo aumenta la povertà: attualmente ci sono 1,2 miliardi di persone che vivono con meno di un dollaro al giorno, mentre circa metà della popolazione mondiale sopravvive con meno di due dollari al giorno (UN). La connessione tra povertà ed ambiente non dipende solamente dalla scarsità di risorse che rende più difficili le condizioni di vita, ma anche dalla gestione delle stesse risorse naturali. Infatti in molti paesi o luoghi dove le risorse non sono carenti la popolazione più povera non vi ha accesso per motivi politici, economici e sociali. Inoltre se si paragona l’impronta ecologica con una misura riconosciuta dello “sviluppo umano”, l’Indice dello Sviluppo Umano (HDI) delle Nazioni Unite (Cfr. Cap 2), il rapporto dimostra chiaramente che ciò che noi accettiamo generalmente come “alto sviluppo” è molto lontano dal concetto di sviluppo sostenibile accettato universalmente, in quanto i paesi cosiddetti “sviluppati” sono quelli con una maggior impronta ecologica. Se allora lo “sviluppo” mette sotto pressione gli ecosistemi, dal cui benessere dipende direttamente il benessere dell’uomo, allora vuol dire che il concetto di “sviluppo” deve essere rivisitato, perché ha come conseguenza non il benessere del pianeta e delle popolazioni, ma il degrado ambientale e l’accrescimento delle disuguaglianze sociali. Quindi da una parte vi è la “società occidentale”, che promuove l’avanzamento della tecnologia e dell’industrializzazione per la crescita economica, spremendo un ecosistema sempre più stanco ed esausto al fine di ottenere dei benefici solo per una ristretta fetta della popolazione mondiale che segue un modello di vita consumistico degradando l’ambiente e sommergendolo di rifiuti; dall’altra parte ci sono le famiglie di contadini rurali, i “moradores” delle favelas o delle periferie delle grandi metropoli del Sud del Mondo, i senza terra, gli immigrati delle baraccopoli, i “waste pickers” delle periferie di Bombay che sopravvivono raccattando rifiuti, i profughi di guerre fatte per il controllo delle risorse, gli sfollati ambientali, gli eco-rifugiati, che vivono sotto la soglia di povertà, senza accesso alle risorse primarie per la sopravvivenza. La gestione sostenibile dell’ambiente, il produrre reddito dalla valorizzazione diretta dell’ecosistema e l’accesso alle risorse naturali sono tra gli strumenti più efficaci per migliorare le condizioni di vita degli individui, strumenti che possono anche garantire la distribuzione della ricchezza costruendo una società più equa, in quanto le merci ed i servizi dell’ecosistema fungono da beni per le comunità. La corretta gestione dell’ambiente e delle risorse quindi è di estrema importanza per la lotta alla povertà ed in questo caso il ruolo e la responsabilità dei tecnici ambientali è cruciale. Il lavoro di ricerca qui presentato, partendo dall’analisi del problema della gestione delle risorse naturali e dal suo stretto legame con la povertà, rivisitando il concetto tradizionale di “sviluppo” secondo i nuovi filoni di pensiero, vuole suggerire soluzioni e tecnologie per la gestione sostenibile delle risorse naturali che abbiano come obiettivo il benessere delle popolazioni più povere e degli ecosistemi, proponendo inoltre un metodo valutativo per la scelta delle alternative, soluzioni o tecnologie più adeguate al contesto di intervento. Dopo l’analisi dello “stato del Pianeta” (Capitolo 1) e delle risorse, sia a livello globale che a livello regionale, il secondo Capitolo prende in esame il concetto di povertà, di Paese in Via di Sviluppo (PVS), il concetto di “sviluppo sostenibile” e i nuovi filoni di pensiero: dalla teoria della Decrescita, al concetto di Sviluppo Umano. Dalla presa di coscienza dei reali fabbisogni umani, dall’analisi dello stato dell’ambiente, della povertà e delle sue diverse facce nei vari paesi, e dalla presa di coscienza del fallimento dell’economia della crescita (oggi visibile più che mai) si può comprendere che la soluzione per sconfiggere la povertà, il degrado dell’ambiente, e raggiungere lo sviluppo umano, non è il consumismo, la produzione, e nemmeno il trasferimento della tecnologia e l’industrializzazione; ma il “piccolo e bello” (F. Schumacher, 1982), ovvero gli stili di vita semplici, la tutela degli ecosistemi, e a livello tecnologico le “tecnologie appropriate”. Ed è proprio alle Tecnologie Appropriate a cui sono dedicati i Capitoli successivi (Capitolo 4 e Capitolo 5). Queste sono tecnologie semplici, a basso impatto ambientale, a basso costo, facilmente gestibili dalle comunità, tecnologie che permettono alle popolazioni più povere di avere accesso alle risorse naturali. Sono le tecnologie che meglio permettono, grazie alle loro caratteristiche, la tutela dei beni comuni naturali, quindi delle risorse e dell’ambiente, favorendo ed incentivando la partecipazione delle comunità locali e valorizzando i saperi tradizionali, grazie al coinvolgimento di tutti gli attori, al basso costo, alla sostenibilità ambientale, contribuendo all’affermazione dei diritti umani e alla salvaguardia dell’ambiente. Le Tecnologie Appropriate prese in esame sono quelle relative all’approvvigionamento idrico e alla depurazione dell’acqua tra cui: - la raccolta della nebbia, - metodi semplici per la perforazione di pozzi, - pompe a pedali e pompe manuali per l’approvvigionamento idrico, - la raccolta dell’acqua piovana, - il recupero delle sorgenti, - semplici metodi per la depurazione dell’acqua al punto d’uso (filtro in ceramica, filtro a sabbia, filtro in tessuto, disinfezione e distillazione solare). Il quinto Capitolo espone invece le Tecnolocie Appropriate per la gestione dei rifiuti nei PVS, in cui sono descritte: - soluzioni per la raccolta dei rifiuti nei PVS, - soluzioni per lo smaltimento dei rifiuti nei PVS, - semplici tecnologie per il riciclaggio dei rifiuti solidi. Il sesto Capitolo tratta tematiche riguardanti la Cooperazione Internazionale, la Cooperazione Decentrata e i progetti di Sviluppo Umano. Per progetti di sviluppo si intende, nell’ambito della Cooperazione, quei progetti che hanno come obiettivi la lotta alla povertà e il miglioramento delle condizioni di vita delle comunità beneficiarie dei PVS coinvolte nel progetto. All’interno dei progetti di cooperazione e di sviluppo umano gli interventi di tipo ambientale giocano un ruolo importante, visto che, come già detto, la povertà e il benessere delle popolazioni dipende dal benessere degli ecosistemi in cui vivono: favorire la tutela dell’ambiente, garantire l’accesso all’acqua potabile, la corretta gestione dei rifiuti e dei reflui nonché l’approvvigionamento energetico pulito sono aspetti necessari per permettere ad ogni individuo, soprattutto se vive in condizioni di “sviluppo”, di condurre una vita sana e produttiva. È importante quindi, negli interventi di sviluppo umano di carattere tecnico ed ambientale, scegliere soluzioni decentrate che prevedano l’adozione di Tecnologie Appropriate per contribuire a valorizzare l’ambiente e a tutelare la salute della comunità. I Capitoli 7 ed 8 prendono in esame i metodi per la valutazione degli interventi di sviluppo umano. Un altro aspetto fondamentale che rientra nel ruolo dei tecnici infatti è l’utilizzo di un corretto metodo valutativo per la scelta dei progetti possibili che tenga presente tutti gli aspetti, ovvero gli impatti sociali, ambientali, economici e che si cali bene alle realtà svantaggiate come quelle prese in considerazione in questo lavoro; un metodo cioè che consenta una valutazione specifica per i progetti di sviluppo umano e che possa permettere l’individuazione del progetto/intervento tecnologico e ambientale più appropriato ad ogni contesto specifico. Dall’analisi dei vari strumenti valutativi si è scelto di sviluppare un modello per la valutazione degli interventi di carattere ambientale nei progetti di Cooperazione Decentrata basato sull’Analisi Multi Criteria e sulla Analisi Gerarchica. L’oggetto di questa ricerca è stato quindi lo sviluppo di una metodologia, che tramite il supporto matematico e metodologico dell’Analisi Multi Criteria, permetta di valutare l’appropriatezza, la sostenibilità degli interventi di Sviluppo Umano di carattere ambientale, sviluppati all’interno di progetti di Cooperazione Internazionale e di Cooperazione Decentrata attraverso l’utilizzo di Tecnologie Appropriate. Nel Capitolo 9 viene proposta la metodologia, il modello di calcolo e i criteri su cui si basa la valutazione. I successivi capitoli (Capitolo 10 e Capitolo 11) sono invece dedicati alla sperimentazione della metodologia ai diversi casi studio: - “Progetto ambientale sulla gestione dei rifiuti presso i campi Profughi Saharawi”, Algeria, - “Programa 1 milhão de Cisternas, P1MC” e - “Programa Uma Terra e Duas Águas, P1+2”, Semi Arido brasiliano.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ricerca approfondisce gli studi iniziati dalla dott.ssa Baldini in occasione della tesi di laurea e amplia le indagini critiche avviate per la mostra sull’Aemilia Ars (2001). La ricerca si è interessata alle aree di Bologna e di Faenza individuando le connessioni che tra Otto e Novecento intercorrono tra la cultura artistica locale e quella nazionale ed europea. Nasce infatti in questo periodo Aemilia Ars, uno dei più innovativi movimenti del contesto nazionale nel campo delle arti decorative. I membri del gruppo, raccoltisi intorno alla carismatica figura di Alfonso Rubbiani nei primi anni Ottanta, sono attratti da influenze nordeuropee e sin dall’inizio si mostrano orientati a seguire precetti ruskiniani e preraffaelliti. Molto importante in entrambe le città, per l’evoluzione dello scenario artistico e artigianale – in questi anni più che mai unite in un rapporto di strettissima correlazione – è l’apporto e il sostegno offerto dai salotti, dai circoli, dai caffè e dai cenacoli locali. Dal punto di vista dello stile, forme lineari con una marcata tendenza all’astrazione caratterizzano la produzione dei principali interpreti faentini e bolognesi dell’ultimo ventennio dell’Ottocento allineandoli con le ricerche dei loro contemporanei nel resto d’Europa. I settori produttivi che si sono indagati sono quelli della ceramica, dell’ebanisteria, dei ferri battuti, dell’oreficeria, delle arti tessili e dei cuoi. Gran parte di queste lavorazioni – attardatesi nella realizzazione di oggetti dalle forme di ispirazione seicentesca, certamente poco adatte alla produzione industriale – subiscono ora una decisa accelerazione verso forme più svelte che, adeguandosi alla possibilità di riproduzione seriale degli oggetti, si diffonderanno quasi capillarmente tra l’aristocrazia e la borghesia, faticando tuttavia a raggiungere le classi meno abbienti a causa degli elevati costi di produzione. Nell’ultima parte viene tracciato sinteticamente il quadro delle attività artistiche e artigianali faentine del periodo indicato, con una particolare attenzione all’opera delle personalità afferenti al Cenacolo baccariniano.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The purpose of this Thesis is to develop a robust and powerful method to classify galaxies from large surveys, in order to establish and confirm the connections between the principal observational parameters of the galaxies (spectral features, colours, morphological indices), and help unveil the evolution of these parameters from $z \sim 1$ to the local Universe. Within the framework of zCOSMOS-bright survey, and making use of its large database of objects ($\sim 10\,000$ galaxies in the redshift range $0 < z \lesssim 1.2$) and its great reliability in redshift and spectral properties determinations, first we adopt and extend the \emph{classification cube method}, as developed by Mignoli et al. (2009), to exploit the bimodal properties of galaxies (spectral, photometric and morphologic) separately, and then combining together these three subclassifications. We use this classification method as a test for a newly devised statistical classification, based on Principal Component Analysis and Unsupervised Fuzzy Partition clustering method (PCA+UFP), which is able to define the galaxy population exploiting their natural global bimodality, considering simultaneously up to 8 different properties. The PCA+UFP analysis is a very powerful and robust tool to probe the nature and the evolution of galaxies in a survey. It allows to define with less uncertainties the classification of galaxies, adding the flexibility to be adapted to different parameters: being a fuzzy classification it avoids the problems due to a hard classification, such as the classification cube presented in the first part of the article. The PCA+UFP method can be easily applied to different datasets: it does not rely on the nature of the data and for this reason it can be successfully employed with others observables (magnitudes, colours) or derived properties (masses, luminosities, SFRs, etc.). The agreement between the two classification cluster definitions is very high. ``Early'' and ``late'' type galaxies are well defined by the spectral, photometric and morphological properties, both considering them in a separate way and then combining the classifications (classification cube) and treating them as a whole (PCA+UFP cluster analysis). Differences arise in the definition of outliers: the classification cube is much more sensitive to single measurement errors or misclassifications in one property than the PCA+UFP cluster analysis, in which errors are ``averaged out'' during the process. This method allowed us to behold the \emph{downsizing} effect taking place in the PC spaces: the migration between the blue cloud towards the red clump happens at higher redshifts for galaxies of larger mass. The determination of $M_{\mathrm{cross}}$ the transition mass is in significant agreement with others values in literature.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I viaggi e gli studi compiuti in Croazia, Montenegro e Bosnia Erzegovina in occasione della Tesi di Laurea hanno costituito l’occasione per comprendere quanto sia consistente il retaggio di Roma antica sulla sponda orientale dell’Adriatico. Nello stesso tempo si è potuto constatare che, per diversi motivi, dal punto di vista prettamente scientifico, la ricchezza di questo patrimonio archeologico aveva sino allora trovato soltanto poche occasioni di studio. Da qui la necessità di provvedere a un quadro completo e generale relativo alla presenza romana in un territorio come quello della provincia romana di Dalmatia che, pur considerando la sua molteplicità geografica, etnica, economica, culturale, sociale e politica, ha trovato, grazie all’intervento di Roma, una sua dimensione unitaria, un comune denominatore, tanto da farne una provincia che ebbe un ruolo fondamentale nella storia dell’Impero. Il lavoro prende le mosse da una considerazione preliminare e generale, che ne costituisce quasi lo spunto metodologico più determinante: la trasmissione della cultura e dei modelli di vita da parte di Roma alle altre popolazioni ha creato un modello in virtù del quale l’imperialismo romano si è in certo modo adattato alle diverse culture incontrate ed assimilate, dando vita ad una rete di culture unite da elementi comuni, ma anche profondamente diversificate per sintesi originali. Quella che pare essere la chiave di lettura impiegata è la struttura di un impero a forma di “rete” con forti elementi di coesione, ma allo stesso tempo dotato di ampi margini di autonomia. E questo a cominciare dall’analisi dei fattori che aprirono il cammino dell’afflusso romano in Dalmatia e nello stesso tempo permisero i contatti con il territorio italico. La ricerca ne analizza quindi i fattori:il diretto controllo militare, la costruzione di una rete viaria, l’estensione della cittadinanza romana, lo sviluppo della vita locale attraverso la formazione di una rete di municipi, i contatti economici e l’immigrazione di genti romanizzate. L’analisi ha posto in evidenza una provincia caratterizzata da notevoli contraddizioni, che ne condizionarono – presso entrambi i versanti del Velebit e delle Alpi Dinariche – lo sviluppo economico, sociale, culturale e urbanistico. Le profonde differenze strutturali tra questi due territori rimasero sempre presenti: la zona costiera divenne, sotto tutti i punti di vista, una sorta di continuazione dell’Italia, mntre quella continentale non progredì di pari passo. Eppure l’influenza romana si diffuse anche in questa, così che essa si pote conformare, in una certa misura, alla zona litoranea. Come si può dedurre dal fatto che il severo controllo militare divenne superfluo e che anche questa regione fu dotata progressivamente di centri amministrati da un gruppo dirigente compiutamente integrato nella cultura romana. Oltre all’analisi di tutto ciò che rientra nel processo di acculturazione dei nuovi territori, l’obiettivo principale del lavoro è l’analisi di uno degli elementi più importanti che la dominazione romana apportò nei territori conquistati, ovvero la creazione di città. In questo ambito relativamente periferico dell’Impero, qual è il territorio della provincia romana della Dalmatia, è stato dunque possibile analizzare le modalità di creazione di nuovi centri e di adattamento, da parte di Roma, ai caratteri locali dell’insediamento, nonché ai condizionamenti ambientali, evidenziando analogie e differenze tra le città fondate. Prima dell’avvento di Roma, nessuna delle regioni entrate a far parte dei territori della Dalmatia romana, con la sola eccezione della Liburnia, diede origine a centri di vero e proprio potere politico-economico, come ad esempio le città greche del Mediterraneo orientale, tali da continuare un loro sviluppo all’interno della provincia romana. In altri termini: non si hanno testimonianze di insediamenti autoctoni importanti che si siano trasformati in città sul modello dei centri provinciali romani, senza aver subito cambiamenti radicali quali una nuova pianificazione urbana o una riorganizzazione del modello di vita locale. Questo non significa che la struttura politico-sociale delle diverse tribù sia stata cambiata in modo drastico: almeno nelle modeste “città” autoctone, nelle quali le famiglie appaiono con la cittadinanza romana, assieme agli ordinamenti del diritto municipale, esse semplicemente continuarono ad avere il ruolo che i loro antenati mantennero per generazioni all’interno della propria comunità, prima della conquista romana. Il lavoro mette compiutamente in luce come lo sviluppo delle città nella provincia abbia risentito fortemente dello scarso progresso politico, sociale ed economico che conobbero le tribù e le popolazioni durante la fase pre-romana. La colonizzazione greca, troppo modesta, non riuscì a far compiere quel salto qualitativo ai centri autoctoni, che rimasero sostanzialmente privi di concetti basilari di urbanistica, anche se è possibile notare, almeno nei centri costieri, l’adozione di tecniche evolute, ad esempio nella costruzione delle mura. In conclusione questo lavoro chiarisce analiticamente, con la raccolta di un’infinità di dati (archeologici e topografici, materiali ed epigrafici, e desunti dalle fonti storiche), come la formazione della città e l’urbanizzazione della sponda orientale dell’adriatico sia un fenomeno prettamente romano, pur differenziato, nelle sue dinamiche storiche, quasi caso per caso. I dati offerti dalla topografia delle città della Dalmatia, malgrado la scarsità di esempi ben documentati, sembrano confermare il principio della regolarità degli impianti urbani. Una griglia ortogonale severamente applicata la si individua innanzi tutto nelle città pianificate di Iader, Aequum e, probabilmente, anche a Salona. In primis nelle colonie, quindi, ma non esclusivamente. Anche numerosi municipi sviluppatisi da insediamenti di origine autoctona hanno espresso molto presto la tendenza allo sviluppo di un sistema ortogonale regolare, se non in tutta l’area urbana, almeno nei settori di più possibile applicazione. Ne sono un esempio Aenona, Arba, Argiruntum, Doclea, Narona ed altri. La mancanza di un’organizzazione spaziale regolare non ha tuttavia compromesso l’omogeneità di un’attrezzatura urbana tesa alla normalizzazione, in cui i componenti più importanti, forum e suoi annessi, complessi termali, templi dinastici e capitolia, si avviano a diventare canonici. Le differenze più sensibili, che pure non mancano, sembrano dipendere dalle abitudini delle diverse etnie, dai condizionamenti topografici e dalla disponibilità finanziaria dei notabili. Una città romana non può prendere corpo in tutta la sua pienezza solo per la volontà del potere centrale. Un progetto urbanistico resta un fatto teorico finché non si realizzano le condizioni per cui si fondano due fenomeni importantissimi: uno socio-culturale, che consiste nell’emergenza di una classe di notabili “fortunati” desiderosi di dare a Roma dimostrazioni di lealtà, pronti a rispondere a qualsiasi sollecitazione da parte del potere centrale e addirittura ad anticiparlo; l’altro politico-amministrativo, che riguarda il sistema instaurato da Roma, grazie al quale i suddetti notabili possono godere di un certo potere e muoversi in vista della promozione personale nell’ambito della propria città. Aiuti provenienti dagli imperatori o da governatori provinciali, per quanto consistenti, rimangono un fatto non sistematico se non imprevedibile, e rappresentano comunque un episodio circoscritto. Anche se qualche città risulta in grado di costruire pecunia publica alcuni importanti edifici del quadro monumentale, il ruolo del finanziamento pubblico resta relativamente modesto. Quando la documentazione epigrafica esiste, si rivela che sono i notabili locali i maggiori responsabili della costruzione delle opere pubbliche. Sebbene le testimonianze epigrafiche siano scarse e, per la Dalmatia non sia possibile formulare un quadro completo delle committenze che favorirono materialmente lo sviluppo architettonico ed artistico di molti complessi monumentali, tuttavia è possibile osservare e riconoscere alcuni aspetti significativi e peculiari della provincia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ricerca sul tema “Disponibilità degli effetti della risoluzione e reviviscenza del contratto” analizza se, e come, gli effetti della risoluzione possano essere oggetto di disposizione ad opera delle parti. In particolare, se, ed in che modo, il contraente non inadempiente che abbia agito in risoluzione, in via giudiziale o stragiudiziale, possa incidere unilateralmente sulla sorte finale del vincolo contrattuale paralizzando l’effetto risolutivo già in atto attraverso una tardiva richiesta di adempimento. La questione della reversibilità dell’effetto risolutivo, che si è posta in forma paradigmatica nell’ambito della diffida ad adempiere, ha diviso dottrina e giurisprudenza per oltre trent’anni: laddove la giurisprudenza ha costantemente ammesso il creditore a recuperare il contratto risolto e a pretenderne ancora l’esecuzione, ritenendo che la risoluzione concreti un vantaggio unilaterale del creditore, da lui sempre liberamente disponibile, la dottrina ha optato per la irreversibilità dell’effetto risolutivo, in ossequio al principio di tutela dell’affidamento dell’inadempiente ad aver certezza sulla sorte finale del vincolo e a non rimanere esposto a tempo indefinito agli arbitri di controparte. Sono di recente intervenute le Sezioni Unite (Cass., sez. un., 14 gennaio 2009, n. 553), che, in direzione diametralmente opposta rispetto al granitico orientamento giurisprudenziale, hanno integralmente accolto i rilievi critici della dottrina ed escluso la disponibilità dell’effetto risolutivo derivante dallo spirare inutile del termine fissato in diffida, con ciò precludendo al contraente non inadempiente di tornare a esigere l’adempimento a risoluzione avvenuta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi intende offrire una disamina approfondita dell’istituto del giudicato implicito, di rito e di merito, sotto il duplice profilo dei recenti orientamenti della giurisprudenza di legittimità, da un lato, e dei rilievi critici della dottrina, dall’altro. Il candidato si sofferma, preliminarmente, sulla ratio delle recenti sentenze delle sezioni unite della Cassazione, le quali promuovono un’interpretazione restrittiva e residuale dell’art. 37 c.p.c. alla luce del principio costituzionale della ragionevole durata. Si pone, quindi, il problema del rapporto tra il giudicato implicito sulla giurisdizione e i principi processuali costituzionali, dedicando ampio spazio e rilievo alle riflessioni critiche della dottrina sulla teoria del giudicato implicito. Il candidato passa così all’esame del giudicato implicito sulle questioni preliminari di merito, dopo aver trattato il tema dell’ordine logico-giuridico delle questioni e della struttura della decisione. Nel corso di questa analisi, ravvisa nel principio della ragione più liquida la negazione dell’idea di giudicato implicito, sviluppando così alcune riflessioni critiche sul giudicato di merito implicito. A questo punto, il piano dell’indagine si incentra su un aspetto specifico dell’istituto in esame, particolarmente importante sotto il profilo dei risvolti applicativi: le implicazioni del giudicato implicito in sede di impugnazione. Segue, quindi, la parte conclusiva della tesi dedicata ai profili di criticità del recente orientamento delle sezioni unite, con particolare riguardo all’onere di appello incidentale della parte vittoriosa nel merito. La tesi mette in luce come la struttura degli istituti venga in qualche misura piegata ad esigenze di deflazione, che andrebbero però perseguite con altri e più coerenti strumenti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nuovi sviluppi nella comunicazione wireless e nell'elettronica hanno permesso lo sviluppo di dispositivi poco costosi, poco energivori e multifunzione, piccoli in dimensione e in grado di comunicare a breve distanza. Collegati con tecnologie senza fili e disponibili in gran numero, questi sensori hanno offerto opportunità senza precedenti nel monitorare e controllare case, città, e l'ambiente. In aggiunta, i sensori wireless hanno anche una vasta gamma di applicazioni nella sicurezza, generando nuove capacità di riconoscimento e sorveglianza, unite ad altre finalità tattiche. La capacità di localizzazione di questi congegni poi è altamente studiata e ricercata, per applicazioni che vanno dal monitoraggio di incendi,della qualità dell'acqua e dell'agricoltura di precisione alla gestione di inventari, di sistemi anti intrusione, monitoraggio del traffico e di parametri medici. Da questo esteso panorama di utilizzi, è scaturita l'idea di un impiego di queste reti in un contesto particolare. L'esperienza maturata in ambito fieristico mi ha portato a considerare una problematica da sempre sentita, ma che non ha mai trovato soluzioni soddisfacenti o definitive, che è quella della protezione dei beni dai rapinatori. In questo ultimo periodo, dove si assiste ad un progressivo ma repentino calo degli affari dovuto ad una congiuntura economica mondiale sfavorevole, il problema è più avvertito da chi, in vari settori, vede un sempre più basso margine di compensazione ai furti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis work is focused on the use of selected core-level x-ray spectroscopies to study semiconductor materials of great technological interest and on the development of a new implementation of appearance potential spectroscopy. Core-level spectroscopies can be exploited to study these materials with a local approach since they are sensitive to the electronic structure localized on a chemical species present in the sample examined. This approach, in fact, provides important micro-structural information that is difficult to obtain with techniques sensitive to the average properties of materials. In this thesis work we present a novel approach to the study of semiconductors with core-level spectroscopies based on an original analysis procedure that leads to an insightful understanding of the correlation between the local micro-structure and the spectral features observed. In particular, we studied the micro-structure of Hydrogen induced defects in nitride semiconductors, since the analysed materials show substantial variations of optical and electronic properties as a consequence of H incorporation. Finally, we present a novel implementation of soft x-ray appearance potential spectroscopy, a core-level spectroscopy that uses electrons as a source of excitation and has the great advantage of being an in-house technique. The original set-up illustrated was designed to reach a high signal-to-noise ratio for the acquisition of good quality spectra that can then be analyzed in the framework of the real space full multiple scattering theory. This technique has never been coupled with this analysis approach and therefore our work unite a novel implementation with an original data analysis method, enlarging the field of application of this technique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Großherzog Wilhelm Ernst Ausgabe deutscher Klassiker wurde seit 1904 bis in die Zwanziger Jahre hinein im Insel Verlag in Leipzig publiziert. Die Buchreihe hat nicht nur für den Verlag und die Druckerei Poeschel in der sie gedruckt wurde eine ganze Reihe von Neuerungen nach sich gezogen, auch für den deutschen Buchmarkt hat die Klassikerausgabe einen Meilenstein bedeutet. Sie hat einige Eigenschaften des Taschenbuches vorweggenommen. Sie orientierte sich an der Qualität bibliophiler Buchpublikationen, aber war dennoch preislich erschwinglich. Zeitgenössische Klassikerausgaben erschienen zumeist mit einem Kommentar. Nicht so die Großherzog Wilhelm Ernst Ausgabe. Der Text wurde zwar von führenden Wissenschaftlern editiert, aber sie war dennoch unkommentiert. Der Text war in einer Jenson-Antiqua gesetzt obwohl die Debatte um individuell gestaltete Künstlerschriften und die Diskussion um die als deutsche Schrift begriffene Fraktur unter den wichtigsten Protagonisten des deutschen Buchgewerbes ihren Höhepunkt noch nicht erreicht hatte. Ziel für die Klassikerausgabe war darüber hinaus, das zur Jahrhundertwende leicht angestaubte Image der Stadt Weimar aufzupolieren. Über das Patronat des Großherzogs hinaus hätte man die Gewinne aus dem Verkauf der Bücher der Permanenten Ausstellung für die Anschaffung von modernen Kunstobjekten zur Verfügung stellen wollen, die unter der Leitung von Harry Graf Kessler stand. Sieht man den Inhalt der Werke der in der Klassikerreihe erschienen Dichter Goethe, Schiller und Körner in einem ästhetischen Kontext mit dem der Philosophen Schopenhauer und Kant, wird im Spiegel der Formalästhetik der Klassikerausgabe Graf Kesslers Bildungs- und Kulturbegriff erkennbar, der sich in den Jahren nach der Jahrhundertwende zu seinem Lebenskunstideal verdichtete. Der zerrütteten Existenz der Zeitgenossen, wie Friedrich Nietzsche sie beschrieben hatte, sollte der Inhalt der Ausgabe in seiner modernen Form eine moderne Wertehaltung entgegensetzen. Die Lektüre der Klassiker sollte den deutschen Philister „entkrampfen“ und ihm ein Stück der verloren geglaubten Lebensfreude wieder zurück bringen, in dem dieser auch die Facetten des Lebensleids als normal hinnehmen und akzeptieren lernte. Die Klassikerausgabe repräsentierte aus diesem Grund auch den kulturellen und politischen Reformwillen und die gesellschaftlichen Vorstellungen die der Graf für ein modernes Deutschland als überfällig erachtete. Die Buchreihe war aus diesem Grund auch ein politisches Statement gegen die Beharrungskräfte im deutschen Kaiserreich. Die Klassikerreihe wurde in der buchhistorischen Forschung zwar als bedeutender Meilenstein charakterisiert und als „wichtiges“ oder gar „revolutionäres“ Werk der Zeit hervorgehoben, die Ergebnisse der Forschung kann man überspitzt aber in der Aussage zusammenfassen, dass es sich bei der Großherzog Wilhelm Ernst Ausgabe um einen „zufälligen Glückstreffer“ deutscher Buchgestaltung zu handeln scheint. Zumindest lassen die Aussagen, die bisher in dieser Hinsicht gemacht wurden, keine eindeutige Einordnung zu, außer vielleicht der, dass die Klassiker von der englischen Lebensreform inspiriert wurden und Henry van de Velde und William Morris einen Einfluss auf ihre äußere Form hatten. Gerade die Gedankenansätze dieser Beiden nutzte Graf Kessler aber für eigene Überlegungen, die ihn schließlich auch zu eigenen Vorstellungen von idealer Buchgestaltung brachten. Da für Kessler auch Gebrauchsgegenstände Kunst sein konnten, wird das Konzept der Klassikerausgabe bis zur Umsetzung in ihrer `bahnbrechenden´ Form in das ideengeschichtliche und ästhetische Denken des Grafen eingeordnet. Die Klassiker werden zwar in buchhistorischen Einzeluntersuchungen bezüglich ihrer Komponenten, dem Dünndruckpapier, ihrem Einband oder der Schrifttype exponiert. In buchwissenschaftlichen Überblicksdarstellungen wird ihr Einfluss hingegen weniger beachtet, denn verschiedene Kritiker bezogen sie seit ihrem ersten Erscheinen nicht als deutsches Kulturgut mit ein, denn sie lehnten sowohl die englischen Mitarbeiter Emery Walker, Edward Johnston, Eric Gill und Douglas Cockerell wie auch ihre Gestaltung als „welsche“ Buchausgabe ab. Richtig ist, die Großherzog Wilhelm Ernst Ausgabe hatte dieselbe Funktion wie die von Graf Kessler in Weimar konzipierten Kunstausstellungen und die dortige Kunstschule unter der Leitung seines Freundes Henry van de Velde. Auch das für Weimar geplante Theater, das unter der Leitung von Hugo von Hofmannsthal hätte stehen sollen und die Großherzog Wilhelm Ernst Schule, hätten dieselben Ideen der Moderne mit anderen Mitteln transportieren sollen, wie die Großherzog Wilhelm Ernst Ausgabe deutscher Klassiker.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mainstream hardware is becoming parallel, heterogeneous, and distributed on every desk, every home and in every pocket. As a consequence, in the last years software is having an epochal turn toward concurrency, distribution, interaction which is pushed by the evolution of hardware architectures and the growing of network availability. This calls for introducing further abstraction layers on top of those provided by classical mainstream programming paradigms, to tackle more effectively the new complexities that developers have to face in everyday programming. A convergence it is recognizable in the mainstream toward the adoption of the actor paradigm as a mean to unite object-oriented programming and concurrency. Nevertheless, we argue that the actor paradigm can only be considered a good starting point to provide a more comprehensive response to such a fundamental and radical change in software development. Accordingly, the main objective of this thesis is to propose Agent-Oriented Programming (AOP) as a high-level general purpose programming paradigm, natural evolution of actors and objects, introducing a further level of human-inspired concepts for programming software systems, meant to simplify the design and programming of concurrent, distributed, reactive/interactive programs. To this end, in the dissertation first we construct the required background by studying the state-of-the-art of both actor-oriented and agent-oriented programming, and then we focus on the engineering of integrated programming technologies for developing agent-based systems in their classical application domains: artificial intelligence and distributed artificial intelligence. Then, we shift the perspective moving from the development of intelligent software systems, toward general purpose software development. Using the expertise maturated during the phase of background construction, we introduce a general-purpose programming language named simpAL, which founds its roots on general principles and practices of software development, and at the same time provides an agent-oriented level of abstraction for the engineering of general purpose software systems.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Per Viollet-le-Duc lo “stile” «è la manifestazione di un ideale fondato su un principio» dove per principio si intende il principio d’ordine della struttura, quest’ultimo deve rispondere direttamente alla Legge dell’”unità” che deve essere sempre rispettata nell’ideazione dell’opera architettonica. A partire da questo nodo centrale del pensiero viollettiano, la presente ricerca si è posta come obiettivo quello dell’esplorazione dei legami fra teoria e prassi nell’opera di Viollet-le-Duc, nei quali lo “stile” ricorre come un "fil rouge" costante, presentandosi come una possibile inedita chiave di lettura di questa figura protagonista della storia del restauro e dell’architettura dell’Ottocento. Il lavoro di ricerca si é dunque concentrato su una nuova lettura dei documenti sia editi che inediti, oltre che su un’accurata ricognizione bibliografica e documentaria, e sullo studio diretto delle architetture. La ricerca archivistica si é dedicata in particolare sull’analisi sistematica dei disegni originali di progetto e delle relazioni tecniche delle opere di Viollet-le- Duc. A partire da questa prima ricognizione, sono stati selezionati due casi- studio ritenuti particolarmente significativi nell’ambito della tematica scelta: il progetto di restauro della chiesa della Madeleine a Vézelay (1840-1859) e il progetto della Maison Milon in rue Douai a Parigi (1857-1860). Attraverso il parallelo lavoro di analisi dei casi-studio e degli scritti di Viollet- le-Duc, si è cercato di verificare le possibili corrispondenze tra teoria e prassi operativa: confrontando i progetti sia con le opere teoriche, sia con la concreta testimonianza degli edifici realizzati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I materiali per applicazioni fotovoltaiche hanno destato un interesse crescente nella comunità scienti�ca negli ultimi decenni. Le celle HIT (Het- erojunction Intrinsic Thin Layer ) sono dispositivi di ultima generazione che hanno raggiunto e�cienza elevata mantenendo bassi i costi di pro- duzione, e impiegano silicio amorfo (a-Si) come strato emettitore per il suo buon assorbimento della luce e silicio cristallino come regione attiva. La struttura amorfa del silicio presenta però una bassa conducibilità, oltre ad e�etti di degradazione che limitano considerevolmente la durevolezza di una cella. Per questo motivo si stanno cercando possibili alternative al silicio amorfo, in particolare strutture multifase e composti di silicio, ossigeno ed azoto. In questo lavoro sono esposti i risultati dell'analisi di sottili lay- er di Silicon Oxynitride ossigenato (SiOx Ny :H), in forma microcristallina, deposti tramite PECVD (P lasma-Enhanced Chemical Vapor Deposition) su vetro presso l'università di Costanza. La forma microcristallina è una distribuzione di agglomerati cristallini dell'ordine di grandezza di un mi- crometro in una matrice di silicio amorfo, e attualmente le sue proprietà ottiche ed elettroniche non sono ancora state studiate in maniera appro- fondita. Nonostante ciò, è invece evidente che la fase microstallina non presenta tanti difetti intrinseci come la forma amorfa e ne è quindi una val- ida alternativa. In questa ottica, si è svolto uno studio sperimentale delle proprietà ottiche di layers in forma microcristallina di SiOx Ny :H, quali la misura del gap energetico. I risultati sperimentali, volti a trovare la dipen- denza delle caratteristiche dai parametri di deposizione dei layers, hanno mostrato una riduzione del gap energetico con la concentrazione di N2 O, uno dei gas precursori utilizzati nella deposizione dei layers in camera di processo. In conclusione si può dire che il μc−SiOx Ny :H ha le buone carat- teristiche tipiche dei semiconduttori cristallini, che unite alla possibilità di regolare il valore del gap energetico in base alle scelte in fase di deposizione, gli conferisce buone prospettive per applicazioni in celle fotovoltaiche, come emettitore in celle ad eterogiunzione.