986 resultados para Scienza Nuova
Resumo:
The aim of this thesis is to investigate the nature of quantum computation and the question of the quantum speed-up over classical computation by comparing two different quantum computational frameworks, the traditional quantum circuit model and the cluster-state quantum computer. After an introductory survey of the theoretical and epistemological questions concerning quantum computation, the first part of this thesis provides a presentation of cluster-state computation suitable for a philosophical audience. In spite of the computational equivalence between the two frameworks, their differences can be considered as structural. Entanglement is shown to play a fundamental role in both quantum circuits and cluster-state computers; this supports, from a new perspective, the argument that entanglement can reasonably explain the quantum speed-up over classical computation. However, quantum circuits and cluster-state computers diverge with regard to one of the explanations of quantum computation that actually accords a central role to entanglement, i.e. the Everett interpretation. It is argued that, while cluster-state quantum computation does not show an Everettian failure in accounting for the computational processes, it threatens that interpretation of being not-explanatory. This analysis presented here should be integrated in a more general work in order to include also further frameworks of quantum computation, e.g. topological quantum computation. However, what is revealed by this work is that the speed-up question does not capture all that is at stake: both quantum circuits and cluster-state computers achieve the speed-up, but the challenges that they posit go besides that specific question. Then, the existence of alternative equivalent quantum computational models suggests that the ultimate question should be moved from the speed-up to a sort of “representation theorem” for quantum computation, to be meant as the general goal of identifying the physical features underlying these alternative frameworks that allow for labelling those frameworks as “quantum computation”.
Resumo:
The thesis is divided in three chapters, each one covering one topic. Initially, the thermo-mechanical and impact properties of materials used for back protectors have been analysed. Dynamical mechanical analysis (DMTA) has shown that materials used for soft-shell protectors present frequency-sensitive properties. Furthermore, through impact tests, the shock absorbing characteristics of the materials have been investigated proving the differences between soft and hard-shell protectors; moreover it has been demonstrated that the materials used for soft-shell protectors maintain their protective properties after multi-impacts. The second chapter covers the effect of the visco-elastic properties of the thermoplastic polymers on the flexural and rebound behaviours of ski boots. DMTA analysis on the materials and flexural and rebound testing on the boots have been performed. A comparison of the results highlighted a correlation between the visco-elastic properties and the flexural and rebound behaviour of ski boots. The same experimental methods have been used to investigate the influence of the design on the flexural and rebound behaviours. Finally in the third chapter the thermoplastic materials employed for the construction of ski boots soles have been characterized in terms of chemical composition, hardness, crystallinity, surface roughness and coefficient of friction (COF). The results showed a relation between material hardness and grip, in particular softer materials provide more grip with respect to harder materials. On the contrary, the surface roughness has a negative effect on friction because of the decrease in contact area. The measure of grip on inclined wet surfaces showed again a relation between hardness and grip. The performance ranking of the different materials has been the same for the COF and for the slip angle tests, indicating that COF can be used as a parameter for the choice of the optimal material to be used for the soles of ski boots.
Resumo:
L’argomento trattato in questo elaborato riguarda una nuova tecnologia che si sta sviluppando nell’ambito dell’ingegneria dei tessuti: il Bioprinting. Tale rivoluzionario approccio completamente automatizzato, grazie all’utilizzo dell’elaborazione automatica delle immagini CAD (Computer Aided Design) e la fabbricazione assistita al calcolatore CAM (Computer Aided Manufacturing), si propone di ricreare tessuti e/o organi. In particolare nel seguito ne verrà data una definizione e ne verranno definiti i campi di applicazione, per poi proseguire con un’analisi del processo dal punto di vista delle fasi che lo compongono e la speciale tecnologia utilizzata. Infine verrà proposto qualche studio fatto in merito ai tessuti vascolari e alla cartilagine per poi concludere con i pionieri che tuttora contribuiscono al suo sviluppo e con Organovo, una delle aziende leader del settore.
Resumo:
L’emanazione del Decreto 5 dicembre 2013, ha inaugurato una nuova stagione per il settore energetico italiano, dando vita anche in Italia, in linea con gli altri paesi europei, alla possibilità di valorizzare il biogas, prodotto a seguito di un processo di digestione anaerobica, come biometano, un gas con maggiore contenuto energetico che a seguito di opportuni trattamenti, può essere paragonabile al gas naturale. Il lavoro svolto pertanto si pone come obiettivo quello di individuare gli elementi peculiari che potrebbero favorire lo sviluppo e la crescita del biometano nel contesto italiano.
Resumo:
Gli ultimi anni hanno visto importanti cambiamenti positivi nella cooperazione interstatale in Asia centrale. Crescenti minacce come il terrorismo internazionale, l'estremismo religioso e politico, il traffico di droga, ecc, causati dagli interessi geopolitici e geo-economici delle potenze mondiali, hanno contribuito alla formazione di una politica estera più coordinata e coerente degli Stati della regione. Questo processo si manifesta nella partecipazione attiva dell’istituzionalizzazione della Shanghai Organizzazione del Commonwealth (SOC), Conferenza sulle misure di costruzione d’interazione e fiducia in Asia (CICA) e Organizzazione del Trattato di Sicurezza Collettiva (CSTO). Problemi moderni di sicurezza in Asia centrale dovrebbero essere risolti in dei nuovi modi, non convenzionali. Le nuove minacce alla sicurezza richiedono modi non standard per risolvere il problema. Considerate le differenze fondamentali dell'Unione europea e degli Stati dell'Asia centrale nei valori e dal punto di vista in materia di sicurezza. I paesi dell'Asia centrale non sono pronti per l'integrazione politica. Nonostante questo, nell’Asia centrale sono state adottate misure per contrastare le minacce non convenzionali. L’esperienza europea di unire gli sforzi della regione per garantire la sicurezza interna, può essere utilizzata dai paesi dell'Asia centrale, soprattutto, in primo luogo sulla formazione del quadro istituzionale e giuridico per la cooperazione operativa delle forze dell'ordine per le seguenti aree: • prevenzione del traffico di droga attraverso gli Stati dell'Asia centrale; • lotta contro nuove forme di terrorismo ed estremismo; • limitare la dimensione della migrazione clandestina; • migliorare la protezione giuridica dei cittadini. Fino a poco tempo fa, questi temi hanno ricevuto poca attenzione, sia nella teoria sia nella pratica, poiché i problemi di sicurezza della società erano principalmente ridotti per evitare il pericolo di guerra.
Resumo:
il profilo verticale del gas dipende sia dal potenziale galattico, e quindi dalla distribuzione di materia, sia dalla dispersione di velocit`a del gas La nostra analisi teorica ha mostrato che l’altezza scala dell’idrogeno gassoso ad un certo raggio `e fortemente legata alla componente di massa dominate: nelle parti centrali, dove domina la materia barionica, il disco gassoso incrementa il suo spessore esponenzialmente con una lunghezza scala pari al doppio di quella del disco stellare; dalle zone intermedie fino alla fine del disco, il profilo verticale del gas `e influenzato dalla distribuzione di DM. In queste zone lo spessore del disco gassoso cresce con il raggio in maniera circa lineare. Tale fenomeno viene definito gas flaring. Lo scopo principale di questa tesi `e la ricerca di una nuova tecnica per poter stimare il profilo vertical del gas in galassie con inclinazione intermedia.
Resumo:
Questa ricerca indaga come il “caso Ustica” si è articolato nell’opinione pubblica italiana negli anni compresi tra il 1980 e il 1992. Con l'espressione “caso Ustica” ci si riferisce al problema politico determinato dalle vicende legate all’abbattimento dell’aereo civile DC-9 dell’Itavia, avvenuto il 27 giugno 1980 in circostanze che, come noto, furono chiarite solamente a distanza di molti anni dal fatto. L’analisi intende cogliere le specificità del processo che ha portato la vicenda di Ustica ad acquisire rilevanza politica nell’ambito della sfera pubblica italiana, in particolare prendendo in considerazione il ruolo svolto dall’opinione pubblica in un decennio, quale quello degli anni ’80 e dei primi anni ’90 italiani, caratterizzato da una nuova centralità dei media rispetto alla sfera politica. Attraverso l’analisi di un’ampia selezione di fonti a stampa (circa 1500 articoli dei principali quotidiani italiani e circa 700 articoli tratti dagli organi dei partiti politici italiani) si sono pertanto messe in luce le dinamiche mediatiche e politiche che hanno portato alla tematizzazione di una vicenda che era rimasta fino al 1986 totalmente assente dall’agenda politica nazionale. L’analisi delle fonti giudiziarie ha permesso inoltre di verificare come la politicizzazione del caso Ustica, costruita intorno alla tensione opacità/trasparenza del potere politico e all’efficace quanto banalizzante paradigma delle “stragi di Stato”, sia risultata funzionale al raggiungimento, dopo il 1990, dei primi elementi di verità sulla tragedia e all’ampiamento del caso a una dimensione internazionale.
Resumo:
La tesi ha come oggetto il rinnovamento urbano che fu realizzato a Faenza per opera del suo signore Carlo II Manfredi tra il 1468 e il 1477, d’accordo con il fratello, il vescovo Federico. La prima opera realizzata da Carlo fu il portico a due livelli che dotò di una nuova facciata il suo palazzo di residenza, di origini medievali. Questa architettura sarebbe stata il preludio di un riordino generale della piazza principale della città, probabilmente allo scopo di ricreare un foro all’antica, come prescritto dai trattati di Vitruvio e di Alberti. L’aspetto originale del loggiato rinascimentale, desumibile da documentazione archivistica e iconografica, permette di attribuirlo con una certa probabilità a Giuliano da Maiano. Oltre alla piazza, Carlo riformò profondamente il tessuto urbano, demolendo molti portici lignei di origine medievale, rettificando le principali strade, completando la cerchia muraria. Federico Manfredi nel 1474 diede inizio alla fabbrica della Cattedrale, ricostruita dalle fondamenta su progetto dello stesso Giuliano da Maiano. L’architettura della chiesa ha uno stile largamente debitore all’architettura sacra di Brunelleschi, ma con significative differenze (come la navata definita da un’alternanza tra pilastri e colonne, o la copertura composta da volte a vela). L’abside della cattedrale, estranea al progetto maianesco, fu realizzata nel 1491-92 e mostra alcuni dettagli riconducibili alla coeva architettura di Bramante. A Faenza si realizza in un periodo di tempo brevissimo una profonda trasformazione del volto della città: loggiato, riforma della piazza, riordino delle strade, una nuova cattedrale, tutto contribuisce a dare lustro ai Manfredi e a fare di Faenza una città moderna e in cui si mettono in pratica, forse per la prima volta nell’Italia settentrionale, i dettami di Vitruvio e di Alberti.
Resumo:
Anche se la politica editoriale comunista rappresenta un campo di indagine fondamentale nella ricerca sul Pci, la sua attività editoriale è caduta in un oblio storico. Assumendo il libro come supporto materiale e veicolo della cultura politica comunista, e la casa editrice come canale di socializzazione, questa ricerca s’interroga sui suoi processi di costruzione e di diffusione. La ricerca si muove in due direzioni. Nel primo capitolo si è tentato di dare conto delle ragioni metodologiche dell’indagine e della messa a punto delle ipotesi di ricerca sul “partito editore”, raccogliendo alcune sfide poste alla storia politica da altri ambiti disciplinari, come la sociologia e la scienza politica, che rappresentano una vena feconda per la nostra indagine. La seconda direzione, empirica, ha riguardato la ricognizione delle fonti e degli strumenti di analisi per ricostruire le vicende del “partito editore” dal 1944 al 1956. La suddivisione della ricerca in due parti – 1944-1947 e 1947-1956 – segue a grandi linee la periodizzazione classica individuata dalla storiografia sulla politica culturale del Pci, ed è costruita su quattro fratture storiche – il 1944, con la “svolta di Salerno”; il 1947, con la “svolta cominformista”; il 1953, con la morte di Stalin e il disgelo; il 1956, con il XX Congresso e i fatti d’Ungheria – che sono risultate significative anche per la nostra ricerca sull’editoria comunista. Infine, il presente lavoro si basa su tre livelli di analisi: l’individuazione dei meccanismi di decisione politica e dell’organizzazione assunta dall’editoria comunista, esaminando gli scopi e i mutamenti organizzativi interni al partito per capire come i mutamenti strategici e tattici si sono riflessi sull’attività editoriale; la ricostruzione della produzione editoriale comunista; infine, l’identificazione dei processi di distribuzione e delle politiche per la lettura promosse dal Pci.
Resumo:
Il trattamento numerico dell'equazione di convezione-diffusione con le relative condizioni al bordo, comporta la risoluzione di sistemi lineari algebrici di grandi dimensioni in cui la matrice dei coefficienti è non simmetrica. Risolutori iterativi basati sul sottospazio di Krylov sono ampiamente utilizzati per questi sistemi lineari la cui risoluzione risulta particolarmente impegnativa nel caso di convezione dominante. In questa tesi vengono analizzate alcune strategie di precondizionamento, atte ad accelerare la convergenza di questi metodi iterativi. Vengono confrontati sperimentalmente precondizionatori molto noti come ILU e iterazioni di tipo inner-outer flessibile. Nel caso in cui i coefficienti del termine di convezione siano a variabili separabili, proponiamo una nuova strategia di precondizionamento basata sull'approssimazione, mediante equazione matriciale, dell'operatore differenziale di convezione-diffusione. L'azione di questo nuovo precondizionatore sfrutta in modo opportuno recenti risolutori efficienti per equazioni matriciali lineari. Vengono riportati numerosi esperimenti numerici per studiare la dipendenza della performance dei diversi risolutori dalla scelta del termine di convezione, e dai parametri di discretizzazione.
Resumo:
The overarching question of this dissertation is: “why does the public debt grow, and why are fiscal (debt) crises repetitive and so widespread?” A special focus in answering this question is given to a fiscal constitution, which contains a country-specific set of laws, rules and regulations, and guides decision making in the area of fiscal policy. By shaping incentives and limiting arbitrariness, the fiscal constitution determines the course of fiscal policy and fiscal outcomes in the long term. This dissertation does not give, however, an exhaustive response to the overarching question. Instead it asks much narrower questions, which are selected after reviewing and identifying the main weaknesses and gaps in the modern literature on fiscal constitutions.
Resumo:
Quando si parla di traduzione, si pensa spesso solo al risultato di un processo, valutato e analizzato come tale. Sembra ci si dimentichi del fatto che, prima di arrivare a quel risultato finale, il traduttore applica più o meno consapevolmente tutta quella serie di strumenti di analisi, critica, correzione, rilettura, riformulazione e modifica che rientrano nell’attività di revisione. A questa prima fase, di cui ogni traduttore fa esperienza nel lavorare alla propria traduzione, segue di norma una fase successiva in cui la traduzione è rivista da un’altra figura professionale della filiera editoriale (di solito, e auspicabilmente, un altro traduttore) e infine altre fasi ancora del processo di lavorazione e pubblicazione del testo tradotto. Oltre a essere un’attività cruciale di ogni attività di traduzione e processo editoriale, la revisione riveste anche un fondamentale ruolo didattico nella formazione dei traduttori. L’idea alla base di questo progetto di ricerca nasce dal bisogno di triangolare riflessioni e dati concreti sulla revisione provenienti dalla ricerca accademica, dalla pratica professionale e dall’esperienza didattico-formativa, in un triplice approccio che informa l’intero progetto, di cui si illustrano i principali obiettivi: • formulare una nuova e chiara definizione sommativa del termine “revisione” da potersi utilizzare nell’ambito della ricerca, della didattica e della prassi professionale; • fornire una panoramica tematica, critica e aggiornata sulla ricerca accademica e non-accademica in materia di revisione; • condurre un’indagine conoscitiva (tramite compilazione di questionari diversificati) sulla pratica professionale della revisione editoriale in Italia, allo scopo di raccogliere dati da traduttori e revisori, fornirne una lettura critica e quindi individuare peculiarità e criticità di questa fase del processo di lavorazione del libro tradotto; • presentare ipotesi di lavoro e suggerimenti su metodi e strumenti da applicare all’insegnamento della revisione in contesti didattici e formativi.
Resumo:
Un sistema mobile di comunicazione è un sistema di telecomunicazioni in cui è possibile mantenere la connessione o legame tra due o più utenti, anche nelle situazioni di mobilità totale o parziale degli stessi utenti. I sistemi radiomobili si stanno evolvendo dalla creazione del 1G (prima generazione) al 4G (quarta generazione). I telefoni di ogni generazione si differenziano in quattro aspetti principali : accesso radio, velocità di trasmissione dati, larghezza di banda e sistemi di commutazione. In questa tesi si affronta il tema dei sistemi 5G , negli ambienti terrestri e satellitari , in quanto sono l'ultima evoluzione dei sistemi mobili . Si introduce il passaggio dalla prima alla connessione di quarta generazione , al fine di capire perché 5G sta per cambiare la nostra vita . Quello che mi colpisce è il sito italiano www.Repubblica.it che dice : " con la nuova generazione 5 possiamo affidare le intere porzioni nette di vita". La tecnologia cellulare , infatti , ha cambiato radicalmente la nostra società e il nostro modo di comunicare . In primo luogo è cambiata la telefonia vocale , per poi trasferirsi all' accesso dati , applicazioni e servizi. Tuttavia , Internet non è stato ancora pienamente sfruttato dai sistemi cellulari. Con l'avvento del 5G avremo l'opportunità di scavalcare le capacità attuali di Internet . Il sistema di comunicazione di quinta generazione è visto come la rete wireless reale , in grado di supportare applicazioni web wireless a livello mondiale ( wwww ). Ci sono due punti di vista dei sistemi 5G : evolutivo e rivoluzionario. Dal punto di vista evolutivo, i sistemi 5G saranno in grado di supportare wwww permettendo una rete altamente flessibile come un Adhoc rete wireless dinamica ( DAWN ) . In questa visione tecnologie avanzate, tra cui antenna intelligente e modulazione flessibile , sono le chiavi per ottimizzare le reti wireless ad hoc. Dal punto di vista rivoluzionario, i sistemi 5G dovrebbe essere una tecnologia intelligente in grado di interconnettere tutto il mondo senza limiti . Un esempio di applicazione potrebbe essere un robot wireless con intelligenza artificiale .
Resumo:
L'informatica è al giorno d'oggi al centro di un incredibile sviluppo e tumulto innovativo; è la scienza che coniuga ogni sviluppo tecnologico, il quale inevitabilmente, d'ora in poi, verrà in qualche modo condizionato dalle innovazioni di tale disciplina. Fra gli innumerevoli nuovi trend che si sono affacciati prepotentemente negli ultimi anni sul panorama informatico, il paradigma per la programmazione ad agenti è uno dei più interessanti, in accordo con i recenti e prossimi sviluppi della tecnologia in generale. Questa tesi tratterà tale argomento partendo da un punto di vista generico ed introduttivo volutamente esaustivo, per poi concentrarsi su una specifica tecnologia implementativa, ovvero il linguaggio Jason, mostrandola infine nella pratica con la presentazione di un'applicazione nel capitolo tre.
Resumo:
Il presente lavoro di tesi si inserisce nell’ambito della classificazione di dati ad alta dimensionalità, sviluppando un algoritmo basato sul metodo della Discriminant Analysis. Esso classifica i campioni attraverso le variabili prese a coppie formando un network a partire da quelle che hanno una performance sufficientemente elevata. Successivamente, l’algoritmo si avvale di proprietà topologiche dei network (in particolare la ricerca di subnetwork e misure di centralità di singoli nodi) per ottenere varie signature (sottoinsiemi delle variabili iniziali) con performance ottimali di classificazione e caratterizzate da una bassa dimensionalità (dell’ordine di 101, inferiore di almeno un fattore 103 rispetto alle variabili di partenza nei problemi trattati). Per fare ciò, l’algoritmo comprende una parte di definizione del network e un’altra di selezione e riduzione della signature, calcolando ad ogni passaggio la nuova capacità di classificazione operando test di cross-validazione (k-fold o leave- one-out). Considerato l’alto numero di variabili coinvolte nei problemi trattati – dell’ordine di 104 – l’algoritmo è stato necessariamente implementato su High-Performance Computer, con lo sviluppo in parallelo delle parti più onerose del codice C++, nella fattispecie il calcolo vero e proprio del di- scriminante e il sorting finale dei risultati. L’applicazione qui studiata è a dati high-throughput in ambito genetico, riguardanti l’espressione genica a livello cellulare, settore in cui i database frequentemente sono costituiti da un numero elevato di variabili (104 −105) a fronte di un basso numero di campioni (101 −102). In campo medico-clinico, la determinazione di signature a bassa dimensionalità per la discriminazione e classificazione di campioni (e.g. sano/malato, responder/not-responder, ecc.) è un problema di fondamentale importanza, ad esempio per la messa a punto di strategie terapeutiche personalizzate per specifici sottogruppi di pazienti attraverso la realizzazione di kit diagnostici per l’analisi di profili di espressione applicabili su larga scala. L’analisi effettuata in questa tesi su vari tipi di dati reali mostra che il metodo proposto, anche in confronto ad altri metodi esistenti basati o me- no sull’approccio a network, fornisce performance ottime, tenendo conto del fatto che il metodo produce signature con elevate performance di classifica- zione e contemporaneamente mantenendo molto ridotto il numero di variabili utilizzate per questo scopo.