999 resultados para sistemi di numerazione storia della matematica matematica ricreativa, frattali
Resumo:
La presente trattazione analizza le novità normative apportate dalle recenti direttive europee sui servizi di pagamento e sulla moneta elettronica (rispettivamente la direttiva 2007/64/CE, c.c. Payment Services Directive o PSD, e la direttiva 2009/110/CE, detta Electronic Money Directive 2 o EMD2). Al fine di incrementare la competitività dei servizi di pagamento, sono stati introdotti nuovi prestatori di servizi di pagamento, non bancari, gli Istituti di Pagamento (IP) e gli Istituti di Moneta Elettronica (IMEL), a cui è stata attribuita la possibilità di far ricorso al contratto di conto di pagamento per la gestione dei servizi di pagamento con possibilità di finanziamento agli utenti. La prima parte della presente trattazione è dedicata alla configurazione giuridica dei nuovi prestatori di servizi di pagamento, influenzante la diffusione dei pagamenti digitali e della moneta elettronica. La seconda parte è rivolta alla ricostruzione giuridica del conto di pagamento, contratto – tipo per la gestione in conto dei servizi di pagamento, ed all’analisi delle modalità di erogazione dei finanziamenti agli utenti. Le direttive predette hanno inoltre attribuito ad IP ed IMEL la facoltà di emettere le carte di pagamento a spendibilità generalizzata, ossia carte di debito e carte di credito. In quanto abilitati all’emissione di moneta elettronica, gli IMEL possono inoltre emettere i c.d. borsellini di moneta elettronica, cioè i dispositivi di memorizzazione e di movimentazione della moneta elettronica. Nella terza parte della trattazione vengono, pertanto, presi in analisi la natura di tali strumenti di pagamento e le differenze intercorrenti rispetto agli affini strumenti bancari. In particolare, ampio spazio è dedicato alla ricostruzione giuridica dei borsellini di moneta elettronica, la cui diffusione tra gli utenti potrebbe avere l’effetto di favorire la progressiva digitalizzazione dei pagamenti e la realizzazione della cashless society.
Resumo:
La Confraternita bolognese di S. Maria della Morte, istituita nel 1336 sull’onda della predicazione del frate domenicano Venturino da Bergamo, è la più antica e meglio documentata compagnia italiana ‘di giustizia’. Possedeva un laudario conosciuto attraverso 12 manoscritti redatti tra XV e XVI secolo, dove le laude seguono il “confortatorio” che insegnava ai confratelli come relazionarsi col condannato e prepararlo a morire in perfetto spirito cristiano. Nelle laude l’identificazione poetica tra Cristo e il condannato era funzionale allo scopo di convertire il criminale in santo, convincendolo che la sua morte aveva una funzione redentrice per sé e la città stessa. L’assoluzione plenaria poteva essere ottenuta solo tramite una morte completamente accettata e un pentimento sincero. La dissertazione indaga le tematiche espresse dalle laude e le motivazioni forti che spingevano i confortatori a intraprendere questa peculiare attività assistenziale.
Resumo:
La geolocalizzazione è il processo tramite il quale è possibile mettere in relazione una certa informazione con un punto specifico della superficie terrestre, individuato tramite metodi di localizzazione (quindi il reperimento delle coordinate latidudinali e longitudinali) di un apparato elettronico, sfruttandone le caratteristiche fisiche o ricevendo informazioni dettagliate dallo strumento stesso. Nello specifico il concetto di geolocalizzazione enfatizza l’aspetto dinamico, riferendosi ad informazioni che possono essere aggiornate di frequente come la posizione e la velocità. La possibilità di rendere dinamico il reperimento di tali informazioni e di poterle rilevare in maniera sempre più dettagliata deriva dalla combinazione di diverse tecnologie che si sono sviluppare nel ventunesimo secolo e che danno ora la possibilità ad ogni dispositivo di poterle comunicare in tempo reale. Grazie alle caratteristiche sopracitate di correlare con immediatezza le informazioni al singolo dispositivo e alla sua posizione geografica, è considerata tra i più rivoluzionari campi di sviluppo in ambito sociale ed economico, pur avendo potenziali problemi legati alla privacy e libertà individuale di non semplice soluzione. In questa tesi analizzerò i vari metodi di posizionamento fino ad oggi studiati, sia indoor (all’interno di edifici) che outdoor (all’esterno). Nel primo capitolo il documento presenta una riflessione storica sull’evoluzione del concetto di localizzazione, partendo dai primi tentativi di navigazione, fino ad arrivare ai più moderni sistemi tecnologici. Nel terzo e quarto capitolo esploro le tecniche esistenti rispettivamente per situazioni indoor e outdoor, tra cui GPS, localizzazione cellulare, sistemi a infrarossi, sistemi a onde radio e a ultrasuoni.Mi soffermerò inoltre sui vantaggi offerti da nuovi dispositivi con gli smartphones. Nel quinto capitolo analizzerò le caratteristiche di ogni istema, comparandole tra di loro. Farò poi riferimento ad alcuni casi reali di utilizzo di tali tecnologie, prima di concludere con alcune considerazioni personali.
Resumo:
Nel corso degli ultimi anni le problematiche legate al ruolo vettore delle zanzare stanno emergendo sia per quanto riguarda l’uomo che gli animali allevati e selvatici. Diversi arbovirus come West Nile, Chikungunya, Usutu e Dengue, possono facilmente spostarsi a livello planetario ed essere introdotti anche nei nostri territori dove possono dare avvio a episodi epidemici. Le tecniche di monitoraggio e sorveglianza dei Culicidi possono essere convenientemente utilizzate per il rilevamento precoce dell’attività virale sul territorio e per la stima del rischio di epidemie al fine dell’adozione delle opportune azioni di Sanità Pubblica. Io scopo della ricerca del dottorato è inserito nel contesto dei temi di sviluppo del Piano regionale sorveglianza delle malattie trasmesse da vettori in Emilia Romagna. La ricerca condotta è inquadrata prevalentemente sotto l’aspetto entomologico applicativo di utilizzo di dispositivi (trappole) che possano catturare efficacemente possibili insetti vettori. In particolare questa ricerca è stata mirata allo studio comparativo in campo di diversi tipi di trappole per la cattura di adulti di zanzara, cercando di interpretare i dati per capire un potenziale valore di efficacia/efficienza nel rilevamento della circolazione virale e come supporto alla pianificazione della rete di sorveglianza dal punto di vista operativo mediante dispositivi adeguati alle finalità d’indagine. Si è cercato di trovare un dispositivo idoneo, approfondendone gli aspetti operativi/funzionali, ai fini di cattura del vettore principale del West Nile Virus, cioè la zanzara comune, da affiancare all’unica tipologia di trappola usata in precedenza. Le prove saranno svolte sia in campo che presso il laboratorio di Entomologia Medica Veterinaria del Centro Agricoltura Ambiente “G. Nicoli” di Crevalcore, in collaborazione con il Dipartimento di Scienze e Tecnologie Agroambientali della Facoltà di Agraria dell’Università di Bologna.
Resumo:
La suddivisione in aree assistenziali per intensità di cura e non in reparti e unità operative, consente al personale medico e sanitario una migliore gestione del paziente, ponendolo al centro del suo percorso di cura, evitando dispersioni, sprechi di tempo, di spazio, di risorse e consentendo una ottimizzazione del proprio lavoro. I settori su cui questo elaborato tende a focalizzarsi maggiormente, sono le aree a media e bassa intensità. Tali aree ospitano pazienti i quali necessitano di monitoraggio dei propri parametri fisiologici vitali, ma non in modo invasivo e costante come al contrario avviene in aree assistenziali ad intensità più alta. Si tratterà in particolare di quali dispositivi sono i più adatti per essere impiegati all’interno di tali aree. Si vuole sottolineare l’importanza della “modularità” di questi dispositivi, ovvero la possibilità di rilevare solo ed esclusivamente i parametri che realmente servono al medico per comprendere il quadro clinico del paziente in fase di stabilizzazione. I dati rilevati vengono poi generalmente trasmessi a un accentratore attraverso Bluetooth o altri standard a corto raggio. La cartella clinica del paziente viene aggiornata automaticamente e il personale sanitario può accedere in qualsiasi momento allo storico dei dati, ottimizzando il proprio lavoro. Per descrivere lo stato dell’arte dei dispositivi ne vengono riportati due esempi: Win@Hospital dell’azienda pisana Winmedical e EverOn dell’azienda israeliana EarlySense. L’integrazione dei dati medicali di questi dispositivi, così come per tutte le apparecchiature biomedicali presenti all’interno degli ospedali, avviene per mezzo di standard quali HL7 e sulla base di profili di integrazione definiti da IHE.
Resumo:
Per poter far fronte al continuo aumento della popolazione mondiale, al rapido esaurimento di molte risorse, alle sempre maggiori pressioni sull’ambiente ed ai cambiamenti climatici, l’Europa deve optare per un approccio radicalmente diverso nei confronti di produzione, consumo, trasformazione, stoccaggio, riciclaggio e smaltimento delle risorse biologiche. Al riguardo la strategia “Europa 2020” auspica lo sviluppo della bioeconomia in quanto elemento chiave per consentire una crescita intelligente e verde in Europa (Commissione Europea, 2012). Tuttavia il successo di questo settore è strettamente legato alla capacità di scegliere la strategia ottimale e le azioni efficienti in modo da creare un ambiente favorevole allo sviluppo di nuove idee ed iniziative imprenditoriali (Fucci, 2014). Questo è proprio uno degli obiettivi della tesi svolta, che descrive il progetto Biohorizons, rivolto non solo a mappare l’attuale panorama europeo nell’ambito della bioeconomia ma anche ad identificare eventuali ostacoli alla crescita e a comprendere le modalità più opportune a sostenere questo settore. Si è deciso inoltre di effettuare alcune interviste al fine di integrare le informazioni ottenute durante la realizzazione del progetto. In aggiunta, un altro obiettivo della tesi consiste nello sviluppo di una serie di indici finalizzati ad aiutare la classificazione delle bioraffinerie sulla base della loro complessità, così da offrire uno strumento utile a sostenere certe scelte dei decisori pubblici e privati.
Resumo:
Nell’era dell’informazione in cui viviamo, ogni persona viene sdoppiata in due entità: oltre alla parte reale e materiale vi è un alterego fatto di dati ed informazioni che vive nei database e nei server che compongono il web. Il collegamento tra le due parti è dato dagli account e dalle chiavi di autenticazione, che si presumono essere segrete. Al giorno d’oggi ogni persona possiede almeno un account, sia esso una web mail, un profilo su un social network o l’account di online banking. Quasi la totalità di questi sistemi effettua l’autenticazione dell’utente tramite l’immissione di una password, e la sicurezza di quest’ultima è essenziale per la protezione delle informazioni personali, dei dati bancari e della propria identità. Col passare del tempo le informazioni personali che diamo in custodia al web crescono sempre più velocemente e diventano sempre più personali e delicate, ma purtroppo l’importanza che viene data alla sicurezza informatica non cresce di pari passo sia da parte degli utenti, sia da parte dei fornitori dei servizi web. Questa tesi ha come scopo quello di portare il lettore ad avere più coscienza rispetto alle tematiche della sicurezza informatica e di esporre in modo chiaro e semplice alcune delle problematiche che riguardano la sicurezza dei sistemi di autenticazione.
Resumo:
Questa tesi affronta la tematica della trustworthiness dal punto di vista dell’utente, a partire dalla sua identità virtuale fino a considerare l’analisi dei parametri che un sito Web dovrebbe adottare perchè sia ritenuto affidabile dagli utilizzatori. Si individueranno quindi le criticità che rendono ancora la trustworthiness una variabile poco considerata nella progettazione di siti Web e gli eventuali accorgimenti e punti di forza che caratterizzano un ambiente di lavoro. La tesi presenta diversi casi esemplificativi di utilizzo, ovvero gli ambienti di commercio elettronico, gli ambienti che condizionano l’acquisto di un utente e i sistemi di knowledge sharing; tutte le analisi di affidabilità sono applicate a siti web che adottano modelli di approvvigionamento dati da parte degli utenti stessi, votazioni e giudizi, recensioni su prodotti e servizi, crowdsourcing di informazioni e di esperienze personali e collettive, basate su progetti di indagine commerciale, analisi e opinione di prodotti o servizi o informazioni condivise per lo sviluppo sociale. La tematica viene analizzata da questi tre punti di vista, ciascuno sotto l’ottica identitaria, di reputazione e di affidabilità. La letteratura, come esaminato in questa tesi, propone alcuni modelli che individuano criteri di valutazione dell’affidabilità dei siti web, su algoritmi già esistenti quindi su siti Web che possiedono sistemi di filtraggio del contenuto o sistemi di valutazione della reputazione o meccanismi di raccomandazione per individuare le intenzioni dell’utente; in altri casi vengono implementati modelli sperimentali e teorie basate su dataset esistenti, per ricercare soluzioni tangibili all’autenticazione di affidabilità di un sistema, compensando la carenza di sistemi di giudizio di trustworthiness su siti Web reali. Vengono proposti alcuni casi d’uso, appartenenti alle categorie prese in oggetto, per esaminare nel dettaglio, le caratteristiche di trustworthiness fornite da ognuno di essi, nel loro campo di applicazione. L’obiettivo è tracciare una mappatura dei principali criteri con cui viene valutata trustworthiness dei dati in qualsiasi ambito d’applicazione della rete, ponendo alcuni criteri fondamentali ed avere così una visione approfondita della problematica.
Resumo:
Questo elaborato di tesi si propone di illustrare il lavoro svolto presso Caterpillar Global Paving di Minerbio, finalizzato all’analisi del fabbisogno della gestione e dell’utilizzo di sistemi di avvitatura complessi tramite l’applicazione di principi di ingegnerizzazione di processo e di Change Management.
Resumo:
La tesi riguarda la didattica della matematica e parla del modo di fare didattica negli istituti secondari di secondo grado attraverso l'analisi di un caso particolare: la didattica dei numeri complessi. La didattica verrà analizzata per prima cosa a livello generale attraverso l'esposizione dei punti principali della riforma Gelmini, e, successivamente, in particolare attraverso l'analisi della didattica dei numeri complessi nei licei scientifici. Di quest'ultima verranno presentati: gli strumenti con cui viene svolta, la modalità con cui vengono presentati i concetti, un nuovo metodo per migliorarla e, infine, il modo in cui i ragazzi la percepiscono. Questi elementi si traducono, rispettivamente, nell'analisi del libro `Matematica a colori', nell'esposizione di una lezione-tipo, nella proposta dell'utilizzo della storia della matematica e infine in un questionario posto agli alunni. Quanto emerso verrà confrontato con le indicazioni nazionali di alcuni stati esteri e il tutto verrà utilizzato per `leggere' i risultati del TIMMS ADVANCED 2008.
Resumo:
Scopo della tesi è illustrare l'origine della nozione di logaritmo nei suoi primi decenni dalla nascita, partendo dalle opere di J. Napier (Nepero, 1550-1617) fino a B. Cavalieri (1598-1647), che insieme a J. Keplero (1571-1630) concludono la cosiddetta età pioneristica. Nel primo capitolo sono esposti alcuni mezzi di calcolo usati nel XVI secolo, come i "bastoncini di Nepero"; e il confronto della progressione geometrica con quella aritmetica, che con la conoscenza delle leggi esponenziali, porterà all'invenzione dei logaritmi. Il secondo capitolo è dedicato interamente a Napier (fatto salvo un cenno all'opera di Burgi), con lo scopo di illustrare i suoi due maggiori trattati sui logaritmi: il primo fu sostanzialmente una tavola di numeri da lui inizialmente chiamati "numeri artificiali" e successivamente definiti "logaritmi"; il secondo, curato e pubblicato dal figlio, è un trattato nel quale giustifica il nuovo concetto da lui ottenuto ed i metodi usati per il calcolo delle tavole. Con Henry Briggs (capitolo III) la teoria del logaritmo giunge a maturazione. Egli stesso definì una propria funzione logaritmica Bl_1 che, in seguito, mutò dopo un paio di incontri con Napier. Nelle tavole di Briggs il logaritmo da lui introdotto avrà base 10 e il logaritmo di 1 sarà nullo, definendo così il nostro usuale logaritmo decimale. Nel quarto capitolo mi occupo della diffusione in Italia e in Germania delle nozioni di logaritmo, da parte, rispettivamente di B. Cavalieri e J. Keplero. Cavalieri scrisse parecchio sui logaritmi, pubblicando anche proprie tavole, ma non sembra che abbia raggiunto risultati di grande rilevanza nel campo, tuttavia seppe usare la teoria dei logaritmi in campo geometrico giungendo a formule interessanti. La parte storica della tesi si conclude con alcune notizie sul contributo di Keplero e la diffusione della nozione dei logaritmi neperiani in Germania. La mia esposizione si conclude con qualche notizia sull'uso dei logaritmi e sul regolo calcolatore dalla fine del XIX secolo fin verso gli anni ’70 del secolo scorso.
Resumo:
Il lavoro di tesi si inquadra nel progetto nazionale di ricerca promosso dal Dipartimento della Protezione Civile (DPC) e dall’Istituto di Geofisica e Vulcanologia (INGV), denominato S2-2014/DPC-INGV Constraining observations into seismic hazard. Esso prevede la caratterizzazione geologica e geofisica di 77 stazioni della rete accelerometrica nazionale (RAN) al fine di correggere i dati osservati e le relazioni (leggi di attenuazione dell’accelerazione ecc.) che da essi derivano. Fino ad ora le stazioni sismiche erano state assunte come ubicate su roccia affiorante o su litotipi di altro tipo evinti da carta geologica, senza alcun tipo di verifica diretta. Le 77 stazioni sono state scelte tra quelle che presentavano una storia di operatività di almeno 25 anni. In questo lavoro è stata eseguita la caratterizzazione geologica e geofisica di 5 stazioni, collocate in Emilia-Romagna. Oltre alla caratterizzazione del sottosuolo, abbiamo prestato attenzione alla caratterizzazione dinamica delle strutture che ospitano le stazioni sismiche e alla ricerca di eventuali interazioni tra queste e i sensori accelerometrici, trasmesse attraverso il sottosuolo. Il rilevamento geologico e le prove geofisiche, sismica a stazione singola e array, eseguite nei siti hanno permesso di definire la categoria sismica di sottosuolo secondo l’approccio semplificato proposto dalle NTC (2008). Dallo studio è emerso che il segnale registrato dagli strumenti accelerometrici in quasi tutte le stazioni investigate risente in qualche modo della struttura in cui la stazione sismica è racchiusa (cabina ENEL in muratura, con sviluppo a torre di circa 7-8 m di altezza). Ne segue che i dati registrati da queste stazioni sismiche sopra 3-5 Hz (a seconda della specifica struttura) non sono immediatamente utilizzabili o interpretabili come legati all’effetto del solo sottosuolo o del solo segnale sismico. In essi si accoppia, e spesso come effetto del primo ordine, la vibrazione propria (nei modi fondamentale e superiori, flessionali e torsionali) della struttura.
Resumo:
Il documento illustra il lavoro di analisi dei requisiti, progettazione, implementazione e valutazione di un sistema per l’autenticazione degli utenti delle workstation della sede di Scienze del Dipartimento di Informatica — Scienza ed Ingegneria (DISI) che si integri al sistema di autenticazione d’Ateneo. Il sistema descritto è entrato in produzione il 24 settembre 2014 ed è tuttora operante. Il lavoro percorre le modalità di gestione degli account utente in uso presso il DISI e le nuove modalità di organizzazione del DSA d’Ateneo discutendo le motivazioni per cui le soluzioni standard non possono essere adottate nel caso esposto. Analizzato il processo di login dei sistemi Unix e le librerie coinvolte verrà esposto il nuovo progetto, le particolarità dello sviluppo delle nuove librerie PAM e di Name Service Switch e la loro modalità di funzionamento e configurazione all’interno del cluster Unix. In conclusione vengono presentate una serie di valutazioni che mostrano i vantaggi e il rispetto dei requisiti della nuova implementazione.
Resumo:
Argomento del lavoro è stato lo studio di problemi legati alla Flow-Asurance. In particolare, si focalizza su due aspetti: i) una valutazione comparativa delle diverse equazioni di stato implementate nel simulatore multifase OLGA, per valutare quella che porta a risultati più conservativi; ii) l’analisi della formazione di idrati, all’interno di sistemi caratterizzati dalla presenza di gas ed acqua. Il primo argomento di studio nasce dal fatto che per garantire continuità del flusso è necessario conoscere il comportamento volumetrico del fluido all’interno delle pipelines. Per effettuare tali studi, la Flow-Assurance si basa sulle Equazioni di Stato cubiche. In particolare, sono state confrontate: -L’equazione di Soave-Redlich-Kwong; -L’equazione di Peng-Robinson; -L’equazione di Peng-Robinson modificata da Peneloux. Sono stati analizzati 4 fluidi idrocarburici (2 multifase, un olio e un gas) con diverse composizioni e diverse condizioni di fase. Le variabili considerate sono state pressione, temperatura, densità e viscosità; sono state poi valutate le perdite di carico, parametro fondamentale nello studio del trasporto di un fluido, valutando che l'equazione di Peng-Robinson è quella più adatta per caratterizzare termodinamicamente il fluido durante una fase di design, in quanto fornisce l'andamento più conservativo. Dopo aver accertato la presenza di idrati nei fluidi multifase, l’obiettivo del lavoro è stato analizzare come il sistema rispondesse all’aggiunta di inibitori chimici per uscire dalla regione termodinamica di stabilità dell’idrato. Gli inibitori utilizzati sono stati metanolo e mono-etilen-glicole in soluzione acquosa. L’analisi è stata effettuata confrontando due metodi: -Metodo analitico di Hammerschmidt; -Metodo iterativo con PVTSim. I risultati ottenuti hanno dimostrato che entrambi gli inibitori utilizzati risolvono il problema della formazione di idrato spostando la curva di stabilità al di fuori delle pressioni e temperature che si incontrano nella pipeline. Valutando le quantità da iniettare, il metodo di Hammerschmidt risulta quello più conservativo, indicando portate maggiori rispetto al PVTsim, soprattutto aggiungendo metanolo.
Resumo:
Grazie al progresso nel potenziamento dell'hardware sono state sviluppate tecnologie che stanno rivoluzionando drasticamente il modo di interagire con l'ambiente circostante. Una di queste è sicuramente l'avvento degli Smartglasses e della relativa Realtà Aumentata (AR). Sulla scia del rapido diffondersi di questa tecnologia negli ultimi anni, questa tesi vuole mettere in evidenza le opportunità e i benefici legati al suo impiego esponendo come questa aprirà nuove forme di servizi e metterà in discussione il mondo così come lo si conosce. In particolare la tesi è strutturata in questo modo: nel capitolo uno verranno esposte le tre principali tecnologie wearables rispettivamente SmartWatches, FitnessTracker e SmartGlasses, quest'ultimi visti non solo come dei semplici wearables ma come dispositivi per la Realtà Aumentata, mostrando la maggior parte di quelli presenti sul mercato con una relativa descrizione delle caratteristiche hardware. Nel secondo capitolo verrà dunque esposto il concetto di Realtà Aumentata con l'illustrazione di come si progetta generalmente un'applicazione AR ed analizzando alcuni degli innumerevoli scenari applicativi. Nel terzo capitolo verrà presentato come la tecnologia smartglass utilizzi la realtà aumentata e verranno mostrate le proposte applicative che i più importanti prodotti offrono. Nel quarto capitolo invece si parlerà dei vari tools di sviluppo per progettare ed implementare applicazioni di realtà aumentata in particolare per dispositivi smartglasses. Nel quinto capitolo verrà approfondito proprio uno di questi tools: le librerie di ARToolKit raccontandone le caratteristiche principali e mostrando la struttura generale di un'applicazione che ne fa uso. Infine nel sesto capitolo verrà discusso come questa realtà aumentata grazie all'ausilio di tutti questi dispositivi sta cambiando il modo di interagire con tutto l'ambiente, creando scenari futuristici che coinvolgono ambienti intelligenti nei quali si creerà un livello digitale che aumenterà il mondo fisico.