221 resultados para Raspberry Pi Linux Reti Calcolatori Python


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Trent’anni or sono il concetto di ottimalità venne formulato in senso teorico da Lévy, ma solo un decennio dopo Lamping riesce a darne elegante implementazione algoritmica. Realizza un sistema di riduzione su grafi che si scoprirà poi avere interessanti analogie con la logica lineare presentata nello stesso periodo da Girard. Ma l’ottimalità è davvero ottimale? In altre parole, l’implementazione ottimale del λ calcolo realizzata attraverso i grafi di condivisione, è davvero la migliore strategia di riduzione, in termini di complessità? Dopo anni di infondati dubbi e di immeritato oblìo, alla conferenza LICS del 2007, Baillot, Coppola e Dal Lago, danno una prima risposta positiva, seppur parziale. Considerano infatti il caso particolare delle logiche affini elementare e leggera, che possiedono interessanti proprietà a livello di complessità intrinseca e semplificano l’arduo problema. La prima parte di questa tesi presenta, in sintesi, la teoria dell’ottimalità e la sua implementazione condivisa. La seconda parte affronta il tema della sua complessità, a cominciare da una panoramica dei più importanti risultati ad essa legati. La successiva introduzione alle logiche affini, e alle relative caratteristiche, costituisce la necessaria premessa ai due capitoli successivi, che presentano una dimostrazione alternativa ed originale degli ultimi risultati basati appunto su EAL e LAL. Nel primo dei due capitoli viene definito un sistema intermedio fra le reti di prova delle logiche e la riduzione dei grafi, nel secondo sono dimostrate correttezza ed ottimalità dell’implementazione condivisa per mezzo di una simulazione. Lungo la trattazione sono offerti alcuni spunti di riflessione sulla dinamica interna della β riduzione riduzione e sui suoi legami con le reti di prova della logica lineare.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nella prima parte si analizza il metodo dell'entropia delle parole in un testo per recuperare quelle più rilevanti in base alla distribuzione delle stesse all'interno dell'opera. Nella seconda parte viene studiata l'analisi della semantica latente e le sue basi statistiche, algebriche e analitiche. Infine vengono effettuati degli esperimenti con l'utilizzo del software InfomapNLP sulla Divina Commedia.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il presente lavoro di tesi nasce dalla collaborazione tra l’Università di Bologna, Polo Scientifico Didattico di Ravenna, e l’Agenzia Regionale Prevenzione ed Ambiente dell’Emilia Romagna (ARPA EMR), sezione di Ravenna, inserendosi nell’ambito del progetto di Dottorato “Sviluppo di tecniche per la progettazione delle reti di monitoraggio della qualità dell’aria”. Lo scopo principale dello studio è quello di definire una metodologia di tipo Top-Down per disaggregare spazialmente sulla Provincia di Ravenna le emissioni in atmosfera stimate dall’inventario provinciale di ARPA EMR. La metodologia CORINAIR (COordination INformation AIR), sviluppata dalla Agenzia Europea per l’Ambiente, prefigura due possibili procedure di stima delle emissioni in atmosfera: Top-Down (parte dalla scala spaziale più ampia e discende a livelli inferiori) e Bottom-Up (parte invece dall’analisi della realtà produttiva locale per passare a quella relativa a livelli di aggregazione maggiori). La metodologia proposta, di tipo Top-Down, si avvale volutamente di variabili proxy facilmente reperibili a livello comunale, in modo che possa essere applicata anche ad altre realtà locali, meno ricche di dati statistici e ambientali di quanto non lo sia la regione Emilia Romagna in generale e la provincia di Ravenna in particolare. La finalità ultima dello studio è quella di fornire una metodologia per ottenere, attraverso dati resi disponibili da ogni amministrazione comunale, un quadro conoscitivo della situazione emissiva in atmosfera a livello locale a supporto della gestione della qualità dell’aria e dei relativi fattori di pressione. Da un punto di vista operativo, il lavoro di tesi è stato suddiviso in: una fase progettuale, con l’obiettivo di individuare i Macrosettori CORINAIR e gli inquinanti principali da tenere in considerazione nello studio, ed identificare le variabili proxy più opportune per la disaggregazione delle emissioni; una fase di raccolta dei dati ed infine, l’elaborazione dei dati con l’ausilio del software GIS ArcMap 9.3. La metodologia Top-Down è stata applicata in due fasi: con la prima si è effettuata la disaggregazione dal livello provinciale a quello comunale; con la seconda, le emissioni attribuite al comune di Ravenna sono state distribuite spazialmente su una griglia le cui celle hanno dimensione 100m x 100m in modo da ottenere una disaggregazione ad alta risoluzione. I risultati ottenuti dalla disaggregazione effettuata sono stati confrontati, là dove possibile, con dati ottenuti da un approccio Bottom-Up, allo scopo di validare la metodologia proposta. I confronti fra le stime effettuate con l’approccio Top-Down e quelle derivanti dall’approccio Bottom-Up hanno evidenziato risultati diversi per i differenti Macrosettori investigati. Per il macrosettore industriale, si sono evidenziate una serie di limitazioni dimostrando che l’utilizzo della proxy ‘superficie industriale’, così come applicata, non è adeguata né a livello qualitativo né quantitativo. Limitazioni significative, si osservano anche per il macrosettore ‘traffico veicolare’ per il quale è possibile effettuare una stima accurata delle emissioni totali ma poi la disaggregazione spaziale ad alta risoluzione appare insoddisfacente. Ottime risultano invece le performance della metodologia proposta per il macrosettore combustione non industriale, per il quale si osserva un buon accordo sia per i valori emissivi globali, sia per la loro distribuzione spaziale ad alta risoluzione. Relativamente agli altri settori e macrosettori analizzati (‘Altre sorgenti mobili’ e ‘Agricoltura’), non è stato possibile effettuare confronti con dati provenienti dall’approccio Bottom- Up. Nonostante ciò, dopo un’attenta ricerca bibliografica, si può affermare, che le proxy utilizzate sono fra quelle più impiegate in letteratura, ed il loro impiego ha permesso l’ottenimento di una distribuzione spaziale verosimile ed in linea con l’inventario provinciale ARPA EMR. In ultimo, le mappe di pressione ottenute con l’ausilio di ArcMap sono state analizzate qualitativamente per identificare, nel territorio del Comune di Ravenna, le zone dove insiste una maggiore pressione emissiva sul comparto atmosferico. E’ possibile concludere che il livello di dettaglio ottenuto appare sufficiente a rappresentare le zone più critiche del territorio anche se un ulteriore lavoro dovrà essere previsto per sviluppare meglio i macrosettori che hanno mostrato le maggiori criticità. Inoltre, si è riusciti a tracciare una metodologia sufficientemente flessibile per poterla applicare anche ad altre realtà locali, tenendo comunque sempre presente che, la scelta delle proxy, deve essere effettuata in funzione delle caratteristiche intrinseche del territorio.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Questa tesi si basa su una serie di lavori precedenti, volti ad analizzare la correlazione tra i modelli AUML e le reti di Petri, per riuscire a fornire una metodologia di traduzione dai primi alle seconde. Questa traduzione permetterà di applicare tecniche di model checking alle reti così create, al fine di stabilire le proprietà necessarie al sistema per poter essere realizzato effettivamente. Verrà poi discussa un'implementazione di tale algoritmo sviluppata in tuProlog ed un primo approccio al model checking utilizzando il programma Maude. Con piccole modifiche all'algoritmo utilizzato per la conversione dei diagrammi AUML in reti di Petri, è stato possibile, inoltre, realizzare un sistema di implementazione automatica dei protocolli precedentemente analizzati, verso due piattaforme per la realizzazione di sistemi multiagente: Jason e TuCSoN. Verranno quindi presentate tre implementazioni diverse: la prima per la piattaforma Jason, che utilizza degli agenti BDI per realizzare il protocollo di interazione; la seconda per la piattaforma TuCSoN, che utilizza il modello A&A per rendersi compatibile ad un ambiente distribuito, ma che ricalca la struttura dell'implementazione precedente; la terza ancora per TuCSoN, che sfrutta gli strumenti forniti dalle reazioni ReSpecT per generare degli artefatti in grado di fornire una infrastruttura in grado di garantire la realizzazione del protocollo di interazione agli agenti partecipanti. Infine, verranno discusse le caratteristiche di queste tre differenti implementazioni su un caso di studio reale, analizzandone i punti chiave.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La distorsione della percezione della distanza tra due stimoli puntuali applicati sulla superfice della pelle di diverse regioni corporee è conosciuta come Illusione di Weber. Questa illusione è stata osservata, e verificata, in molti esperimenti in cui ai soggetti era chiesto di giudicare la distanza tra due stimoli applicati sulla superficie della pelle di differenti parti corporee. Da tali esperimenti si è dedotto che una stessa distanza tra gli stimoli è giudicata differentemente per diverse regioni corporee. Il concetto secondo cui la distanza sulla pelle è spesso percepita in maniera alterata è ampiamente condiviso, ma i meccanismi neurali che manovrano questa illusione sono, allo stesso tempo, ancora ampiamente sconosciuti. In particolare, non è ancora chiaro come sia interpretata la distanza tra due stimoli puntuali simultanei, e quali aree celebrali siano coinvolte in questa elaborazione. L’illusione di Weber può essere spiegata, in parte, considerando la differenza in termini di densità meccano-recettoriale delle differenti regioni corporee, e l’immagine distorta del nostro corpo che risiede nella Corteccia Primaria Somato-Sensoriale (homunculus). Tuttavia, questi meccanismi sembrano non sufficienti a spiegare il fenomeno osservato: infatti, secondo i risultati derivanti da 100 anni di sperimentazioni, le distorsioni effettive nel giudizio delle distanze sono molto più piccole rispetto alle distorsioni che la Corteccia Primaria suggerisce. In altre parole, l’illusione osservata negli esperimenti tattili è molto più piccola rispetto all’effetto prodotto dalla differente densità recettoriale che affligge le diverse parti del corpo, o dall’estensione corticale. Ciò, ha portato a ipotizzare che la percezione della distanza tattile richieda la presenza di un’ulteriore area celebrale, e di ulteriori meccanismi che operino allo scopo di ridimensionare – almeno parzialmente – le informazioni derivanti dalla corteccia primaria, in modo da mantenere una certa costanza nella percezione della distanza tattile lungo la superfice corporea. E’ stata così proposta la presenza di una sorta di “processo di ridimensionamento”, chiamato “Rescaling Process” che opera per ridurre questa illusione verso una percezione più verosimile. Il verificarsi di questo processo è sostenuto da molti ricercatori in ambito neuro scientifico; in particolare, dal Dr. Matthew Longo, neuro scienziato del Department of Psychological Sciences (Birkbeck University of London), le cui ricerche sulla percezione della distanza tattile e sulla rappresentazione corporea sembrano confermare questa ipotesi. Tuttavia, i meccanismi neurali, e i circuiti che stanno alla base di questo potenziale “Rescaling Process” sono ancora ampiamente sconosciuti. Lo scopo di questa tesi è stato quello di chiarire la possibile organizzazione della rete, e i meccanismi neurali che scatenano l’illusione di Weber e il “Rescaling Process”, usando un modello di rete neurale. La maggior parte del lavoro è stata svolta nel Dipartimento di Scienze Psicologiche della Birkbeck University of London, sotto la supervisione del Dott. M. Longo, il quale ha contribuito principalmente all’interpretazione dei risultati del modello, dando suggerimenti sull’elaborazione dei risultati in modo da ottenere un’informazione più chiara; inoltre egli ha fornito utili direttive per la validazione dei risultati durante l’implementazione di test statistici. Per replicare l’illusione di Weber ed il “Rescaling Proess”, la rete neurale è stata organizzata con due strati principali di neuroni corrispondenti a due differenti aree funzionali corticali: • Primo strato di neuroni (il quale dà il via ad una prima elaborazione degli stimoli esterni): questo strato può essere pensato come parte della Corteccia Primaria Somato-Sensoriale affetta da Magnificazione Corticale (homunculus). • Secondo strato di neuroni (successiva elaborazione delle informazioni provenienti dal primo strato): questo strato può rappresentare un’Area Corticale più elevata coinvolta nell’implementazione del “Rescaling Process”. Le reti neurali sono state costruite includendo connessioni sinaptiche all’interno di ogni strato (Sinapsi Laterali), e connessioni sinaptiche tra i due strati neurali (Sinapsi Feed-Forward), assumendo inoltre che l’attività di ogni neurone dipenda dal suo input attraverso una relazione sigmoidale statica, cosi come da una dinamica del primo ordine. In particolare, usando la struttura appena descritta, sono state implementate due differenti reti neurali, per due differenti regioni corporee (per esempio, Mano e Braccio), caratterizzate da differente risoluzione tattile e differente Magnificazione Corticale, in modo da replicare l’Illusione di Weber ed il “Rescaling Process”. Questi modelli possono aiutare a comprendere il meccanismo dell’illusione di Weber e dare così una possibile spiegazione al “Rescaling Process”. Inoltre, le reti neurali implementate forniscono un valido contributo per la comprensione della strategia adottata dal cervello nell’interpretazione della distanza sulla superficie della pelle. Oltre allo scopo di comprensione, tali modelli potrebbero essere impiegati altresì per formulare predizioni che potranno poi essere verificate in seguito, in vivo, su soggetti reali attraverso esperimenti di percezione tattile. E’ importante sottolineare che i modelli implementati sono da considerarsi prettamente come modelli funzionali e non intendono replicare dettagli fisiologici ed anatomici. I principali risultati ottenuti tramite questi modelli sono la riproduzione del fenomeno della “Weber’s Illusion” per due differenti regioni corporee, Mano e Braccio, come riportato nei tanti articoli riguardanti le illusioni tattili (per esempio “The perception of distance and location for dual tactile pressures” di Barry G. Green). L’illusione di Weber è stata registrata attraverso l’output delle reti neurali, e poi rappresentata graficamente, cercando di spiegare le ragioni di tali risultati.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Negli ultimi anni si è assistito ad una radicale rivoluzione nell’ambito dei dispositivi di interazione uomo-macchina. Da dispositivi tradizionali come il mouse o la tastiera si è passati allo sviluppo di nuovi sistemi capaci di riconoscere i movimenti compiuti dall’utente (interfacce basate sulla visione o sull’uso di accelerometri) o rilevare il contatto (interfacce di tipo touch). Questi sistemi sono nati con lo scopo di fornire maggiore naturalezza alla comunicazione uomo-macchina. Le nuove interfacce sono molto più espressive di quelle tradizionali poiché sfruttano le capacità di comunicazione naturali degli utenti, su tutte il linguaggio gestuale. Essere in grado di riconoscere gli esseri umani, in termini delle azioni che stanno svolgendo o delle posture che stanno assumendo, apre le porte a una serie vastissima di interessanti applicazioni. Ad oggi sistemi di riconoscimento delle parti del corpo umano e dei gesti sono ampiamente utilizzati in diversi ambiti, come l’interpretazione del linguaggio dei segni, in robotica per l’assistenza sociale, per indica- re direzioni attraverso il puntamento, nel riconoscimento di gesti facciali [1], interfacce naturali per computer (valida alternativa a mouse e tastiera), ampliare e rendere unica l’esperienza dei videogiochi (ad esempio Microsoft 1 Introduzione Kinect© e Nintendo Wii©), nell’affective computing1 . Mostre pubbliche e musei non fanno eccezione, assumendo un ruolo cen- trale nel coadiuvare una tecnologia prettamente volta all’intrattenimento con la cultura (e l’istruzione). In questo scenario, un sistema HCI deve cercare di coinvolgere un pubblico molto eterogeneo, composto, anche, da chi non ha a che fare ogni giorno con interfacce di questo tipo (o semplicemente con un computer), ma curioso e desideroso di beneficiare del sistema. Inoltre, si deve tenere conto che un ambiente museale presenta dei requisiti e alcune caratteristiche distintive che non possono essere ignorati. La tecnologia immersa in un contesto tale deve rispettare determinati vincoli, come: - non può essere invasiva; - deve essere coinvolgente, senza mettere in secondo piano gli artefatti; - deve essere flessibile; - richiedere il minor uso (o meglio, la totale assenza) di dispositivi hardware. In questa tesi, considerando le premesse sopracitate, si presenta una sistema che può essere utilizzato efficacemente in un contesto museale, o in un ambiente che richieda soluzioni non invasive. Il metodo proposto, utilizzando solo una webcam e nessun altro dispositivo personalizzato o specifico, permette di implementare i servizi di: (a) rilevamento e (b) monitoraggio dei visitatori, (c) riconoscimento delle azioni.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Studio dell'avvento di nuove realtà produttive energetiche da fonti rinnovabili nel settore del gas naturale. Il settore analizzato risulta quello relativo all'allacciamento di impianti di produzione di biometano alla rete del gas naturale. La finalità è la valutazione degli effetti della generazione distribuita di biometano nel futuro sistema del gas naturale (Smart Grid Gas) in termini di progettazione e conduzione del sistema nel suo complesso.