975 resultados para intelligenza artificiale orario sistemi basati sulla conoscenza
Resumo:
Nello studio di questa tesi è stata descritta una ricerca condotta allo scopo di fornire un contributo alla conoscenza della biodiversità analizzando la componente macrofaunistica subfossile e recente del Phylum Mollusca del Canale di Sicilia e del Golfo di Cadice. Tali organismi sono già da tempo noti in questi ambienti poiché associati a biocostruzioni a coralli bianchi presenti lungo i margini continentali atlantici e mediterranei i cui costituenti principali sono gli sclerattiniari coloniali Lophelia pertusa e Madrepora oculata. Tuttavia ben poco si conosce sull’ecologia di queste specie che si ritrovano spesso influenzate da scambi idrologici e biologici attraverso lo Stretto di Gibilterra. Nel corso di questo studio sono state analizzate 7 carote sedimentarie marine campionate durante diverse campagne oceanografiche: 6 carotaggi atlantici prelevati durante la campagna oceanografica Meteor nel Golfo di Cadice e 1 carota campionata nel Canale di Sicilia durante la campagna oceanografica MARCOS guidata dall’ISMAR-CNR di Bologna, sulla quale si concentra l’attenzione di questo lavoro. I dati raccolti sono stati analizzati in maniere quantitativa, per questo è stato utilizzato il software per analisi statistiche “Past3” e sono stati combinati con l’analisi qualitativa dei campioni in modo da ottenere il maggior numero di informazioni. Tra le analisi statistiche sono state effettuate il calcolo di tutti gli indici di dominanza, diversità, di equiripartizione e ricchezza specifica (Simpson, Shannon, Evenness e Margalef) e l’analisi multivariata NMDS (Non-metric Multi-Dimensional Scaling). Infine è stata effettuata l’analisi delle associazioni trofiche distribuite in una carota. Il risultato ha evidenziato un’elevata biodiversità per campioni prelevati in profondità e il ritrovamento di organismi appartenenti all’ultimo glaciale.
Resumo:
Lo scopo di questo elaborato è di analizzare e progettare un sistema in grado di supportare la definizione dei dati nel formato utilizzato per definire in modo formale la semantica dei dati, ma soprattutto nella complessa e innovativa attività di link discovery. Una attività molto potente che, tramite gli strumenti e le regole del Web Semantico (chiamato anche Web of Data), permette data una base di conoscenza sorgente ed altre basi di conoscenza esterne e distribuite nel Web, di interconnettere i dati della base di conoscenza sorgente a quelli esterni sulla base di complessi algoritmi di interlinking. Questi algoritmi fanno si che i concetti espressi sulla base di dati sorgente ed esterne vengano interconnessi esprimendo la semantica del collegamento ed in base a dei complessi criteri di confronto definiti nel suddetto algoritmo. Tramite questa attività si è in grado quindi di aumentare notevolmente la conoscenza della base di conoscenza sorgente, se poi tutte le basi di conoscenza presenti nel Web of Data seguissero questo procedimento, la conoscenza definita aumenterebbe fino a livelli che sono limitati solo dalla immensa vastità del Web, dando una potenza di elaborazione dei dati senza eguali. Per mezzo di questo sistema si ha l’ambizioso obiettivo di fornire uno strumento che permetta di aumentare sensibilmente la presenza dei Linked Open Data principalmente sul territorio nazionale ma anche su quello internazionale, a supporto di enti pubblici e privati che tramite questo sistema hanno la possibilità di aprire nuovi scenari di business e di utilizzo dei dati, dando una potenza al dato che attualmente è solo immaginabile.
Resumo:
Questa tesi è incentrata sulla traduzione di un dossier in lingua francese diviso in due parti, pubblicate in due numeri successivi all’interno di una rivista settoriale per neuroscienziati francofoni. Nella fase di selezione del testo ho svolto il ruolo d’ipotetico editore italiano che gestisce una rivista per neuroscienziati italofoni e che vuole rendere disponibili all’interno della comunità neuroscientifica italiana contributi provenienti dall’estero sotto forma di dossier tematici. Nel primo capitolo ho analizzato il dossier basandomi sulla griglia di Tudor, un modello di analisi testuale ideato a scopi didattici per i corsi di traduzione che in questo caso si presta molto bene come strumento di riflessione sulle caratteristiche del testo source. Nel secondo capitolo valuto la macrostrategia traduttiva più idonea per la redazione del testo d’arrivo e approfondisco sia le conoscenze relative al dominio dei microtesti che costituiscono il dossier sia gli aspetti terminologici relativi ai termini inizialmente sconosciuti. Sempre in questo capitolo approfondisco l’analisi terminologica e propongo alcune schede terminologiche. Nel terzo capitolo presento la proposta di traduzione con testo di partenza a fronte. Infine nel quarto capitolo commento il processo traduttivo analizzando la fase di documentazione, la fase di ricerca terminologica e i principali problemi traduttivi.
Resumo:
Nella tesi vengono presentate le analisi, con le relative considerazioni, di attacchi basati su port scanning, in particolar modo ci si sofferma sull'utilizzo di risorse, come impiego di CPU, di banda, ecc., in relazione alle diverse tecniche adoperate. Gli attacchi sono stati rivolti attraverso l'applicativo Nmap contro una rete di honeypot, gestiti e configurati attraverso il software Honeyd. Inoltre vengono fornite tutta una serie di conoscenze necessarie al lettore, le quali risulteranno essenziali per poter affrontare tutti gli argomenti trattati, senza doversi necessariamente informare da altre fonti.
Resumo:
“Play on your CPU” è un'applicazione mobile per ambienti Android e iOS. Lo scopo di tale progetto è quello di fornire uno strumento per la didattica dei principi di funzionamento dei processori a chiunque sia interessato ad approfondire o conoscere questi concetti.
Resumo:
Il fine ultimo di questo lavoro è di analizzare ed interpretare alcuni parametri morfometrici che riguardano bacini in roccia e canali di colate detritiche nelle Dolomiti, estrapolati tramite l’analisi di un DEM derivato da rilievo LiDAR. La procedura, implementata in ambiente GIS, è basata sull’analisi di mappe raster morfometriche derivate dalla rappresentazione digitale del terreno. L’elevata risoluzione di questi modelli digitali del terreno (1m) ha permesso uno studio approfondito della morfologia delle colate detritiche nell’area alpina. L’area di studio, nel comune di Cortina D’Ampezzo, è caratterizzata da frequenti eventi di colata detritica a causa della particolare e caratteristica morfologia dolomitica che si sviluppa in altezza con imponenti testate rocciose ed alla loro base con conoidi detritici. I bacini di roccia sono di piccole dimensioni, mentre la lunghezza dei canaloni può variare in base alla pendenza e alla litologia del luogo. In questo tipo di ambiente la causa principale di innesco di tali fenomeni sono i temporali ad elevata intensità i quali trasformano il materiale di deposito in un fluido che scende, grazie alla pendenza, con velocità elevate attraverso i canali. Raggiunte pendenze basse il fluido si arresta e il materiale viene depositato. In questo studio le zone d’innesco di colata detritica sono state indagate con metodologie quali la fotointerpretazione confrontata con il DEM e la modellazione spazialmente distribuita, una procedura automatica volta ad identificare i possibili punti d’innesco e basata sulla relazione tra pendenza locale e area contribuente. Tramite i punti d’innesco individuati con fotointerpretazione sono stati estratti i relativi bacini di colata. In principio sono stati analizzati e interpretati i parametri morfologici e idrologici che caratterizzano i bacini in roccia e i loro rispettivi canali di colata tramite istogrammi di frequenza. Successivamente sono stati confrontati i parametri più significativi attraverso l’uso di grafici a dispersione. Nello studio è stata posta particolare attenzione soprattutto a quei bacini considerati attivi tramite la raccolta di fonti storiche, con l’obbiettivo di analizzare dettagliatamente i parametri morfometrici che risultano essere direttamente legati all’attività dei bacini.
Resumo:
Questa tesi affronta la tematica della trustworthiness dal punto di vista dell’utente, a partire dalla sua identità virtuale fino a considerare l’analisi dei parametri che un sito Web dovrebbe adottare perchè sia ritenuto affidabile dagli utilizzatori. Si individueranno quindi le criticità che rendono ancora la trustworthiness una variabile poco considerata nella progettazione di siti Web e gli eventuali accorgimenti e punti di forza che caratterizzano un ambiente di lavoro. La tesi presenta diversi casi esemplificativi di utilizzo, ovvero gli ambienti di commercio elettronico, gli ambienti che condizionano l’acquisto di un utente e i sistemi di knowledge sharing; tutte le analisi di affidabilità sono applicate a siti web che adottano modelli di approvvigionamento dati da parte degli utenti stessi, votazioni e giudizi, recensioni su prodotti e servizi, crowdsourcing di informazioni e di esperienze personali e collettive, basate su progetti di indagine commerciale, analisi e opinione di prodotti o servizi o informazioni condivise per lo sviluppo sociale. La tematica viene analizzata da questi tre punti di vista, ciascuno sotto l’ottica identitaria, di reputazione e di affidabilità. La letteratura, come esaminato in questa tesi, propone alcuni modelli che individuano criteri di valutazione dell’affidabilità dei siti web, su algoritmi già esistenti quindi su siti Web che possiedono sistemi di filtraggio del contenuto o sistemi di valutazione della reputazione o meccanismi di raccomandazione per individuare le intenzioni dell’utente; in altri casi vengono implementati modelli sperimentali e teorie basate su dataset esistenti, per ricercare soluzioni tangibili all’autenticazione di affidabilità di un sistema, compensando la carenza di sistemi di giudizio di trustworthiness su siti Web reali. Vengono proposti alcuni casi d’uso, appartenenti alle categorie prese in oggetto, per esaminare nel dettaglio, le caratteristiche di trustworthiness fornite da ognuno di essi, nel loro campo di applicazione. L’obiettivo è tracciare una mappatura dei principali criteri con cui viene valutata trustworthiness dei dati in qualsiasi ambito d’applicazione della rete, ponendo alcuni criteri fondamentali ed avere così una visione approfondita della problematica.
Resumo:
In ecologia della pesca, i fattori o indicatori della “condizione” di un organismo forniscono molte informazioni sulle caratteristiche di adattamento dei pesci all’ambiente e sul loro ruolo nell’ecosistema. La “condizione” include molte caratteristiche strutturali ed energetiche che possono variare in funzione dell’ontogenesi, del ciclo riproduttivo, ma anche in funzione delle caratteristiche dell’ambiente, incluso il grado di stress al quale è sottoposta una specie (es. la pressione di pesca). L’obiettivo del presente studio sperimentale è stato valutare eventuali differenze nell’abbondanza, nei parametri di popolazione, nella struttura demografica e negli indicatori di “condizione” di due specie, Merluccius merluccius (Pisces: Gadiformes) e Galeus melastomus (Pisces: Carcharhiniformes), in due diverse aree: Toscana settentrionale e meridionale, differenti per caratteristiche ambientali e pressione di pesca. Nella prima parte dell’analisi, sono stati confrontati gli indici di densità e biomassa, la struttura di taglia delle due popolazioni, su dati estratti dagli archivi storici delle campagne di pesca sperimentale MEDITS dal 1994 al 2013. Nella seconda parte dell’analisi invece, sono stati analizzati 1000 individui provenienti dalla campagna MEDITS 2014, integrati con campioni provenienti dallo sbarcato commerciale per il biennio 2014-2015. Gli individui di M. merluccius sono stati ripartiti in due classi di taglia (I = individui ≤ 18 cm LT; II = individui > 18 cm LT), quelli di G. melastomus in tre classi di taglia (I = individui ≤ 20 cm LT; II = individui 20 cm< x ≤ 35 cm LT; III= individui > 35 cm LT), suddivisi rispettivamente in 50 maschi e 50 femmine, per ogni classe. E’ stato condotto lo studio della crescita relativa attraverso l’analisi della relazione taglia/peso e lo studio della condizione tramite i seguenti indicatori: il fattore K di Fulton, l’indice epatosomatico (HSI) e l’indice gonadosomatico (GSI). I risultati di questa tesi hanno evidenziato differenze nei popolamenti, riconducibili alle diverse condizioni ambientali e alla pressione di pesca, tra le due aree indagate. L’area sud, interessata da un più intenso sforzo di pesca esercitato sui fondali della piattaforma e della scarpata continentale e da una morfologia del fondale differente, mostra una diversità in termini di crescita relativa e stato della “condizione”, che risulta più elevata in entrambe le specie, rispetto all’area settentrionale, caratterizzata invece da uno sforzo di pesca meno intenso, incentrato sull’ampia piattaforma continentale.
Resumo:
Numerosi lavori apparsi sulla letteratura scientifica negli ultimi decenni hanno evidenziato come, dall’inizio del XX secolo, la temperatura media globale sia aumentata. Tale fenomeno si è fatto più evidente dagli anni ’80, infatti ognuno degli ultimi tre decenni risulta più caldo dei precedenti. L’Europa e l’area mediterranea sono fra le regioni in cui il riscaldamento risulta più marcato, soprattutto per le temperature massime (dal 1951 sono cresciute di +0.39 °C per decennio) che hanno mostrato trend maggiori delle minime. Questo comportamento è stato osservato anche a scala nazionale (+0.25°C/dec per le massime e +0.20°C/dec per le minime). Accanto all’aumento dei valori medi è stato osservato un aumento (diminuzione) degli eventi di caldo (freddo) estremo, studiati attraverso la definizione di alcuni indici basati sui percentili delle distribuzioni. Resta aperto il dibattito su quali siano le cause delle variazioni negli eventi estremi: se le variazioni siano da attribuire unicamente ad un cambiamento nei valori medi, quindi ad uno shift rigido della distribuzione, o se parte del segnale sia dovuto ad una variazione nella forma della stessa, con un conseguente cambiamento nella variabilità. In questo contesto si inserisce la presente tesi con l’obiettivo di studiare l’andamento delle temperature giornaliere sul Trentino-Alto-Adige a partire dal 1926, ricercando cambiamenti nella media e negli eventi estremi in due fasce altimetriche. I valori medi delle temperature massime e minime hanno mostrato un evidente riscaldamento sull’intero periodo specialmente per le massime a bassa quota (`0.13 ̆ 0.03 °C/dec), con valori più alti per la primavera (`0.22 ̆ 0.05 °C/dec) e l’estate (`0.17 ̆ 0.05 °C/dec). Questi trends sono maggiori dopo il 1980 e non significativi in precedenza. L’andamento del numero di giorni con temperature al di sopra e al di sotto delle soglie dei percentili più estremi (stimate sull’intero periodo) indica un chiaro aumento degli estremi caldi, con valori più alti per le massime ad alta quota ( fino a +26.8% per il 99-esimo percentile) e una diminuzione degli estremi freddi (fino a -8.5% per il primo percentile delle minime a bassa quota). Inoltre, stimando anno per anno le soglie di un set di percentili e confrontando i loro trend con quelli della mediana, si è osservato, unicamente per le massime, un trend non uniforme verso temperature più alte, con i percentili più bassi (alti) caratterizzati da trend inferiori (superiori) rispetto a quello della mediana, suggerendo un allargamento della PDF.
Resumo:
Nella tesi viene presentata una introduzione generale all'Internet of Things, gli utilizzi che ne vengono fatti attualmente e le eventuali modifiche che verranno apportate in futuro, inoltre vengono presentati i problemi che ne derivano e le soluzioni che attualmente risolvono questi problemi. E' presente una introduzione al protocollo presentato da IBM MQTT che attualmente rappresenta uno standard in questo campo. In seguito vengono mostrati i requisiti e le fasi di progettazione di un sistema domotico, quali sono i suoi principali utilizzi quali i vantaggi e i suoi svantaggi. E' presente una introduzione ai dispositivi maggiormente usati per la realizzazione di sistemi del genere, con le loro caratteristiche, in particolare di dispositivi Arduino e Raspberry Pi. Viene mostrato l'uso del protocollo mqtt per la comunicazione tra dispositivi Raspberry Pi e client Android. In fine viene mostrata una realizzazione di un sistema di domotica attraverso l'uso di questo protocollo.
Resumo:
L'obiettivo di questa Tesi di laurea è di creare un applicativo che informi gli utenti sulle reti circostanti, in particolare sulla qualità del segnale, sulle zone in cui la rete mobile è carente e sui punti d'accesso aperti. Per l'implementazione del servizio, è stato adottato un modello di business, il Crowdsourcing, per raccogliere informazioni sui sistemi di connessione, affinché qualsiasi utente dotato di Smartphone possa aggiungere elementi al dataset.
Resumo:
Per far fronte alla necessità di sviluppo incrementale ed evolutivo dell'IT, è necessario un continuo rinnovamento del sistema aziendale. Negli ultimi anni, il progresso informatico è stato caratterizzato dall'espansione delle tecnologie Cloud, in grado di semplificare la complessità amministrativa delle aziende, aumentare la scalabilità dei sistemi e ridurre i costi di produzione. Nel corso di questo elaborato analizzerò nel dettaglio come il Cloud sia capace di rivoluzionare, in primis dal punto di vista amministrativo, ma non solo, i sistemi informatici moderni, valutando i molteplici benefici da esso generati e gli inevitabili trade-off che ne derivano.
Resumo:
Dai Sumeri a Galileo lo studio dei cinque pianeti conosciuti era stato effettuato ad occhio nudo e aveva consentito di comprendere le modalità del loro moto. Con Galileo gli strumenti tecnologici sono posti a servizio della scienza, per migliorare le prestazioni dei sensi umani. La ricerca subisce così una netta accelerazione che porta, nell'arco di soli tre secoli, alla scoperta dei satelliti di Giove e dei pianeti Urano e Nettuno. Quest'ultima è considerata il trionfo della matematica perché effettuata esclusivamente con lunghi e complessi calcoli.
Resumo:
Nell’ambito di un progetto di ricerca sui sistemi di accumulo dell’energia elettrica, in corso di avvio al “Laboratorio di microreti di generazione e accumulo” di Ravenna, è stato sviluppato un modello di calcolo in grado di simulare il comportamento di un elettrolizzatore.Il comportamento di un generico elettrolizzatore è stato modellato mediante una serie di istruzioni e relazioni matematiche, alcune delle quali ricavate tramite un’analisi dettagliata della fisica del processo di elettrolisi, altre ricavate empiricamente sulla base delle prove sperimentali e dei dati presenti nella bibliografia. Queste espressioni sono state implementate all’interno di un codice di calcolo appositamente sviluppato, realizzato in linguaggio Visual Basic, che sfrutta come base dati i fogli di calcolo del software Microsoft Excel per effettuare la simulazione. A partire dalle caratteristiche dell’elettrolizzatore (pressione e temperatura di esercizio, dimensione degli elettrodi, numero di celle e fattore di tuning, più una serie di coefficienti empirici) e dell’impianto generale (potenza elettrica disponibile e pressione di stoccaggio), il modello è in grado di calcolare l’idrogeno prodotto e l’efficienza globale di produzione e stoccaggio. Il modello sviluppato è stato testato sia su di un elettrolizzatore alcalino, quello del progetto PHOEBUS, basato su una tecnologia consolidata e commercialmente matura, sia su di un apparecchio sperimentale di tipo PEM in fase di sviluppo: in entrambi i casi i risultati forniti dal modello hanno trovato pieno riscontro coi dati sperimentali.
Resumo:
I giunti ibridi sono impiegati in molte applicazioni meccaniche, avendo molti vantaggi, tra i quali quello di aumentare il carico trasferibile. Ci sono state ricerche in merito, le quali hanno valutato la dipendenza della resistenza a taglio di questi giunti rispetto a numerose variabili. Abbiamo poche informazioni, però, sulla dipendenza rispetto all'ER (Engagement Ratio, rapporto tra lunghezza e diametro di accoppiamento). Con questo lavoro la si vuole studiare nel caso di accoppiamenti con gioco in presenza di adesivo, considerando quattro livelli di ER. Per questo sono state effettuate prove di spiantaggio su pin e collar, dalle quali è risultata la presenza di una possibile dipendenza tra le due grandezze, seppur minima.