655 resultados para intelligenza artificiale orario sistemi basati sulla conoscenza
Resumo:
«Così una circoncisione del Guercino mi ha fatto una profonda impressione, perché già conosco ed amo questo maestro. Gli ho perdonato il soggetto antipatico e ho goduto dell’esecuzione», commentò Goethe nel suo Viaggio in Italia, quando passò per Bologna tra il 18 ed il 20 ottobre 1786. Lo scrittore tedesco fu una delle ultime personalità che poté ammirare l’opera che campeggiava sull' altare maggiore della chiesa di Gesù e Maria, autentico tempio del barocco bolognese, oggi scomparso. L’abbattimento del complesso intervenne infatti all’inizio del XIX secolo con la conseguente dispersione dell’intero corpo iconografico e del materiale mobiliare, a testimonianza della qualità e del pregio, non solo delle opere un tempo contenute all’interno, ma anche della struttura architettonica. L’interesse alla chiesa di Gesù e Maria è stato determinato dal forte impatto che l’edificio ed il suo apparato ebbe sui contemporanei, come dimostrano efficacemente i testi di letterati e cronisti bolognesi coevi, quali Carlo Cesare Malvasia e Antonio Masini. Per quanto riguarda invece la celebre pala d’altare del Guercino, oltre a Goethe, anche Stendhal ne valutò l’importanza riportandola come una tra le più belle di Bologna. La finalità di questa tesi di laurea, dunque, è quella di far luce sulla vita di questa opera, a partire dalle testimonianze dirette, ricavate dalla comparazione dei documenti dispersi in diversi fondi archivistici di Bologna, indagando soprattutto sulla possibile “paternità” del progetto.
Resumo:
Negli ultimi anni va sempre più affermandosi l’idea che nei test a fatica utilizzati in ambito industriale per testare la resistenza di numerosi prodotti, riprodurre profili vibratori con distribuzioni gaussiane non sia sufficientemente realistico. Nell’indagine sperimentale riportata in questo trattato vengono confrontati gli effetti generati da sollecitazioni leptocurtiche ottenute da misurazioni reali, con profili vibratori gaussiani a parità di RMS e forma della PSD (Power Spectral Density) verificando la validità della “Papoulis rule”. A partire da questi profili vibratori si è effettuata una progettazione ad hoc dalla quale sono stati ricavati dei provini piatti in lega di alluminio a cui è collegata una massa ausiliaria. Quest’ultimi montati a sbalzo su uno shaker elettrodinamico, sono caratterizzati da una variazione di sezione che localizza la sezione critica in prossimità dell’incastro. I provini sono stati inoltre caratterizzati attraverso prove a trazione e test accelerati a fatica, ricavandone la caratteristica a trazione del materiale ed il diagramma di Wohler. In seguito alla descrizione di tali prove viene riportata un’analisi dei provini sollecitati da due profili vibratori, uno gaussiano e uno ad elevato valore di kurtosis, monitorando tramite l’impiego di accelerometri i valori dell’eccitazione e la risposta. Vengono inoltre verificati i valori delle deformazioni dovute alle sollecitazioni imposte collocando due estensimetri in corrispondenza della sezione critica di due provini (uno per ogni tipologia di input).
Resumo:
Il Palazzo Borsari, ora Palazzo Rossi, situato a Finale Emilia in provincia di Modena, viene edificato intorno alla fine del XVIII secolo. A partire dal 2012 il Palazzo muta il suo valore identitario: da edificio rappresentativo della città, che conserva esternamente il suo aspetto originario, a testimonianza del sisma che colpisce gravemente Finale Emilia. La prima parte di questa Tesi riguarda la conoscenza del manufatto,acquisita a seguito di un lavoro di ricerca archivistica condotto parallelamente ad un rilievo che combina diverse tecnologie. La seconda parte riguarda, invece, la valutazione del rischio sismico,eseguita secondo le direttive delle “Linee Guida per la valutazione e riduzione del rischio sismico del patrimonio culturale – allineamento alle nuove Norme tecniche per le costruzioni” (D.M. 14/01/2008). Il calcolo è stato condotto fino al livello di conoscenza LV1, che consiste nell’analisi qualitativa e nella valutazione con modelli meccanici semplificati. Le prime due parti sono state punto di partenza per il progetto di restauro, sviluppato secondo un duplice aspetto: da un lato il consolidamento e la conservazione del manufatto, dall’altro il reintegro delle lacune secondo una rilettura di ciò che resta e il recupero dell’immagine persa.
Resumo:
La complessa materia della prevenzione incendi può essere approcciata secondo due strategie sostanzialmente differenti. Da una parte, l’approccio di tipo deterministico, imperante in Italia, si concretizza nell’emanazione di norme estremamente prescrittive e nel ricorso da parte del progettista a strumenti di calcolo molto semplici. Il pregio maggiore di tale approccio risiede senza dubbio alcuno nella sua estrema semplicità, nella garanzia di una certa omogeneità di applicazione e nella possibilità di erogare in tempi ragionevoli una formazione uniforme ed accettabile ai controllori. Mentre il limite più evidente consiste nella rigidità, talora eccessiva, delle prescrizioni normative e nelle procedure di calcolo da adottare. Dall’altra, un approccio di tipo ingegneristico (Fire Safety Engineering), seguito per lo più nei paesi anglosassoni, si basa sulla predizione della dinamica evolutiva dell’incendio tramite l’applicazione di idonei modelli di calcolo fisicamente basati (physically sound). Punto di forza di questa seconda strategia è la sua estrema flessibilità, che consente la simulazione d’incendi di complessità anche molto elevata. Per contro i limiti più evidenti di tale approccio risiedono nella problematica validazione sperimentale dei modelli in argomento, data la natura distruttiva delle prove che andrebbero condotte, nella spinta preparazione richiesta ai professionisti ed ancor più ai controllori, dato il proliferare negli anni di modelli anche molto diversi tra loro, ed, infine, nel caso di raffinati modelli di campo, in un onere computazionale non sempre sostenibile con i PC di comune diffusione. Allo stato attuale in Italia il ricorso alla Fire Safety Engineering è di fatto circoscritto alle applicazioni per le quali non esiste una specifica norma prescrittiva, su tutte la valutazione del rischio in attività a rischio di incidente rilevante e la Fire Investigation; talora essa è impiegata anche per la valutazione della sicurezza equivalente in occasione di richiesta di deroga a norme prescrittive.
Resumo:
Scopo del presente lavoro è introdurre i principali strumenti fisico-matematici utilizzati per la descrizione del moto (di un numero limitato) di oggetti astronomici, soggetti esclusivamente alle loro vicendevoli interazioni gravitazionali. Tali strumenti sono quelli messi a punto nell'ambito della soluzione del Problema dei Due Corpi e del Problema dei Tre Corpi. Verranno anche esaminate alcune applicazioni pratiche di tali metodologie d'indagine.
Resumo:
Questa tesi è incentrata sulla traduzione del libro portoghese Lisboa Misteriosa di Marina Taveres Dias e su come questo libro possa essere analizzato sotto una prospettiva turistica. Il libro è basato sulla capitale del Portogallo, Lisbona, e il suo scopo principale è narrare fatti storici e culturali riguardo la città, dove la realtà si perde nella leggenda. La tesi vuole mostrare come un simile libro storico-culturale può essere un valido strumento nella prospettiva turistica. Il primo capitolo fornisce una presentazione generale del libro, descrivendo i temi, lo stile, l’uso delle immagini all’interno del testo e una breve biografia dell’autrice. Il secondo capitolo presenta i principali aspetti della sociologia del turismo, che serviranno per meglio inquadrare le considerazioni successive. Segue una breve analisi di tra guide turistiche italiane e una comparazione tra queste e il libro tradotto. L’ultima parte del capitolo è dedicata ad illustrare come questo volume mette in luce questi aspetti sociologici del turismo e di come può creare una nuova prospettiva per il turista. Gli ultimi due capitoli presentano la traduzione del libro e l’analisi e il commento riguardo a quest’ultima.
Resumo:
Il presente studio, condotto nell'ambito dell'amministrazione comunale, porta alla realizzazione di un database terminologico trilingue in italiano, francese e tedesco, dei relativi sistemi concettuali e del glossario. L'obiettivo del lavoro è di realizzare strumenti che permettano di veicolare in francese e in tedesco la terminologia utilizzata all'interno dell'ambito analizzato. I sistemi concettuali e le schede terminologiche nelle due lingue di arrivo possono essere inoltre consultate da un pubblico francese o tedesco che voglia comprendere la struttura del comune italiano. Dopo aver presentato, nel primo capitolo, un possibile ambito di utilizzo di un glossario sull'amministrazione comunale, ci si dedica all'ente locale di prossimità. Il secondo capitolo è infatti stato dedicato al comune, alla sua storia e a come si presenta oggi in Italia, in Francia e in Germania, soffermandosi in quest'ultimo paese sulla struttura del comune nel Land Renania Settentrionale-Vestfalia. Nel terzo capitolo ci si concentra sul metodo di lavoro utilizzato nell'ambito della ricerca terminologica, passando dalla teoria alla pratica: dopo una prima parte nozionistica dedicata alla definizione dei concetti di terminologia, termine, linguaggi specialistici e del modus operandi abitualmente utilizzato, si passa infatti all'esperienza personale che ha condotto alla realizzazione dei prodotti finali. Nel quarto capitolo si presenta dapprima la definizione di sistema concettuale e inseguito sono inseriti i sistemi concettuali in italiano, francese e tedesco corredati da una breve introduzione che, assieme alla legenda, si propone come chiave di lettura degli stessi. Nel quinto capitolo sono infine presentate la definizione di scheda terminologica, elemento centrale del termbase, e le schede trilingui in italiano, francese e tedesco. Il database terminologico, gli schemi concettuali e il glossario sono realizzati a partire dal punto di vista italiano: essi rispecchiano infatti la struttura dell'ente amministrativo di base in Italia nelle lingue prese in esame.
Resumo:
Uno dei maggiori obiettivi della ricerca nel campo degli acceleratori basati su interazione laser-plasma è la realizzazione di una sorgente compatta di raggi x impulsati al femtosecondo. L’interazione tra brevi impulsi laser e un plasma, a energie relativistiche, ha recentemente portato a una nuova generazione di sorgenti di raggi x con le proprietà desiderate. Queste sorgenti, basate sulla radiazione emessa da elettroni accelerati nel plasma, hanno in comune di essere compatte, produrre radiazione collimata, incoerente e impulsata al femtosecondo. In questa tesi vengono presentati alcuni metodi per ottenere raggi x da elettroni accelerati per interazione tra laser e plasma: la radiazione di betatrone da elettroni intrappolati e accelerati nel cosiddetto “bubble regime”, la radiazione di sincrotrone da elettroni posti in un ondulatore convenzionale con lunghezza dell’ordine dei metri e la radiazione ottenuta dal backscattering di Thomson. Vengono presentate: la fisica alla base di tali metodi, simulazioni numeriche e risultati sperimentali per ogni sorgente di raggi x. Infine, viene discussa una delle più promettenti applicazioni fornite dagli acceleratori basati su interazione tra laser e plasma: il Free-electron laser nello spettro dei raggi x, capace di fornire intensità 108-1010 volte più elevate rispetto alle altre sorgenti.
Resumo:
XCModel è un sistema CAD, basato su NURBS, realizzato ed utilizzato in ambiente accademico. È composto da quattro pacchetti per la modellazione 2D, 3D e la resa foto-realistica, ognuno dotato di una propria interfaccia grafica. Questi pacchetti sono in costante evoluzione: sia per le continua evoluzioni dell’hardware che ai cambiamenti degli standard software. Il sistema nel complesso raccoglie la conoscenza e l’esperienza nella modellazione geometrica acquisita nel tempo dai progettisti. XCModel, insieme ai suoi sottosistemi, sono stati progettati per diventare un laboratorio di insegnamento e ricerca utile a sperimentare ed imparare metodi ed algoritmi nella modellazione geometrica e nella visualizzazione grafica. La natura principalmente accademica, e la conseguente funzione divulgativa, hanno richiesto continui aggiornamenti del programma affinché potesse continuare a svolgere la propria funzione nel corso degli anni. La necessità di continuare a ad evolversi, come software didattico, anche con il moderno hardware, è forse il principale motivo della scelta di convertire XCModel a 64 bit; una conversione che ho svolto in questa tesi. Come molte altre applicazioni realizzate a 32 bit, la maggior parte del codice viene eseguito correttamente senza problemi. Vi sono però una serie di problematiche, a volte molto subdole, che emergono durante la migrazione delle applicazioni in generale e di XCModel in particolare. Questa tesi illustra i principali problemi di portabilità riscontrati durante il porting a 64 bit di questo pacchetto seguendo il percorso da me intrapreso: mostrerò gli approcci adottati, i tool utilizzati e gli errori riscontrati.
Resumo:
In any terminological study, candidate term extraction is a very time-consuming task. Corpus analysis tools have automatized some processes allowing the detection of relevant data within the texts, facilitating term candidate selection as well. Nevertheless, these tools are (normally) not specific for terminology research; therefore, the units which are automatically extracted need manual evaluation. Over the last few years some software products have been specifically developed for automatic term extraction. They are based on corpus analysis, but use linguistic and statistical information to filter data more precisely. As a result, the time needed for manual evaluation is reduced. In this framework, we tried to understand if and how these new tools can really be an advantage. In order to develop our project, we simulated a terminology study: we chose a domain (i.e. legal framework for medicinal products for human use) and compiled a corpus from which we extracted terms and phraseologisms using AntConc, a corpus analysis tool. Afterwards, we compared our list with the lists extracted automatically from three different tools (TermoStat Web, TaaS e Sketch Engine) in order to evaluate their performance. In the first chapter we describe some principles relating to terminology and phraseology in language for special purposes and show the advantages offered by corpus linguistics. In the second chapter we illustrate some of the main concepts of the domain selected, as well as some of the main features of legal texts. In the third chapter we describe automatic term extraction and the main criteria to evaluate it; moreover, we introduce the term-extraction tools used for this project. In the fourth chapter we describe our research method and, in the fifth chapter, we show our results and draw some preliminary conclusions on the performance and usefulness of term-extraction tools.
Resumo:
Nello studio di questa tesi è stata descritta una ricerca condotta allo scopo di fornire un contributo alla conoscenza della biodiversità analizzando la componente macrofaunistica subfossile e recente del Phylum Mollusca del Canale di Sicilia e del Golfo di Cadice. Tali organismi sono già da tempo noti in questi ambienti poiché associati a biocostruzioni a coralli bianchi presenti lungo i margini continentali atlantici e mediterranei i cui costituenti principali sono gli sclerattiniari coloniali Lophelia pertusa e Madrepora oculata. Tuttavia ben poco si conosce sull’ecologia di queste specie che si ritrovano spesso influenzate da scambi idrologici e biologici attraverso lo Stretto di Gibilterra. Nel corso di questo studio sono state analizzate 7 carote sedimentarie marine campionate durante diverse campagne oceanografiche: 6 carotaggi atlantici prelevati durante la campagna oceanografica Meteor nel Golfo di Cadice e 1 carota campionata nel Canale di Sicilia durante la campagna oceanografica MARCOS guidata dall’ISMAR-CNR di Bologna, sulla quale si concentra l’attenzione di questo lavoro. I dati raccolti sono stati analizzati in maniere quantitativa, per questo è stato utilizzato il software per analisi statistiche “Past3” e sono stati combinati con l’analisi qualitativa dei campioni in modo da ottenere il maggior numero di informazioni. Tra le analisi statistiche sono state effettuate il calcolo di tutti gli indici di dominanza, diversità, di equiripartizione e ricchezza specifica (Simpson, Shannon, Evenness e Margalef) e l’analisi multivariata NMDS (Non-metric Multi-Dimensional Scaling). Infine è stata effettuata l’analisi delle associazioni trofiche distribuite in una carota. Il risultato ha evidenziato un’elevata biodiversità per campioni prelevati in profondità e il ritrovamento di organismi appartenenti all’ultimo glaciale.
Resumo:
Lo scopo di questo elaborato è di analizzare e progettare un sistema in grado di supportare la definizione dei dati nel formato utilizzato per definire in modo formale la semantica dei dati, ma soprattutto nella complessa e innovativa attività di link discovery. Una attività molto potente che, tramite gli strumenti e le regole del Web Semantico (chiamato anche Web of Data), permette data una base di conoscenza sorgente ed altre basi di conoscenza esterne e distribuite nel Web, di interconnettere i dati della base di conoscenza sorgente a quelli esterni sulla base di complessi algoritmi di interlinking. Questi algoritmi fanno si che i concetti espressi sulla base di dati sorgente ed esterne vengano interconnessi esprimendo la semantica del collegamento ed in base a dei complessi criteri di confronto definiti nel suddetto algoritmo. Tramite questa attività si è in grado quindi di aumentare notevolmente la conoscenza della base di conoscenza sorgente, se poi tutte le basi di conoscenza presenti nel Web of Data seguissero questo procedimento, la conoscenza definita aumenterebbe fino a livelli che sono limitati solo dalla immensa vastità del Web, dando una potenza di elaborazione dei dati senza eguali. Per mezzo di questo sistema si ha l’ambizioso obiettivo di fornire uno strumento che permetta di aumentare sensibilmente la presenza dei Linked Open Data principalmente sul territorio nazionale ma anche su quello internazionale, a supporto di enti pubblici e privati che tramite questo sistema hanno la possibilità di aprire nuovi scenari di business e di utilizzo dei dati, dando una potenza al dato che attualmente è solo immaginabile.
Resumo:
Questa tesi è incentrata sulla traduzione di un dossier in lingua francese diviso in due parti, pubblicate in due numeri successivi all’interno di una rivista settoriale per neuroscienziati francofoni. Nella fase di selezione del testo ho svolto il ruolo d’ipotetico editore italiano che gestisce una rivista per neuroscienziati italofoni e che vuole rendere disponibili all’interno della comunità neuroscientifica italiana contributi provenienti dall’estero sotto forma di dossier tematici. Nel primo capitolo ho analizzato il dossier basandomi sulla griglia di Tudor, un modello di analisi testuale ideato a scopi didattici per i corsi di traduzione che in questo caso si presta molto bene come strumento di riflessione sulle caratteristiche del testo source. Nel secondo capitolo valuto la macrostrategia traduttiva più idonea per la redazione del testo d’arrivo e approfondisco sia le conoscenze relative al dominio dei microtesti che costituiscono il dossier sia gli aspetti terminologici relativi ai termini inizialmente sconosciuti. Sempre in questo capitolo approfondisco l’analisi terminologica e propongo alcune schede terminologiche. Nel terzo capitolo presento la proposta di traduzione con testo di partenza a fronte. Infine nel quarto capitolo commento il processo traduttivo analizzando la fase di documentazione, la fase di ricerca terminologica e i principali problemi traduttivi.
Resumo:
Nella tesi vengono presentate le analisi, con le relative considerazioni, di attacchi basati su port scanning, in particolar modo ci si sofferma sull'utilizzo di risorse, come impiego di CPU, di banda, ecc., in relazione alle diverse tecniche adoperate. Gli attacchi sono stati rivolti attraverso l'applicativo Nmap contro una rete di honeypot, gestiti e configurati attraverso il software Honeyd. Inoltre vengono fornite tutta una serie di conoscenze necessarie al lettore, le quali risulteranno essenziali per poter affrontare tutti gli argomenti trattati, senza doversi necessariamente informare da altre fonti.
Resumo:
“Play on your CPU” è un'applicazione mobile per ambienti Android e iOS. Lo scopo di tale progetto è quello di fornire uno strumento per la didattica dei principi di funzionamento dei processori a chiunque sia interessato ad approfondire o conoscere questi concetti.