944 resultados para Istituto per le opere di religione


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Petroltecnica S.P.A, azienda leader in attività di bonifica di terreni e siti industriali, ha svolto, per conto di Enipower Ferrara, uno studio di fattibilità per la dismissione di un serbatoio di olio combustibile e linea di tubazioni annesse. La richiesta della committente prevedeva la movimentazione del serbatoio di olio combustibile senza operare sezionamenti, in modo da poterlo bonificare al di fuori del sito in apposita area attrezzata. Per questo motivo è stato progettato un sistema di sollevamento che permettesse di movimentare il serbatoio di olio combustibile senza rischiare di deformarlo o romperlo. La struttura del bilancino è caratterizzata da una trave principale su cui è stata saldata una staffa per il collegamento del gancio della gru con la trave principale, e a cui sono collegate due travi traverse, disposte perpendicolarmente, e due staffe laterali. Alle estremità di ciascuna trave (principale e secondarie) sono presenti delle staffe a cui è collegata la componentistica di attacco del carico (grilli, funi e golfari). La progettazione del sistema di sollevamento è stata fatta in modo da ripartire uniformemente il carico sulla struttura e contemporaneamente non sollecitare eccessivamente i punti di presa del serbatoio. Una volta scelta la struttura del bilancino, è stato necessario dimensionare e verificare tutte le sue parti sulla base del metodo delle tensioni ammissibili previsto dall'UNI 10011. In riferimento alle normative UNI 10011 e UNI 13155, il dimensionamento del bilancino di sollevamento è stato effettuato in modo da ottenere, su ciascun elemento della struttura, un coefficiente di sicurezza minimo pari a due.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I materiali compositi più diffusi sono quelli a matrice polimerica (PMC, Polymer Matrix Composites) con fibre di rinforzo, largamente utilizzati per la loro capacità di conciliare ottima resistenza meccanica con elevata leggerezza. Nel presente elaborato di tesi sono state studiate le caratteristiche meccaniche di materiali compositi a matrice resinosa, epossidica, rinforzati con fibre di carbonio chopped, ovvero fibre spezzate e disposte in modo del tutto casuale all’interno della matrice, mediante analisi microstrutturale e prove di trazione. Viene descritto il processo di produzione delle piastre di materiale composito ottenuto per SMC (Sheet Moulding Compound) da cui sono stati ricavati i provini. Lo studio a livello microstrutturale è stato possibile grazie all’inglobamento nella resina di alcune sezioni dei provini, le cui superfici sono state esaminate al microscopio acquisendo una quantità di immagini tale da permettere la ricostruzione della superficie stessa tramite software ed il calcolo percentuale delle porosità tramite SolidWorks. La caratterizzazione meccanica è stata eseguita utilizzando la macchina per le prove di trazione presente nell’hangar della sede di Forlì della Scuola di Ingegneria e Architettura dell’Università di Bologna: la preparazione dei provini è basata sull’applicazione di tabs di alluminio. I provini in materiale composito sono stati forniti in quattro differenti tipologie riguardanti la pressione a cui sono stati prodotti: 25, 50, 100 e 150 bar. Lo scopo dell’elaborato è stabilire la pressione ottimale di produzione dei provini, a cui il materiale composito mostra le migliori proprietà meccaniche, in particolare la più alta resistenza a carico di trazione. Le prove sono state condotte su provini a tre diverse lunghezze, per diversificare le modalità di stress meccanico. I risultati sono stati poi analizzati per stabilire quale valore di pressione di processo conferisce le migliori caratteristiche meccaniche al materiale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel presente elaborato è stato valutato l’inserimento di robot commerciali per il caricamento di materiali da processare da macchine automatiche del tè. Sono state affrontate sia valutazioni di tipo progettuale che di tipo economico al fine di poter ottenere e confrontare soluzioni che fossero concretamente realizzabili, in linea con le normative vigenti ed economicamente vantaggiose rispetto alle convenzionali soluzioni senza robot. L’elevato numero di aspetti da considerare ha richiesto lo studio e l’integrazione di campi tematici differenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il rilevamento e l’analisi delle frodi è una delle attività cruciali per un sistema di carrier billing. Una frode non rilevata prontamente può causare ingenti danni economici, mentre un falso positivo porta ad uno spreco di tempo da parte del team di Reporting and Control. In questa tesi viene studiato il dominio di un Payment Service Provider (PSP) operativo nel settore del carrier billing, andando ad approfondire il sistema di rilevamento delle frodi basato sull’analisi di serie storiche con la tecnica Holt-Winters. Verrà fornita una panoramica sull’architettura del sistema seguita da alcuni esempi in cui la scarsa qualità delle predizioni ha causato una perdita economica o temporale al PSP. Verranno quindi proposte numerose soluzioni per estendere e migliorare il sistema attuale, concentrandosi principalmente sulla pulizia dei dati da analizzare e sullo sfruttamento di informazioni implicitamente contenute nei dati. I miglioramenti apportati possono essere divisi in due categorie: quelli che necessitano della supervisione dell’essere umano e quelli che possono essere ottenuti in modo automatico da un algoritmo. Alcune di queste soluzioni verranno implementate e commentate confrontando le prestazioni del sistema prima e dopo le varie implementazioni. Alcune proposte verranno invece trattate solamente a livello teorico ma faranno parte degli sviluppi futuri. Infine si cercherà di trarre delle conclusioni, dimostrando come nel dominio del carrier billing sia possibile ottenere prestazioni soddisfacenti grazie ad un filtraggio supervisionato dei dati delle serie storiche, mentre i tentativi di filtraggio non supervisionato hanno fornito risultati contrastanti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi è stata incentrata sul gioco «Indovina chi?» per l’identificazione da parte del robot Nao di un personaggio tramite la sua descrizione. In particolare la descrizione avviene tramite domande e risposte L’obiettivo della tesi è la progettazione di un sistema in grado di capire ed elaborare dei dati comunicati usando un sottoinsieme del linguaggio naturale, estrapolarne le informazioni chiave e ottenere un riscontro con informazioni date in precedenza. Si è quindi programmato il robot Nao in modo che sia in grado di giocare una partita di «Indovina chi?» contro un umano comunicando tramite il linguaggio naturale. Sono state implementate regole di estrazione e categorizzazione per la comprensione del testo utilizzando Cogito, una tecnologia brevettata dall'azienda Expert System. In questo modo il robot è in grado di capire le risposte e rispondere alle domande formulate dall'umano mediante il linguaggio naturale. Per il riconoscimento vocale è stata utilizzata l'API di Google e PyAudio per l'utilizzo del microfono. Il programma è stato implementato in Python e i dati dei personaggi sono memorizzati in un database che viene interrogato e modificato dal robot. L'algoritmo del gioco si basa su calcoli probabilistici di vittoria del robot e sulla scelta delle domande da proporre in base alle risposte precedentemente ricevute dall'umano. Le regole semantiche realizzate danno la possibilità al giocatore di formulare frasi utilizzando il linguaggio naturale, inoltre il robot è in grado di distinguere le informazioni che riguardano il personaggio da indovinare senza farsi ingannare. La percentuale di vittoria del robot ottenuta giocando 20 partite è stata del 50%. Il data base è stato sviluppato in modo da poter realizzare un identikit completo di una persona, oltre a quello dei personaggi del gioco. È quindi possibile ampliare il progetto per altri scopi, oltre a quello del gioco, nel campo dell'identificazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro di tesi si propone di realizzare un sistema in grado non solo di gestire la similarità tra media di stesso tipo, in modo tale da essere al pari per potenzialità in catalogazione e ricerca dei sistemi esistenti, ma di introdurre anche il concetto di similarità tra documenti, i quali contengono media di diverso tipo. Anche se esistono già DBMS in grado di gestire tipi di media complessi, nessuno ha un modello in grado di gestire la compresenza di più tipi di dato efficientemente. Per realizzare un sistema multimediale che sia in grado di gestire non solo la similarità tra media compatibili per tipo ma in generale la ricerca tra documenti si è deciso di utilizzare sistemi per media specifici già esistenti e di integrarli in modo da farli cooperare. A tale proposito si è deciso inizialmente di creare un sistema in grado di gestire documenti che possano contenere inizialmente parti testuali, immagini, video e serie temporali. E’ chiaro intuire come le differenze tra i singoli sistemi (e tra le singole tipologie di dati) rendano quasi impossibile il confronto tra media di tipo diverso esaminandone solamente il contenuto. Per questo un sistema multimediale come quello proposto non potrà effettuare ricerca per contenuto tra media differenti (a parte tra immagini e video in cui può essere possibile confrontare l’immagine con gli screenshot che compongono un video) ma si baserà principalmente sul confronto semantico tra media di tipo diverso e lo combinerà invece con ricerche per metadati e contenuto tra media dello stesso tipo. In questa tesi verranno analizzate le tecnologie utilizzate, le modifiche apportate ai framework esistenti e le novità introdotte per realizzare il sistema generale e in seguito verrà proposta la realizzazione due applicazioni su casi reali per dimostrare l’efficacia di tale sistema.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo studio è stata effettuata una stima della riduzione della azione verticale sul pilastro e in particolare in corrispondenza delle connessioni, per varie tipologie strutturali, per effetto dell’azione sismica verticale. Si è pervenuti, nei diversi casi analizzati, una legge per il coefficiente di attrito dinamico, a partire dal coefficiente di attrito statico, tenendo conto della legge di riduzione dello sforzo assiale, da utilizzare per il calcolo della forza di attrito che si instaura nelle suddette condizioni dinamiche. A tal fine sono stati utilizzati diversi modelli che tengono conto delle caratteristiche geometriche, della lunghezza e della forma degli elementi strutturali oltre che delle varie condizioni di carico, luci massime e minime che possono raggiungere gli elementi orizzontali. Sono state pertanto effettuate, attraverso l’ utilizzo di software di calcolo agli elementi finiti, diverse tipologie di analisi che hanno permesso di effettuare le indagini necessarie sul problema oggetto di studio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi cinque anni lo sviluppo di applicazioni mobile ha visto un grandissimo incremento dovuto pricipalmente all’esplosione della diffusione di smartphone; questo fenomeno ha reso disponibile agli analisti una enorme quantità di dati sulle abitudini degli utenti. L’approccio centralizzato nella distribuzione delle applicazioni da parte dei grandi provider quali Apple, Google e Microsoft ha permesso a migliaia di sviluppatori di tutto il mondo di raggiungere con i loro prodotti gli utenti finali e diffondere l’utilizzo di applicativi installabili; le app infatti sono diventate in poco tempo fondamentali nella vita di tutti i giorni e in alcuni casi hanno sostituito funzioni primarie del telefono cellulare. Obiettivo principale di questo studio sarà inferire pattern comportamentali dall’analisi di una grossa mole di dati riguardanti l’utilizzo dello smartphone e delle app installabili da parte di un gruppo di utenti. Ipotizzando di avere a disposizione tutte le azioni che un determinato bacino di utenza effettua nella selezione delle applicazioni di loro interesse quando accedono al marketplace (luogo digitale da cui è possibile scaricare nuove applicazioni ed installarle) è possibile stimare, ovviamente con un certo margine di errore, dati sensibili dell’utente quali: Sesso, Età, Interessi e così via analizzandoli in relazione ad un modello costruito su dati di un campione di utenti ben noto. Costruiremo così un modello utilizzando dati di utenti ben noti di cui conosciamo i dettagli sensibili e poi, tramite avanzate tecniche di regressione e classificazione saremo in grado di definire se esiste o meno una correlazione tra le azioni effettuate su uno Smartphone e il profilo dell’utente. La seconda parte della tesi sarà incentrata sull'analisi di sistemi di raccomandazioni attualmente operativi e ci concentreremo sullo studio di possibili sviluppi sviluppi futuri di questi sistemi partendo dai risultati sperimentali ottenuti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi si pone come obbiettivo l’elaborazione di dati GNSS in modalità cinematica post-processing per il monitoraggio strutturale e, in una seconda fase, lo studio delle precisioni raggiungibili delle soluzioni ottenute utilizzando algoritmi di post-elaborazione del dato. L’oggetto di studio è la torre Garisenda, situata in piazza Ravegnana, accanto alla torre Asinelli, nel centro storico di Bologna, da tempo oggetto di studi e monitoraggi per via della sua inclinazione particolarmente critica. Per lo studio è stato utilizzato un data set di quindici giorni, dal 15/12/2013 al 29/12/2013 compresi. Per l’elaborazione dei dati è stato utilizzato un software open source realizzato da ricercatori del Politecnico di Milano, goGPS. Quest'ultimo, essendo un codice nuovo, è stato necessario testarlo al fine di poter ottenere dei risultati validi. Nella prima fase della tesi si è quindi affrontato l’aspetto della calibrazione dei parametri che forniscono le soluzioni più precise per le finalità di monitoraggio considerando le possibili scelte offerte dal codice goGPS. In particolare sono stati imposti dei movimenti calibrati e si è osservata la soluzione al variare dei parametri selezionati scegliendo poi quella migliore, ossia il miglior compromesso tra la capacità di individuare i movimenti e il rumore della serie. Nella seconda fase, allo scopo di poter migliorare le precisioni delle soluzioni si sono valutati metodi di correzione delle soluzioni basati sull'uso di filtri sequenziali e sono state condotte analisi sull'incremento di precisione derivante dall'applicazione di tali correzioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il potenziale che il Web ha raggiunto in termini di accessibilità, gestione e flessibilità, ha spinto i più svariati settori ad approcciarsi ad esso e ad adottarlo all’interno delle proprie organizzazioni. É stato quindi necessario applicare alle tradizionali applicazioni web, nuove soluzioni al fine di integrare gli elementi di workflow management con il modello dei dati di navigazione e di presentazione. In questo lavoro di tesi, si affrontano gli aspetti legati ai processi di business, con riferimento alla progettazione e allo sviluppo di applicazioni Web. Verranno introdotti standard di modellazione come UML e BPMN per poi descrivere soluzioni e casi di studio esistenti. Nella seconda parte dell'elaborato invece, verranno presentate le tecnologie utilizzate per il design e lo sviluppo di un framework, a supporto delle process-aware Web applications.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi consiste nella descrizione di una applicazione in Java atta a eseguire test e simulazioni di un sistema di localizzazione in radiofrequenza. Viene descritta l'interfaccia e le funzionalità.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi tratta i concetti fondamentali legati alla "Search Engine Optimization", ovvero all’ottimizzazione dei siti web per i motori di ricerca. La SEO è un’attività multidisciplinare che coinvolge aspetti tecnici dello sviluppo web e princìpi di web marketing, allo scopo di migliorare la visibilità di un sito nelle pagine di risposta di un motore di ricerca. All’interno dell’elaborato viene analizzato dapprima il funzionamento dei motori di ricerca, con particolare riferimento al mondo Google; in seguito vengono esaminate le diverse tecniche di ottimizzazione “on-page” di un sito (codice, architettura, contenuti) e le strategie “off-page” volte a migliorare reputazione, popolarità e autorevolezza del sito stesso.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La catalogazione è la tecnica per costruire, mantenere e aggiornare un catalogo. L’utilizzo del catalogo diventa strettamente necessario quando la raccolta dei documenti viene fuori da un ambito locale e si riferisce ad un pubblico che vuole beneficiare delle informazioni possedute dalla biblioteca. Il passo successivo è aderire ad un sistema in cui ciascuna biblioteca contribuisce alla costruzione del catalogo, trasmettendo i propri dati e le informazioni relative ai documenti in proprio possesso. Per effettuare questa progressione è necessario aderire allo standard catalografico del sistema. La Biblioteca dello Studentato per le Missioni ha deciso di passare da un catalogo bibliografico cumulativo, realizzato con il software CDS/ISIS e l’interfaccia web IBISWEB, ad un sistema più vasto e strutturato, quale l’OPAC CEIBib: per aderire al sistema è necessario effettuare una conversione di formato dei dati bibliografici della banca dati. Lo scopo di questa tesi, dunque, è quello di realizzare un tool di conversione di formato dei dati bibliografici, passando dal formato di catalogazione CDS/ISIS, basato su UNIMARC, al formato MARC 21. La struttura della tesi è organizzata come segue. Il primo capitolo racconta, in breve, la nascita della Biblioteca dello Studentato per le Missioni e del fondo librario di cui dispongono. Il secondo capitolo introduce alla catalogazione, approfondendo diversi aspetti tra cui il catalogo, i formati di catalogazione e i diversi sistemi. Il terzo capitolo tratta il formato di rappresentazione dei metadati MARC 21, adottato dall’OPAC CEIBib come formato bibliografico per la catalogazione. Il quarto capitolo descrive il software di catalogazione CDS/ISIS. In particolare, la creazione dei record CDS/ISIS e l’esportazione degli stessi nel formato ISO 2709. Il quinto capitolo mostra l’implementazione del tool di conversione di formato di dati bibliografici realizzato per la conversione della banca dati della Biblioteca.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'elaborato tratta del progetto di tesi "FastLApp". "FastLApp" e un'applicazione per la piattaforma Android che si pone come obbiettivo l'acquisizione dei dati di telemetria relativi al comportamento di un motoveicolo su strada e su circuito e come target i motociclisti amatoriali. Dopo un'introduzione sul sistema operativo Android, sulle principali tecniche di telemetria e di acquisizione dati e sulle applicazioni correlate, vengono descritte le funzionalita, l'implementazione e il testing del applicazione oggetto di tesi. Dopo una breve descrizione degli strumenti e delle tecnologie utilizzate, viene infine data una valutazione all'applicazione e discussi i suoi eventuali sviluppi futuri.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il mondo degli smartphone, in particolare grazie all’avvento delle app, costituisce un settore che ha avuto negli ultimi anni una crescita tale, da richiedere l’introduzione di un nuovo termine in ambito finanziario: app economy. La crescente richiesta da parte del mercato di nuove opportunitá derivanti dal mondo delle applicazioni, ha aumentato sensibilmente il carico di lavoro richiesto alle software house specializzate,che hanno pertanto avuto la necessitá di adeguarsi a tale cambiamento. Per ovviare alle suddette problematiche, sono iniziati ad emergere due tool che consentono lo sviluppo di applicazioni multipiattaforma utilizzando un linguaggio ed un ambiente di sviluppo comuni. Tali sistemi consentono un risparmio in termini di tempi e costi, ma non sono in grado di competere con i tool nativi in termini di qualità del prodotto realizzato, in particolare per quanto concerne l'interfaccia grafica. Si propone pertanto un approccio che tenta di combinare i vantaggi di entrambe le soluzioni, al fine di ottimizzare la fluidità della UI, consentendo allo stesso tempo il riuso della logica applicativa.