300 resultados para Logica.
Resumo:
Incluye Bibliografía
Resumo:
The main objective of the presented study is the development of a predictive interval type-2 fuzzy inference system in order to estimate the mortality risk for a newborn, to be used as an auxiliary tool for decision making in medical centers where there is a lack of professionals for this purpose and, afterwards, to compare its performance to a type-1 fuzzy system. The input variables were chosen due to their acquisition ‘simplicity, not involving any invasive tests, such as blood tests or other specific tests. The variables are easily obtained in the first few minutes of life: birth weight, gestational age at delivery, 5-minute Apgar score and previous report of stillbirth. Databases from the DATASUS were used to validate the model. 1351 records from the city of São José dos Campos, a mid-sized city in the São Paulo state’s countryside, were considered in this study. Finally, an analysis using the ROC curve was performed to estimate the model’s accuracy
Resumo:
La crittografia ha sempre rivestito un ruolo primario nella storia del genere umano, dagli albori ai giorni nostri, e il periodo in cui viviamo non fa certo eccezione. Al giorno d'oggi, molti dei gesti che vengono compiuti anche solo come abitudine (operazioni bancarie, apertura automatica dell'auto, accedere a Facebook, ecc.), celano al loro interno la costante presenza di sofisticati sistemi crittografici. Proprio a causa di questo fatto, è importante che gli algoritmi utilizzati siano in qualche modo certificati come ragionevolmente sicuri e che la ricerca in questo campo proceda costantemente, sia dal punto di vista dei possibili nuovi exploit per forzare gli algoritmi usati, sia introducendo nuovi e sempre più complessi sistemi di sicurezza. In questa tesi viene proposto una possibile implementazione di un particolare tipo di attacco crittoanalitico, introdotto nel 2000 da due ricercatori dell'Università "La Sapienza" di Roma, e conosciuto come "Crittoanalisi Logica". L'algoritmo su cui è incentrato il lavoro è il Data Encryption Standard (DES), ostico standard crittografico caduto in disuso nel 1999 a causa delle dimensioni ridotte della chiave, seppur tuttora sia algebricamente inviolato. Il testo è strutturato nel seguente modo: il primo capitolo è dedicato ad una breve descrizione di DES e della sua storia, introducendo i concetti fondamentali con cui si avrà a che fare per l'intera dissertazione Nel secondo capitolo viene introdotta la Crittoanalisi Logica e viene fornita una definizione della stessa, accennando ai concetti matematici necessari alla comprensione dei capitoli seguenti. Nel capitolo 3 viene presentato il primo dei due software sviluppati per rendere possibile l'attuazione di questo attacco crittoanalitico, una libreria per la rappresentazione e la manipolazione di formule logiche scritta in Java. Il quarto ed ultimo capitolo descrive il programma che, utilizzando la libreria descritta nel capitolo 3, elabora in maniera automatica un insieme di proposizioni logiche semanticamente equivalenti a DES, la cui verifica di soddisfacibilità, effettuata tramite appositi tools (SAT solvers) equivale ad effettuare un attacco di tipo known-plaintext su tale algoritmo.
Resumo:
La presente tesi descrive l’implementazione in Java di un algoritmo per il ragionamento giuridico che cattura due sue importanti peculiarità: la defeasibility del ragionamento normativo e il concetto di tempo. “Defeasible” significa “ritrattabile” e sta ad indicare, appunto, quegli schemi di ragionamento nei quali è possibile rivedere o ritrattare le conclusioni tratte precedentemente. Il tempo è essenziale per un’accurata rappresentazione degli scenari presenti nel mondo reale e in particolare per gli scenari giuridici. I profili temporali delle norme sono essenzialmente due: (i) tempo esterno della norma, cioè il periodo durante il quale la norma è valida cioè appartiene al sistema giuridico; (ii) tempo interno della norma che fa riferimento al periodo in cui la norma si applica. In particolare quest’ultimo periodo di tempo coincide con il periodo in cui le condizioni presenti nella norma devono presentarsi affinché essa produca i suoi effetti. Inoltre, nella tesi viene presentata un’estensione della logica defeasible in grado di distinguere tra regole con effetti persistenti, che valgono non solo per l’istante in cui si verificano le premesse ma anche per ogni istante successivo, e regole con effetti transitori, che valgono per un singolo istante. L’algoritmo presentato in questa tesi presenta una complessità lineare nelle dimensioni della teoria in ingresso e può interagire con le applicazioni del web semantico poiché elabora teorie scritte in Rule-ML, un linguaggio basato su XML per la rappresentazione di regole.
Resumo:
Lo scopo della tesi è studiare la logica dell'identità e delle descrizioni attraverso l'introduzione di metodi sempre più sofisticati che ci permettano di intraprendere attivamente questo studio, senza limitarci a recepire passivamente dei contenuti. L'approccio scelto è quello della deduzione naturale, in particolare il metodo delle derivazioni introdotto da Frederick Fitch.
Resumo:
Progetto e analisi delle performance di un controllore realizzato con la metodologia fuzzy per una manovra di docking fra due dirigibili. Propedeutica a questo, è stata la campagna, presso la galleria del vento messa a disposizione dalla Clarkson University, di raccolta di dati sperimentali, che sono stati poi utilizzati per realizzare un simulatore con cui testare il controllore. Nel primo capitolo, si è presentato la tecnologia dei dirigibili, le varie tipologie ed una descrizione dei moderni concepts. Successivamente, sono state presentate le applicazioni nelle quali i moderni dirigibili possono essere impiegati. L’ultima parte tratta di due esempi di docking fra mezzi aerei: il rifornimento in volo e i “parasite aircrafts”. Il secondo capitolo, tratta della logica utilizzata dal controllore: la logica fuzzy. Le basi della teoria insiemistica classica sono state il punto di partenza per mostrare come, introducendo le funzioni di appartenenza, sia possibile commutare tra la teoria classica e fuzzy. La seconda parte del capitolo affronta le nozioni della teoria fuzzy, esponendo la metodologia con la quale è possibile inserire un controllore di questo tipo in un sistema “tradizionale”. Il terzo capitolo presenta il modello di volo dei dirigibili. Partendo dalla legge di Newton, introdotto il concetto di inerzia e massa aggiunte, si arriva alle equazioni del moto non lineari. L’ultima parte è stata dedicata alla linearizzazione delle equazioni e alla condizione di trim. Il quarto capitolo riguarda la campagna sperimentale di test in galleria del vento, con la realizzazione dei modelli in scala e la calibrazione della bilancia; successivamente, nel capitolo si commentano i dati sperimentali raccolti. Il quinto capitolo, mostra la metodologia con cui è possibile progettare un controllore fuzzy per il controllo della manovra di docking fra dirigibili. La seconda parte mostra le performance ottenute con questo tipo di sistema.
Resumo:
La presenza sempre più massiccia di fornitori di servizi basati su web service ha portato in rilievo uno dei limiti di questo approccio, l’impossibilità di rendere automatizzabili i task di ricerca, invocazione e orchestrazione dei servizi. Il raggiungimento di questo obiettivo risulta impossibile a causa della mancanza di informazioni comprensibili ad una macchina attraverso le quali un agente software può effettuare delle scelte tra vari servizi esposti. Il fallimento della “ricerca intelligente” di un servizio pubblicato sta nella stessa modellazione dei servizi. I linguaggi attualmente disponibili permettono di modellare un servizio solo dal punto di vista sintattico. Definire le operazioni proposte, il tipo di parametri accettati e il tipo di output prodotto non è sufficiente a comprendere cosa il servizio può fare. I web services semantici consentono di superare questo limite fornendo uno stack semantico, il quale ha il compito di racchiudere le informazioni relative ai servizi, il loro funzionamento e gli obiettivi raggiungibili organizzando la conoscenza in ontologie. La formalizzazione dei modelli ontologici e la loro integrazione con i servizi esistenti è uno dei problemi più interessanti che ha catturato l’attenzione di numerosi studi di settore. Negli ultimi anni numerose sono state le soluzioni proposte. Tra queste si possono considerare due principali vie di sviluppo che hanno visto un’intensa attività sperimentale. Il primo scenario è volto a modellare in maniera formale la conoscenza legata ai servizi esposti, il secondo integra i servizi già esistenti con nuove strutture semantiche in modo da conservare le infrastrutture presenti. Entrambi i filoni hanno come scopo quello di fornire la conoscenza adatta a sistemi esperti che consentano di automatizzare la ricerca dei servizi in base ai desideri dei clienti, permettendo la loro composizione dinamica basata su un’interazione utile e indipendente dai protocolli che vincolano il trasporto delle informazioni.
Resumo:
Nel mio lavoro ho deciso di dedicare il primo capitolo all'evoluzione della prova ontologica nella storia della filosofia e della logica e all'analisi, da un punto di vista logico, della prova di Gödel. Nella prima sezione, quindi, ho riportato l'argomentazione di Anselmo d'Aosta, il primo a proporre una prova ontologica, e a seguire quelle di Scoto, Spinoza, Leibniz e Russell, evidenziando dove opportuno le critiche ad esse apportate. Nella seconda sezione ho ripercorso le tappe della prova ontologica di Gödel e ho riportato e analizzato alcuni dei passaggi logici tratti da uno dei suoi taccuini. Nel secondo capitolo ne ho analizzato in particolare la logica del secondo ordine. Inoltre ho dedicato la prima sezione a un breve richiamo di logica modale S5. Ho infine brevemente trattato un caso particolare della logica del secondo ordine, vale a dire la logica del secondo ordine debole.