975 resultados para intuizionismo continuo mondi possibili logica modale
Resumo:
La tesi si sviluppa attorno a 6 capitoli che, ripercorrendo le peculiarità storiche, linguistiche ed economiche di Moldova e Transnistria, tenteranno di mettere in luce i contrasti salienti del rapporto tra Chişinău e Tiraspol. Il capitolo 1 si concentra sulla comparazione di alcune fonti (provenienti da est e da ovest) che hanno ricostruito la storia della Moldova della Grande Romania e della Moldavia sovietica. In tal modo sarà possibile dimostrare che la regione di interesse è stata oggetto di una manipolazione intenzionale del proprio passato asservita ai centri di potere che miravano alla supremazia del territorio. Il capitolo 2 ripercorre le fasi dell’epoca di industrializzazione della Transnistria che, a partire dagli anni ’90, si suppone abbia permesso a Tiraspol di sganciarsi de facto dal governo moldavo. Il capitolo 3 si sofferma sui motivi che spinsero la popolazione del Dnestr ad appoggiare la secessione trascinandola nel conflitto del 1992. Una volta tracciata la cornice storica lungo i capitoli 1, 2 e 3, il capitolo 4 presenterà il multiforme panorama linguistico dell’attuale Repubblica Moldova soffermandosi sul ruolo della lingua russa, scintilla della secessione transnistriana. Il capitolo 5 offre uno spunto di riflessione sull’incidenza di Mosca nella separazione moldava per mezzo di uno studio dell’economia della Transnistria. Il capitolo 6, infine, rivela che gli argomenti trattati nel corso dei 5 capitoli precedenti sono tutti tasselli imprescindibili dell’identità nazionale transnistriana e permette di muovere alcune ipotesi sui metodi attuati da Tiraspol per garantire la fedeltà nazionale della propria popolazione facendo perno sul controllo dei mass media.
Resumo:
La tesi è suddivisa in due capitoli. Nel primo capitolo è data una definizione di sillogismo, la sua classificazione nelle 4 figure e la sua interpretazione mediante il calcolo delle classi. Inoltre è spiegato il calcolo predicativo monadico ed è dimostrata la sua decidibilità. Nel secondo capitolo è illustrato il “Gioco della Logica” di L. Carroll descrivendo le regole del gioco e riportando diversi esempi. Inoltre è evidenziata una discrepanza nell'interpretazione del quantificatore universale tra la logica di Carroll e la logica moderna.
Resumo:
Il lavoro nasce dall'esigenza di comprendere quali sono gli ostacoli concettuali e metodologici che gli studenti della scuola secondaria di secondo grado incontrano nello studio delle dimostrazioni. Tale lavoro è in parte dedicato alla descrizione, mediante la proposizione di ragionamenti scorretti, delle tipologie più diffuse di errori commessi nel condurre una dimostrazione, partendo dall'esplicitazione dei requisiti necessari della stessa in contesto logico. La realizzazione di un’esperienza didattica rivolta a studenti delle classi seconde, ha permesso di concretizzare le ipotesi avanzate durante la fase descrittiva. In particolare ha favorito l’individuazione di ulteriori spunti di riflessione su come condurre lo studio delle dimostrazioni e ha messo in evidenza come un’analisi che prescinde dal piano epistemologico risulta fuorviante e inappropriata.
Resumo:
Parlando della questione linguistica in Europa, viene svolta un'analisi in tre parti. La prima parte tratta storicamente del multilinguismo europeo e del concetto di lingua franca; la seconda presenta quindi le possibili soluzioni finora emerse, concentrandosi sull'utilizzo della lingua Inglese in ambito internazionale. Infine, sono illustrate altre possibilità, suddividendo il discorso in ulteriori tre parti: la prima riguarda l'utilizzo di una lingua naturale come lingua franca; la seconda espone alcuni progetti per semplificare lingue già esistenti; per ultimo, si offre una panoramica sulle lingue artificiali.
Resumo:
Questa tesi tratta la gestione dei formati digitali dei testi, parziale argomento del progetto Biblio dell'università di Bologna. L'analisi proposta in questa tesi prevede la proposta di un'architettura che sfrutta in parte tecnologie già esistenti come linguaggi di markup, gestione di frammenti di testo con XPointer e epubcfi, tools per NLP, TEI, DocBook. Questa architettura ha il compito di modificare i formati digitali dei documenti in modo tale che la struttura sia indipendente dall'impaginazione. Ciò avviene attraverso l'introduzione delle unità informative, ossia nuovi elementi nella struttura del testo. Le unità informative sono di vari tipi, quelle più rilevanti ed innovative riguardano parti di testo e periodi; esse, infatti, permettono di identificare un preciso periodo dall'opera senza che esso dipenda dal tipo di impaginazione. Per ottenere questo risultato sono state sollevate tre problematiche principali: la gestione delle opere già esistenti, la gestione delle traduzioni, la gestione di opere inedite; esse vengono rispettivamente risolte nelle proposte dei postprocessor, del translationSystem e dell'authorSystem. Tutte e tre si basano sulla produzione di un'enumerazione delle unità informative, con una particolare attenzione per i periodi. Per riuscire a reperire i periodi si sfruttano le tecnologie di riconoscimento NLP. Il translationSystem e l'authorSystem presentano inoltre funzioni per la gestione della numerazione. Inoltre si prende in considerazione un repository e un sistema di autenticazione certificato per combattere furti d'identità, plagi e simili. Comprende accenni al recupero di unità informative sulla base di FRBR e una proposta per un sistema multiautore.
Resumo:
L'informatica e le sue tecnologie nella società moderna si riassumono spesso in un assioma fuorviante: essa, infatti, è comunemente legata al concetto che ciò che le tecnologie ci offrono può essere accessibile da tutti e sfruttato, all'interno della propria quotidianità, in modi più o meno semplici. Anche se quello appena descritto è un obiettivo fondamentale del mondo high-tech, occorre chiarire subito una questione: l'informatica non è semplicemente tutto ciò che le tecnologie ci offrono, perchè questo pensiero sommario fa presagire ad un'informatica "generalizzante"; l'informatica invece si divide tra molteplici ambiti, toccando diversi mondi inter-disciplinari. L'importanza di queste tecnologie nella società moderna deve spingerci a porre domande, riflessioni sul perchè l'informatica, in tutte le sue sfaccettature, negli ultimi decenni, ha portato una vera e propria rivoluzione nelle nostre vite, nelle nostre abitudini, e non di meno importanza, nel nostro contesto lavorativo e aziendale, e non ha alcuna intenzione (per fortuna) di fermare le proprie possibilità di sviluppo. In questo trattato ci occuperemo di definire una particolare tecnica moderna relativa a una parte di quel mondo complesso che viene definito come "Intelligenza Artificiale". L'intelligenza Artificiale (IA) è una scienza che si è sviluppata proprio con il progresso tecnologico e dei suoi potenti strumenti, che non sono solo informatici, ma soprattutto teorico-matematici (probabilistici) e anche inerenti l'ambito Elettronico-TLC (basti pensare alla Robotica): ecco l'interdisciplinarità. Concetto che è fondamentale per poi affrontare il nocciolo del percorso presentato nel secondo capitolo del documento proposto: i due approcci possibili, semantico e probabilistico, verso l'elaborazione del linguaggio naturale(NLP), branca fondamentale di IA. Per quanto darò un buono spazio nella tesi a come le tecniche di NLP semantiche e statistiche si siano sviluppate nel tempo, verrà prestata attenzione soprattutto ai concetti fondamentali di questi ambiti, perché, come già detto sopra, anche se è fondamentale farsi delle basi e conoscere l'evoluzione di queste tecnologie nel tempo, l'obiettivo è quello a un certo punto di staccarsi e studiare il livello tecnologico moderno inerenti a questo mondo, con uno sguardo anche al domani: in questo caso, la Sentiment Analysis (capitolo 3). Sentiment Analysis (SA) è una tecnica di NLP che si sta definendo proprio ai giorni nostri, tecnica che si è sviluppata soprattutto in relazione all'esplosione del fenomeno Social Network, che viviamo e "tocchiamo" costantemente. L'approfondimento centrale della tesi verterà sulla presentazione di alcuni esempi moderni e modelli di SA che riguardano entrambi gli approcci (statistico e semantico), con particolare attenzione a modelli di SA che sono stati proposti per Twitter in questi ultimi anni, valutando quali sono gli scenari che propone questa tecnica moderna, e a quali conseguenze contestuali (e non) potrebbe portare questa particolare tecnica.
Resumo:
Ogni anno si registra un crescente aumento delle persone affette da patologie neurodegenerative come la sclerosi laterale amiotrofica, la sclerosi multipla, la malattia di Parkinson e persone soggette a gravi disabilità motorie dovute ad ictus, paralisi cerebrale o lesioni al midollo spinale. Spesso tali condizioni comportano menomazioni molto invalidanti e permanenti delle vie nervose, deputate al controllo dei muscoli coinvolti nell’esecuzione volontaria delle azioni. Negli ultimi anni, molti gruppi di ricerca si sono interessati allo sviluppo di sistemi in grado di soddisfare le volontà dell’utente. Tali sistemi sono generalmente definiti interfacce neurali e non sono pensati per funzionare autonomamente ma per interagire con il soggetto. Tali tecnologie, note anche come Brain Computer Interface (BCI), consentono una comunicazione diretta tra il cervello ed un’apparecchiatura esterna, basata generalmente sull’elettroencefalografia (EEG), in grado di far comunicare il sistema nervoso centrale con una periferica esterna. Tali strumenti non impiegano le usuali vie efferenti coinvolte nella produzione di azioni quali nervi e muscoli, ma collegano l'attività cerebrale ad un computer che ne registra ed interpreta le variazioni, permettendo quindi di ripristinare in modo alternativo i collegamenti danneggiati e recuperare, almeno in parte, le funzioni perse. I risultati di numerosi studi dimostrano che i sistemi BCI possono consentire alle persone con gravi disabilità motorie di condividere le loro intenzioni con il mondo circostante e provano perciò il ruolo importante che esse sono in grado di svolgere in alcune fasi della loro vita.
Resumo:
Esperimenti condotti negli anni Ottanta per la determinazione della vita media di alcuni radioisotopi sembrano mostrare fluttuazioni anomale del valore delle costanti di decadimento. Negli anni a seguire, altri studi hanno tentato di spiegare l'origine delle fluttuazioni osservate in questi primi lavori. Insieme agli esperimenti che hanno mostrato anomalie, però, ve ne sono altri che non hanno registrato alcuna deviazione. Con il seguente elaborato si ha l'intento di ordinare e organizzare schematicamente gli articoli pubblicati finora e realizzare così un quadro della situazione attuale. Questo può essere utile per predisporre un esperimento, da svolgersi presso il Laboratorio di Fisica delle Radiazioni del Dipartimento di Fisica e Astronomia dell'Università di Bologna, che possa arricchire la casistica del fenomeno. Si affronta in conclusione la progettazione dell'esperimento a lungo termine, per il quale si prevede inizialmente una durata triennale delle osservazioni.
Resumo:
Studio, a livello preliminare, di un sistema a pilotaggio remoto che permetta la sorveglianza e il monitoraggio di zone aeree e marine ad alto rischio e in contemporanea di compiere una raccolta di dati che possa essere inviata in tempo reale ad un utente a terra. Negli ultimi anni si è sviluppato notevolmente il settore dei velivoli a pilotaggio remoto sia ad ala fissa sia ad ala rotante, per la videoripresa e la fotografia aerea a bassa quota, che è utilizzata in molti ambiti tra i quali la fotogrammetria, la geologia e l’archeologia, nonché per studi scientifici e per la sicurezza. Nel presente lavoro di tesi è stata studiata la fattibilità di un UAV capace di effettuare la sua missione, previa pianificazione, in due ambienti completamente diversi fra loro: l’aria e l’acqua. Così facendo si ha la possibilità di acquistare un solo mezzo con costi minori e con un profilo di missione molto più vasto. Lo sviluppo di questo drone, pensato per operazioni di protezione civile, si è articolato in più fasi: anzitutto si è cercato di stabilire quale fosse il suo ambito di utilizzo e quali caratteristiche avrebbe dovuto avere. Successivamente si è iniziato a valutare l’equipaggiamento del velivolo con tutti i sistemi necessari per compiere la sua attività ed infine si è realizzato un disegno CAD semplificato della sua struttura. La seconda parte del lavoro è stata incentrata sullo studio preliminare della stabilità del velivolo sia in configurazione aerea sia in quella marina andando dapprima a calcolare la posizione del baricentro dell’UAV in modo da avere un velivolo aereo staticamente stabile e a simularne il volo. Successivamente si è modificato un modello Simulink di un UAV disponibile in rete, adattandolo opportunamente a questo caso per simulare parte della missione e si è potuto constatare che il velivolo risulta essere stabile; per far questo sono state calcolate diverse derivate aerodinamiche in modo da poter simulare il comportamento dinamico del velivolo. Anche per la configurazione marina sono state calcolate le derivate aerodinamiche più significative ed è stata realizzata una simulazione per valutare la stabilità del ROV, sempre a comandi fissi. In ultima analisi si è studiata una missione tipica che potrebbe effettuare questo UAV multi-modale: per fare ciò si è tracciata in Google Earth una traiettoria cui sono stati aggiunti alcuni modelli CAD nelle fasi principali del volo per far capire come varia la forma del mezzo durante la missione. Lo scenario della missione è in un contesto di disastro ambientale dovuto ad un incidente in una centrale nucleare vicina al mare, caso che ben si presta alla applicazione di questo mezzo a pilotaggio remoto.
Resumo:
Il rinnovato interesse da parte dei consumatori per le caratteristiche nutrizionali degli alimenti incentiva la ricerca in campo agroalimentare a sviluppare nuovi prodotti per il mercato attuale sempre più attento a salute e benessere. È in questo contesto che nasce a livello europeo il progetto Bake4Fun mirato allo sviluppo di soluzioni biotecnologiche innovative per la messa a punto di nuovi prodotti da forno funzionali. Nell’ambito di questo progetto europeo, lo scopo dello studio oggetto di questo elaborato di laurea è stato quello di valutare le proprietà antiossidanti e antinfiammatorie di diverse tipologie di pani creati ad hoc con farina di frumento o di farro e sottoposti a fermentazione convenzionale o con pasta madre (sourdough). Il farro appartiene alla famiglia dei cosiddetti “cereali antichi” e grazie al suo elevato profilo nutrizionale si presenta come un promettente candidato per la produzione di alimenti dalle proprietà benefiche. Similmente anche diverse tipologie di fermentazione sembrano in grado di possedere caratteristiche salutistiche. Pertanto, nell’ambito di B4F sono stati formulati e prodotti diversi tipi di pane e se ne sono voluti studiare i possibili effetti antiossidanti ed antiinfiammatori in vivo sul modello sperimentale del suino. Dopo 30 giorni di dieta arricchita con i diversi prodotti sperimentali miscelate in un rapporto di 1:1 con una dieta standard è stato valutato lo stato redox plasmatico mediante l’analisi di tre indicatori del danno ossidativo, quali TAC, GSH e TBARS. Il grado d’infiammazione è stato invece valutato attraverso l’analisi di otto citochine (IFNα, IFNγ, IL-1β, IL-4, IL-6, IL-8, IL-10 e TNFα) utilizzando un saggio multiparametrico di tipo ELISA. Tutti gli animali impiegati godevano di buona salute ed i loro plasmi sono stati analizzati sia all’inizio (T0) sia alla fine (T30) dell’esperimento. Sebbene i risultati conseguiti in relazione allo status ossidativo ed infiammatorio nei suini impiegati non abbiano evidenziato particolari differenze tra i diversi tipi di diete sperimentali, non si esclude che eventuali variazioni delle condizioni sperimentali possano portare a conclusioni diverse o che gli effetti siano maggiormente visibili a livello di altri parametri quali, ad esempio, la variazione della microflora intestinale o l’indice glicemico dei prodotti. Questa possibilità unitamente all’importanza degli effetti salutistici dei cereali antichi e delle diverse tipologie di fermentazione, giustificate da altre ricerche in letteratura, sottolineano la necessità di ulteriori studi in questo ambito.
Resumo:
Breve elaborato sulla teoria degli insiemi a partire dagli assiomi ZFC con introduzione ai numeri ordinali e cardinali e presentazione dell'ipotesi del continuo.
Resumo:
La linea ferroviaria Bologna-Porretta mostra evidenze deformative nel tratto ad EST della stazione di Silla, già da metà del secolo scorso. Il fenomeno si manifesta in una zona delimitata a SUD da un grande deposito di frana quiescente e a NORD dal corso del fiume Reno. In questo contesto, è stato possibile seguire le indagini geognostiche commissionate da RFI, finalizzate alla caratterizzazione geologico-tecnica del problema deformativo e all’installazione di alcuni strumenti di monitoraggio. L’obiettivo principale è quello di ricostruire le dinamiche dei processi in atto, valutando quale sia la causa primaria del cedimento del rilevato ferroviario. Il lavoro ha inizialmente previsto una fase di attività sul campo. Successivamente, prove di laboratorio sono state svolte su cinque campioni rimaneggiati ottenuti da spezzoni di carota. Le stratigrafie di sondaggio, le osservazioni di campo e i risultati delle prove di laboratorio sono stati elaborati assieme ad altri dati a disposizione, quali dati di interferometria radar, dati di monitoraggio e risultati di prove di laboratorio esterne, così da produrre il modello geologico-tecnico dell’area. Nel modello, la superficie di scorrimento si trova a circa 10 m di profondità, coerentemente con le misure degli inclinometri, mentre la falda oscilla tra i 2,0 m e gli 0,5 m di profondità da piano campagna. Infine, le analisi di stabilità sono state divise in una fase di back-analysis e in una fase previsionale che ipotizzasse alcuni interventi di sistemazione. Dal lavoro è stato possibile concludere che il versante destro del fiume Reno è attualmente soggetto a movimenti gravitativi. Le simulazioni effettuate hanno portato a determinare due meccanismi di rottura plausibili. Una batteria di dreni suborizzontali permetterebbe di stabilizzare le superfici di scorrimento critiche con un buon incremento del Fattore di Sicurezza, mentre trincee drenanti e pali rappresentano soluzioni meno efficaci.
Resumo:
L'obiettivo di questa tesi è lo studio del legame tra la volatilità implicita e la volatilità attuale del titolo sottostante. In particolare, si cercherà di capire quanto conosciamo della volatilità del titolo sottostante se si osserva sul mercato un numero sufficiente di opzioni Call e Put Europee che dipendono da questo sottostante. Tale relazione è oggetto d'interesse pratico per gli attori dei mercati delle opzioni: si tratta di due grandezze fondamentali usate per prezzare i derivati finanziari. L'approccio usato verte alla dinamica dei processi e permetterà di mettere in luce nuove caratteristiche della volatilità implicita, nonché trovare una sua approssimazione. La dinamica del suddetto parametro è cruciale nelle operazioni di copertura e gestione del rischio per i portafogli di opzioni. Avendo a disposizione un modello per la dinamica della volatilità implicita, è possibile calcolare in maniera consistente il vega risk. La dinamica è altrettanto importante per la copertura delle opzioni esotiche, quali le opzioni barrier. Per riuscire a raggiungere il fine predisposto, si considera un modello di mercato libero da arbitraggi, il processo spot continuo e alcune assunzioni di non degenerazione. Ciononostante, si cerca di fare meno assunzioni possibili circa la dinamica del suddetto processo, in modo da trattare un modello di mercato generale, in particolare non completo. Attraverso questo approccio si potrà constatare che dai prezzi delle Call si riescono a ricavare interessanti informazioni riguardanti lo spot. Infatti, a partire da alcune condizioni di regolarità, si riesce a ricavare la dinamica della volatilità spot, osservando la dinamica della volatilità implicita.
Resumo:
L’obbiettivo ultimo di questo elaborato è quello di valutare il rischio per un evento sismico e un evento idrogeologico di tre reti di condotte per la distribuzione dell’acqua, per poter assegnare ai vari gradi di rischio un opportuno intervento. Le condotte delle reti sono identificate con: ID, materiale, pressione nominale, diametro nominale, portata, spessore, tipologia di giunti, rivestimento, protezione catodica, anno di posa, collocazione. Noti i dati, si possono calcolare le classi dei fattori vulnerabilità, esposizione e pericolosità, relativa ad ogni singola condotta e all’intera rete. La vulnerabilità valuta i fattori di suscettibilità e resilienza di una condotta, l’esposizione valuta i costi ad essa associati e la pericolosità valuta la possibilità degli eventi scelti in base alla collocazione fisica della condotta. Le classi sono successivamente combinate per conoscere il rischio della condotta rispetto l’intera rete. Valutato il livello di rischio abbinato al livello di vulnerabilità della condotta, si ottiene l’intervento opportuno per la condotta analizzata.
Resumo:
In questa tesi si esamineranno alcune possibili vulnerabilità dei sistemi di riconoscimento di impronte digitali e si tenterà di migliorare la loro sicurezza nei confronti di una tipologia specifica di attacco che utilizza impronte digitali "artificiali" per permettere ad un criminale di utilizzare il documento di un complice. È stata infatti recentemente dimostrata la possibilità di inserire in un documento elettronico caratteristiche biometriche che lo rendono utilizzabile da due diverse persone. Questa problematica di sicurezza è alla base dell’attacco che verrà analizzato in questa tesi e per il quale si cercheranno contromisure efficaci.