300 resultados para Logica.
Resumo:
Tesi realizzata presso l’azienda Paglierani S.r.l. con sede a Torriana, per l’esigenza di studiare e ottimizzare dinamicamente il manipolatore “Antrop”. Dopo una breve descrizione dell’azienda e della sua storia, nel secondo capitolo sono racchiuse le informazioni più importanti e utili sulla robotica e sugli azionamenti elettrici, nozioni poi sfruttate durante lo svolgimento dell’elaborato stesso. Successivamente sono descritte in modo dettagliato il robot, le sue funzionalità e le sue caratteristiche meccaniche. Seguono l’analisi cinematica e l’analisi dinamica, suddivisa in due parti a causa della geometria cilindrica del manipolatore. Il sesto capitolo contiene il procedimento di mappatura e la logica con cui è stato scritto. Inoltre, vengono presentati i risultati dei test e le conseguenti considerazioni. Nel capitolo settimo è descritta la formulazione analitica delle sollecitazioni per le leve del robot e ne vengono raffigurati i risultati generali. L’ultimo capitolo è dedicato al bilanciamento statico con masse e molle.
Resumo:
Questa tesi riguarda la formula di Eulero per i poliedri: F - S + V = 2 dove F indica il numero di facce, S il numero di spigoli e V quello dei vertici di un poliedro. Nel primo capitolo tratteremo i risultati ottenuti da Cartesio: egli fu il primo a considerare non solo le caratteristiche geometriche ma anche metriche di un solido. Partendo dall'analogia con le figure piane, riuscì a ricavare importanti relazioni nei solidi convessi, riguardanti il numero e la misura degli angoli piani, degli angoli solidi e delle facce. Non arrivò mai alla formulazione conosciuta oggi ma ne intuì le caratteristiche topologiche, che però non dimostrò mai. Nel secondo capitolo invece ci occuperemo di ciò che scoprì Eulero. Il manoscritto contenente i risultati di Cartesio era scomparso e quindi questi non erano più conosciuti dai matematici; Eulero, in accordo con quanto avviene per i poligoni, desiderava ottenere un metodo di classificazione per i poliedri e si mise a studiare le loro proprietà. Oltre alla sua formula, in un primo articolo ricavò importanti relazioni, e in un secondo lavoro ne propose una dimostrazione. Riportiamo in breve anche un confronto tra il lavoro di Cartesio e quello di Eulero. Il terzo capitolo invece riguarda il metodo e il rigore nella formulazione di teoremi e dimostrazioni: I. Lakatos ne fa un esame critico nel libro "Dimostrazioni e Confutazioni - la logica della scoperta matematica", simulando una lezione dove a tema compaiono la Formula di Eulero e le sue dimostrazioni. Noi cercheremo di analizzare questo suo lavoro. Su questi tre autori e i loro lavori riportiamo alcune considerazioni biografiche e storiche che possono offrire interessanti spunti didattici: infatti nel quarto e ultimo capitolo ci occuperemo di alcune considerazioni didattiche a proposito della Formula. La struttura sarà quella di un'ipotetica lezione a studenti di Scuola Media Inferiore e utilizzeremo i risultati ottenuti nei precedenti capitoli e una personale esperienza di tirocinio.
Resumo:
Nell'elaborato si introduce il calcolo delle equazioni, un particolare linguaggio predicativo contenente come unico simbolo predicativo quello di uguaglianza. Vengono analizzate le funzioni derivabili in questo linguaggio: le funzioni ricorsive parziali e le funzioni ricorsive primitive. Si accenna al lambda-calcolo che è un particolare linguaggio con cui è possibile, per la sua semplicità, esprimere molte teorie, come quella del calcolo delle equazioni. Infine, si studiano i problemi legati alla ricorsività: il problema della fermata e il problema dell'indecidibilità della logica dei predicati.
Resumo:
L’obiettivo della presente dissertazione è quello di creare un nuovo linguaggio controllato, denominato Español Técnico Simplificado (ETS). Basato sulla specifica tecnica del Simplified Technical English (STE), ufficialmente conosciuta come ASD-STE100, lo spagnolo controllato ETS si presenta come un documento metalinguistico in grado di fornire ad un redattore o traduttore tecnico alcune regole specifiche per produrre un documento tecnico. La strategia di implementazione conduce allo studio preliminare di alcuni linguaggi controllati simili all’inglese STE, quali il Français Rationalisé e il Simplified Technical Spanish. Attraverso un approccio caratteristico della linguistica dei corpora, la soluzione proposta fornisce il nuovo linguaggio controllato mediante l’estrazione di informazioni specifiche da un corpus ad-hoc di lingua spagnola appositamente creato ed interrogato. I risultati evidenziano un metodo linguistico (controllato) utile a produrre documentazione tecnica priva di ogni eventuale ambiguità. Il sistema ETS, infatti, si fonda sul concetto della intelligibilità in quanto condizione necessaria da soddisfare nell’ambito della produzione di un testo controllato. E, attraverso la sua macrostruttura, il documento ETS fornisce gli strumenti necessari per rendere il testo controllato univoco. Infatti, tale struttura bipartita suddivide in maniera logica i dettami: una prima parte riguarda e contiene regole sintattiche e stilistiche; una seconda parte riguarda e contiene un dizionario di un numero limitato di lemmi opportunamente selezionati. Il tutto a favore del principio della biunivocità dei segni, in questo caso, della lingua spagnola. Il progetto, nel suo insieme, apre le porte ad un linguaggio nuovo in alternativa a quelli presenti, totalmente creato in accademia, che vale come prototipo a cui far seguire altri progetti di ricerca.
Resumo:
Per eseguire dei test automatizzati su una moto posta su banco a rulli, è necessario un software che permetta di gestire determinati attuatori sulla moto, in modo da poter simulare le condizioni di guida desiderate. Nel modello preso in esame, sono stati utilizzati Simulink e NI VeriStand. Simulink è un ambiente grafico di simulazione e analisi di sistemi dinamici completamente integrato con Matlab, caratterizzato dalla tipica interfaccia a blocchi, che possono essere personalizzati o scelti dalla libreria. Ni VeriStand è invece un ambiente software che permette di elaborare modelli scritti in Simulink in real time. Il presente lavoro è stato incentrato proprio su quest’ultimo aspetto. Per prima cosa è stata esaminata a fondo la parte del modello in Simulink, dopo di che è stata valutata la possibilità di riscrivere alcune parti del modello con un’applicazione interna a Simulink (StateFlow), che si potrebbe prestare meglio a simulare la logica di controllo rispetto a com’è gestita attualmente.
Resumo:
L’elaborato propone una riflessione rispetto all’atto giuridico del consenso informato quale strumento garante dell’esercizio del diritto alla salute per i migranti. Attraverso una riflessione antropologica rispetto alla natura, alla costruzione e alla logica dei diritti universali, verranno analizzate le normative nazionali, europee ed internazionali a tutela del diritto alla salute per i migranti; l’obiettivo della ricerca è indagare l’eventuale scarto tra normative e politiche garantiste nei confronti della salute migrante e l’esistenza di barriere strutturali che impediscono un pieno esercizio del diritto alla salute. L’ipotesi di ricerca si basa sulla reale capacità performativa del consenso informato, proposto solitamente sia come strumento volto ad assicurare la piena professionalità dell’operatore sanitario nell’informare il paziente circa i rischi e i benefici di un determinato trattamento sanitario, sia come garante del principio di autonomia. La ricerca, attraverso un’analisi quanti-qualitativa, ha interrogato il proprio campo, rappresentato da un reparto di ginecologia ed ostetrica, rispetto alle modalità pratiche di porre in essere la firma nei moduli del consenso informato, con particolare attenzione alle specificità proprie delle pazienti migranti. Attraverso l’osservazione partecipante è stato quindi possibile riflettere su aspetti rilevanti, quali le dinamiche quotidiane che vengono a crearsi tra personale sanitario e pazienti, le caratteristiche e i limiti del servizio di mediazione sanitaria, le azioni pratiche della medicina difensiva. In questo senso il tema del “consenso informato”, indagato facendo interagire discipline quali l’antropologia, la bioetica, la filosofia e la sociologia, si è posto sia come lente di lettura privilegiata per comprendere le dinamiche relazionali ad oggi esistenti tra professionisti sanitari e popolazione migrante, ancora vittima di diseguaglianze strutturali, ma altresì come “innesco potenziale” di nuove modalità di intendere la relazione medico-paziente.
Resumo:
La tesi di ricerca si propone di indagare il riflesso che i principi/valori producono sul parametro nel sindacato di legittimità costituzionale, al fine di verificarne le implicazioni sulla legalità, in termini di prevedibilità e certezza. In particolare, delineata la connessione tra principi e valori costituzionali e, ricostruito, secondo la teoria dell'ordinamento, il rapporto tra valori e normatività,si analizzano i riflessi prodotti, sul piano interpretativo, dall’apertura del parametro costituzionale alla logica dei valori, enfatizzandone le ricadute sul controllo di costituzionalità delle leggi. Identificato il nesso tra principi e valori nella capacità funzionale dei primi di realizzare i diritti fondamentali, si è inteso rimarcare come la più estesa realizzazione dei principi-valori costituzionali potrebbe compiersi a spese della legge e della certezza del diritto, in una relazione inversamente proporzionale. Ciò apparirebbe evidente dall’ottica privilegiata della materia penale, per cui una legalità materiale, letta alla luce di criteri di adeguatezza e di ragionevole proporzione, seppur vicina alle esigenze di giustizia del caso concreto, se spinta in eccessi interpretativi rischia di invadere il campo del legislatore, unico deputato a compiere scelte di valore.
Resumo:
Negli ultimi anni, l’introduzione di tipologie alternative di dettato ha permesso di superare il dettato tradizionale, un esercizio che opprimeva gli studenti, angosciati dal timore dell’errore, segno indelebile che sanziona la mancata acquisizione di una regola ortografica, e scoraggiati a migliorare per l’inappropriata constatazione di colpevolezza, e che, in quanto tale, rischiava di essere eliminato dall'istituzione scolastica. Le nuove tipologie di dettato, contraddistinte da specifiche finalità e caratterizzate da modalità innovative, consentono, infatti, di rivalutare questo esercizio: da mero strumento di valutazione, diviene un pratico momento di apprendimento. L’errore non è più considerato come il marchio che, agli occhi dell’insegnante, contrassegna in modo permanente l’alunno. La nozione di positività che si associa all'errore riconosce lo sforzo compiuto dall'alunno nel ricorrere alle conoscenze linguistiche in suo possesso poiché, seppure il suo ragionamento non abbia portato a scegliere la forma ortografica corretta, l’attività mentale, che implicitamente ha voluto creare una connessione logica tra aspetti linguistici distinti, testimonia che lo studio della lingua non è e non richiede unicamente un ingente lavoro di memorizzazione, diversamente da ciò che si è sempre creduto. L’insegnante è dunque chiamato ad affiancare lo studente guidandolo nell'analisi dei singoli passaggi del suo ragionamento per indicare come dovrà risolvere il problema, in una futura occorrenza di quella espressione, e arrivare così ad automatizzare le conoscenze linguistiche. Inoltre, la recente valorizzazione del dettato ha attribuito altri pregi a questo insegnamento, quali l'acquisizione essenziale del rigore, della fiducia in se stessi e della modestia.
Resumo:
The uncertainties in the determination of the stratigraphic profile of natural soils is one of the main problems in geotechnics, in particular for landslide characterization and modeling. The study deals with a new approach in geotechnical modeling which relays on a stochastic generation of different soil layers distributions, following a boolean logic – the method has been thus called BoSG (Boolean Stochastic Generation). In this way, it is possible to randomize the presence of a specific material interdigitated in a uniform matrix. In the building of a geotechnical model it is generally common to discard some stratigraphic data in order to simplify the model itself, assuming that the significance of the results of the modeling procedure would not be affected. With the proposed technique it is possible to quantify the error associated with this simplification. Moreover, it could be used to determine the most significant zones where eventual further investigations and surveys would be more effective to build the geotechnical model of the slope. The commercial software FLAC was used for the 2D and 3D geotechnical model. The distribution of the materials was randomized through a specifically coded MatLab program that automatically generates text files, each of them representing a specific soil configuration. Besides, a routine was designed to automate the computation of FLAC with the different data files in order to maximize the sample number. The methodology is applied with reference to a simplified slope in 2D, a simplified slope in 3D and an actual landslide, namely the Mortisa mudslide (Cortina d’Ampezzo, BL, Italy). However, it could be extended to numerous different cases, especially for hydrogeological analysis and landslide stability assessment, in different geological and geomorphological contexts.
Resumo:
The aim of this thesis is to investigate the nature of quantum computation and the question of the quantum speed-up over classical computation by comparing two different quantum computational frameworks, the traditional quantum circuit model and the cluster-state quantum computer. After an introductory survey of the theoretical and epistemological questions concerning quantum computation, the first part of this thesis provides a presentation of cluster-state computation suitable for a philosophical audience. In spite of the computational equivalence between the two frameworks, their differences can be considered as structural. Entanglement is shown to play a fundamental role in both quantum circuits and cluster-state computers; this supports, from a new perspective, the argument that entanglement can reasonably explain the quantum speed-up over classical computation. However, quantum circuits and cluster-state computers diverge with regard to one of the explanations of quantum computation that actually accords a central role to entanglement, i.e. the Everett interpretation. It is argued that, while cluster-state quantum computation does not show an Everettian failure in accounting for the computational processes, it threatens that interpretation of being not-explanatory. This analysis presented here should be integrated in a more general work in order to include also further frameworks of quantum computation, e.g. topological quantum computation. However, what is revealed by this work is that the speed-up question does not capture all that is at stake: both quantum circuits and cluster-state computers achieve the speed-up, but the challenges that they posit go besides that specific question. Then, the existence of alternative equivalent quantum computational models suggests that the ultimate question should be moved from the speed-up to a sort of “representation theorem” for quantum computation, to be meant as the general goal of identifying the physical features underlying these alternative frameworks that allow for labelling those frameworks as “quantum computation”.
Resumo:
L'interrogativo da cui nasce la ricerca riguarda la possibilità di individuare, in controtendenza con la logica neoliberista, strategie per l'affermarsi di una cultura dello sviluppo che sia sostenibile per l'ambiente e rispettosa della dignità delle persone, in grado di valorizzarne le differenze e di farsi carico delle difficoltà che ognuno può incontrare nel corso della propria esistenza. Centrale è il tema del lavoro, aspetto decisivo delle condizioni di appartenenza sociale e di valorizzazione delle risorse umane. Vengono richiamati studi sulla realtà in cui siamo immersi, caratterizzata dal pensiero liberista diventato negli ultimi decenni dominante su scala globale e che ha comportato una concezione delle relazioni sociali basata su di una competitività esasperata e sull’esclusione di chi non sta al passo con le leggi di mercato: le conseguenze drammatiche dell'imbroglio liberista; la riduzione delle persone a consumatori; la fuga dalla comunità ed il rifugio in identità separate; il tempo del rischio, della paura e della separazione fra etica e affari. E gli studi che, in controtendenza, introducono a prospettive di ricerca di uno sviluppo inclusivo e umanizzante: le prospettive della decrescita, del business sociale, di una via cristiana verso un'economia giusta, della valorizzazione delle capacità delle risorse umane. Vengono poi indagati i collegamenti con le esperienze attive nel territorio della città di Bologna che promuovono, attraverso la collaborazione fra istituzioni, organizzazioni intermedie e cittadini, occasioni di un welfare comunitario che sviluppa competenze e diritti insieme a responsabilità: l'introduzione delle clausole sociali negli appalti pubblici per la realizzazione professionale delle persone svantaggiate; la promozione della responsabilità sociale d'impresa per l'inclusione socio-lavorativa; la valorizzazione delle risorse delle persone che vivono un’esperienza carceraria. Si tratta di esperienze ancora limitate, ma possono costituire un riferimento culturale e operativo di un modello di sviluppo possibile, che convenga a tutti, compatibile con i limiti ambientali e umanizzante.
Resumo:
L'assistenza sanitaria in Italia e nel mondo è caratterizzata da bisogni elevati in continua crescita, ad essi si contrappone l'attuale crisi delle risorse economiche determinando per il Sistema una valutazione di scelte quali la riduzione o la rimodulazione dell'offerta sanitaria pubblica. L'idea di questo lavoro, nata all'interno dell'Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori (IRST) IRCCS, è di approcciare questo problema in ottica di miglioramento delle performance anziché riduzione dei servizi, nella convinzione che vi siano importanti margini di perfezionamento. Per questi motivi si è valutata la necessità di sviluppare un metodo e un'applicazione software per l'identificazione dei percorsi diagnostici terapeutici assistenziali (PDTA), per la raccolta di dati dalle strutture coinvolte, per l'analisi dei costi e dei risultati, mirando ad una analisi di tipo costi - efficacia e di benchmarking in ottica di presa in carico dei bisogni di salute. La tesi descrive la fase di raccolta e analisi dei requisiti comprensiva della profilazione utenti e descrizione di alcuni aspetti dinamici salienti, la fase di progettazione concettuale (schema Entity/Relationship, glossario e volumi dei dati), la fase di progettazione logica e la prototipazione dell'interfaccia utente. Riporta inoltre una valutazione dei tempi di sviluppo realizzata tramite metodologia di calcolo dei punti per caso d'uso. L'applicazione progettata è oggetto di valutazione di fattibilità presso l'IRST, che ha utilizzato alcune delle metodologie descritte nella tesi per descrivere il percorso di patologia mammaria e presentarne i primi risultati all'interno di un progetto di ricerca in collaborazione con l'Agenzia Nazionale per i Servizi Sanitari Regionali (Agenas).
Resumo:
In questa tesi si intende presentare le logiche proposizionali polivalenti con alcuni esempi: esse sono estensioni dalla logica classica a insiemi (in generale ancora finiti come in questa tesi) di valori di verità maggiori di due. La sintassi è la stessa ma non la semantica, rappresentata però sempre da tavole di verità o interpretazioni. Nel primo capitolo sono presentate le definizioni e gli elementi della logica classica che serviranno per studiare questo nuovo tipo di logiche. Nel secondo capitolo è esposto l'esempio di una logica a quattro valori. Si dimostra la completezza di questo calcolo, in una forma diversa rispetto alla logica classica usando tecniche simili. Non valgono infatti il principio del terzo escluso e la Legge di Lewis. Si analizza la validità delle regole del calcolo della deduzione naturale e la riscrittura delle leggi di De Morgan. Nell'ultimo capitolo si affrontano le logiche a n valori con n>2 e varianti a tre valori (vero, falso e indefinito) con i principali esempi di Lukasiewicz-Tarski, Kleene, Priest e Bochvar. Nelle conclusioni si ricordano alcune applicazioni di questo tipo di logiche facendo riferimento alla meccanica quantistica, all'informatica e all'elettronica.
Resumo:
All'interno del presente elaborato vengono illustrate le scelte progettuali e l'implementazione del frontend dell'applicazione "LogicPlayer", un'App didattica per la risoluzione di alberi di Deduzione Naturale realizzata per sistemi Android
Resumo:
Questo elaborato di tesi illustra la realizzazione del back-end di LogicPlayer, un'app Android per la didattica della Deduzione Naturale