483 resultados para Inferencia (Logica)
Resumo:
Includes index.
Resumo:
Includes bibliographical references and indexes.
Resumo:
Reprint of the 1903-1924 ed., published by B. G. Teubner, Leipzig
Resumo:
En trabajos anteriores (Romero, 2008a y b, Alabart Lago, L., P. Díaz y G. Herrera, 2012, Alabart Lago, L. y Herrera, G., 2013) se intentó mostrar que el mecanismo interpretativo que propone la TR podría resultar adecuado como uno de los sistemas externos (también interpretativos) postulados por la GG, más precisamente, el sistema llamado CI. La relación que intentamos establecer tendrá en cuenta lo siguiente como marco teórico: a) En TR se afirma que la interpretación de un enunciado se deriva de las estructuras sintácticas, y esta derivación se realiza "en paralelo" con la derivación de estructuras llevada a cabo por las operaciones del componente sintáctico. b) En las últimas propuestas de la GG, extensiones y revisiones del PM propuesto en Chomsky (1995) no solo se dejan de lado los niveles de representación internos SP y ES sino también se considera prescindible la interfaz FL (Chomsky, 2005). Las estructuras generadas se transfieren a los sistemas externos en cuanto rasgos formales de las Categorías Funcionales son valorados. Mantendremos la noción de que el sistema computacional es relativamente irrestricto y que sus operaciones son condicionadas solo por Atracción y las llamadas "condiciones de legibilidad" impuestas por los sistemas externos, fundamentalmente el Principio de Interpretación Completa (PIC). c) Tendremos en cuenta la propuesta de Leonetti y Escandell Vidal (2004), que sostiene que las CCFF de la GG pueden considerarse equivalentes a las Categoría Procedimentales propuestas por la TR. En este sentido consideraremos válida la afirmación de Chomsky (1998) acerca de que las CCFF centrales (C, T, v y D) tienen propiedades semánticas. d) Otro factor que tendremos en cuenta es la noción de fase en la derivación, considerándola correcta en los términos expuestos en Chomsky (2001 y 2005) y Gallego (2007 y 2009), con ciertas modificaciones. Nuestra hipótesis puede resumirse en lo siguiente: Las operaciones de extracción de inferencias propuestas por TR se aplican durante la derivación sintáctica independientemente de que se haya transferido o no una fase. Es más, esperamos poder demostrar que algunos mecanismos inferenciales imponen ciertas condiciones que afectan a la valoración de los rasgos de las CCFF. Pretendemos también intentar mostrar que además de los núcleos de fase reconocidos, C y v, debe considerarse fase a SD, porque contiene rasgos específicos de cuyo cotejo y valoración se desprende el valor que recibirán otros rasgos en el curso de la derivación. Con estos fundamentos esperamos poder elaborar una descripción de cómo interactúan ambos sistemas en la derivación de una oración y la asignación (casi simultánea) de significado
Resumo:
This paper describes how modern machine learning techniques can be used in conjunction with statistical methods to forecast short term movements in exchange rates, producing models suitable for use in trading. It compares the results achieved by two different techniques, and shows how they can be used in a complementary fashion. The paper draws on experience of both inter- and intra-day forecasting taken from earlier studies conducted by Logica and Chemical Bank Quantitative Research and Trading (QRT) group's experience in developing trading models.
Resumo:
Negli ultimi anni il crescere della capacità di calcolo dei dispositivi e il diminuire delle loro dimensioni ha permesso di far nascere idee innovative e di esplorare più in dettaglio alcuni settori. Uno di questi è sicuramente quello della realtà aumentata (Augmented reality), infatti, la discussione su questo argomento nasce già negli anni 40 del novecento, ma, per mancanza di mezzi tecnologici adeguati, solo ora si iniziano a realizzare le prime applicazioni che si basano su questa idea e il grande pubblico inizia ad interessarsi all'argomento. La costruzione di applicazioni di realtà aumentata, al momento, è basata sull'utilizzo di alcuni framework che mettono a disposizione dello sviluppatore alcune funzioni molto comuni in questi software, come il tracking di marker e l'utilizzo di bottoni virtuali. Questi strumenti, seppur comodi, non garantiscono sempre la buona progettazione dell'applicazione e tendono a unire insieme parti di logica applicativa e di grafica. Per questo motivo, anche nella ricerca, si stanno cercando di studiare dei metodi in grado di permettere una divisione ottimale dei compiti in modo da ottenere un software riusabile e facilmente mantenibile, ma che permetta anche di sfruttare appieno le potenzialità dell'AR attraverso, per esempio, sistemi distribuiti. Un framework concettuale che rientra in questa categoria è sicuramente quello degli Augmented Worlds, mondi virtuali collegati a quello fisico che ne incrementano le caratteristiche e le possibilità tramite la presenza di entità aumentate. La tesi, quindi, si propone di sviluppare un prototipo di un framework con le caratteristiche sopra citate di estendibilità, utilizzando le piattaforme in questo momento a disposizione e ispirandosi alla visione degli Augmented Worlds.
Resumo:
La tesi si pone come obiettivo quello di realizzare un'architettura di alto livello per lo sviluppo di applicazioni dirette alla piattaforma HoloLens. Per conseguire tale risultato si è rivelata necessaria una prima parte di studio dei concetti di mixed reality, con riferimento particolare al caso specifico HoloLens, per poi dirigere l'attenzione alla comprensione dell'architettura di applicazioni olografiche. L'analisi delle API rilasciate per lo sviluppo di applicazioni HoloLens ha permesso di riscontrare varie criticità, alle quali si è posto rimedio tramite l'introduzione di un livello di astrazione, che possa consentire uno sviluppo di applicazioni ad un livello più alto. Si è poi introdotto il concetto di augmented worlds (mondi aumentati), i cui principi cardine hanno fornito le basi per la progettazione e lo sviluppo di un sistema client-server, nel quale il dispositivo HoloLens agisce come un client e la logica di controllo degli elementi del modello dell'applicazione viene gestita lato server.
Resumo:
La tesi analizza la problematica del monitoraggio ambientale a basso costo, cercando di approfondirne le caratteristiche e studiando le situazioni in cui questo vi si adatta bene. Lo studio ha permesso di realizzare due tipologie di stazioni di raccolta dati, una dedicata alla misurazione delle polveri sottili, e una dedicata alla misurazione dell’acidità delle piogge. Entrambe le stazioni condividono la logica di funzionamento, quindi il “core” rimane lo stesso pur lavorando con dati estremamente diversi, mentre si distinguono per i due sensori utilizzati. In fase di test i sensori si sono dimostrati sufficientemente precisi lasciando ben sperare per la realizzazione di applicazioni in contesti reali simili a quelli considerati durante l’analisi. Le stazioni sono in grado di fornire dati geo-localizzati consultabili attraverso un portale web, è possibile visualizzare ogni stazione su una mappa ricevendo aggiornamenti sulle ultime misurazioni, inoltre si possono modellare i dati e visualizzarli su una serie di grafici. Una delle caratteristiche fondamentali che ha guidato tutta la progettazione è stata l’estendibilità del modello, la logica di funzionamento della stazione può essere facilmente implementata su tecnologie hardware e software diverse.
Resumo:
La tesi in oggetto affronta il problema di realizzare un circuito per la gestione della corrente di una batteria ricaricabile. Il circuito esegue fasi di carica e scarica a corrente costante e programmabile. La batteria impiegata nel sistema è considerata carica a 5 V e scarica a 3 V. Un'alimentazione di 15 V viene fornita da una fonte esterna. Per la progettazione del circuito di carica, viene studiato il transitorio della batteria da 3 V a 5 V. Il circuito di scarica effettua invece il comportamento opposto, facendo fluire corrente dalla batteria, che decresce da 5 V a 3 V, con il flusso di potenza diretto verso l'alimentazione esterna. Entrambe le fasi vengono effettuate in maniera programmabile: variando la tensione di un MOSFET a canale p viene fornita la corrente costante scelta in un intervallo che varia da 100 mA a 5 A, come richiesto dalle specifiche di progetto. Per selezionare in quale modalità deve operare il circuito, si è utilizzata una rete a pass transistor. I convertitori posti a monte del circuito e la logica pass transistor sono stati impiegati nel circuito per la loro semplicità di impiego. Tali scelte, in un secondo momento, potranno esser riviste per impiegare soluzioni migliori e più efficienti. Il circuito realizzato soddisfa le specifiche di progetto.
Resumo:
L’attenzione di questa tesi si pone sulla progettazione e lo sviluppo di un automa per il controllo di sistemi a pilotaggio remoto. Punto di partenza dell'intero progetto è stata l'analisi del quadrirotore programmato ed utilizzato dai ricercatori del progetto SHERPA. Le funzionalità evidenziate dall'analisi sono state poi elaborate secondo l'approccio con Attuatore Generalizzato ed implementate in Codesys. Questo software si compone di una parte di controllo, una di simulazione ed una o più interfacce grafiche dedicate all'interazione con l'utente. L'utilizzo di Codesys ha permesso di implementare un automa modulare e riusabile, base di partenza per i futuri progetti di automi aerei. L'automa realizzato consente infine di simulare il comportamento di un generico sistema a pilotaggio remoto e di osservarne la sequenza logica con cui le azioni vengono eseguite.
Resumo:
El concepto de Proteómica, acuñado en analogía al de Genómica, fue usado por primera vez por Marc Wilkins a mediados de los años 90 para describir al conjunto total de proteínas que se expresan por los genes de una célula, tejido u organismo. Anteriormente, a finales de los 80, el desarrollo de las técnicas de ionización suave, como la Ionización por Electrospray, ESI (Electrospray Ionization) o la Desorción Suave por Láser, SLD (Soft Laser Desorption), permitió ionizar grandes biomoléculas como los péptidos y proteínas manteniéndolas relativamente intactas. Esto sentó las bases de la espectrometría de masas aplicada a la proteómica. En la proteómica shotgun (el término inglés está muy asentado), el primer paso del experimento generalmente consiste en la digestión de las proteínas de la muestra en péptidos por acción de una enzima proteolítica como la tripsina. Esto incrementa notablmente el rendimiento en términos de número de proteínas que pueden ser identificadas en un sólo experimento comparado con los experimentos basados en gel. Sin embargo, tiene el coste asociado de provocar una gran complejidad de la mezcla de péptidos y el problema añadido de la inferencia de las proteínas originarias. Los péptidos son separados por cromatografía líquida e ionizados para entrar a continuación en el espectrómetro de masas donde son separados en función de la proporción entre su masa y su carga (m/z) y los valores obtenidos son registrados en un espectro MS1. En la espectrometría de masas en tándem (MS/MS), los péptidos con mayor intensidad son seleccionados para ser fragmentados de modo que se generan espectros MS/MS, colecciones de valores m/z y de intensidad para cada precursor y sus fragmentos...
Resumo:
Production processes and work organization in the cultural industries have been little discussed. For this reason, the study focuses on the production phases and the division of labor in technical and artistic branches in Argentine soap operas. There are six branches: production, direction, photography, art, sound and edition. We explain the branches, the workers involved and their function and activities. This research is based on a communicational perspective, the Political Economy of Communication and recovers contributions of the Sociology of Labour. From this combination, we attempt to provide elements of analysis to understand the functioning and organisation of daily television series. In the same way, we examine the creative work, the types of work redundant or random, the division of labour and the economies of time. The methodological approach is qualitative. In this way, the examination is based on the production of interviews with key actors of the sector and the documentary and bibliographical survey so as to systematize the data for the research.
Il modello di argomentazione di Toulmin nell’attivitá matematica degli studenti di scuola secondaria
Resumo:
Lo studio decritto in questo progetto di tesi ha avuto origine dalla volontà di analizzare l’atteggiamento di studenti di scuola superiore di I e II grado rispetto alla richiesta di fornire argomentazioni, di giustificare affermazioni o risultati ottenuti in ambito matematico. L’analisi quantitativa dei dati ottenuti sottoponendo gli studenti ad un questionario costituito da quesiti scelti in ambiti differenti tra le prove Invalsi ha evidenziato che solo una parte (36% per le superiori di I grado, 59% per le superiori di II grado) degli studenti che hanno risposto correttamente ai quesiti, è stata in grado di argomentare la risposta. L’analisi è stata a questo punto approfondita sulla base del modello di Toulmin e delle componenti del processo di argomentazione da lui descritte. Si è valutato per ogni argomentazione in quale o quali delle componenti toulminiane si sia concentrato l’errore. Ogni argomentazione considerata errata può infatti contenere errori differenti che possono riguardare una soltanto, diverse o tutte e quattro le componenti di Backing, Warrant, Data e Conclusion. L’informazione che ne è emersa è che nella maggioranza dei casi il fatto che uno studente di scuola superiore non riesca ad argomentare adeguatamente un’affermazione dipende dal richiamo errato di conoscenze sull'oggetto dell'argomentazione stessa ("Warrant" e "Backing"), conoscenze che dovrebbero supportare i passi di ragionamento. Si è infine condotta un’indagine sul terreno logico e linguistico dei passi di ragionamento degli studenti e della loro concatenazione, in modo particolare attraverso l’analisi dell’uso dei connettivi linguistici che esprimono e permettono le inferenze, e della padronanza logica delle concatenazioni linguistiche. Si è osservato per quanto riguarda le scuole superiori di I grado, che le difficoltà di argomentazione dovute anche a scarsa padronanza del linguaggio sono circa l’8% del totale; per le scuole superiori di II grado questa percentuale scende al 6%.
Resumo:
La tesi "Analisi del ciclo di lavorazione e dei costi di trattamenti termici" è stata svolta in collaborazione con l'azienda PASELLO TRATTAMENTI TERMICI s.r.l. che si occupa di trattamenti termici dei metalli per conto terzi. L’obiettivo è svolgere l’analisi del ciclo di lavorazione e dei costi di due prodotti ricevuti in conto lavoro dall’azienda, confrontando i trattamenti termici di cementazione in atmosfera e a bassa pressione. Nel capitolo 1 sono descritti i tratti generali dell’azienda, le risorse produttive di cui dispone e come vengono gestite l’identificazione e la tracciabilità dei prodotti durante il processo produttivo. Nel capitolo 2 viene analizzato il ciclo di lavorazione in atmosfera di un prodotto del cliente Sarbo Spa, sottoposto al trattamento termico di cementazione in atmosfera. Dunque vengono descritti il trattamento termico e le caratteristiche principali dei pezzi. Allo stesso modo, nel capitolo 3, viene analizzato il ciclo di lavorazione in bassa pressione di un prodotto del cliente Seven Diesel Spa, sottoposto al trattamento termico di cementazione a bassa pressione. Nel capitolo 4 viene svolta l’analisi dei costi, secondo la logica “full costing”, tenendo distinti i due ordini e determinando il costo industriale. Vengono analizzati gli investimenti nelle due linee, i costi di ammortamento, i costi dei materiali di consumo, i costi di manodopera e i costi dei gas di processo, fino a determinare il costo totale di fornata per la cementazione in atmosfera e per la cementazione a bassa pressione, e quindi l’euro al chilo e al pezzo dei due ordini. Inoltre è quantificata l’incidenza dei costi in percentuale sul costo totale di fornata. Nella conclusione viene sottolineato il fatto che, nonostante l’investimento in una linea innovativa come quella a bassa pressione sia superiore rispetto a quello per la linea in atmosfera, se si considera l’intero processo produttivo, risulta più conveniente la cementazione in bassa pressione.
Resumo:
Tale elaborato si pone l’obiettivo di analizzare una tematica oggigiorno molto discussa, ma tuttora per molti versi inesplorata: la sostenibilità. Esso è stato scritto con la volontà di rendere disponibile uno scritto di consultazione che fornisca una panoramica il più possibile completa sugli studi e le metodologie applicative elaborati fino ad ora connessi al tema della sostenibilità. La logica con cui lo scritto è articolato, prevede in primis un inquadramento generale sul tema della sostenibilità, fortemente connesso con il concetto di Life Cycle Thinking, e prosegue concentrando l’attenzione su aspetti via via più specifici. Il focus dell’analisi si concentra infatti sullo studio delle singole tecniche del ciclo di vita e successivamente sulle potenzialità di applicazione delle stesse ad uno specifico settore: quello edilizio. All’interno di questo settore è poi fornito un dettaglio in merito ai materiali ceramici per i quali si è intrapreso un serio percorso verso l’applicazione concreta dei principi dello sviluppo sostenibile. Per consolidare i temi trattati, l’elaborato si concentra infine sull’analisi di due studi applicativi: uno studio di Life Cycle Assessment e uno di Life Cycle Costing realizzati al fine di studiare i profili ambientale ed economico delle piastrelle ceramiche in contrapposizione a quelle in marmo.