999 resultados para la machine de Helmholtz bidirectionnelle
Resumo:
Programa de doctorado: Tecnología industrial
Resumo:
En los últimos años han surgido nuevos campos de las tecnologías de la información que exploran el tratamiento de la gran cantidad de datos digitales existentes y cómo transformarlos en conocimiento explícito. Las técnicas de Procesamiento del Lenguaje Natural (NLP) son capaces de extraer información de los textos digitales presentados en forma narrativa. Además, las técnicas de machine learning clasifican instancias o ejemplos en función de sus atributos, en distintas categorías, aprendiendo de otros previamente clasificados. Los textos clínicos son una gran fuente de información no estructurada; en consecuencia, información no explotada en su totalidad. Algunos términos usados en textos clínicos se encuentran en una situación de afirmación, negación, hipótesis o histórica. La detección de esta situación es necesaria para la estructuración de información, pero a su vez tiene una gran complejidad. Extrayendo características lingüísticas de los elementos, o tokens, de los textos mediante NLP; transformando estos tokens en instancias y las características en atributos, podemos mediante técnicas de machine learning clasificarlos con el objetivo de detectar si se encuentran afirmados, negados, hipotéticos o históricos. La selección de los atributos que cada token debe tener para su clasificación, así como la selección del algoritmo de machine learning utilizado son elementos cruciales para la clasificación. Son, de hecho, los elementos que componen el modelo de clasificación. Consecuentemente, este trabajo aborda el proceso de extracción de características, selección de atributos y selección del algoritmo de machine learning para la detección de la negación en textos clínicos en español. Se expone un modelo para la clasificación que, mediante el algoritmo J48 y 35 atributos obtenidos de características lingüísticas (morfológicas y sintácticas) y disparadores de negación, detecta si un token está negado en 465 frases provenientes de textos clínicos con un F-Score del 73%, una exhaustividad del 66% y una precisión del 81% con una validación cruzada de 10 iteraciones. ---ABSTRACT--- New information technologies have emerged in the recent years which explore the processing of the huge amount of existing digital data and its transformation into knowledge. Natural Language Processing (NLP) techniques are able to extract certain features from digital texts. Additionally, through machine learning techniques it is feasible to classify instances according to different categories, learning from others previously classified. Clinical texts contain great amount of unstructured data, therefore information not fully exploited. Some terms (tokens) in clinical texts appear in different situations such as affirmed, negated, hypothetic or historic. Detecting this situation is necessary for the structuring of this data, however not simple. It is possible to detect whether if a token is negated, affirmed, hypothetic or historic by extracting its linguistic features by NLP; transforming these tokens into instances, the features into attributes, and classifying these instances through machine learning techniques. Selecting the attributes each instance must have, and choosing the machine learning algorithm are crucial issues for the classification. In fact, these elements set the classification model. Consequently, this work approaches the features retrieval as well as the attributes and algorithm selection process used by machine learning techniques for the detection of negation in clinical texts in Spanish. We present a classification model which, through J48 algorithm and 35 attributes from linguistic features (morphologic and syntactic) and negation triggers, detects whether if a token is negated in 465 sentences from historical records, with a result of 73% FScore, 66% recall and 81% precision using a 10-fold cross-validation.
Resumo:
Programa de doctorado: Tecnología Industrial. La fecha de publicación es la fecha de lectura.
Resumo:
Le tecniche di Machine Learning sono molto utili in quanto consento di massimizzare l’utilizzo delle informazioni in tempo reale. Il metodo Random Forests può essere annoverato tra le tecniche di Machine Learning più recenti e performanti. Sfruttando le caratteristiche e le potenzialità di questo metodo, la presente tesi di dottorato affronta due casi di studio differenti; grazie ai quali è stato possibile elaborare due differenti modelli previsionali. Il primo caso di studio si è incentrato sui principali fiumi della regione Emilia-Romagna, caratterizzati da tempi di risposta molto brevi. La scelta di questi fiumi non è stata casuale: negli ultimi anni, infatti, in detti bacini si sono verificati diversi eventi di piena, in gran parte di tipo “flash flood”. Il secondo caso di studio riguarda le sezioni principali del fiume Po, dove il tempo di propagazione dell’onda di piena è maggiore rispetto ai corsi d’acqua del primo caso di studio analizzato. Partendo da una grande quantità di dati, il primo passo è stato selezionare e definire i dati in ingresso in funzione degli obiettivi da raggiungere, per entrambi i casi studio. Per l’elaborazione del modello relativo ai fiumi dell’Emilia-Romagna, sono stati presi in considerazione esclusivamente i dati osservati; a differenza del bacino del fiume Po in cui ai dati osservati sono stati affiancati anche i dati di previsione provenienti dalla catena modellistica Mike11 NAM/HD. Sfruttando una delle principali caratteristiche del metodo Random Forests, è stata stimata una probabilità di accadimento: questo aspetto è fondamentale sia nella fase tecnica che in fase decisionale per qualsiasi attività di intervento di protezione civile. L'elaborazione dei dati e i dati sviluppati sono stati effettuati in ambiente R. Al termine della fase di validazione, gli incoraggianti risultati ottenuti hanno permesso di inserire il modello sviluppato nel primo caso studio all’interno dell’architettura operativa di FEWS.
Resumo:
Negli ultimi anni, a causa della crescente tendenza verso i Big Data, l’apprendimento automatico è diventato un approccio di previsione fondamentale perché può prevedere i prezzi delle case in modo accurato in base agli attributi delle abitazioni. In questo elaborato, verranno messe in pratica alcune tecniche di machine learning con l’obiettivo di effettuare previsioni sui prezzi delle abitazioni. Ad esempio, si può pensare all’acquisto di una nuova casa, saranno tanti i fattori di cui si dovrà preoccuparsi, la posizione, i metri quadrati, l’inquinamento dell’aria, il numero di stanze, il numero dei bagni e così via. Tutti questi fattori possono influire in modo più o meno pesante sul prezzo di quell’abitazione. E’ proprio in casi come questi che può essere applicata l’intelligenza artificiale, nello specifico il machine learning, per riuscire a trovare un modello che approssimi nel miglior modo un prezzo, data una serie di caratteristiche. In questa tesi verrà dimostrato come è possibile utilizzare l’apprendimento automatico per effettuare delle stime il più preciso possibile dei prezzi delle case. La tesi è divisa in 5 capitoli, nel primo capitolo verranno introdotti i concetti di base su cui si basa l’elaborato e alcune spiegazioni dei singoli modelli. Nel secondo capitolo, invece, viene trattato l’ambiente di lavoro utilizzato, il linguaggio e le relative librerie utilizzate. Il terzo capitolo contiene un’analisi esplorativa sul dataset utilizzato e vengono effettuate delle operazioni per preparare i dati agli algoritmi che verranno applicati in seguito. Nel capitolo 4 vengono creati i diversi modelli ed effettuate le previsioni sui prezzi mentre nel capitolo 5 vengono analizzati i risultati ottenuti e riportate le conclusioni.
Resumo:
Il tema della biodiversità sta assumendo sempre più importanza negli ultimi decenni a causa delle condizioni di rischio, dovute alle attività umane, a cui l'intero mondo naturale è costantemente sottoposto. In questo contesto diventa sempre più importante l'educazione ambientale per aumentare la consapevolezza delle persone e per far si che ognuno possa adottare i dovuti accorgimenti nel rispetto e nella preservazione della natura. Questo progetto nasce con l'obiettivo di approfondire il tema della sensibilizzazione, attraverso lo sviluppo di una applicazione nativa android in grado di classificare gli insetti impollinatori e che, grazie all'integrazione di elementi di gamification, sia in grado di motivare l'utente ad approfondire le proprie conoscenze. Il progetto di tesi è suddiviso in tre capitoli: il primo descrive i concetti di biodiversità, gamification e citizen science su cui si basa l'elaborato; il secondo capitolo rappresenta la fase di progettazione per strutturare il database, le interfacce grafiche e per capire le tecnologie migliore da utilizzare; infine il terzo capitolo mostra l'implementazione completa del progetto, descrivendone nel dettaglio le funzionalità.
Resumo:
Il mio progetto di tesi ha come obiettivo quello di creare un modello in grado di predire il rating delle applicazioni presenti all’interno del Play Store, uno dei più grandi servizi di distribuzione digitale Android. A tale scopo ho utilizzato il linguaggio Python, che grazie alle sue librerie, alla sua semplicità e alla sua versatilità è certamen- te uno dei linguaggi più usati nel campo dell’intelligenza artificiale. Il punto di partenza del mio studio è stato il Dataset (Insieme di dati strutturati in forma relazionale) “Google Play Store Apps” reperibile su Kaggle al seguente indirizzo: https://www.kaggle.com/datasets/lava18/google-play-store-apps, contenente 10841 osservazioni e 13 attributi. Dopo una prima parte relativa al caricamen- to, alla visualizzazione e alla preparazione dei dati su cui lavorare, ho applica- to quattro di↵erenti tecniche di Machine Learning per la stima del rating delle applicazioni. In particolare, sono state utilizzate:https://www.kaggle.com/datasets/lava18/google-play-store-apps, contenente 10841 osservazioni e 13 attributi. Dopo una prima parte relativa al caricamento, alla visualizzazione e alla preparazione dei dati su cui lavorare, ho applicato quattro differenti tecniche di Machine Learning per la stima del rating delle applicazioni: Ridje, Regressione Lineare, Random Forest e SVR. Tali algoritmi sono stati applicati attuando due tipi diversi di trasformazioni (Label Encoding e One Hot Encoding) sulla variabile ‘Category’, con lo scopo di analizzare come le suddette trasformazioni riescano a influire sulla bontà del modello. Ho confrontato poi l’errore quadratico medio (MSE), l’errore medio as- soluto (MAE) e l’errore mediano assoluto (MdAE) con il fine di capire quale sia l’algoritmo più efficiente.
Resumo:
Descrizione, implementazione in Python e valutazione di modelli di Machine Learning e di tutte le sue fasi di Preprocessing, EDA, Training, Test e Evaluation, per valutare la qualità del vino attraverso le sue caratteristiche fisico-chimiche.
Resumo:
El presente proyecto se propone como parte inicial de una investigación sobre la relación entre naturaleza/cultura/técnica. Tradicionalmente la naturaleza y la cultura se han considerado como ámbitos diferenciados y opuestos. Y es en esta distinción donde la técnica adquiere un lugar central. El pensamiento occidental sobre la técnica ha recibido diversas interpretaciones: desde una subordinación con respecto al conocimiento verdadero (episteme) en la filosofía clásica, un optimismo sobre la técnica como posibilidad de dominación de la naturaleza en el Renacimiento y la Ilustración, y la ambigüedad y desasosiego romántico (Mitcham, 1979). Durante el siglo XX se distinguen dos posiciones antagónicas sobre la técnica. Por un lado, una actitud “crítica” donde pueden identificarse los trabajos de filósofs de diferentes tradiciones como Ortega y Gasset (1939), Heidegger (1954), Mumford (1971) Ellul (1960) y la Escuela de Frankfurt. Por otro lado, una filosofía de la técnica “ingenieril” que consiste en el análisis de la tecnología como un paradigma de pensamiento y acción humana. Esta dicotomía ha sido interpretada por Eco como “apocalípticos e integrados”. Más allá de las mencionadas diferencias, lo que tienen en común ambas posiciones es que parten de una dicotomía entre cultura y naturaleza. Nuestra perspectiva rechaza esta dicotomía, por el contrario, evidenciamos una creciente imbricación entre ambas donde las fronteras entre una y otra se hacen difusas. La noción de “objeto técnico” propuesta por Simondon (2007) hace referencia a la inserción del objeto técnico en la cultura, donde debe reconocerse la “realidad humana” presente en el mismo. Ahora bien, esto no significa “humanizar el objeto técnico”, sino más bien indagar sobre el lugar que este ocupa en la cultura como también establecer su relación con la naturaleza. En el siglo XVII el hombre mismo es reinterpretado como máquina (La Mettrie, 2000). En la actualidad pueden identificarse dos tendencias en la concepción de la técnica: los «humanos-máquinas» y las «máquinas-humanas», en otras palabras, la disposición del humano hacia la máquina y la tendencia de la máquina hacia lo humano. No obstante, ambas posiciones siguen manteniendo una distinción taxonómica entre el cuerpo –o lo orgánico- y lo maquínico, lo que implica una consideración de esta relación de manera extrínseca. Frente a esta tensión Haraway propone el concepto de cyborg: «un organismo cibernético» (1995). Los desarrollos tecnológicos han producido una modificación tal en la vida de los seres orgánicos en los cuales ya no puede concebirse su cuerpo independientemente de la tecnología. Esto conduce a replantear la distinción entre “animales/hombres/máquinas”, entendiendo a los mismos como expresiones de naturaleza, cultura y tecnología respectivamente. Nuestra investigación parte de la hipótesis que la técnica diluye diferencias de orden natural y cultural a través de los objetos técnicos que son productos culturales. La estética se ocupa de la percepción sensible del mundo no puede eludir su dimensión técnica. Al margen de la crítica a la “Industria cultural” consideramos relevante la aproximación de Benjamin al problema de la técnica porque aborda la imbricación antes mencionada en el campo de la percepción. Según Benjamin la irrupción de la técnica al mismo tiempo que posibilita una estetización de la política que confluye en el fascismo como punto extremo también abre la posibilidad de desmontar la ideología del progreso infinito (1967). Una integración entre aproximaciones estéticas y políticas a la técnica Flusser (1983) propone la “caja negra” como metáfora de la técnica contemporánea. Su propuesta es la “apertura de la caja negra” que consiste en tomar conocimiento del funcionamiento del dispositivo. Nuestra propuesta de investigación aborda la técnica desde una consideración filosófica/estética/política, donde redefiniremos la técnica partiendo de la imbricación entre cultura y naturaleza. This project will set the basis for a sustained research on the relation nature/culture/technique. They have been traditionally considered as separate and even opposite fields. And it is on the brink of this distinction where technique plays a central role. In Western thought technique has received many interpretations since the beginnings of philosophy: from a subordination to true knowledge (episteme) in classic philosophy, or the optimism which sees in technique the possibility of dominating nature in the Renaissance and in the Enlightenment, to the Romantic ambiguity and uneasiness towards technological change (Mitcham, 1979). During the twentieth century two opposed approach on technique prevail. On one hand, a “critical” attitude such defines the work of philosophers of different traditions such as Ortega y Gasset (1939), Heidegger (1954), Mumford (1971) Ellul (1960) and the Frankfurt School. On the other hand there is an “engineering” philosophy of technique that consists in the analisis of technology as a paradigm to understand human action and thought. Besides their differences, both positions have in common a dichotomy between nature and culture. We reject such dichotomy. On the contrary we consider there is a growing intertwinement between both which blurs the borders of the concepts. Simondon’s notion of “technical object” refers to the insertion of the technique in culture where the “human reality” in it must be recognised. This does not imply “humanising the technical object”, but investigate on the role it plays on culture and establishing its relation to nature. To articulate this relation we will work with unorthodox approaches on technique such as Benjamin (1967), Flusser (1983) and others. The hypothesis of our project is that the traditional distinction of “animal/man/machine” must be re-thought, therefore raising the question on the blurring line between nature, culture and technique and its effects in philosophy, politics and aesthetics.
Resumo:
Informe de investigación realizado a partir de una estancia en el Équipe de Recherche en Syntaxe et Sémantique de la Université de Toulouse-Le Mirail, Francia, entre julio y setiembre de 2006. En la actualidad existen diversos diccionarios de siglas en línea. Entre ellos sobresalen Acronym Finder, Abbreviations.com y Acronyma; todos ellos dedicados mayoritariamente a las siglas inglesas. Al igual que los diccionarios en papel, este tipo de diccionarios presenta problemas de desactualización por la gran cantidad de siglas que se crean a diario. Por ejemplo, en 2001, un estudio de Pustejovsky et al. mostraba que en los abstracts de Medline aparecían mensualmente cerca de 12.000 nuevas siglas. El mecanismo de actualización empleado por estos recursos es la remisión de nuevas siglas por parte de los usuarios. Sin embargo, esta técnica tiene la desventaja de que la edición de la información es muy lenta y costosa. Un ejemplo de ello es el caso de Abbreviations.com que en octubre de 2006 tenía alrededor de 100.000 siglas pendientes de edición e incorporación definitiva. Como solución a este tipo de problema, se plantea el diseño de sistemas de detección y extracción automática de siglas a partir de corpus. El proceso de detección comporta dos pasos; el primero, consiste en la identificación de las siglas dentro de un corpus y, el segundo, la desambiguación, es decir, la selección de la forma desarrollada apropiada de una sigla en un contexto dado. En la actualidad, los sistemas de detección de siglas emplean métodos basados en patrones, estadística, aprendizaje máquina, o combinaciones de ellos. En este estudio se analizan los principales sistemas de detección y desambiguación de siglas y los métodos que emplean. Cada uno se evalúa desde el punto de vista del rendimiento, medido en términos de precisión (porcentaje de siglas correctas con respecto al número total de siglas extraídas por el sistema) y exhaustividad (porcentaje de siglas correctas identificadas por el sistema con respecto al número total de siglas existente en el corpus). Como resultado, se presentan los criterios para el diseño de un futuro sistema de detección de siglas en español.
Resumo:
Treball de recerca realitzat per un alumne d'ensenyament secundari i guardonat amb un Premi CIRIT per fomentar l'esperit científic del Jovent l'any 2009. Aquest treball tracta sobre el temps de garantia o de vida útil d’un producte alimentari i està basat en esbrinar quin és el millor mètode o envàs per conservar el pernil cuit llescat durant la seva vida útil, per tal que es mantinguin les propietats organolèptiques i microbiològiques inicials de l’aliment durant el màxim de temps possible. Per comparar envasos he utilitzat els industrials (envàs al buit i envàs en atmosfera) i els envasos que podem trobar quan comprem un producte llescat en el mostrador d’una botiga o supermercat. Per a fer l’estudi doncs s’ha utilitzat el pernil cuit, conegut com a pernil dolç, un dels productes més consumits per la societat actual. El pernil ha estat tractat en tres situacions diferents: llescat en una màquina de carnisseria i envasat en mètodes de conservació domèstics, llescat en màquines industrials i envasat en diferents envasos (al buit i en atmosfera modificada) utilitzats per les grans empreses i llescat en màquines industrials i envasat al buit sotmès a un tractament amb altes pressions. Després d’aquests processos s’ha realitzat un estudi de vida útil, és a dir, s’ha analitzat el producte al laboratori, amb l’objectiu de trobar quin és el millor envàs per a la conservació del pernil cuit.