999 resultados para lineare Programmierung, zertifizierte Lösbarkeit, sichere Zielfunktionswertschranke, SMT Löser, ICP
Resumo:
Statistical machine translation (SMT) is an approach to Machine Translation (MT) that uses statistical models whose parameter estimation is based on the analysis of existing human translations (contained in bilingual corpora). From a translation student’s standpoint, this dissertation aims to explain how a phrase-based SMT system works, to determine the role of the statistical models it uses in the translation process and to assess the quality of the translations provided that system is trained with in-domain goodquality corpora. To that end, a phrase-based SMT system based on Moses has been trained and subsequently used for the English to Spanish translation of two texts related in topic to the training data. Finally, the quality of this output texts produced by the system has been assessed through a quantitative evaluation carried out with three different automatic evaluation measures and a qualitative evaluation based on the Multidimensional Quality Metrics (MQM).
Resumo:
En la hipótesis de trabajo del presente proyecto se considera la importancia del metabolismo de lípidos y proteínas en los insectos hematófagos, en particular en los vectores de la enfermedad de Chagas, para afrontar exitosamente la demanda energética de la reproducción. Las hembras de estas especies pueden ingerir una comida de sangre abundante en lípidos y proteínas, los que son modificados en el intestino para su utilización y posterior almacenamiento en estructuras organizadas en el tejido ovárico, sustentando así el rápido crecimiento de los ovocitos. Estos aspectos resultan críticos para el ciclo de vida del insecto y para el mantenimiento de la cadena epidemiológica de la enfermedad. En estas especies, recientemente hemos caracterizado a nivel bioquímico y celular la interacción entre lipoproteínas y tejidos [Fruttero y col., Insect Biochem. Mol. Biol. 39: 322-331 (2009); Fruttero y col. Biocel 33 (3): 260 (2009)] y las fases del ciclo reproductivo [Aguirre y col., J. Insect Physiol. 54: 393-402 (2008)]. No obstante, los factores que participan en su regulación son aún escasamente conocidos. En este contexto, el estudio propone emplear dos especies de triatominos con el objeto de: (1) caracterizar los factores involucrados en la formación y regulación de reservas nutricionales en los ovocitos; (2) analizar los eventos que participan en la regresión del tejido ovárico: atresia folicular y mecanismos de muerte celular. (3) evaluar el impacto de productos naturales (ureasas vegetales y péptidos derivados) en el desarrollo del tejido ovárico. Para la ejecución de los objetivos se llevarán a cabo ensayos in vivo e in vitro con trazadores fluorescentes, fraccionamiento subcelular, estudios de expresión de proteínas (mRNA y proteína), estudios histo-morfológicos, ultraestructurales e inmunocitoquímicos, microscopía láser confocalizada, ensayos de actividad enzimática, ELISA, western-blot, electroforesis bidimensional, espectrometria de masas en tándem, etc. También se evaluarán los mecanismos de muerte celular (apoptosis/autofagia) mediante microscopía electrónica, detección de apoptosis in situ (TUNEL), inmunofluorescencia, etc. Los resultados obtenidos permitirán un mejor conocimiento sobre la fisiología y bioquímica de estos vectores, los que resultan indispensables en el diseño de nuevas estrategias para su control. Debido a la carencia de un tratamiento específico para la enfermedad y a la falta de métodos preventivos (vacuna), el control del vector es una de las vías más importantes para reducir la incidencia de la enfermedad. Actualmente, la situación socio-económica que sufren amplios núcleos de nuestra población propicia condiciones de vida que facilitan la reproducción de los vectores y la transmisión vectorial del parásito. El estudio permitirá además explorar aspectos bioquímicos y celulares básicos, generando conocimientos que podrían ser extensivos a otros insectos de importancia económica en la ganadería y/o agricultura.
Resumo:
Beaucoup de patients atteints de la maladie de Parkinson (MP) peuvent souffrir de troubles cognitifs dès les étapes initiales de la maladie et jusqu’à 80% d’entre eux vont développer une démence. Des altérations fonctionnelles au niveau du cortex préfrontal dorsolatéral (CPFDL), possiblement en relation avec le noyau caudé, seraient à l’origine de certains de ces déficits cognitifs. Des résultats antérieurs de notre groupe ont montré une augmentation de l’activité et de la connectivité dans la boucle cortico-striatale cognitive suite à la stimulation magnétique transcrânienne (SMT) utilisant des paramètres « theta burst » intermittent (iTBS) sur le CPFDL gauche. Pour cette étude, 24 patients atteints de la MP avec des troubles cognitifs ont été séparées en 2 groupes : le groupe iTBS active (N=15) et le groupe sham (stimulation simulée, N=9). Une batterie neuropsychologique détaillée évaluant cinq domaines cognitifs (attention, fonctions exécutives, langage, mémoire et habiletés visuo-spatiales) a été administrée lors des jours 1, 8, 17 et 37. Le protocole iTBS a été appliqué sur le CPFDL gauche durant les jours 2, 4 et 7. Les scores z ont été calculés pour chaque domaine cognitif et pour la cognition globale. Les résultats ont montré une augmentation significative de la cognition globale jusqu’à 10 jours suivant l’iTBS active, particulièrement au niveau de l’attention, des fonctions exécutives et des habiletés visuo-spatiales. Cet effet sur la cognition globale n’est pas répliqué dans le groupe sham. Ces résultats suggèrent donc que l’iTBS peut moduler la performance cognitive chez les patients atteints de MP avec des déficits cognitifs.
Resumo:
Nell'ambito dell'Intelligenza Artificiale uno dei problemi aperti e piu difficile da risolvere e la comprensione del linguaggio naturale. La complessita sintattica e la conoscenza che bisogna avere per comprendere riferimenti, relazioni e concetti impliciti rendono questo problema molto interessante e la sua risoluzione di grande importanza per lo sviluppo di applicazioni che possano interagire in modo diretto con le persone. Questo lavoro di tesi non pretende di studiare e trovare una soluzione completa al suddetto problema, ma si prefigge come obiettivo quello di comprendere e risolvere problemi matematici di tipo logico ed aritmetico scritti in lingua inglese. La difficolta del lavoro si riduce in quanto non si devono considerare gli infiniti ambiti conoscitivi e puo concentrarsi su un'unica interpretazione del testo: quella matematica. Nonostante questa semplificazione il problema da affrontare rimane di grande difficolta poiche e comunque necessario confrontarsi con la complessita del linguaggio naturale. Esempi di problemi matematici che si intende risolvere si possono trovare presso il sito web dell'Universita della Bocconi nella sezione dei Giochi Matematici. Questi problemi richiedono la conoscenza di concetti di logica, insiemistica e di algebra lineare per essere risolti. Il modello matematico che descrive questi problemi non e complesso ed una volta dedotto correttamente e di facile risoluzione tramite un risolutore automatico. La difficolta consiste nel comprendere correttamente il testo ed estrapolarne il giusto modello. Il lavoro che si andra ad esporre nel seguito parte dall'analisi del testo ed arriva fino alla risoluzione del quesito matematico. Si parte quindi da un'analisi del testo con scopo generale seguita da un'analisi semantica volta alla costruzione del modello matematico che andra poi risolto da un risolutore automatico che ne restituira il risultato finale.
Resumo:
In ganz Norddeutschland werden bei jeder tieferen Bohrung bis zu mehrere 100 m maechtige Schichten des Diluviums durchbohrt, die aus scheinbar voellig unregelmäßigen Folgen von Sand, Kies und Geschiebemergel bestehen. Diese Absätze lassen sich in den meisten Fällen mit den bisherigen Methoden nicht weiter untergliedern. Aus besonders günstigen Aufschlüssen und Profilen ist bekannt, daß mindestens drei Vereisungen während des Diluviums über das norddeutsche Flachland hinweggegangen sind. Wenn in den Bohrungen nicht zufällig sichere Interglazialschichten auftreten, was äußerst selten der Fall ist, so ist es also im allgemeinen nicht möglich, das erbohrte Diluvium auf die drei bekannten Vereisungen aufzuteilen. Es besteht für Tagesaufschlüsse im Diluvium durch die Geschiebezählmethode nach Milthers, Heesemann u. a. wenigstens eine Möglichkeit, stratigraphische Einordnungen vorzunehmen. Arbeitsmethoden und Ergebnisse der Geschiebezählmethode sollen hier jedoch nicht näher besprochen werden. Dreimanis 1936 gibt eine Methode an, um aus Bohrproben durch Zählungen der Mineralkörner der Grobsand- und Feinkiesfraktionen Anhaltspunkte für vergleichende stratigraphische Untersuchungen zu gewinnen.
Resumo:
Die Altersbestimmung von Sedimentärgeschieben, die nicht durch ihren Fossilgehalt hinreichend gekennzeichnet sind, ist nur auf dem Wege eines petrographischen Vergleiches mit bekannten Geschieben oder dem anstehenden Vorkommen der betreffenden Gesteine möglich. In vielen Fällen Iäßt zwar schon das makroskopische Bild sichere Aussagen zu, wie z. B. ein fossilfreier roter Orthocerenkalk oder ein Juraoolith ohne Schwierigkeiten erkannt und damit auch richtig eingestuft werden können. Zuweilen ist dieser makroskopische Vergleich aber doch recht unsicher und Iäßt keine eindeutige Entscheidung zu. Hier können mikroskopische Methoden mit Aussicht auf Erfolg weiterhelfen. Im Laufe der letzten Jahrzehnte hat sich zur Kennzeichnung klastischer Sedimente die Untersuchung der spezifisch schweren Minerale in zunehmendem Maße bewährt, wobei einmal das Auftreten bestimmter Minerale in einzelnen Schichtgruppen, zum andern das relative Mengenverhältnis gleicher Minerale in verschiedenen Ablagerungen herangezogen wurde. Eine Übertragung dieser Methoden auf die Geschiebeforschung ist bisher noch nicht versucht worden, obwohl hier gerade ein dankbares Objekt vorliegt, da auch sehr geringe Mengen von Untersuchungssubstanz eine hinreichende Charakterisierung des Schwermineralbestandes gestatten, also auch kleine und kleinste Geschiebe der Untersuchung zugänglich sind.
Resumo:
The interaction between fluid seepage, bottom water redox, and chemosynthetic communities was studied at cold seeps across one of the world's largest oxygen minimum zones (OMZ) located at the Makran convergent continental margin. Push cores were obtained from seeps within and below the core-OMZ with a remotely operated vehicle. Extracted sediment pore water was analyzed for sulfide and sulfate concentrations. Depending on oxygen availability in the bottom water, seeps were either colonized by microbial mats or by mats and macrofauna. The latter, including ampharetid polychaetes and vesicomyid clams, occurred in distinct benthic habitats, which were arranged in a concentric fashion around gas orifices. At most sites colonized by microbial mats, hydrogen sulfide was exported into the bottom water. Where macrofauna was widely abundant, hydrogen sulfide was retained within the sediment. Numerical modeling of pore water profiles was performed in order to assess rates of fluid advection and bioirrigation. While the magnitude of upward fluid flow decreased from 11 cm yr**-1 to <1 cm yr**-1 and the sulfate/methane transition (SMT) deepened with increasing distance from the central gas orifice, the fluxes of sulfate into the SMT did not significantly differ (6.6-9.3 mol m**-2 yr**-1). Depth-integrated rates of bioirrigation increased from 120 cm yr**-1 in the central habitat, characterized by microbial mats and sparse macrofauna, to 297 cm yr**-1 in the habitat of large and few small vesicomyid clams. These results reveal that chemosynthetic macrofauna inhabiting the outer seep habitats below the core-OMZ efficiently bioirrigate and thus transport sulfate down into the upper 10 to 15 cm of the sediment. In this way the animals deal with the lower upward flux of methane in outer habitats by stimulating rates of anaerobic oxidation of methane (AOM) with sulfate high enough to provide hydrogen sulfide for chemosynthesis. Through bioirrigation, macrofauna engineer their geochemical environment and fuel upward sulfide flux via AOM. Furthermore, due to the introduction of oxygenated bottom water into the sediment via bioirrigation, the depth of the sulfide sink gradually deepens towards outer habitats. We therefore suggest that - in addition to the oxygen levels in the water column, which determine whether macrofaunal communities can develop or not - it is the depth of the SMT and thus of sulfide production that determines which chemosynthetic communities are able to exploit the sulfide at depth. We hypothesize that large vesicomyid clams, by efficiently expanding the sulfate zone down into the sediment, could cut off smaller or less mobile organisms, as e.g. small clams and sulfur bacteria, from the sulfide source.
Resumo:
Available on demand as hard copy or computer file from Cornell University Library.
Resumo:
Mode of access: Internet.
Resumo:
La riduzione dei consumi di combustibili fossili e lo sviluppo di tecnologie per il risparmio energetico sono una questione di centrale importanza sia per l’industria che per la ricerca, a causa dei drastici effetti che le emissioni di inquinanti antropogenici stanno avendo sull’ambiente. Mentre un crescente numero di normative e regolamenti vengono emessi per far fronte a questi problemi, la necessità di sviluppare tecnologie a basse emissioni sta guidando la ricerca in numerosi settori industriali. Nonostante la realizzazione di fonti energetiche rinnovabili sia vista come la soluzione più promettente nel lungo periodo, un’efficace e completa integrazione di tali tecnologie risulta ad oggi impraticabile, a causa sia di vincoli tecnici che della vastità della quota di energia prodotta, attualmente soddisfatta da fonti fossili, che le tecnologie alternative dovrebbero andare a coprire. L’ottimizzazione della produzione e della gestione energetica d’altra parte, associata allo sviluppo di tecnologie per la riduzione dei consumi energetici, rappresenta una soluzione adeguata al problema, che può al contempo essere integrata all’interno di orizzonti temporali più brevi. L’obiettivo della presente tesi è quello di investigare, sviluppare ed applicare un insieme di strumenti numerici per ottimizzare la progettazione e la gestione di processi energetici che possa essere usato per ottenere una riduzione dei consumi di combustibile ed un’ottimizzazione dell’efficienza energetica. La metodologia sviluppata si appoggia su un approccio basato sulla modellazione numerica dei sistemi, che sfrutta le capacità predittive, derivanti da una rappresentazione matematica dei processi, per sviluppare delle strategie di ottimizzazione degli stessi, a fronte di condizioni di impiego realistiche. Nello sviluppo di queste procedure, particolare enfasi viene data alla necessità di derivare delle corrette strategie di gestione, che tengano conto delle dinamiche degli impianti analizzati, per poter ottenere le migliori prestazioni durante l’effettiva fase operativa. Durante lo sviluppo della tesi il problema dell’ottimizzazione energetica è stato affrontato in riferimento a tre diverse applicazioni tecnologiche. Nella prima di queste è stato considerato un impianto multi-fonte per la soddisfazione della domanda energetica di un edificio ad uso commerciale. Poiché tale sistema utilizza una serie di molteplici tecnologie per la produzione dell’energia termica ed elettrica richiesta dalle utenze, è necessario identificare la corretta strategia di ripartizione dei carichi, in grado di garantire la massima efficienza energetica dell’impianto. Basandosi su un modello semplificato dell’impianto, il problema è stato risolto applicando un algoritmo di Programmazione Dinamica deterministico, e i risultati ottenuti sono stati comparati con quelli derivanti dall’adozione di una più semplice strategia a regole, provando in tal modo i vantaggi connessi all’adozione di una strategia di controllo ottimale. Nella seconda applicazione è stata investigata la progettazione di una soluzione ibrida per il recupero energetico da uno scavatore idraulico. Poiché diversi layout tecnologici per implementare questa soluzione possono essere concepiti e l’introduzione di componenti aggiuntivi necessita di un corretto dimensionamento, è necessario lo sviluppo di una metodologia che permetta di valutare le massime prestazioni ottenibili da ognuna di tali soluzioni alternative. Il confronto fra i diversi layout è stato perciò condotto sulla base delle prestazioni energetiche del macchinario durante un ciclo di scavo standardizzato, stimate grazie all’ausilio di un dettagliato modello dell’impianto. Poiché l’aggiunta di dispositivi per il recupero energetico introduce gradi di libertà addizionali nel sistema, è stato inoltre necessario determinare la strategia di controllo ottimale dei medesimi, al fine di poter valutare le massime prestazioni ottenibili da ciascun layout. Tale problema è stato di nuovo risolto grazie all’ausilio di un algoritmo di Programmazione Dinamica, che sfrutta un modello semplificato del sistema, ideato per lo scopo. Una volta che le prestazioni ottimali per ogni soluzione progettuale sono state determinate, è stato possibile effettuare un equo confronto fra le diverse alternative. Nella terza ed ultima applicazione è stato analizzato un impianto a ciclo Rankine organico (ORC) per il recupero di cascami termici dai gas di scarico di autovetture. Nonostante gli impianti ORC siano potenzialmente in grado di produrre rilevanti incrementi nel risparmio di combustibile di un veicolo, è necessario per il loro corretto funzionamento lo sviluppo di complesse strategie di controllo, che siano in grado di far fronte alla variabilità della fonte di calore per il processo; inoltre, contemporaneamente alla massimizzazione dei risparmi di combustibile, il sistema deve essere mantenuto in condizioni di funzionamento sicure. Per far fronte al problema, un robusto ed efficace modello dell’impianto è stato realizzato, basandosi sulla Moving Boundary Methodology, per la simulazione delle dinamiche di cambio di fase del fluido organico e la stima delle prestazioni dell’impianto. Tale modello è stato in seguito utilizzato per progettare un controllore predittivo (MPC) in grado di stimare i parametri di controllo ottimali per la gestione del sistema durante il funzionamento transitorio. Per la soluzione del corrispondente problema di ottimizzazione dinamica non lineare, un algoritmo basato sulla Particle Swarm Optimization è stato sviluppato. I risultati ottenuti con l’adozione di tale controllore sono stati confrontati con quelli ottenibili da un classico controllore proporzionale integrale (PI), mostrando nuovamente i vantaggi, da un punto di vista energetico, derivanti dall’adozione di una strategia di controllo ottima.
Resumo:
The paper develops a set of ideas and techniques supporting analogical reasoning throughout the life-cycle of terrorist acts. Implementation of these ideas and techniques can enhance the intellectual level of computer-based systems for a wide range of personnel dealing with various aspects of the problem of terrorism and its effects. The method combines techniques of structure-sensitive distributed representations in the framework of Associative-Projective Neural Networks, and knowledge obtained through the progress in analogical reasoning, in particular the Structure Mapping Theory. The impact of these analogical reasoning tools on the efforts to minimize the effects of terrorist acts on civilian population is expected by facilitating knowledge acquisition and formation of terrorism-related knowledge bases, as well as supporting the processes of analysis, decision making, and reasoning with those knowledge bases for users at various levels of expertise before, during, and after terrorist acts.
Resumo:
Event-B is a formal method for modeling and verification of discrete transition systems. Event-B development yields proof obligations that must be verified (i.e. proved valid) in order to keep the produced models consistent. Satisfiability Modulo Theory solvers are automated theorem provers used to verify the satisfiability of logic formulas considering a background theory (or combination of theories). SMT solvers not only handle large firstorder formulas, but can also generate models and proofs, as well as identify unsatisfiable subsets of hypotheses (unsat-cores). Tool support for Event-B is provided by the Rodin platform: an extensible Eclipse based IDE that combines modeling and proving features. A SMT plug-in for Rodin has been developed intending to integrate alternative, efficient verification techniques to the platform. We implemented a series of complements to the SMT solver plug-in for Rodin, namely improvements to the user interface for when proof obligations are reported as invalid by the plug-in. Additionally, we modified some of the plug-in features, such as support for proof generation and unsat-core extraction, to comply with the SMT-LIB standard for SMT solvers. We undertook tests using applicable proof obligations to demonstrate the new features. The contributions described can potentially affect productivity in a positive manner.
Resumo:
La prima parte dell’elaborato ripercorre la storia dell’introduzione delle tecnologie all’interno delle istituzioni scolastiche, sia dal punto di vista pratico, sia dal punto di vista legislativo, che ha accompagnato questo ingresso tutt’altro che lineare, a partire dagli anni ’80 fino ai giorni nostri grazie alle ultime introduzioni avvenute con la messa in atto del Piano Nazionale Scuola Digitale. Vengono poi descritti alcuni software utilizzati nelle scuole sia in passato che in tempi più recenti per arrivare agli ultimi sviluppi e agli applicativi online per lo studio della matematica. Infine nell’ultimo capitolo è descritta un’unità didattica riguardante lo studio della probabilità, ideata per gli allievi di una scuola secondaria di secondo grado che utilizza la LIM e alcuni software adeguati all’argomento proposto. Quello che emerge, però, è la difficoltà sia nella diffusione delle tecnologie nella scuola, sia nel loro utilizzo da parte dei docenti. Spesso gli insegnanti non hanno un livello adeguato di formazione in ambito tecnologico e quindi non sono in grado di sfruttare pienamente le potenzialità offerte. Il cammino per arrivare ad una completa formazione del personale docente e per la completa digitalizzazione delle scuole è ancora lungo e tortuoso. Tuttavia è importante ricordare che le tecnologie non possono essere la risposta a tutto, bensì un efficace mezzo per attirare l’attenzione e soprattutto stimolare la fantasia di alunni e docenti. Inoltre non si può pensare alcuna tecnologizzazione senza prima aver posto e consolidato le basi di un qualsivoglia argomento da proporre in classe con l’ausilio di software e hardware.