760 resultados para Lipschitz trivial
Resumo:
In dieser Arbeit werden nichtüberlappende Gebietszerlegungsmethoden einerseits hinsichtlich der zu lösenden Problemklassen verallgemeinert und andererseits in bisher nicht untersuchten Kontexten betrachtet. Dabei stehen funktionalanalytische Untersuchungen zur Wohldefiniertheit, eindeutigen Lösbarkeit und Konvergenz im Vordergrund. Im ersten Teil werden lineare elliptische Dirichlet-Randwertprobleme behandelt, wobei neben Problemen mit dominantem Hauptteil auch solche mit singulärer Störung desselben, wie konvektions- oder reaktionsdominante Probleme zugelassen sind. Der zweite Teil befasst sich mit (gleichmäßig) monotonen koerziven quasilinearen elliptischen Dirichlet-Randwertproblemen. In beiden Fällen wird das Lipschitz-Gebiet in endlich viele Lipschitz-Teilgebiete zerlegt, wobei insbesondere Kreuzungspunkte und Teilgebiete ohne Außenrand zugelassen sind. Anschließend werden Transmissionsprobleme mit frei wählbaren $L^{\infty}$-Parameterfunktionen hergeleitet, wobei die Konormalenableitungen als Funktionale auf geeigneten Funktionenräumen über den Teilrändern ($H_{00}^{1/2}(\Gamma)$) interpretiert werden. Die iterative Lösung dieser Transmissionsprobleme mit einem Ansatz von Deng führt auf eine Substrukturierungsmethode mit Robin-artigen Transmissionsbedingungen, bei der eine Auswertung der Konormalenableitungen aufgrund einer geschickten Aufdatierung der Robin-Daten nicht notwendig ist (insbesondere ist die bekannte Robin-Robin-Methode von Lions als Spezialfall enthalten). Die Konvergenz bezüglich einer partitionierten $H^1$-Norm wird für beide Problemklassen gezeigt. Dabei werden keine über $H^1$ hinausgehende Regularitätsforderungen an die Lösungen gestellt und die Gebiete müssen keine zusätzlichen Glattheitsvoraussetzungen erfüllen. Im letzten Kapitel werden nichtmonotone koerzive quasilineare Probleme untersucht, wobei das Zugrunde liegende Gebiet nur in zwei Lipschitz-Teilgebiete zerlegt sein soll. Das zugehörige nichtlineare Transmissionsproblem wird durch Kirchhoff-Transformation in lineare Teilprobleme mit nichtlinearen Kopplungsbedingungen überführt. Ein optimierungsbasierter Lösungsansatz, welcher einen geeigneten Abstand der rücktransformierten Dirichlet-Daten der linearen Teilprobleme auf den Teilrändern minimiert, führt auf ein optimales Kontrollproblem. Die dabei entstehenden regularisierten freien Minimierungsprobleme werden mit Hilfe eines Gradientenverfahrens unter minimalen Glattheitsforderungen an die Nichtlinearitäten gelöst. Unter zusätzlichen Glattheitsvoraussetzungen an die Nichtlinearitäten und weiteren technischen Voraussetzungen an die Lösung des quasilinearen Ausgangsproblems, kann zudem die quadratische Konvergenz des Newton-Verfahrens gesichert werden.
Resumo:
Sei $N/K$ eine galoissche Zahlkörpererweiterung mit Galoisgruppe $G$, so dass es in $N$ eine Stelle mit voller Zerlegungsgruppe gibt. Die vorliegende Arbeit beschäftigt sich mit Algorithmen, die für das gegebene Fallbeispiel $N/K$, die äquivariante Tamagawazahlvermutung von Burns und Flach für das Paar $(h^0(Spec(N), \mathbb{Z}[G]))$ (numerisch) verifizieren. Grob gesprochen stellt die äquivariante Tamagawazahlvermutung (im Folgenden ETNC) in diesem Spezialfall einen Zusammenhang her zwischen Werten von Artinschen $L$-Reihen zu den absolut irreduziblen Charakteren von $G$ und einer Eulercharakteristik, die man in diesem Fall mit Hilfe einer sogenannten Tatesequenz konstruieren kann. Unter den Voraussetzungen 1. es gibt eine Stelle $v$ von $N$ mit voller Zerlegungsgruppe, 2. jeder irreduzible Charakter $\chi$ von $G$ erfüllt eine der folgenden Bedingungen 2a) $\chi$ ist abelsch, 2b) $\chi(G) \subset \mathbb{Q}$ und $\chi$ ist eine ganzzahlige Linearkombination von induzierten trivialen Charakteren; wird ein Algorithmus entwickelt, der ETNC für jedes Fallbeispiel $N/\mathbb{Q}$ vollständig beweist. Voraussetzung 1. erlaubt es eine Idee von Chinburg ([Chi89]) umzusetzen zur algorithmischen Berechnung von Tatesequenzen. Dabei war es u.a. auch notwendig lokale Fundamentalklassen zu berechnen. Im höchsten zahm verzweigten Fall haben wir hierfür einen Algorithmus entwickelt, der ebenfalls auf den Ideen von Chinburg ([Chi85]) beruht, die auf Arbeiten von Serre [Ser] zurück gehen. Für nicht zahm verzweigte Erweiterungen benutzen wir den von Debeerst ([Deb11]) entwickelten Algorithmus, der ebenfalls auf Serre's Arbeiten beruht. Voraussetzung 2. wird benötigt, um Quotienten aus den $L$-Werten und Regulatoren exakt zu berechnen. Dies gelingt, da wir im Fall von abelschen Charakteren auf die Theorie der zyklotomischen Einheiten zurückgreifen können und im Fall (b) auf die analytische Klassenzahlformel von Zwischenkörpern. Ohne die Voraussetzung 2. liefern die Algorithmen für jedes Fallbeispiel $N/K$ immer noch eine numerische Verifikation bis auf Rechengenauigkeit. Den Algorithmus zur numerischen Verifikation haben wir für $A_4$-Erweiterungen über $\mathbb{Q}$ in das Computeralgebrasystem MAGMA implementiert und für 27 Erweiterungen die äquivariante Tamagawazahlvermutung numerisch verifiziert.
Resumo:
Diese Arbeit behandelt die Problemstellung der modellbasierten Fehlerdiagnose für Lipschitz-stetige nichtlineare Systeme mit Unsicherheiten. Es wird eine neue adaptive Fehlerdiagnosemethode vorgestellt. Erkenntnisse und Verfahren aus dem Bereich der Takagi-Sugeno (TS) Fuzzy-Modellbildung und des Beobachterentwurfs sowie der Sliding-Mode (SM) Theorie werden genutzt, um einen neuartigen robusten und nichtlinearen TS-SM-Beobachter zu entwickeln. Durch diese Zusammenführung lassen sich die jeweiligen Vorteile beider Ansätze miteinander kombinieren. Bedingungen zur Konvergenz des Beobachters werden als lineare Matrizenungleichungen (LMIs) abgeleitet. Diese Bedingungen garantieren zum einen die Stabilität und liefern zum anderen ein direktes Entwurfsverfahren für den Beobachter. Der Beobachterentwurf wird für die Fälle messbarer und nicht messbarer Prämissenvariablen angegeben. Durch die TS-Erweiterung des in dieser Arbeit verwendeten SM-Beobachters ist es möglich, den diskontinuierlichen Rückführterm mithilfe einer geeigneten kontinuierlichen Funktion zu approximieren und dieses Signal daraufhin zur Fehlerdiagnose auszuwerten. Dies liefert eine Methodik zur Aktor- und Sensorfehlerdiagnose nichtlinearer unsicherer Systeme. Gegenüber anderen Ansätzen erlaubt das Vorgehen eine quantitative Bestimmung und teilweise sogar exakte Rekonstruktion des Fehlersignalverlaufs. Darüber hinaus ermöglicht der Ansatz die Berechnung konstanter Fehlerschwellen direkt aus dem physikalischen Vorwissen über das betrachtete System. Durch eine Erweiterung um eine Betriebsphasenerkennung wird es möglich, die Schwellenwerte des Fehlerdiagnoseansatzes online an die aktuelle Betriebsphase anzupassen. Hierdurch ergibt sich in Betriebsphasen mit geringen Modellunsicherheiten eine deutlich erhöhte Fehlersensitivität. Zudem werden in Betriebsphasen mit großen Modellunsicherheiten Falschalarme vermieden. Die Kernidee besteht darin, die aktuelle Betriebsphase mittels eines Bayes-Klassikators in Echtzeit zu ermitteln und darüber die Fehlerschwellen an die a-priori de nierten Unsicherheiten der unterschiedlichen Betriebsphasen anzupassen. Die E ffektivität und Übertragbarkeit der vorgeschlagenen Ansätze werden einerseits am akademischen Beispiel des Pendelwagens und anderseits am Beispiel der Sensorfehlerdiagnose hydrostatisch angetriebener Radlader als praxisnahe Anwendung demonstriert.
Resumo:
Diese Arbeit beschäftigt sich mit der Frage, wie sich in einer Familie von abelschen t-Moduln die Teilfamilie der uniformisierbaren t-Moduln beschreiben lässt. Abelsche t-Moduln sind höherdimensionale Verallgemeinerungen von Drinfeld-Moduln über algebraischen Funktionenkörpern. Bekanntermaßen lassen sich Drinfeld-Moduln in allgemeiner Charakteristik durch analytische Tori parametrisieren. Diese Tatsache überträgt sich allerdings nur auf manche t-Moduln, die man als uniformisierbar bezeichnet. Die Situation hat eine gewisse Analogie zur Theorie von elliptischen Kurven, Tori und abelschen Varietäten über den komplexen Zahlen. Um zu entscheiden, ob ein t-Modul in diesem Sinne uniformisierbar ist, wendet man ein Kriterium von Anderson an, das die rigide analytische Trivialität der zugehörigen t-Motive zum Inhalt hat. Wir wenden dieses Kriterium auf eine Familie von zweidimensionalen t-Moduln vom Rang vier an, die von Koeffizienten a,b,c,d abhängen, und gelangen dabei zur äquivalenten Fragestellung nach der Konvergenz von gewissen rekursiv definierten Folgen. Das Konvergenzverhalten dieser Folgen lässt sich mit Hilfe von Newtonpolygonen gut untersuchen. Schließlich erhält man durch dieses Vorgehen einfach formulierte Bedingungen an die Koeffizienten a,b,c,d, die einerseits die Uniformisierbarkeit garantieren oder andererseits diese ausschließen.
Resumo:
Das Dissertationsprojekt befasst sich mit dem synthetischen Potential acyclischer Diaminocarbene (aDACs; Verbindungen des Typs (R2N)2C:) und prüft dabei insbesondere deren Reaktivität gegenüber Kohlenmonoxid (CO). Grundlage des Vorhabens ist eine Aufsehen erregende Beobachtung von SIEMELING et al. (Chem. Sci., 2010, 1, 697): Der Prototyp der aDACs, das Bis(diisopropylamino)carben, ist in der Lage CO zu aktivieren. Dabei wird zunächst ein intermediäres Keten des Typs (R2N)2C=C=O generiert, das in Folge einer intramolekularen Reaktion ein stabiles β-Lactamderivat ausbildet. Eine Sensation, schließlich ging man in der Fachwelt bis dato davon aus, dass cyclische und acyclische Diaminocarbene für derartige Reaktionen nicht elektrophil genug seien. Ziel der vorliegenden Arbeit war eine systematische Auslotung der aDAC-Reaktivität gegenüber CO. Im Rahmen der durchgeführten Untersuchungen ist es gelungen, das Feld der literaturbekannten aDACs von 12 auf 19 zu erweitern. Die Carbene, ihre Formamidiniumsalz-Vorstufen, sowie die korrespondierenden Carben–Metallkomplexe konnten in den meisten Fällen vollständig charakterisiert werden. Es konnte gezeigt werden, dass manche Isopropyl-substituierten aDACs in inertem Lösemittel einer β-Umlagerung unterliegen sowie, dass eine solche intramolekulare Reaktivität innerhalb dieser Substanzklasse nicht trivial ist: Zum Teil ganz ähnlich substituierte aDACs sind in Lösung unbegrenzt haltbar. Die Reaktivität gegenüber CO konnte an etwa einem Dutzend aDACs studiert werden. Lediglich in einem Fall zeigte sich das Carben inert. In einem sterisch überfrachteten Fall entstand in einer regio- und stereoselektiven Folgereaktion ein biologisch aktives bicyclisches β-Lactamderivat. In den meisten Fällen ergaben sich betainische Oxyallylspezies des Typs [(R2N)2C]2CO als intermolekulare Folgeprodukte. Die mechanistische Scheidelinie zwischen intra- und intermolekularer Keten-Folgereaktion konnte anhand der Carbonylierung sterisch ganz ähnlich substituierter aDACs aufgezeigt werden. Die gewonnenen Erkenntnisse liefern deutliche Hinweise darauf, dass das chemische Verhalten der aDACs gegenüber CO eher durch feinste elektronische Unterschiede als durch den sterischen Anspruch der Carben-Substituenten beeinflusst wird. Mit Hilfe von In-Situ-IR-Spektroskopie gelang es in manchen Fällen, bei denen eine Isolierung der Carbonylierungsprodukte nicht glückte, die Generierung hochreaktiver Oxyallylspezies zu belegen. Weiterhin konnte im Zuge der In-Situ-IR-Studien das zuvor nur postulierte Diaminoketen als primäres Carbonylierungsprodukt dingfest gemacht werden (ν(C=C=O) = 2085 1/cm): Es handelt sich hierbei um den ersten experimentellen Nachweis eines Diaminoketens überhaupt.
Resumo:
The magnetic properties and interactions between transition metal (TM) impurities and clusters in low-dimensional metallic hosts are studied using a first principles theoretical method. In the first part of this work, the effect of magnetic order in 3d-5d systems is addressed from the perspective of its influence on the enhancement of the magnetic anisotropy energy (MAE). In the second part, the possibility of using external electric fields (EFs) to control the magnetic properties and interactions between nanoparticles deposited at noble metal surfaces is investigated. The influence of 3d composition and magnetic order on the spin polarization of the substrate and its consequences on the MAE are analyzed for the case of 3d impurities in one- and two-dimensional polarizable hosts. It is shown that the MAE and easy- axis of monoatomic free standing 3d-Pt wires is mainly determined by the atomic spin-orbit (SO) coupling contributions. The competition between ferromagnetic (FM) and antiferromagnetic (AF) order in FePtn wires is studied in detail for n=1-4 as a function of the relative position between Fe atoms. Our results show an oscillatory behavior of the magnetic polarization of Pt atoms as a function of their distance from the magnetic impurities, which can be correlated to a long-ranged magnetic coupling of the Fe atoms. Exceptionally large variations of the induced spin and orbital moments at the Pt atoms are found as a function of concentration and magnetic order. Along with a violation of the third Hund’s rule at the Fe sites, these variations result in a non trivial behavior of the MAE. In the case of TM impurities and dimers at the Cu(111), the effects of surface charging and applied EFs on the magnetic properties and substrate-mediated magnetic interactions have been investigated. The modifications of the surface electronic structure, impurity local moments and magnetic exchange coupling as a result of the EF-induced metallic screening and charge rearrangements are analysed. In a first study, the properties of surface substitutional Co and Fe impurities are investigated as a function of the external charge per surface atom q. At large inter-impurity distances the effective magnetic exchange coupling ∆E between impurities shows RKKY-like oscillations as a function of the distance which are not significantly affected by the considered values of q. For distances r < 10 Å, important modifications in the magnitude of ∆E, involving changes from FM to AF coupling, are found depending non-monotonously on the value and polarity of q. The interaction energies are analysed from a local perspective. In a second study, the interplay between external EF effects, internal magnetic order and substrate-mediated magnetic coupling has been investigated for Mn dimers on Cu(111). Our calculations show that EF (∼ 1eV/Å) can induce a switching from AF to FM ground-state magnetic order within single Mn dimers. The relative coupling between a pair of dimers also shows RKKY-like oscillations as a function of the inter-dimer distance. Their effective magnetic exchange interaction is found to depend significantly on the magnetic order within the Mn dimers and on their relative orientation on the surface. The dependence of the substrate-mediated interaction on the magnetic state of the dimers is qualitatively explained in terms of the differences in the scattering of surface electrons. At short inter-dimer distances, the ground-state configuration is determined by an interplay between exchange interactions and EF effects. These results demonstrate that external surface charging and applied EFs offer remarkable possibilities of manipulating the sign and strength of the magnetic coupling of surface supported nanoparticles.
Resumo:
We present a low cost and easily deployed infrastructure for location aware computing that is built using standard Bluetooth® technologies and personal computers. Mobile devices are able to determine their location to room-level granularity with existing bluetooth technology, and to even greater resolution with the use of the recently adopted bluetooth 1.2 specification, all while maintaining complete anonymity. Various techniques for improving the speed and resolution of the system are described, along with their tradeoffs in privacy. The system is trivial to implement on a large scale – our network covering 5,000 square meters was deployed by a single student over the course of a few days at a cost of less than US$1,000.
Resumo:
The Dirichlet family owes its privileged status within simplex distributions to easyness of interpretation and good mathematical properties. In particular, we recall fundamental properties for the analysis of compositional data such as closure under amalgamation and subcomposition. From a probabilistic point of view, it is characterised (uniquely) by a variety of independence relationships which makes it indisputably the reference model for expressing the non trivial idea of substantial independence for compositions. Indeed, its well known inadequacy as a general model for compositional data stems from such an independence structure together with the poorness of its parametrisation. In this paper a new class of distributions (called Flexible Dirichlet) capable of handling various dependence structures and containing the Dirichlet as a special case is presented. The new model exhibits a considerably richer parametrisation which, for example, allows to model the means and (part of) the variance-covariance matrix separately. Moreover, such a model preserves some good mathematical properties of the Dirichlet, i.e. closure under amalgamation and subcomposition with new parameters simply related to the parent composition parameters. Furthermore, the joint and conditional distributions of subcompositions and relative totals can be expressed as simple mixtures of two Flexible Dirichlet distributions. The basis generating the Flexible Dirichlet, though keeping compositional invariance, shows a dependence structure which allows various forms of partitional dependence to be contemplated by the model (e.g. non-neutrality, subcompositional dependence and subcompositional non-invariance), independence cases being identified by suitable parameter configurations. In particular, within this model substantial independence among subsets of components of the composition naturally occurs when the subsets have a Dirichlet distribution
Resumo:
En el món dels videojocs el realisme és un punt molt important a tenir en compte ja que dónamés sensació a l’usuari d’estar immers en el videojoc. Això passa en part per aconseguir realisme en la dinàmica dels objectes i fer que aquests segueixin les lleis de la física de Newton. Per això s’han desenvolupat diverses llibreries que s’anomenen “motors de física” (physics engines), que empren variables com la massa, la velocitat, la fricció i la resistència del vent. Els objectius d’aquest projecte seran l’estudi de diferents llibreries físiques existents, la seva comparació i com s’integren en els motors de jocs. A més a més , la generació de contingut amb comportament que respongui a les funcions definides a aquestes llibreries no és trivial i per aquest motiu també es desenvoluparà una aplicació per generar murs de forma semiautomàtica que respongui a impactes. Per assolir aquests objectius caldrà: d’ una banda, comparar els cossos rígids, unions i funcionament en general de diferents llibreries físiques: Newton Game Dynamics, NVIDIA PhysX Technology, Open Dynamics Engine, Bullet Physics Library, Tokamak Physics Engine i Havok i d’ altra banda, implementar una aplicació que donant-li una imatge en planta d’una paret o conjunt de parets en format vectorial i les mides d’un maó, generi murs que puguin reaccionar de forma adequada quan rebin l’impacte d’una massa determinada. L’aplicació s’implementarà en C++ i amb l’entorn de desenvolupament Microsoft Visual Studio 2005. La visualització serà amb OpenGL
Resumo:
Como fruto de un enriquecedor proceso político de discusión y consenso, la Constitución de 1991 quiso sentar las bases del avance de la sociedad colombiana hacia una democracia consolidada y profunda. Conforme al espíritu de la Carta, el progreso en esa misma dirección no depende solamente de los gobernantes y de los actores tradicionales, sino de un cada vez más amplio ejercicio ciudadano de la política. Por ello, el conocimiento de su contenido, el análisis de sus preceptos y las relaciones entre sus principios revisten importancia fundamental para que su vigencia sea efectiva. La extensión y la complejidad de su temática, además del hecho de que se ocupe de detalles usualmente no propios de las disposiciones constitucionales, no debe llevarnos a caer en la trampa de tratar nuestra carta fundamental como si fuere una reglamentación corriente y trivial, susceptible de cambios al servicio de intereses pasajeros. Nuestro compromiso republicano exige respetarla en su condición de marco fundamental de la vida política y evitar que, por el camino de las reformas caprichosas, se lleguen a desmontar sus principios fundamentales y a desbaratar con ello conquistas democráticas valiosas. El conocimiento del conjunto de la Constitución, el análisis profundo de la forma en la que está construida y el contenido y el sentido de sus preceptos se facilitarán con esta obra del Constituyente Jaime Castro, que servirá de valiosa guía a expertos y profanos, debido al rigor y la seriedad del ejercicio de desentrañar su estructura y presentar ordenadamente las relaciones entre sus preceptos, a la manera de los buenos manuales de análisis jurídico y educación ciudadana. Quien se adentre en las páginas de la obra, podrá encontrar los hilos que conectan aquellos argumentos esenciales de la concepción del Estado, animada por el constituyente. También hallará las conexiones y las falencias de los catálogos de derechos y deberes que el texto constitucional consagra. Y podrá identificar tópicos susceptibles de nuevos desarrollos, a partir de las insinuaciones que la propia Constitución hace respecto de las organizaciones políticas, el ejercicio de la ciudadanía y los proyectos económicos y sociales que dentro de su marco se pueden impulsar. En la medida en que la Constitución es en esencia un instrumento político, no puede quedar exclusivamente en manos de ningún sector de la vida nacional. Para que sus postulados no se queden escritos y para que no se siga desmontando a pedazos el edificio constitucional, es preciso que todos nos apropiemos del tema, conozcamos los parámetros y las oportunidades que allí se establecen y exijamos, con fundamento, las responsabilidades políticas e históricas que corresponden a todos los actores de la vida pública. El presente trabajo analítico sirve de manera ostensible a ese propósito. Por el mismo camino, esta obra podrá contribuir, el día en que los cambios sean necesarios, a que la sociedad colombiana pueda participar, con conocimiento de causa, en las discusiones correspondientes.
Resumo:
Building software for Web 2.0 and the Social Media world is non-trivial. It requires understanding how to create infrastructure that will survive at Web scale, meaning that it may have to deal with tens of millions of individual items of data, and cope with hits from hundreds of thousands of users every minute. It also requires you to build tools that will be part of a much larger ecosystem of software and application families. In this lecture we will look at how traditional relational database systems have tried to cope with the scale of Web 2.0, and explore the NoSQL movement that seeks to simplify data-storage and create ultra-swift data systems at the expense of immediate consistency. We will also look at the range of APIs, libraries and interoperability standards that are trying to make sense of the Social Media world, and ask what trends we might be seeing emerge.
Resumo:
El sueño, es indispensable para la recuperación, física, mental y de procesos como la consolidación de memoria, atención y lenguaje. La privación de sueño (PS) incide en la atención y concentración. La PS es inherente a la formación médica, pero no es claro el papel de los turnos nocturnos en estudiantes, porque no cumplen con un objetivo académico, pero hay relación con disminución de la salud, productividad, accidentes, y alteraciones en diversas actividades. Está descrito el impacto de la PS sobre la capacidad de aprendizaje y aspectos como el ánimo y las relaciones interpersonales. MÉTODOS: Se realizó un estudio analítico observacional de cohorte longitudinal, con tres etapas de medición a 180 estudiantes de Medicina de la Universidad del Rosario, que evaluó atención selectiva y concentración mediante la aplicación de la prueba d2, validada internacionalmente para tal fin. RESULTADOS: Se estudiaron 180 estudiantes, 115 mujeres, 65 hombres, entre los 18 y 26 años (promedio 21). Al inicio del estudio dormían en promedio 7,9 horas, cifra que se redujo a 5,8 y 6,3 en la segunda y tercera etapa respectivamente. El promedio de horas de sueño nocturno, disminuyó en el segundo y tercer momento (p<0,001); Además se encontró mediante la aplicación de la prueba d2, que hubo correlación significativa directa débil, entre el promedio de horas de sueño, y el promedio del desempeño en la prueba (r=0.168, p=0.029) CONCLUSIONES: La PS, con períodos de sueño menores a 7,2 horas, impactan de manera importante la atención selectiva, la concentración
Resumo:
En el presente texto se sostiene, con Rorty, que la verdad no es una propiedad de hechos –ni mucho menos de objetos–. Sin embargo, contra Rorty, se afirma que asumir esta posición no implica la eliminación del concepto de verdad de nuestros discursos teóricos y filosóficos, esto es, que sigue teniendo sentido hacer una reflexión filosófica sobre la verdad. La estrategia para mostrar esto es abiertamente pragmatista: se inicia con el análisis de las prácticas de los hablantes para mostrar que no adquirimos los mismos compromisos cuando atribuimos verdad y cuando atribuimos justificación (sección 1); posteriormente, se evidencia en qué sentido la distinción filosófica entre verdad y justificación es útil socialmente (sección 2); y para finalizar, se muestra que dicha distinción no entraña ninguna metafísica misteriosa (sección 3).
Resumo:
Title: Data-Driven Text Generation using Neural Networks Speaker: Pavlos Vougiouklis, University of Southampton Abstract: Recent work on neural networks shows their great potential at tackling a wide variety of Natural Language Processing (NLP) tasks. This talk will focus on the Natural Language Generation (NLG) problem and, more specifically, on the extend to which neural network language models could be employed for context-sensitive and data-driven text generation. In addition, a neural network architecture for response generation in social media along with the training methods that enable it to capture contextual information and effectively participate in public conversations will be discussed. Speaker Bio: Pavlos Vougiouklis obtained his 5-year Diploma in Electrical and Computer Engineering from the Aristotle University of Thessaloniki in 2013. He was awarded an MSc degree in Software Engineering from the University of Southampton in 2014. In 2015, he joined the Web and Internet Science (WAIS) research group of the University of Southampton and he is currently working towards the acquisition of his PhD degree in the field of Neural Network Approaches for Natural Language Processing. Title: Provenance is Complicated and Boring — Is there a solution? Speaker: Darren Richardson, University of Southampton Abstract: Paper trails, auditing, and accountability — arguably not the sexiest terms in computer science. But then you discover that you've possibly been eating horse-meat, and the importance of provenance becomes almost palpable. Having accepted that we should be creating provenance-enabled systems, the challenge of then communicating that provenance to casual users is not trivial: users should not have to have a detailed working knowledge of your system, and they certainly shouldn't be expected to understand the data model. So how, then, do you give users an insight into the provenance, without having to build a bespoke system for each and every different provenance installation? Speaker Bio: Darren is a final year Computer Science PhD student. He completed his undergraduate degree in Electronic Engineering at Southampton in 2012.
Resumo:
Introducción: A través de los años se ha reconocido como la principal causa de enfermedades complejas, como lo son las enfermedades autoinmunes (EAI), la interacción entre los factores genéticos, los epigenéticos y el ambiente. Dentro de los factores ambientales están los solventes orgánicos (SO), compuestos químicos ampliamente utilizados en lavanderías (ej. tetracloroetileno, percloroetileno), pinturas (ej. tolueno y turpentina), removedores de esmalte para uñas, pegamentos (ej. acetona, metil acetato, etil acetato), removedores de manchas (ej. hexano, petróleo, eter), detergentes (ej. citrus terpeno), perfumes (etanol), y en la síntesis de esmaltes, entre otros. Teniendo en cuenta la controversia que existe aún sobre la asociación entre los SO y las EAI, evaluamos la evidencia a través de una revisión sistemática de la literatura y un meta-análisis. Métodos y resultados: La búsqueda sistemática se hizo en el PubMed, SCOPUS , SciELO y LILACS con artículos publicados hasta febrero de 2012. Se incluyó cualquier tipo de estudio que utilizara criterios aceptados para la definición de EAI y que tuvieran información sobre la exposición SO. De un total de 103 artículos, 33 fueron finalmente incluidos en el meta -análisis. Los OR e intervalos de confianza del 95 % (IC) se obtuvieron mediante el modelo de efectos aleatorios. Un análisis de sensibilidad confirmó que los resultados no son susceptibles a la limitación de los datos incluidos. El sesgo de publicación fue trivial. La exposición a SO se asoció a esclerosis sistémica, vasculitis primaria y esclerosis múltiple de forma individual y también para todas las EAI consideradas como un rasgo común (OR: 1.54 , IC 95 % : 1,25 a 1,92 ; valor de p 0.001). Conclusión: La exposición a SO es un factor de riesgo para el desarrollo de EAI. Como corolario, los individuos con factores de riesgo no modificables (es decir, autoinmunidad familiar o con factores genéticos identificados) deben evitar toda exposición a SO con el fin de evitar que aumente su riesgo de desarrollar una EAI.