898 resultados para Lógica Relevante.


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Máster Universitario en Sistemas Inteligentes y Aplicaciones Numéricas en Ingeniería (SIANI)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

[ES] Durante muchos años hemos visto el desarrollo de software como un proceso de ingeniería similar a los de producción y construcción, que siguen un rígido proceso de Análisis-Diseño-Implementación dirigido por documentación. Recientemente ha surgido forma radicalmente diferente de afrontar un proyecto, un nuevo paradigma llamado Agilismo, que valora más: individuos e interacciones sobre procesos y herramientas. Software funcionando sobre documentación extensiva. Colaboración con el cliente sobre negociación contractual. Respuesta ante el cambio sobre seguir un plan. ¿Una forma tan diferente de trabajar, no basada en documentación y calidad de procesos, no resulta excesivamente caótica? ¿Cómo puede funcionar?. El presente Trabajo de Fin de Grado es un estudio práctico de las Metodologías Ágiles y el Desarrollo Dirigido por Test, en el que, usando las mismas, se ha realizado una implementación parcial sobre un dominio elegido, analizando los resultados de forma cualitativa (mediante análisis comparativo y argumentación) y cuantitativa (a través de métricas del código). Al mismo tiempo, en la memoria se exponen los elementos que definen este nuevo paradigma, algunas herramientas de las que hace uso, y cómo se han integrado en la realización del proyecto. El objetivo de este TFG es, por tanto, al mismo tiempo de investigación y didáctico. Se pretende argumentar y dar respuesta al interrogante sobre la calidad del código usando estos nuevos modelos, y, simultáneamente, ser una guía de introducción para todos aquellos profesionales que deseen conocer esta metodología emergente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

[ES] La finalización del Siglo XIX contextualiza la emergencia de un nuevo proceso de distribución y ajuste de esferas de influencias a escala mundial, en el cual la guerra hispano-cubana-norteamericana obra como anclaje del imperialismo moderno a partir de la irrupción de Estados Unidos en la escala continental. La prensa argentina constituye un actor observador del conflicto que fija postura y evalúa su significación de proyecciones internacionales. La propuesta de este artículo es analizar el tratamiento que el periódico The Buenos Aires Herald otorga al tema, como variable coyuntural del complejo entramado de intereses de las potencias imperialistas de la etapa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Programa de doctorado: Ingeniería de Telecomunicación Avanzada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Programa de doctorado: Praxiología motriz, educación física y entrenamiento deportivo

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die vorliegende Dissertation entstand im Rahmen eines multizentrischen EU-geförderten Projektes, das die Anwendungsmöglichkeiten von Einzelnukleotid-Polymorphismen (SNPs) zur Individualisierung von Personen im Kontext der Zuordnung von biologischen Tatortspuren oder auch bei der Identifizierung unbekannter Toter behandelt. Die übergeordnete Zielsetzung des Projektes bestand darin, hochauflösende Genotypisierungsmethoden zu etablieren und zu validieren, die mit hoher Genauigkeit aber geringen Aufwand SNPs im Multiplexformat simultan analysieren können. Zunächst wurden 29 Y-chromosomale und 52 autosomale SNPs unter der Anforderung ausgewählt, dass sie als Multiplex eine möglichst hohe Individualisierungschance aufweisen. Anschließend folgten die Validierungen beider Multiplex-Systeme und der SNaPshot™-Minisequenzierungsmethode in systematischen Studien unter Beteiligung aller Arbeitsgruppen des Projektes. Die validierte Referenzmethode auf der Basis einer Minisequenzierung diente einerseits für die kontrollierte Zusammenarbeit unterschiedlicher Laboratorien und andererseits als Grundlage für die Entwicklung eines Assays zur SNP-Genotypisierung mittels der elektronischen Microarray-Technologie in dieser Arbeit. Der eigenständige Hauptteil dieser Dissertation beschreibt unter Verwendung der zuvor validierten autosomalen SNPs die Neuentwicklung und Validierung eines Hybridisierungsassays für die elektronische Microarray-Plattform der Firma Nanogen Dazu wurden im Vorfeld drei verschiedene Assays etabliert, die sich im Funktionsprinzip auf dem Microarray unterscheiden. Davon wurde leistungsorientiert das Capture down-Assay zur Weiterentwicklung ausgewählt. Nach zahlreichen Optimierungsmaßnahmen hinsichtlich PCR-Produktbehandlung, gerätespezifischer Abläufe und analysespezifischer Oligonukleotiddesigns stand das Capture down-Assay zur simultanen Typisierung von drei Individuen mit je 32 SNPs auf einem Microarray bereit. Anschließend wurde dieses Verfahren anhand von 40 DNA-Proben mit bekannten Genotypen für die 32 SNPs validiert und durch parallele SNaPshot™-Typisierung die Genauigkeit bestimmt. Das Ergebnis beweist nicht nur die Eignung des validierten Analyseassays und der elektronischen Microarray-Technologie für bestimmte Fragestellungen, sondern zeigt auch deren Vorteile in Bezug auf Schnelligkeit, Flexibilität und Effizienz. Die Automatisierung, welche die räumliche Anordnung der zu untersuchenden Fragmente unmittelbar vor der Analyse ermöglicht, reduziert unnötige Arbeitsschritte und damit die Fehlerhäufigkeit und Kontaminationsgefahr bei verbesserter Zeiteffizienz. Mit einer maximal erreichten Genauigkeit von 94% kann die Zuverlässigkeit der in der forensischen Genetik aktuell eingesetzten STR-Systeme jedoch noch nicht erreicht werden. Die Rolle des neuen Verfahrens wird damit nicht in einer Ablösung der etablierten Methoden, sondern in einer Ergänzung zur Lösung spezieller Probleme wie z.B. der Untersuchung stark degradierter DNA-Spuren zu finden sein.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Materialflussrechner in komplexen Materialflusssystemen generieren eine große Anzahl an Daten zu systeminternen Ereignissen. Deren Informationspotential wird derzeit aufgrund des enormen Datenumfangs nur begrenzt genutzt. Für online durchgeführte Analysen ist sogar von einer stetig wachsenden Datenmenge auszugehen. Dieser Beitrag beschreibt einen Ansatz, diese Datenmenge in Zeitbereiche einzuteilen und die valide Echtzeit-Berechnung statistischer Prozesskenngrößen zu gewährleisten. Durch die Beachtung signifikanter Zustandsänderungen im System bezüglich der Echtzeit-Analyse können statistische Abweichungen in systeminternen Prozessen erkannt werden. Damit wird die Grundlage für eine Optimierung im laufenden Betrieb gelegt, um ggf. lokalen Prozessabweichungen entgegenwirken zu können, bevor diese Auswirkungen auf das Gesamtsystem haben.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Fil: Torchia Estrada, Juan Carlos.