989 resultados para CONFIGURATION


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract : In the subject of fingerprints, the rise of computers tools made it possible to create powerful automated search algorithms. These algorithms allow, inter alia, to compare a fingermark to a fingerprint database and therefore to establish a link between the mark and a known source. With the growth of the capacities of these systems and of data storage, as well as increasing collaboration between police services on the international level, the size of these databases increases. The current challenge for the field of fingerprint identification consists of the growth of these databases, which makes it possible to find impressions that are very similar but coming from distinct fingers. However and simultaneously, this data and these systems allow a description of the variability between different impressions from a same finger and between impressions from different fingers. This statistical description of the withinand between-finger variabilities computed on the basis of minutiae and their relative positions can then be utilized in a statistical approach to interpretation. The computation of a likelihood ratio, employing simultaneously the comparison between the mark and the print of the case, the within-variability of the suspects' finger and the between-variability of the mark with respect to a database, can then be based on representative data. Thus, these data allow an evaluation which may be more detailed than that obtained by the application of rules established long before the advent of these large databases or by the specialists experience. The goal of the present thesis is to evaluate likelihood ratios, computed based on the scores of an automated fingerprint identification system when the source of the tested and compared marks is known. These ratios must support the hypothesis which it is known to be true. Moreover, they should support this hypothesis more and more strongly with the addition of information in the form of additional minutiae. For the modeling of within- and between-variability, the necessary data were defined, and acquired for one finger of a first donor, and two fingers of a second donor. The database used for between-variability includes approximately 600000 inked prints. The minimal number of observations necessary for a robust estimation was determined for the two distributions used. Factors which influence these distributions were also analyzed: the number of minutiae included in the configuration and the configuration as such for both distributions, as well as the finger number and the general pattern for between-variability, and the orientation of the minutiae for within-variability. In the present study, the only factor for which no influence has been shown is the orientation of minutiae The results show that the likelihood ratios resulting from the use of the scores of an AFIS can be used for evaluation. Relatively low rates of likelihood ratios supporting the hypothesis known to be false have been obtained. The maximum rate of likelihood ratios supporting the hypothesis that the two impressions were left by the same finger when the impressions came from different fingers obtained is of 5.2 %, for a configuration of 6 minutiae. When a 7th then an 8th minutia are added, this rate lowers to 3.2 %, then to 0.8 %. In parallel, for these same configurations, the likelihood ratios obtained are on average of the order of 100,1000, and 10000 for 6,7 and 8 minutiae when the two impressions come from the same finger. These likelihood ratios can therefore be an important aid for decision making. Both positive evolutions linked to the addition of minutiae (a drop in the rates of likelihood ratios which can lead to an erroneous decision and an increase in the value of the likelihood ratio) were observed in a systematic way within the framework of the study. Approximations based on 3 scores for within-variability and on 10 scores for between-variability were found, and showed satisfactory results. Résumé : Dans le domaine des empreintes digitales, l'essor des outils informatisés a permis de créer de puissants algorithmes de recherche automatique. Ces algorithmes permettent, entre autres, de comparer une trace à une banque de données d'empreintes digitales de source connue. Ainsi, le lien entre la trace et l'une de ces sources peut être établi. Avec la croissance des capacités de ces systèmes, des potentiels de stockage de données, ainsi qu'avec une collaboration accrue au niveau international entre les services de police, la taille des banques de données augmente. Le défi actuel pour le domaine de l'identification par empreintes digitales consiste en la croissance de ces banques de données, qui peut permettre de trouver des impressions très similaires mais provenant de doigts distincts. Toutefois et simultanément, ces données et ces systèmes permettent une description des variabilités entre différentes appositions d'un même doigt, et entre les appositions de différents doigts, basées sur des larges quantités de données. Cette description statistique de l'intra- et de l'intervariabilité calculée à partir des minuties et de leurs positions relatives va s'insérer dans une approche d'interprétation probabiliste. Le calcul d'un rapport de vraisemblance, qui fait intervenir simultanément la comparaison entre la trace et l'empreinte du cas, ainsi que l'intravariabilité du doigt du suspect et l'intervariabilité de la trace par rapport à une banque de données, peut alors se baser sur des jeux de données représentatifs. Ainsi, ces données permettent d'aboutir à une évaluation beaucoup plus fine que celle obtenue par l'application de règles établies bien avant l'avènement de ces grandes banques ou par la seule expérience du spécialiste. L'objectif de la présente thèse est d'évaluer des rapports de vraisemblance calcul és à partir des scores d'un système automatique lorsqu'on connaît la source des traces testées et comparées. Ces rapports doivent soutenir l'hypothèse dont il est connu qu'elle est vraie. De plus, ils devraient soutenir de plus en plus fortement cette hypothèse avec l'ajout d'information sous la forme de minuties additionnelles. Pour la modélisation de l'intra- et l'intervariabilité, les données nécessaires ont été définies, et acquises pour un doigt d'un premier donneur, et deux doigts d'un second donneur. La banque de données utilisée pour l'intervariabilité inclut environ 600000 empreintes encrées. Le nombre minimal d'observations nécessaire pour une estimation robuste a été déterminé pour les deux distributions utilisées. Des facteurs qui influencent ces distributions ont, par la suite, été analysés: le nombre de minuties inclus dans la configuration et la configuration en tant que telle pour les deux distributions, ainsi que le numéro du doigt et le dessin général pour l'intervariabilité, et la orientation des minuties pour l'intravariabilité. Parmi tous ces facteurs, l'orientation des minuties est le seul dont une influence n'a pas été démontrée dans la présente étude. Les résultats montrent que les rapports de vraisemblance issus de l'utilisation des scores de l'AFIS peuvent être utilisés à des fins évaluatifs. Des taux de rapports de vraisemblance relativement bas soutiennent l'hypothèse que l'on sait fausse. Le taux maximal de rapports de vraisemblance soutenant l'hypothèse que les deux impressions aient été laissées par le même doigt alors qu'en réalité les impressions viennent de doigts différents obtenu est de 5.2%, pour une configuration de 6 minuties. Lorsqu'une 7ème puis une 8ème minutie sont ajoutées, ce taux baisse d'abord à 3.2%, puis à 0.8%. Parallèlement, pour ces mêmes configurations, les rapports de vraisemblance sont en moyenne de l'ordre de 100, 1000, et 10000 pour 6, 7 et 8 minuties lorsque les deux impressions proviennent du même doigt. Ces rapports de vraisemblance peuvent donc apporter un soutien important à la prise de décision. Les deux évolutions positives liées à l'ajout de minuties (baisse des taux qui peuvent amener à une décision erronée et augmentation de la valeur du rapport de vraisemblance) ont été observées de façon systématique dans le cadre de l'étude. Des approximations basées sur 3 scores pour l'intravariabilité et sur 10 scores pour l'intervariabilité ont été trouvées, et ont montré des résultats satisfaisants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este proyecto tiene como objetivo crear y aplicar una metodología a una aplicación llamada MATE que fue creada en en el año 2003 por Anna Sikora para su tesis doctoral. Se trata de dotar el proyecto MATE de las herramientas necesarias para garantizar su evolución. La metodología creada consta de la especificación de un entorno de trabajo y una serie de documentos que detallan los procesos relativos al desarrollo de MATE. Además se han creado algunas nuevas características que hacen de MATE una herramienta más completa y cómoda.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tolerancia a fallos es una línea de investigación que ha adquirido una importancia relevante con el aumento de la capacidad de cómputo de los súper-computadores actuales. Esto es debido a que con el aumento del poder de procesamiento viene un aumento en la cantidad de componentes que trae consigo una mayor cantidad de fallos. Las estrategias de tolerancia a fallos actuales en su mayoría son centralizadas y estas no escalan cuando se utiliza una gran cantidad de procesos, dado que se requiere sincronización entre todos ellos para realizar las tareas de tolerancia a fallos. Además la necesidad de mantener las prestaciones en programas paralelos es crucial, tanto en presencia como en ausencia de fallos. Teniendo en cuenta lo citado, este trabajo se ha centrado en una arquitectura tolerante a fallos descentralizada (RADIC – Redundant Array of Distributed and Independant Controllers) que busca mantener las prestaciones iniciales y garantizar la menor sobrecarga posible para reconfigurar el sistema en caso de fallos. La implementación de esta arquitectura se ha llevado a cabo en la librería de paso de mensajes denominada Open MPI, la misma es actualmente una de las más utilizadas en el mundo científico para la ejecución de programas paralelos que utilizan una plataforma de paso de mensajes. Las pruebas iniciales demuestran que el sistema introduce mínima sobrecarga para llevar a cabo las tareas correspondientes a la tolerancia a fallos. MPI es un estándar por defecto fail-stop, y en determinadas implementaciones que añaden cierto nivel de tolerancia, las estrategias más utilizadas son coordinadas. En RADIC cuando ocurre un fallo el proceso se recupera en otro nodo volviendo a un estado anterior que ha sido almacenado previamente mediante la utilización de checkpoints no coordinados y la relectura de mensajes desde el log de eventos. Durante la recuperación, las comunicaciones con el proceso en cuestión deben ser retrasadas y redirigidas hacia la nueva ubicación del proceso. Restaurar procesos en un lugar donde ya existen procesos sobrecarga la ejecución disminuyendo las prestaciones, por lo cual en este trabajo se propone la utilización de nodos spare para la recuperar en ellos a los procesos que fallan, evitando de esta forma la sobrecarga en nodos que ya tienen trabajo. En este trabajo se muestra un diseño propuesto para gestionar de un modo automático y descentralizado la recuperación en nodos spare en un entorno Open MPI y se presenta un análisis del impacto en las prestaciones que tiene este diseño. Resultados iniciales muestran una degradación significativa cuando a lo largo de la ejecución ocurren varios fallos y no se utilizan spares y sin embargo utilizándolos se restablece la configuración inicial y se mantienen las prestaciones.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Generación dinámica de interfaces web basadas en ficheros descriptivos XML para el control de la parametrización compleja y ejecución de programas por línea de comandos. La necesidad surge con la aplicación mlcoalsim, utilizada por investigadores de la UAB, cuya parametrización requiere la edición manual de un fichero de texto la sintaxis del cual es complicada y pesada. Con la generación de interfaces web se pretende ayudar a los usuarios en la correcta parametrización y ejecución de aplicaciones como mlcoalsim.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’aigua i l’energia formen un binomi indissociable. En relació al cicle de l’aigua, des de fa varies dècades s’han desenvolupat diferents formes per recuperar part de l’energia relacionada amb l’aigua, per exemple a partir de centrals hidroelèctriques. No obstant, l’ús d’aquesta aigua també porta associat un gran consum energètic, relacionat sobretot amb el transport, la distribució, la depuració, etc... La depuració d’aigües residuals porta associada una elevada demanda energètica (Obis et al.,2009). En termes energètics, tot i que la despesa elèctrica d’una EDAR varia en funció de diferents paràmetres com la configuració i la capacitat de la planta, la càrrega a tractar, etc... es podria considerar que el rati mig seria d’ aproximadament 0.5 KWh•m-3.Els principals costos d’explotació estan relacionats tant amb la gestió de fangs (28%) com amb el consum elèctric (25%) (50% tractament biològic). Tot i que moltes investigacions relacionades amb el tractament d’aigua residual estan encaminades en disminuir els costos d’operació, des de fa poques dècades s’està investigant la viabilitat de que l’aigua residual fins i tot sigui una font d’energia, canviant la perspectiva, i començant a veure l’aigua residual no com a una problemàtica sinó com a un recurs. Concretament s’estima que l’aigua domèstica conté 9.3 vegades més energia que la necessària per el seu tractament mitjançant processos aerobis (Shizas et al., 2004). Un dels processos més desenvolupats relacionats amb el tractament d’aigües residuals i la producció energètica és la digestió anaeròbia. No obstant, aquesta tecnologia permet el tractament d’altes càrregues de matèria orgànica generant un efluent ric en nitrogen que s’haurà de tractar amb altres tecnologies. Per altre banda, recentment s’està investigant una nova tecnologia relacionada amb el tractament d’aigües residuals i la producció energètica: les piles biològiques (microbial fuel cells, MFC). Aquesta tecnologia permet obtenir directament energia elèctrica a partir de la degradació de substrats biodegradables (Rabaey et al., 2005). Les piles biològiques, més conegudes com a Microbial Fuel Cells (acrònim en anglès, MFC), són una emergent tecnologia que està centrant moltes mirades en el camp de l’ investigació, i que es basa en la producció d’energia elèctrica a partir de substrats biodegradables presents en l’aigua residual (Logan., 2008). Els fonaments de les piles biològiques és molt semblant al funcionament d’una pila Daniell, en la qual es separa en dos compartiments la reacció d’oxidació (compartiment anòdic) i la de reducció (compartiment catòdic) amb l’objectiu de generar un determinat corrent elèctric. En aquest estudi, bàsicament es mostra la posada en marxa d'una pila biològica per a l'eliminació de matèria orgànica i nitrogen de les aigües residuals.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The control of optical fields on the nanometre scale is becoming an increasingly important tool in many fields, ranging from channelling light delivery in photovoltaics and light emitting diodes to increasing the sensitivity of chemical sensors to single molecule levels. The ability to design and manipulate light fields with specific frequency and space characteristics is explored in this project. We present an alternative realisation of Extraordinary Optical Transmission (EOT) that requires only a single aperture and a coupled waveguide. We show how this waveguide-resonant EOT improves the transmissivity of single apertures. An important technique in imaging is Near-Field Scanning Optical Microscopy (NSOM); we show how waveguide-resonant EOT and the novel probe design assist in improving the efficiency of NSOM probes by two orders of magnitude, and allow the imaging of single molecules with an optical resolution of as good as 50 nm. We show how optical antennas are fabricated into the apex of sharp tips and can be used in a near-field configuration.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

És una visió religiosa de la configuració de la identitat nacional dels afrikaners, l'evolució del pensament religiós en la relació amb el protestantisme anglosaxó i la vinculació amb el capitalisme internacional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Within the ORAMED project a coordinated measurement program for occupationally exposed medical staff was performed in different hospitals in Europe. The main objectives of ORAMED were to obtain a set of standardized data on doses for staff in interventional cardiology and radiology and to optimize staff protection. Doses were measured with thermoluminescent dosemeters on the ring finger and wrist of both hands, on legs and at the level of the eyes of the main operator performing interventional procedures. In this paper an overview of the doses per procedure measured during 646 interventional cardiology procedures is given for cardiac angiographies and angioplasties (CA/PTCA), radiofrequency ablations (RFA) and pacemaker and defibrillator implantations (PM/ICD). 31% of the monitored procedures were associated with no collective protective equipment, whereas 44% involved a ceiling screen and a table curtain. Although associated with the smallest air kerma - area product (KAP), PM/ICD procedures led to the highest doses. As expected, KAP and doses values exhibited a very large variability. The left side of the operator, most frequently the closest to the X-ray scattering region, was more exposed than his right side. An analysis of the effect of parameters influencing the doses, namely collective protective equipment, X-ray tube configuration and catheter access route, was performed on the doses normalized to KAP. Ceiling screen and table curtain were observed to reduce normalized doses by atmost a factor 4, much smaller than theoretical attenuation factors typical for such protections, i.e. from 10 to 100. This observation was understood as their inappropriate use by the operators and their non-optimized design. Configurations with tube above the patient led to higher normalized doses to the operator than tube below, but the effect of using a biplane X-ray suite was more complex to analyze. For CA/PTCA procedures, the upper part of the operator's body received higher normalized doses for radial than for femoral catheter access, by atmost a factor 5. This could be seen for cases with no collective protection. The eyes were observed to receive the maximum fraction of the annual dose limit almost as frequently as legs and hands, and clearly the most frequently, if the former 150 mSv and new 20 mSv recommended limits for the lens of the eye are considered, respectively.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

BACKGROUND: Use of cardiopulmonary bypass for emergency resuscitation is not new. In fact, John Gibbon proposed this concept for the treatment of severe pulmonary embolism in 1937. Significant progress has been made since, and two main concepts for cardiac assist based on cardiopulmonary bypass have emerged: cardiopulmonary support (CPS) and extracorporeal membrane oxygenation (ECMO). The objective of this review is to summarize the state of the art in these two technologies. METHODS: Configuration of CPS is now fairly standard. A mobile cart with relatively large wheels allowing for easy transportation carries a centrifugal pump, a back-up battery with a charger, an oxygen cylinder, and a small heating system. Percutaneous cannulation, pump-driven venous return, rapid availability, and transportability are the main characteristics of a CPS system. Cardiocirculatory arrest is a major predictor of mortality despite the use of CPS. In contrast, CPS appears to be a powerful tool for patients in cardiogenic shock before cardiocirculatory arrest, requiring some type of therapeutic procedures, especially repair of anatomically correctable problems or bridging to other mechanical circulatory support systems such as ventricular assist devices. CPS is in general not suitable for long-term applications because of the small-bore cannulas, resulting in significant pressure gradients and eventually hemolysis. RESULTS: In contrast, ECMO can be designed for longer-term circulatory support. This requires large-bore cannulas and specifically designed oxygenators. The latter are either plasma leakage resistent (true membranes) or relatively thrombo-resistant (heparin coated). Both technologies require oxygenator changeovers although the main reason for this is different (clotting for the former, plasma leakage for the latter). Likewise, the tubing within a roller pump has to be displaced and centrifugal pump heads have to be replaced over time. ECMO is certainly the first choice for a circulatory support system in the neonatal and pediatric age groups, where the other assist systems are too bulky. ECMO is also indicated for patients improving on CPS. Septic conditions are, in general, considered as contraindications for ECMO. CONCLUSIONS: Ease of availability and moderate cost of cardiopulmonary bypass-based cardiac support technologies have to be balanced against the significant immobilization of human resources, which is required to make them successful.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Filtratge web utilitzant les eines de Microsoft ISA Server 2004, llur implementació, configuració i parametrització, en un escenari de treballdomèstic o de petita empresa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Configuració d'un entorn de desenvolupament en el IDE Eclipse. Introducció als SIG. Usos, utilitats i exemples. Conèixer la eina gvSIG. Conèixer els estàndards més estesos de l'Open Geospatial Consortium (OGC) i en especial del Web Processing Services. Analitzar, dissenyar i desenvolupar un client capaç de consumir serveis wps.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aquest treball, que té com a objectiu donar informació sobre com es pot aconseguir que la configuració de l'equip sigui eficient, mira de centrar-se en el plantejament i el coneixement d'algunes metodologies concretes. Cal tenir present, però, que no hi ha mètodes màgics i que del coneixement de la teoria en pot sortir una aplicació pràctica diferent per a cadascuna de les persones que la interpreten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The evolutionary theory of ageing predicts that the timing of senescence has been primarily shaped by the extrinsic mortality rate, which causes selection intensity to decline over time. One difficulty in testing the evolutionary theory of ageing is that extrinsic mortality risk is often confounded with body size and fecundity, which may also directly affect lifespan. Social insects with a pronounced division of labour between worker castes provide a unique opportunity to study the direct effect of extrinsic mortality on the evolution of ageing rates independently of body size, reproductive effort and genetic configuration. In the weaver ant, Oecophylla smaragdina, the major (large) workers perform the risky tasks outside the nest, while the minor (small) workers stay within the highly protected arboreal nest. Hence, this pronounced division of labour is associated with high differences in extrinsic mortality risks. The evolutionary theory of ageing predicts that the minor workers should have a longer intrinsic lifespan than the major workers. In line with this prediction, we found that in a protected environment the minor workers lived significantly longer than the major workers did. Hence, the ageing rate appears to have been moulded by variation in the extrinsic mortality rate independently of size, reproductive effort and genetic configuration.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Anàlisi, disseny i implementació d'unaCMDB (Configuration Management Database) que es considera la pedra angular delconjunt de bones pràctiques ITIL per a la gestió de serveis TI.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'objectiu d'aquest treball consisteix a elegir una eina de gestió de continguts per a l'aplicació en la gestió d'un campus virtual. L'estudi de les característiques de diversos dels CMS més emprats ens permetrà, a més, acostar-nos-hi d'una manera pràctica, atès que una part del treball inclou, després de la tria del CMS, la seva instal·lació en un servidor a Internet i la configuració pertinent per a adequar-lo als rols d'administradors, professors, estudiants, etc.