857 resultados para Laptop computers
Resumo:
Abstract : In the subject of fingerprints, the rise of computers tools made it possible to create powerful automated search algorithms. These algorithms allow, inter alia, to compare a fingermark to a fingerprint database and therefore to establish a link between the mark and a known source. With the growth of the capacities of these systems and of data storage, as well as increasing collaboration between police services on the international level, the size of these databases increases. The current challenge for the field of fingerprint identification consists of the growth of these databases, which makes it possible to find impressions that are very similar but coming from distinct fingers. However and simultaneously, this data and these systems allow a description of the variability between different impressions from a same finger and between impressions from different fingers. This statistical description of the withinand between-finger variabilities computed on the basis of minutiae and their relative positions can then be utilized in a statistical approach to interpretation. The computation of a likelihood ratio, employing simultaneously the comparison between the mark and the print of the case, the within-variability of the suspects' finger and the between-variability of the mark with respect to a database, can then be based on representative data. Thus, these data allow an evaluation which may be more detailed than that obtained by the application of rules established long before the advent of these large databases or by the specialists experience. The goal of the present thesis is to evaluate likelihood ratios, computed based on the scores of an automated fingerprint identification system when the source of the tested and compared marks is known. These ratios must support the hypothesis which it is known to be true. Moreover, they should support this hypothesis more and more strongly with the addition of information in the form of additional minutiae. For the modeling of within- and between-variability, the necessary data were defined, and acquired for one finger of a first donor, and two fingers of a second donor. The database used for between-variability includes approximately 600000 inked prints. The minimal number of observations necessary for a robust estimation was determined for the two distributions used. Factors which influence these distributions were also analyzed: the number of minutiae included in the configuration and the configuration as such for both distributions, as well as the finger number and the general pattern for between-variability, and the orientation of the minutiae for within-variability. In the present study, the only factor for which no influence has been shown is the orientation of minutiae The results show that the likelihood ratios resulting from the use of the scores of an AFIS can be used for evaluation. Relatively low rates of likelihood ratios supporting the hypothesis known to be false have been obtained. The maximum rate of likelihood ratios supporting the hypothesis that the two impressions were left by the same finger when the impressions came from different fingers obtained is of 5.2 %, for a configuration of 6 minutiae. When a 7th then an 8th minutia are added, this rate lowers to 3.2 %, then to 0.8 %. In parallel, for these same configurations, the likelihood ratios obtained are on average of the order of 100,1000, and 10000 for 6,7 and 8 minutiae when the two impressions come from the same finger. These likelihood ratios can therefore be an important aid for decision making. Both positive evolutions linked to the addition of minutiae (a drop in the rates of likelihood ratios which can lead to an erroneous decision and an increase in the value of the likelihood ratio) were observed in a systematic way within the framework of the study. Approximations based on 3 scores for within-variability and on 10 scores for between-variability were found, and showed satisfactory results. Résumé : Dans le domaine des empreintes digitales, l'essor des outils informatisés a permis de créer de puissants algorithmes de recherche automatique. Ces algorithmes permettent, entre autres, de comparer une trace à une banque de données d'empreintes digitales de source connue. Ainsi, le lien entre la trace et l'une de ces sources peut être établi. Avec la croissance des capacités de ces systèmes, des potentiels de stockage de données, ainsi qu'avec une collaboration accrue au niveau international entre les services de police, la taille des banques de données augmente. Le défi actuel pour le domaine de l'identification par empreintes digitales consiste en la croissance de ces banques de données, qui peut permettre de trouver des impressions très similaires mais provenant de doigts distincts. Toutefois et simultanément, ces données et ces systèmes permettent une description des variabilités entre différentes appositions d'un même doigt, et entre les appositions de différents doigts, basées sur des larges quantités de données. Cette description statistique de l'intra- et de l'intervariabilité calculée à partir des minuties et de leurs positions relatives va s'insérer dans une approche d'interprétation probabiliste. Le calcul d'un rapport de vraisemblance, qui fait intervenir simultanément la comparaison entre la trace et l'empreinte du cas, ainsi que l'intravariabilité du doigt du suspect et l'intervariabilité de la trace par rapport à une banque de données, peut alors se baser sur des jeux de données représentatifs. Ainsi, ces données permettent d'aboutir à une évaluation beaucoup plus fine que celle obtenue par l'application de règles établies bien avant l'avènement de ces grandes banques ou par la seule expérience du spécialiste. L'objectif de la présente thèse est d'évaluer des rapports de vraisemblance calcul és à partir des scores d'un système automatique lorsqu'on connaît la source des traces testées et comparées. Ces rapports doivent soutenir l'hypothèse dont il est connu qu'elle est vraie. De plus, ils devraient soutenir de plus en plus fortement cette hypothèse avec l'ajout d'information sous la forme de minuties additionnelles. Pour la modélisation de l'intra- et l'intervariabilité, les données nécessaires ont été définies, et acquises pour un doigt d'un premier donneur, et deux doigts d'un second donneur. La banque de données utilisée pour l'intervariabilité inclut environ 600000 empreintes encrées. Le nombre minimal d'observations nécessaire pour une estimation robuste a été déterminé pour les deux distributions utilisées. Des facteurs qui influencent ces distributions ont, par la suite, été analysés: le nombre de minuties inclus dans la configuration et la configuration en tant que telle pour les deux distributions, ainsi que le numéro du doigt et le dessin général pour l'intervariabilité, et la orientation des minuties pour l'intravariabilité. Parmi tous ces facteurs, l'orientation des minuties est le seul dont une influence n'a pas été démontrée dans la présente étude. Les résultats montrent que les rapports de vraisemblance issus de l'utilisation des scores de l'AFIS peuvent être utilisés à des fins évaluatifs. Des taux de rapports de vraisemblance relativement bas soutiennent l'hypothèse que l'on sait fausse. Le taux maximal de rapports de vraisemblance soutenant l'hypothèse que les deux impressions aient été laissées par le même doigt alors qu'en réalité les impressions viennent de doigts différents obtenu est de 5.2%, pour une configuration de 6 minuties. Lorsqu'une 7ème puis une 8ème minutie sont ajoutées, ce taux baisse d'abord à 3.2%, puis à 0.8%. Parallèlement, pour ces mêmes configurations, les rapports de vraisemblance sont en moyenne de l'ordre de 100, 1000, et 10000 pour 6, 7 et 8 minuties lorsque les deux impressions proviennent du même doigt. Ces rapports de vraisemblance peuvent donc apporter un soutien important à la prise de décision. Les deux évolutions positives liées à l'ajout de minuties (baisse des taux qui peuvent amener à une décision erronée et augmentation de la valeur du rapport de vraisemblance) ont été observées de façon systématique dans le cadre de l'étude. Des approximations basées sur 3 scores pour l'intravariabilité et sur 10 scores pour l'intervariabilité ont été trouvées, et ont montré des résultats satisfaisants.
Resumo:
La tolerancia a fallos es una línea de investigación que ha adquirido una importancia relevante con el aumento de la capacidad de cómputo de los súper-computadores actuales. Esto es debido a que con el aumento del poder de procesamiento viene un aumento en la cantidad de componentes que trae consigo una mayor cantidad de fallos. Las estrategias de tolerancia a fallos actuales en su mayoría son centralizadas y estas no escalan cuando se utiliza una gran cantidad de procesos, dado que se requiere sincronización entre todos ellos para realizar las tareas de tolerancia a fallos. Además la necesidad de mantener las prestaciones en programas paralelos es crucial, tanto en presencia como en ausencia de fallos. Teniendo en cuenta lo citado, este trabajo se ha centrado en una arquitectura tolerante a fallos descentralizada (RADIC – Redundant Array of Distributed and Independant Controllers) que busca mantener las prestaciones iniciales y garantizar la menor sobrecarga posible para reconfigurar el sistema en caso de fallos. La implementación de esta arquitectura se ha llevado a cabo en la librería de paso de mensajes denominada Open MPI, la misma es actualmente una de las más utilizadas en el mundo científico para la ejecución de programas paralelos que utilizan una plataforma de paso de mensajes. Las pruebas iniciales demuestran que el sistema introduce mínima sobrecarga para llevar a cabo las tareas correspondientes a la tolerancia a fallos. MPI es un estándar por defecto fail-stop, y en determinadas implementaciones que añaden cierto nivel de tolerancia, las estrategias más utilizadas son coordinadas. En RADIC cuando ocurre un fallo el proceso se recupera en otro nodo volviendo a un estado anterior que ha sido almacenado previamente mediante la utilización de checkpoints no coordinados y la relectura de mensajes desde el log de eventos. Durante la recuperación, las comunicaciones con el proceso en cuestión deben ser retrasadas y redirigidas hacia la nueva ubicación del proceso. Restaurar procesos en un lugar donde ya existen procesos sobrecarga la ejecución disminuyendo las prestaciones, por lo cual en este trabajo se propone la utilización de nodos spare para la recuperar en ellos a los procesos que fallan, evitando de esta forma la sobrecarga en nodos que ya tienen trabajo. En este trabajo se muestra un diseño propuesto para gestionar de un modo automático y descentralizado la recuperación en nodos spare en un entorno Open MPI y se presenta un análisis del impacto en las prestaciones que tiene este diseño. Resultados iniciales muestran una degradación significativa cuando a lo largo de la ejecución ocurren varios fallos y no se utilizan spares y sin embargo utilizándolos se restablece la configuración inicial y se mantienen las prestaciones.
Resumo:
The mechanical behaviour of ectodermal cells in the area opaca and the supracellular organization of fibronectin in the adjacent extracellular matrix were studied in whole chick blastoderms developing in vitro. The pattern of spontaneous mechanical activity and its modification by immunoglobulins against fibronectin were determined using a real-time image-analysis system. The pattern of fibronectin was studied using immunocytochemical techniques. It was found that the ectodermal cells in the area opaca actively develop a radially oriented contraction, which leads to a distension of the area pellucida from which the embryo develops. Abnormally increased tension resulted in perturbations of gastrulation and neurulation. An optimized mechanical equilibrium within the blastoderm seems to be necessary for normal development. Anti-fibronectin antibodies applied to the basal side of the blastoderm led rapidly and reversibly to an increase of tension in the contracted cells. This observation indicates that modifications of the extracellular matrix can be transmitted to cytoskeletal elements within adjacent cells. The extracellular matrix of the area opaca contains fibronectin arranged in radially oriented fibrils. This orientation corresponds to the direction of migration of the mesodermal cells. Interestingly, the radial pattern of fibronectin is found in the regions where the ectodermal cells are contracted and develop radially oriented forces. This observation suggests that the supracellular assembly of the extracellular materials could be influenced by the mechanical activity of adjacent cells. Possible modulations of the supracellular organization of extracellular matrix by other factors, e.g. diffusible metabolites, is also discussed. The presence of characteristically organized extracellular matrix components, of spatially differentiated cell activities and of reciprocal interactions between them makes the young chick blastoderm an excellent system for physiological studies of the coordinated cellular activities that lead to changes in form, complexity and function.
Resumo:
Methods like Event History Analysis can show the existence of diffusion and part of its nature, but do not study the process itself. Nowadays, thanks to the increasing performance of computers, processes can be studied using computational modeling. This thesis presents an agent-based model of policy diffusion mainly inspired from the model developed by Braun and Gilardi (2006). I first start by developing a theoretical framework of policy diffusion that presents the main internal drivers of policy diffusion - such as the preference for the policy, the effectiveness of the policy, the institutional constraints, and the ideology - and its main mechanisms, namely learning, competition, emulation, and coercion. Therefore diffusion, expressed by these interdependencies, is a complex process that needs to be studied with computational agent-based modeling. In a second step, computational agent-based modeling is defined along with its most significant concepts: complexity and emergence. Using computational agent-based modeling implies the development of an algorithm and its programming. When this latter has been developed, we let the different agents interact. Consequently, a phenomenon of diffusion, derived from learning, emerges, meaning that the choice made by an agent is conditional to that made by its neighbors. As a result, learning follows an inverted S-curve, which leads to partial convergence - global divergence and local convergence - that triggers the emergence of political clusters; i.e. the creation of regions with the same policy. Furthermore, the average effectiveness in this computational world tends to follow a J-shaped curve, meaning that not only time is needed for a policy to deploy its effects, but that it also takes time for a country to find the best-suited policy. To conclude, diffusion is an emergent phenomenon from complex interactions and its outcomes as ensued from my model are in line with the theoretical expectations and the empirical evidence.Les méthodes d'analyse de biographie (event history analysis) permettent de mettre en évidence l'existence de phénomènes de diffusion et de les décrire, mais ne permettent pas d'en étudier le processus. Les simulations informatiques, grâce aux performances croissantes des ordinateurs, rendent possible l'étude des processus en tant que tels. Cette thèse, basée sur le modèle théorique développé par Braun et Gilardi (2006), présente une simulation centrée sur les agents des phénomènes de diffusion des politiques. Le point de départ de ce travail met en lumière, au niveau théorique, les principaux facteurs de changement internes à un pays : la préférence pour une politique donnée, l'efficacité de cette dernière, les contraintes institutionnelles, l'idéologie, et les principaux mécanismes de diffusion que sont l'apprentissage, la compétition, l'émulation et la coercition. La diffusion, définie par l'interdépendance des différents acteurs, est un système complexe dont l'étude est rendue possible par les simulations centrées sur les agents. Au niveau méthodologique, nous présenterons également les principaux concepts sous-jacents aux simulations, notamment la complexité et l'émergence. De plus, l'utilisation de simulations informatiques implique le développement d'un algorithme et sa programmation. Cette dernière réalisée, les agents peuvent interagir, avec comme résultat l'émergence d'un phénomène de diffusion, dérivé de l'apprentissage, où le choix d'un agent dépend en grande partie de ceux faits par ses voisins. De plus, ce phénomène suit une courbe en S caractéristique, poussant à la création de régions politiquement identiques, mais divergentes au niveau globale. Enfin, l'efficacité moyenne, dans ce monde simulé, suit une courbe en J, ce qui signifie qu'il faut du temps, non seulement pour que la politique montre ses effets, mais également pour qu'un pays introduise la politique la plus efficace. En conclusion, la diffusion est un phénomène émergent résultant d'interactions complexes dont les résultats du processus tel que développé dans ce modèle correspondent tant aux attentes théoriques qu'aux résultats pratiques.
Resumo:
Aquesta memòria vol mostrar que la tecnologia XML és la millor alternativa per a afrontar el repte tecnològic existent en els sistemes d'extracció d'informació de les aplicacions de nova generació. Aquests sistemes, d'una banda, han de garantir la seva independència respecte dels esquemes de les bases de dades dels quals s'alimenten i, de l'altra, han de ser capaços de mostrar la informació en múltiples formats.
Resumo:
Estudi de l'eficiència de màquines virtuals en diferents configuracions de hardware i software en entorns de proves i de producció.
Resumo:
Aquest treball fi de carrera tracta sobre les normes d'accessibilitat WCAG 2.0 ("Web Content Accessibility Guidelines"). Són una sèrie de pautes i recomanacions per fer el contingut web més accessible, sobretot a una gamma més àmplia de persones amb discapacitat, com ceguesa i baixa visió, sordesa i la pèrdua d'audició, problemes d'aprenentatge, limitacions cognitives, limitacions de moviments, problemes de parla, fotosensibilitat i combinacions d'aquestes. Seguint aquestes directrius també fan sovint el contingut del seu web més usable per als usuaris en general.Les WCAG 2.0, recomanació oficial des del 11 de desembre de 2008, s'organitzen en 4 principis fonamentals per a l'accessibilitat del contingut: perceptible, operable, comprensible i robust.En total conformen 12 pautes o directrius (guidelines), els dos primers principis tenen quatre pautes associades, el tercer té tres i l'últim una pauta. Aquestes pautes proporcionen els objectius bàsics per fer el contingut accessible, i serveixen per comprendre els criteris d'èxit i implementar-los. S'han definit 60 criteris d'èxit o punts de comprovació que defineixen el nivell d'accessibilitat (A, AA o AAA).Per altra banda, s'analitzaran alternatives al programari que empra la UOC, Dspace, com a repositori de documentació. D'aquestes alternatives es valorarà sobretot l'aspecte d'accessibilitat per tal de determinar si l'elecció del Dspace ha estat l'opció més adient. També es s'analitzaran algunes planes del repositori de la UOC per tal de verificar el nivell de compliment de de les WCAG 2.0.Al mateix temps es farà una recerca d'eines que ens puguin ajudar en l'avaluació de l'accessibilitat i s'anomenaran en els punts que ens puguin ajudar cadascuna d'aquestes.
Resumo:
Quan parlem de disseny centrat en l'usuari ens referim al fet de dissenyar pensant en el que vol l'usuari. És per això que se'l consulta, per a saber què vol, què necessita, què i com li agrada més, què no li agrada, què li costa més d'entendre. Es fa, en definitiva, una avaluació del producte la finalitat del qual és ser útil i pràctic per al major nombre possible de persones. En aquest treball parlem de dissenyar pensant en l'usuari en entorns tàctils. Els entorns tàctils només són una de les moltes possibilitats que ens ofereix la interacció humana amb els ordinadors.
Resumo:
L'objectiu d'aquest projecte és desenvolupar una aplicació que implementi la funcionalitat del joc de l'oca de manera segura, amb n jugadors distribuïts en diferents ordinadors amb adreces IP i ports diferents connectats per mitjà d'una xarxa, que pot ser Internet, una intranet o una xarxa corporativa.
Resumo:
L'objectiu final d'aquest treball és l'obtenció d'un sistema que permeti regular l'accés de manera fàcil i flexible a determinats serveis de xarxa per a un conjunt d'usuaris que tenen necessitats i atributs diferents d'ús de la xarxa segons el seu perfil i segons el moment.
Resumo:
La finalitat d'aquest projecte és la d'aconseguir d'una banda la gestió de recanvis per als equips informàtics de l'empresa tals com, tonners d'impressores làser i faxos, cartutxos de tinta, escàners i terminals de fàbrica i finalment impressores d'impressió tèrmica per a etiquetes dels productes de la nostra fàbrica. Per l'altre costat tindrem el manteniment dels equips informàtics de l'empresa, és dir els PC's de feina.
Resumo:
El present document es basa en les etapes de recollida i documentació de requisits, anàlisis, disseny, implementació i testing d'una aplicació Web utilitzant la tecnologia J2EE .
Resumo:
L'objectiu d'aquest projecte és estudiar i implementar una solució segura de connectivitat sense fil a la infraestructura actual aprofitant al màxim tots els sistemes ja implementats, de manera que no pateixin greus canvis estructurals.
Resumo:
Els objectius inicials d'aquest projecte eren la incorporació d'OpenGL a l'eina ja existent de generació de grafisme per televisió. Com que l'aplicador ja dissenyat es basava en un reduït tipus d'objectes sobre els quals es podien aplicar diferents paràmetres i agrupar-los de diferents maneres, calia trobar un nou tipus d'objecte que tingués alguna particularitat que el fes prou atractiu per a incorporar-lo a l'aplicació. El resultat va ser un objecte polièdric per a poder-hi mapar diferents textures i un text aplicant-hi una ombra en tres dimensions segons la posició del dibuix.