74 resultados para Requirement


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los últimos cambios legislativos introducidos en el Código penal han hecho aumentar las personas que cumplen condena por delitos del tráfico. Este estudio pretende reconocer el perfil psicológico de las personas que se han sometido a un programa de tratamiento para la modificación de los comportamientos peligrosos para la conducción, requisito básico por parte del interno si quiere acceder a beneficios penitenciarios.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We present two new stabilized high-resolution numerical methods for the convection–diffusion–reaction (CDR) and the Helmholtz equations respectively. The work embarks upon a priori analysis of some consistency recovery procedures for some stabilization methods belonging to the Petrov–Galerkin framework. It was found that the use of some standard practices (e.g. M-Matrices theory) for the design of essentially non-oscillatory numerical methods is not feasible when consistency recovery methods are employed. Hence, with respect to convective stabilization, such recovery methods are not preferred. Next, we present the design of a high-resolution Petrov–Galerkin (HRPG) method for the 1D CDR problem. The problem is studied from a fresh point of view, including practical implications on the formulation of the maximum principle, M-Matrices theory, monotonicity and total variation diminishing (TVD) finite volume schemes. The current method is next in line to earlier methods that may be viewed as an upwinding plus a discontinuity-capturing operator. Finally, some remarks are made on the extension of the HRPG method to multidimensions. Next, we present a new numerical scheme for the Helmholtz equation resulting in quasi-exact solutions. The focus is on the approximation of the solution to the Helmholtz equation in the interior of the domain using compact stencils. Piecewise linear/bilinear polynomial interpolation are considered on a structured mesh/grid. The only a priori requirement is to provide a mesh/grid resolution of at least eight elements per wavelength. No stabilization parameters are involved in the definition of the scheme. The scheme consists of taking the average of the equation stencils obtained by the standard Galerkin finite element method and the classical finite difference method. Dispersion analysis in 1D and 2D illustrate the quasi-exact properties of this scheme. Finally, some remarks are made on the extension of the scheme to unstructured meshes by designing a method within the Petrov–Galerkin framework.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Liberalism claims that for a subject S to be justified in believing p, a proposition about the external world, on the basis of his senses it is not necessary to be antecedently justified in believing propositions as there is an external world. On the other hand, conservatism claims that to be justified in believing that p on the basis of one’s perception, one must have antecedent justification to believe that p. Intuitively, we are inclined to think that liberalism about the structure of perceptual justification fits better with our epistemic practices. We acknowledge that, although we cannot produce warrant for the background belief in the external world, our empirical beliefs can be perceptually justified. However, I am interested in arguing that conservatism is theoretically better supported than liberalism. The first reason to defend this is based on the fact that in embracing liberalism dogmatism is affected by pervasive problems. The second one comes from recognizing the strength of the argument based on the thesis that experience is theory-laden. But not all are advantages for conservatism. Conservatism is presupposed in contemporary formulations of scepticism through the requirement of prior justification for background assumptions, and this fact compels anti-sceptical conservatives to conceive a non-evidential form of warrant, entitlement, to contest the sceptical threat My main worry is that, although the path of entitlement has some prospects to succeed, this new notion of justification seems to be posed ad hoc for conservatives to solve the sceptical problem. These contents are organized along the three chapters. The result of chapter 1 is a pattern of sceptical argument formed by two premises: P1*, a conservative principle, and P2*. In chapter 2 and chapter 3 two anti-sceptical proposals against the argument sketched in chapter 1 are described. Chapter 2 is devoted to explain and assess a first anti-sceptical proposal that denies P1*: dogmatism. Moreover, in chapter 3, another anti-sceptical strategy is described (the route of entitlement) that contests scepticism denying the plausibility of P2*.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La validació de mètodes és un dels pilars fonamentals de l’assegurament de la qualitat en els laboratoris d’anàlisi, tal i com queda reflectit en la norma ISO/IEC 17025. És, per tant, un aspecte que cal abordar en els plans d’estudis dels presents i dels futurs graus en Química. Existeix molta bibliografia relativa a la validació de mètodes, però molt sovint aquesta s’utilitza poc, degut a la dificultat manifesta de processar tota la informació disponible i aplicar-la al laboratori i als problemes concrets. Una altra de les limitacions en aquest camps és la manca de programaris adaptats a les necessitats del laboratori. Moltes de les rutines estadístiques que es fan servir en la validació de mètodes són adaptacions fetes amb Microsoft Excel o venen incorporades en paquets estadístics gegants, amb un alt grau de complexitat. És per aquest motiu que l’objectiu del projecte ha estat generar un programari per la validació de mètodes i l’assegurament de la qualitat dels resultats analítics, que incorporés únicament les rutines necessàries. Específicament, el programari incorpora les funcions estadístiques necessàries per a verificar l’exactitud i avaluar la precisió d’un mètode analític. El llenguatge de programació triat ha estat el Java en la seva versió 6. La part de creació del programari ha constat de les següents etapes: recollida de requisits, anàlisi dels requisits, disseny del programari en mòduls, programació d les funcions del programa i de la interfície gràfica, creació de tests d’integració i prova amb usuaris reals, i, finalment, la posada en funcionament del programari (creació de l’instal·lador i distribució del programari).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this work discuss the use of the standard model for the calculation of the solvency capital requirement (SCR) when the company aims to use the specific parameters of the model on the basis of the experience of its portfolio. In particular, this analysis focuses on the formula presented in the latest quantitative impact study (2010 CEIOPS) for non-life underwriting premium and reserve risk. One of the keys of the standard model for premium and reserves risk is the correlation matrix between lines of business. In this work we present how the correlation matrix between lines of business could be estimated from a quantitative perspective, as well as the possibility of using a credibility model for the estimation of the matrix of correlation between lines of business that merge qualitative and quantitative perspective.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Investigación producida a partir de una estancia en la Université Paul Sabatier, Toulouse III - CNRS, entre 2007 y 2009. Durante los últimos años la investigación centrada en nuevos materiales de tamaño nanoscòpico (nanopartículas, quantum dots, nanotubos de carbono,...) ha experimentado un crecimiento considerable debido a las especiales propiedades de los "nanoobjetos" con respecto a magnetismo, catálisis, conductividad eléctrica, etc ... Sin embargo, hoy en día todavía existen pocas aplicaciones de las nanopartículas en temas medioambientales. Uno de los motivos de esta situación es la posible toxicidad de los nanoobjetos, pero existe también una dificultad tecnológica dado que las nanopartículas tienden a agregarse y es muy difícil manipularlas sin que pierdan sus propiedades especiales. Así, aunque la preparación de materiales catalíticos nanoestructurados es muy interesante, es necesario definir nuevas estrategias para prepararlos. Este proyecto de investigación tiene como objetivo principal la preparación de nuevas membranas catalíticas con nanopartículas metálicas en el interior para aplicaciones de tratamiento de agua. La innovación principal de este proyecto consiste en que las nanopartículas no son introducidas en la matriz polimérica una vez preformadas sino que se hacen crecer en el interior de la matriz polimérica mediante una síntesis intermatricial. El único requisito es que la matriz polimérica contenga grupos funcionales capaces de interaccionar con los precursores de las nanopartículas. Una vez finalizado el proyecto se puede afirmar que se han logrado parte de los objetivos planteados inicialmente. Concreamente ha quedado demostrado que se pueden sintetizar nanopartículas metálicas de metales nobles (platino y paladio) en membranas de fibra hueca de micro- y ultrafiltración siguiendo dos metodologías diferentes: modificación fotoquímica de polímeros y deposición de multicapas de polielectrolitos. Los nuevos materiales son efectivos en la catálisis de reducción de un compuesto modelo (4-nitrofenol con borohidruro de sodio) y, en general, los resultados han sido satisfactorios. Sin embargo, se ha puesto de manifiesto que el uso de un reactivo que genera hidrógeno gas en contacto con la solución acuosa dificulta enormemente la implementación de la reacción catalítica al ser el medio de la membrana una matriz porosa. Así, como conclusión principal se puede decir que se han encontrado las limitaciones de esta aproximación y se sugieren dos posibilidades de continuidad: la utilización de las membranas sintetizadas en contactores gas-líquido o bien el estudio y optimización del sistema de membrana en configuración de membranas planas, un objetivo más asequible dada su menor complejidad. Esta investigación se ha realizado en el seno del “Laboratoire de Génie Chimique” de Toulouse y del Departamento de Química de la Michigan State University y ha sido posible gracias a un proyecto financiado por la “Agence National pour la Recherce” y al programa PERMEANT entre el CNRS y la NSF.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Projecte de recerca elaborat a partir d’una estada a la Dublin Institute for Advanced Studies, Irlanda, entre setembre i desembre del 2009.En els últims anys s’ha realitzat un important avanç en la modelització tridimensional en magnetotel•lúrica (MT) gracies a l'augment d’algorismes d’inversió tridimensional disponibles. Aquests codis utilitzen diferents formulacions del problema (diferències finites, elements finits o equacions integrals), diverses orientacions del sistema de coordenades i, o bé en el conveni de signe, més o menys, en la dependència temporal. Tanmateix, les impedàncies resultants per a tots els valors d'aquests codis han de ser les mateixes una vegada que es converteixen a un conveni de signe comú i al mateix sistema de coordenades. Per comparar els resultats dels diferents codis hem dissenyat models diferents de resistivitats amb estructures tridimensional incrustades en un subsòl homogeni. Un requisit fonamental d’aquests models és que generin impedàncies amb valors importants en els elements de la diagonal, que no són menyspreables. A diferència dels casos del modelització de dades magnetotel.lúriques unidimensionals i bidimensionals, pel al cas tridimensional aquests elements de les diagonals del tensor d'impedància porten informació sobre l'estructura de la resistivitat. Un dels models de terreny s'utilitza per comparar els diferents algoritmes que és la base per posterior inversió dels diferents codis. Aquesta comparació va ser seguida de la inversió per recuperar el conjunt de dades d'una estructura coneguda.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aquest projecte presenta un estudi per a la implantació d’un Enterprise Resource Planning (ERP) en una empresa de muntatges elèctrics. Per a això es mostra una primera part teòrica on es dóna a conèixer tot el que comporta el terme ERP i el seu procés d'implantació. A continuació s'estudien els requeriments i necessitats de l'empresa objecte de l'estudi. Per a finalitzar, s'estudien tres solucions existents el mercat actual de ERP’s i es selecciona la que millor s'adapta a les necessitats i requeriments en vistes a una hipotètica implantació.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aquest treball de fi de carrera, com descriu el seu títol, consisteix a dissenyar i implementar un sistema de control de projectes. Com tot projecte, complirà el requisit de disposar d'un pla que permeti fer un seguiment dels terminis d'execució, de les fites establertes i un control dels lliurables identificats. Pel fet de tractar-se del desenvolupament d'un sistema informàtic, considerarà les etapes d'especificació de requisits, anàlisi, disseny, codificació, proves unitàries i proves funcionals, i es generaran els informes pertinents que serveixin de documentació i de referència en les etapes posteriors. Des d'un punt de vista tecnològic, permetrà aprofundir en el coneixement de l'estructura de funcionament del PL/SQL d'Oracle (crides a procediments i, especialment, al tractament).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El propòsit d'aquesta comunicació és resumir les diferents iniciatives dutes a terme a la Universitat d'Alacant per a la promoció de l'accés obert a la recerca i la docència generades pels seus membres, així com els diferents incentius destinats a afavorir l'autoarxivament en el seu Repositori institucional, RUA. Fins al moment a la Universitat d'Alacant s'ha optat per realitzar diferents convocatòries amb incentius econòmics, dirigides tant a personal investigador com a docent, en què s'especifica l'obligatorietat d'arxivar en el Repositori els materials generats arran d'aquestes convocatòries. Resumirem els resultats obtinguts fins al moment, indicant els pros i els contres d'aquest sistema d'incentius, i assenyalarem els nous reptes que se'ns presenten a curt i mitjà termini, amb especial referència a la proposició d'un nou model de política a adoptar per l'arxiu i difusió de la producció científica i docent generada a la nostra Universitat.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Detecting changes between images of the same scene taken at different times is of great interest for monitoring and understanding the environment. It is widely used for on-land application but suffers from different constraints. Unfortunately, Change detection algorithms require highly accurate geometric and photometric registration. This requirement has precluded their use in underwater imagery in the past. In this paper, the change detection techniques available nowadays for on-land application were analyzed and a method to automatically detect the changes in sequences of underwater images is proposed. Target application scenarios are habitat restoration sites, or area monitoring after sudden impacts from hurricanes or ship groundings. The method is based on the creation of a 3D terrain model from one image sequence over an area of interest. This model allows for synthesizing textured views that correspond to the same viewpoints of a second image sequence. The generated views are photometrically matched and corrected against the corresponding frames from the second sequence. Standard change detection techniques are then applied to find areas of difference. Additionally, the paper shows that it is possible to detect false positives, resulting from non-rigid objects, by applying the same change detection method to the first sequence exclusively. The developed method was able to correctly find the changes between two challenging sequences of images from a coral reef taken one year apart and acquired with two different cameras

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In several computer graphics areas, a refinement criterion is often needed to decide whether to goon or to stop sampling a signal. When the sampled values are homogeneous enough, we assume thatthey represent the signal fairly well and we do not need further refinement, otherwise more samples arerequired, possibly with adaptive subdivision of the domain. For this purpose, a criterion which is verysensitive to variability is necessary. In this paper, we present a family of discrimination measures, thef-divergences, meeting this requirement. These convex functions have been well studied and successfullyapplied to image processing and several areas of engineering. Two applications to global illuminationare shown: oracles for hierarchical radiosity and criteria for adaptive refinement in ray-tracing. Weobtain significantly better results than with classic criteria, showing that f-divergences are worth furtherinvestigation in computer graphics. Also a discrimination measure based on entropy of the samples forrefinement in ray-tracing is introduced. The recursive decomposition of entropy provides us with a naturalmethod to deal with the adaptive subdivision of the sampling region

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A condition needed for testing nested hypotheses from a Bayesianviewpoint is that the prior for the alternative model concentratesmass around the small, or null, model. For testing independencein contingency tables, the intrinsic priors satisfy this requirement.Further, the degree of concentration of the priors is controlled bya discrete parameter m, the training sample size, which plays animportant role in the resulting answer regardless of the samplesize.In this paper we study robustness of the tests of independencein contingency tables with respect to the intrinsic priors withdifferent degree of concentration around the null, and comparewith other “robust” results by Good and Crook. Consistency ofthe intrinsic Bayesian tests is established.We also discuss conditioning issues and sampling schemes,and argue that conditioning should be on either one margin orthe table total, but not on both margins.Examples using real are simulated data are given

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this note, we consider claims problems with indivisible goods. Specifically, by applying recursively the P-rights lower bound (Jiménez-Gómez and Marco-Gil (2008)), we ensure the fulfillment of Weak Order Preservation, considered by many authors as a minimal requirement of fairness. Moreover, we retrieve the Discrete Constrained Equal Losses and the Discrete Constrained Equal Awards rules (Herrero and Martíınez (2008)). Finally, by the recursive double imposition of a lower and an upper bound, we obtain the average between them. Keywords: Claims problems, Indivisibilities, Order Preservation, Constrained Egalitarian rules, Midpoint. JEL classification: C71, D63, D71.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Engineering of negotiation model allows to develop effective heuristic for business intelligence. Digital ecosystems demand open negotiation models. To define in advance effective heuristics is not compliant with the requirement of openness. The new challenge is to develop business intelligence in advance exploiting an adaptive approach. The idea is to learn business strategy once new negotiation model rise in the e-market arena. In this paper we present how recommendation technology may be deployed in an open negotiation environment where the interaction protocol models are not known in advance. The solution we propose is delivered as part of the ONE Platform, open source software that implements a fully distributed open environment for business negotiation