16 resultados para interrogation to decide whether person appropriate party to proceeding

em Universidad Politécnica de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nuestro cerebro contiene cerca de 1014 sinapsis neuronales. Esta enorme cantidad de conexiones proporciona un entorno ideal donde distintos grupos de neuronas se sincronizan transitoriamente para provocar la aparición de funciones cognitivas, como la percepción, el aprendizaje o el pensamiento. Comprender la organización de esta compleja red cerebral en base a datos neurofisiológicos, representa uno de los desafíos más importantes y emocionantes en el campo de la neurociencia. Se han propuesto recientemente varias medidas para evaluar cómo se comunican las diferentes partes del cerebro a diversas escalas (células individuales, columnas corticales, o áreas cerebrales). Podemos clasificarlos, según su simetría, en dos grupos: por una parte, la medidas simétricas, como la correlación, la coherencia o la sincronización de fase, que evalúan la conectividad funcional (FC); mientras que las medidas asimétricas, como la causalidad de Granger o transferencia de entropía, son capaces de detectar la dirección de la interacción, lo que denominamos conectividad efectiva (EC). En la neurociencia moderna ha aumentado el interés por el estudio de las redes funcionales cerebrales, en gran medida debido a la aparición de estos nuevos algoritmos que permiten analizar la interdependencia entre señales temporales, además de la emergente teoría de redes complejas y la introducción de técnicas novedosas, como la magnetoencefalografía (MEG), para registrar datos neurofisiológicos con gran resolución. Sin embargo, nos hallamos ante un campo novedoso que presenta aun varias cuestiones metodológicas sin resolver, algunas de las cuales trataran de abordarse en esta tesis. En primer lugar, el creciente número de aproximaciones para determinar la existencia de FC/EC entre dos o más señales temporales, junto con la complejidad matemática de las herramientas de análisis, hacen deseable organizarlas todas en un paquete software intuitivo y fácil de usar. Aquí presento HERMES (http://hermes.ctb.upm.es), una toolbox en MatlabR, diseñada precisamente con este fin. Creo que esta herramienta será de gran ayuda para todos aquellos investigadores que trabajen en el campo emergente del análisis de conectividad cerebral y supondrá un gran valor para la comunidad científica. La segunda cuestión practica que se aborda es el estudio de la sensibilidad a las fuentes cerebrales profundas a través de dos tipos de sensores MEG: gradiómetros planares y magnetómetros, esta aproximación además se combina con un enfoque metodológico, utilizando dos índices de sincronización de fase: phase locking value (PLV) y phase lag index (PLI), este ultimo menos sensible a efecto la conducción volumen. Por lo tanto, se compara su comportamiento al estudiar las redes cerebrales, obteniendo que magnetómetros y PLV presentan, respectivamente, redes más densamente conectadas que gradiómetros planares y PLI, por los valores artificiales que crea el problema de la conducción de volumen. Sin embargo, cuando se trata de caracterizar redes epilépticas, el PLV ofrece mejores resultados, debido a la gran dispersión de las redes obtenidas con PLI. El análisis de redes complejas ha proporcionado nuevos conceptos que mejoran caracterización de la interacción de sistemas dinámicos. Se considera que una red está compuesta por nodos, que simbolizan sistemas, cuyas interacciones se representan por enlaces, y su comportamiento y topología puede caracterizarse por un elevado número de medidas. Existe evidencia teórica y empírica de que muchas de ellas están fuertemente correlacionadas entre sí. Por lo tanto, se ha conseguido seleccionar un pequeño grupo que caracteriza eficazmente estas redes, y condensa la información redundante. Para el análisis de redes funcionales, la selección de un umbral adecuado para decidir si un determinado valor de conectividad de la matriz de FC es significativo y debe ser incluido para un análisis posterior, se convierte en un paso crucial. En esta tesis, se han obtenido resultados más precisos al utilizar un test de subrogadas, basado en los datos, para evaluar individualmente cada uno de los enlaces, que al establecer a priori un umbral fijo para la densidad de conexiones. Finalmente, todas estas cuestiones se han aplicado al estudio de la epilepsia, caso práctico en el que se analizan las redes funcionales MEG, en estado de reposo, de dos grupos de pacientes epilépticos (generalizada idiopática y focal frontal) en comparación con sujetos control sanos. La epilepsia es uno de los trastornos neurológicos más comunes, con más de 55 millones de afectados en el mundo. Esta enfermedad se caracteriza por la predisposición a generar ataques epilépticos de actividad neuronal anormal y excesiva o bien síncrona, y por tanto, es el escenario perfecto para este tipo de análisis al tiempo que presenta un gran interés tanto desde el punto de vista clínico como de investigación. Los resultados manifiestan alteraciones especificas en la conectividad y un cambio en la topología de las redes en cerebros epilépticos, desplazando la importancia del ‘foco’ a la ‘red’, enfoque que va adquiriendo relevancia en las investigaciones recientes sobre epilepsia. ABSTRACT There are about 1014 neuronal synapses in the human brain. This huge number of connections provides the substrate for neuronal ensembles to become transiently synchronized, producing the emergence of cognitive functions such as perception, learning or thinking. Understanding the complex brain network organization on the basis of neuroimaging data represents one of the most important and exciting challenges for systems neuroscience. Several measures have been recently proposed to evaluate at various scales (single cells, cortical columns, or brain areas) how the different parts of the brain communicate. We can classify them, according to their symmetry, into two groups: symmetric measures, such as correlation, coherence or phase synchronization indexes, evaluate functional connectivity (FC); and on the other hand, the asymmetric ones, such as Granger causality or transfer entropy, are able to detect effective connectivity (EC) revealing the direction of the interaction. In modern neurosciences, the interest in functional brain networks has increased strongly with the onset of new algorithms to study interdependence between time series, the advent of modern complex network theory and the introduction of powerful techniques to record neurophysiological data, such as magnetoencephalography (MEG). However, when analyzing neurophysiological data with this approach several questions arise. In this thesis, I intend to tackle some of the practical open problems in the field. First of all, the increase in the number of time series analysis algorithms to study brain FC/EC, along with their mathematical complexity, creates the necessity of arranging them into a single, unified toolbox that allow neuroscientists, neurophysiologists and researchers from related fields to easily access and make use of them. I developed such a toolbox for this aim, it is named HERMES (http://hermes.ctb.upm.es), and encompasses several of the most common indexes for the assessment of FC and EC running for MatlabR environment. I believe that this toolbox will be very helpful to all the researchers working in the emerging field of brain connectivity analysis and will entail a great value for the scientific community. The second important practical issue tackled in this thesis is the evaluation of the sensitivity to deep brain sources of two different MEG sensors: planar gradiometers and magnetometers, in combination with the related methodological approach, using two phase synchronization indexes: phase locking value (PLV) y phase lag index (PLI), the latter one being less sensitive to volume conduction effect. Thus, I compared their performance when studying brain networks, obtaining that magnetometer sensors and PLV presented higher artificial values as compared with planar gradiometers and PLI respectively. However, when it came to characterize epileptic networks it was the PLV which gives better results, as PLI FC networks where very sparse. Complex network analysis has provided new concepts which improved characterization of interacting dynamical systems. With this background, networks could be considered composed of nodes, symbolizing systems, whose interactions with each other are represented by edges. A growing number of network measures is been applied in network analysis. However, there is theoretical and empirical evidence that many of these indexes are strongly correlated with each other. Therefore, in this thesis I reduced them to a small set, which could more efficiently characterize networks. Within this framework, selecting an appropriate threshold to decide whether a certain connectivity value of the FC matrix is significant and should be included in the network analysis becomes a crucial step, in this thesis, I used the surrogate data tests to make an individual data-driven evaluation of each of the edges significance and confirmed more accurate results than when just setting to a fixed value the density of connections. All these methodologies were applied to the study of epilepsy, analysing resting state MEG functional networks, in two groups of epileptic patients (generalized and focal epilepsy) that were compared to matching control subjects. Epilepsy is one of the most common neurological disorders, with more than 55 million people affected worldwide, characterized by its predisposition to generate epileptic seizures of abnormal excessive or synchronous neuronal activity, and thus, this scenario and analysis, present a great interest from both the clinical and the research perspective. Results revealed specific disruptions in connectivity and network topology and evidenced that networks’ topology is changed in epileptic brains, supporting the shift from ‘focus’ to ‘networks’ which is gaining importance in modern epilepsy research.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La computación ubicua está extendiendo su aplicación desde entornos específicos hacia el uso cotidiano; el Internet de las cosas (IoT, en inglés) es el ejemplo más brillante de su aplicación y de la complejidad intrínseca que tiene, en comparación con el clásico desarrollo de aplicaciones. La principal característica que diferencia la computación ubicua de los otros tipos está en como se emplea la información de contexto. Las aplicaciones clásicas no usan en absoluto la información de contexto o usan sólo una pequeña parte de ella, integrándola de una forma ad hoc con una implementación específica para la aplicación. La motivación de este tratamiento particular se tiene que buscar en la dificultad de compartir el contexto con otras aplicaciones. En realidad lo que es información de contexto depende del tipo de aplicación: por poner un ejemplo, para un editor de imágenes, la imagen es la información y sus metadatos, tales como la hora de grabación o los ajustes de la cámara, son el contexto, mientras que para el sistema de ficheros la imagen junto con los ajustes de cámara son la información, y el contexto es representado por los metadatos externos al fichero como la fecha de modificación o la de último acceso. Esto significa que es difícil compartir la información de contexto, y la presencia de un middleware de comunicación que soporte el contexto de forma explícita simplifica el desarrollo de aplicaciones para computación ubicua. Al mismo tiempo el uso del contexto no tiene que ser obligatorio, porque si no se perdería la compatibilidad con las aplicaciones que no lo usan, convirtiendo así dicho middleware en un middleware de contexto. SilboPS, que es nuestra implementación de un sistema publicador/subscriptor basado en contenido e inspirado en SIENA [11, 9], resuelve dicho problema extendiendo el paradigma con dos elementos: el Contexto y la Función de Contexto. El contexto representa la información contextual propiamente dicha del mensaje por enviar o aquella requerida por el subscriptor para recibir notificaciones, mientras la función de contexto se evalúa usando el contexto del publicador y del subscriptor. Esto permite desacoplar la lógica de gestión del contexto de aquella de la función de contexto, incrementando de esta forma la flexibilidad de la comunicación entre varias aplicaciones. De hecho, al utilizar por defecto un contexto vacío, las aplicaciones clásicas y las que manejan el contexto pueden usar el mismo SilboPS, resolviendo de esta forma la incompatibilidad entre las dos categorías. En cualquier caso la posible incompatibilidad semántica sigue existiendo ya que depende de la interpretación que cada aplicación hace de los datos y no puede ser solucionada por una tercera parte agnóstica. El entorno IoT conlleva retos no sólo de contexto, sino también de escalabilidad. La cantidad de sensores, el volumen de datos que producen y la cantidad de aplicaciones que podrían estar interesadas en manipular esos datos está en continuo aumento. Hoy en día la respuesta a esa necesidad es la computación en la nube, pero requiere que las aplicaciones sean no sólo capaces de escalar, sino de hacerlo de forma elástica [22]. Desgraciadamente no hay ninguna primitiva de sistema distribuido de slicing que soporte un particionamiento del estado interno [33] junto con un cambio en caliente, además de que los sistemas cloud actuales como OpenStack u OpenNebula no ofrecen directamente una monitorización elástica. Esto implica que hay un problema bilateral: cómo puede una aplicación escalar de forma elástica y cómo monitorizar esa aplicación para saber cuándo escalarla horizontalmente. E-SilboPS es la versión elástica de SilboPS y se adapta perfectamente como solución para el problema de monitorización, gracias al paradigma publicador/subscriptor basado en contenido y, a diferencia de otras soluciones [5], permite escalar eficientemente, para cumplir con la carga de trabajo sin sobre-provisionar o sub-provisionar recursos. Además está basado en un algoritmo recientemente diseñado que muestra como añadir elasticidad a una aplicación con distintas restricciones sobre el estado: sin estado, estado aislado con coordinación externa y estado compartido con coordinación general. Su evaluación enseña como se pueden conseguir notables speedups, siendo el nivel de red el principal factor limitante: de hecho la eficiencia calculada (ver Figura 5.8) demuestra cómo se comporta cada configuración en comparación con las adyacentes. Esto permite conocer la tendencia actual de todo el sistema, para saber si la siguiente configuración compensará el coste que tiene con la ganancia que lleva en el throughput de notificaciones. Se tiene que prestar especial atención en la evaluación de los despliegues con igual coste, para ver cuál es la mejor solución en relación a una carga de trabajo dada. Como último análisis se ha estimado el overhead introducido por las distintas configuraciones a fin de identificar el principal factor limitante del throughput. Esto ayuda a determinar la parte secuencial y el overhead de base [26] en un despliegue óptimo en comparación con uno subóptimo. Efectivamente, según el tipo de carga de trabajo, la estimación puede ser tan baja como el 10 % para un óptimo local o tan alta como el 60 %: esto ocurre cuando se despliega una configuración sobredimensionada para la carga de trabajo. Esta estimación de la métrica de Karp-Flatt es importante para el sistema de gestión porque le permite conocer en que dirección (ampliar o reducir) es necesario cambiar el despliegue para mejorar sus prestaciones, en lugar que usar simplemente una política de ampliación. ABSTRACT The application of pervasive computing is extending from field-specific to everyday use. The Internet of Things (IoT) is the shiniest example of its application and of its intrinsic complexity compared with classical application development. The main characteristic that differentiates pervasive from other forms of computing lies in the use of contextual information. Some classical applications do not use any contextual information whatsoever. Others, on the other hand, use only part of the contextual information, which is integrated in an ad hoc fashion using an application-specific implementation. This information is handled in a one-off manner because of the difficulty of sharing context across applications. As a matter of fact, the application type determines what the contextual information is. For instance, for an imaging editor, the image is the information and its meta-data, like the time of the shot or camera settings, are the context, whereas, for a file-system application, the image, including its camera settings, is the information and the meta-data external to the file, like the modification date or the last accessed timestamps, constitute the context. This means that contextual information is hard to share. A communication middleware that supports context decidedly eases application development in pervasive computing. However, the use of context should not be mandatory; otherwise, the communication middleware would be reduced to a context middleware and no longer be compatible with non-context-aware applications. SilboPS, our implementation of content-based publish/subscribe inspired by SIENA [11, 9], solves this problem by adding two new elements to the paradigm: the context and the context function. Context represents the actual contextual information specific to the message to be sent or that needs to be notified to the subscriber, whereas the context function is evaluated using the publisher’s context and the subscriber’s context to decide whether the current message and context are useful for the subscriber. In this manner, context logic management is decoupled from context management, increasing the flexibility of communication and usage across different applications. Since the default context is empty, context-aware and classical applications can use the same SilboPS, resolving the syntactic mismatch that there is between the two categories. In any case, the possible semantic mismatch is still present because it depends on how each application interprets the data, and it cannot be resolved by an agnostic third party. The IoT environment introduces not only context but scaling challenges too. The number of sensors, the volume of the data that they produce and the number of applications that could be interested in harvesting such data are growing all the time. Today’s response to the above need is cloud computing. However, cloud computing applications need to be able to scale elastically [22]. Unfortunately there is no slicing, as distributed system primitives that support internal state partitioning [33] and hot swapping and current cloud systems like OpenStack or OpenNebula do not provide elastic monitoring out of the box. This means there is a two-sided problem: 1) how to scale an application elastically and 2) how to monitor the application and know when it should scale in or out. E-SilboPS is the elastic version of SilboPS. I t is the solution for the monitoring problem thanks to its content-based publish/subscribe nature and, unlike other solutions [5], it scales efficiently so as to meet workload demand without overprovisioning or underprovisioning. Additionally, it is based on a newly designed algorithm that shows how to add elasticity in an application with different state constraints: stateless, isolated stateful with external coordination and shared stateful with general coordination. Its evaluation shows that it is able to achieve remarkable speedups where the network layer is the main limiting factor: the calculated efficiency (see Figure 5.8) shows how each configuration performs with respect to adjacent configurations. This provides insight into the actual trending of the whole system in order to predict if the next configuration would offset its cost against the resulting gain in notification throughput. Particular attention has been paid to the evaluation of same-cost deployments in order to find out which one is the best for the given workload demand. Finally, the overhead introduced by the different configurations has been estimated to identify the primary limiting factor for throughput. This helps to determine the intrinsic sequential part and base overhead [26] of an optimal versus a suboptimal deployment. Depending on the type of workload, this can be as low as 10% in a local optimum or as high as 60% when an overprovisioned configuration is deployed for a given workload demand. This Karp-Flatt metric estimation is important for system management because it indicates the direction (scale in or out) in which the deployment has to be changed in order to improve its performance instead of simply using a scale-out policy.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A membrane system is a massive parallel system, which is inspired by the living cells when processing information. As a part of unconventional computing, membrane systems are proven to be effective in solving complex problems. A new factor is introduced. This factor can decide whether a technique is worthwhile being used or not. The use of this factor provides the best chances for selecting the strategy for the rules application phase. Referring to the “best” is in reference to the one that reduces execution time within the membrane system. A pre-analysis of the membrane system determines the P-factor, which in return advises the optimal strategy to use. In particular, this paper compares the use of two strategies based on the P-factor and provides results upon the application of them. The paper concludes that the P-factor is an effective indicator for choosing the right strategy to implement the rules application phase in membrane systems.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El proyecto geotécnico de columnas de grava tiene todas las incertidumbres asociadas a un proyecto geotécnico y además hay que considerar las incertidumbres inherentes a la compleja interacción entre el terreno y la columna, la puesta en obra de los materiales y el producto final conseguido. Este hecho es común a otros tratamientos del terreno cuyo objetivo sea, en general, la mejora “profunda”. Como los métodos de fiabilidad (v.gr., FORM, SORM, Monte Carlo, Simulación Direccional) dan respuesta a la incertidumbre de forma mucho más consistente y racional que el coeficiente de seguridad tradicional, ha surgido un interés reciente en la aplicación de técnicas de fiabilidad a la ingeniería geotécnica. Si bien la aplicación concreta al proyecto de técnicas de mejora del terreno no es tan extensa. En esta Tesis se han aplicado las técnicas de fiabilidad a algunos aspectos del proyecto de columnas de grava (estimación de asientos, tiempos de consolidación y aumento de la capacidad portante) con el objetivo de efectuar un análisis racional del proceso de diseño, considerando los efectos que tienen la incertidumbre y la variabilidad en la seguridad del proyecto, es decir, en la probabilidad de fallo. Para alcanzar este objetivo se ha utilizado un método analítico avanzado debido a Castro y Sagaseta (2009), que mejora notablemente la predicción de las variables involucradas en el diseño del tratamiento y su evolución temporal (consolidación). Se ha estudiado el problema del asiento (valor y tiempo de consolidación) en el contexto de la incertidumbre, analizando dos modos de fallo: i) el primer modo representa la situación en la que es posible finalizar la consolidación primaria, parcial o totalmente, del terreno mejorado antes de la ejecución de la estructura final, bien sea por un precarga o porque la carga se pueda aplicar gradualmente sin afectar a la estructura o instalación; y ii) por otra parte, el segundo modo de fallo implica que el terreno mejorado se carga desde el instante inicial con la estructura definitiva o instalación y se comprueba que el asiento final (transcurrida la consolidación primaria) sea lo suficientemente pequeño para que pueda considerarse admisible. Para trabajar con valores realistas de los parámetros geotécnicos, los datos se han obtenido de un terreno real mejorado con columnas de grava, consiguiendo, de esta forma, un análisis de fiabilidad más riguroso. La conclusión más importante, obtenida del análisis de este caso particular, es la necesidad de precargar el terreno mejorado con columnas de grava para conseguir que el asiento ocurra de forma anticipada antes de la aplicación de la carga correspondiente a la estructura definitiva. De otra forma la probabilidad de fallo es muy alta, incluso cuando el margen de seguridad determinista pudiera ser suficiente. En lo que respecta a la capacidad portante de las columnas, existen un buen número de métodos de cálculo y de ensayos de carga (tanto de campo como de laboratorio) que dan predicciones dispares del valor de la capacidad última de las columnas de grava. En las mallas indefinidas de columnas, los resultados del análisis de fiabilidad han confirmado las consideraciones teóricas y experimentales existentes relativas a que no se produce fallo por estabilidad, obteniéndose una probabilidad de fallo prácticamente nula para este modo de fallo. Sin embargo, cuando se analiza, en el contexto de la incertidumbre, la capacidad portante de pequeños grupos de columnas bajo zapatas se ha obtenido, para un caso con unos parámetros geotécnicos típicos, que la probabilidad de fallo es bastante alta, por encima de los umbrales normalmente admitidos para Estados Límite Últimos. Por último, el trabajo de recopilación sobre los métodos de cálculo y de ensayos de carga sobre la columna aislada ha permitido generar una base de datos suficientemente amplia como para abordar una actualización bayesiana de los métodos de cálculo de la columna de grava aislada. El marco bayesiano de actualización ha resultado de utilidad en la mejora de las predicciones de la capacidad última de carga de la columna, permitiendo “actualizar” los parámetros del modelo de cálculo a medida que se dispongan de ensayos de carga adicionales para un proyecto específico. Constituye una herramienta valiosa para la toma de decisiones en condiciones de incertidumbre ya que permite comparar el coste de los ensayos adicionales con el coste de una posible rotura y , en consecuencia, decidir si es procedente efectuar dichos ensayos. The geotechnical design of stone columns has all the uncertainties associated with a geotechnical project and those inherent to the complex interaction between the soil and the column, the installation of the materials and the characteristics of the final (as built) column must be considered. This is common to other soil treatments aimed, in general, to “deep” soil improvement. Since reliability methods (eg, FORM, SORM, Monte Carlo, Directional Simulation) deals with uncertainty in a much more consistent and rational way than the traditional safety factor, recent interest has arisen in the application of reliability techniques to geotechnical engineering. But the specific application of these techniques to soil improvement projects is not as extensive. In this thesis reliability techniques have been applied to some aspects of stone columns design (estimated settlements, consolidation times and increased bearing capacity) to make a rational analysis of the design process, considering the effects of uncertainty and variability on the safety of the project, i.e., on the probability of failure. To achieve this goal an advanced analytical method due to Castro and Sagaseta (2009), that significantly improves the prediction of the variables involved in the design of treatment and its temporal evolution (consolidation), has been employed. This thesis studies the problem of stone column settlement (amount and speed) in the context of uncertainty, analyzing two failure modes: i) the first mode represents the situation in which it is possible to cause primary consolidation, partial or total, of the improved ground prior to implementation of the final structure, either by a pre-load or because the load can be applied gradually or programmed without affecting the structure or installation; and ii) on the other hand, the second mode implies that the improved ground is loaded from the initial instant with the final structure or installation, expecting that the final settlement (elapsed primary consolidation) is small enough to be allowable. To work with realistic values of geotechnical parameters, data were obtained from a real soil improved with stone columns, hence producing a more rigorous reliability analysis. The most important conclusion obtained from the analysis of this particular case is the need to preload the stone columns-improved soil to make the settlement to occur before the application of the load corresponding to the final structure. Otherwise the probability of failure is very high, even when the deterministic safety margin would be sufficient. With respect to the bearing capacity of the columns, there are numerous methods of calculation and load tests (both for the field and the laboratory) giving different predictions of the ultimate capacity of stone columns. For indefinite columns grids, the results of reliability analysis confirmed the existing theoretical and experimental considerations that no failure occurs due to the stability failure mode, therefore resulting in a negligible probability of failure. However, when analyzed in the context of uncertainty (for a case with typical geotechnical parameters), results show that the probability of failure due to the bearing capacity failure mode of a group of columns is quite high, above thresholds usually admitted for Ultimate Limit States. Finally, the review of calculation methods and load tests results for isolated columns, has generated a large enough database, that allowed a subsequent Bayesian updating of the methods for calculating the bearing capacity of isolated stone columns. The Bayesian updating framework has been useful to improve the predictions of the ultimate load capacity of the column, allowing to "update" the parameters of the calculation model as additional load tests become available for a specific project. Moreover, it is a valuable tool for decision making under uncertainty since it is possible to compare the cost of further testing to the cost of a possible failure and therefore to decide whether it is appropriate to perform such tests.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

All meta-analyses should include a heterogeneity analysis. Even so, it is not easy to decide whether a set of studies are homogeneous or heterogeneous because of the low statistical power of the statistics used (usually the Q test). Objective: Determine a set of rules enabling SE researchers to find out, based on the characteristics of the experiments to be aggregated, whether or not it is feasible to accurately detect heterogeneity. Method: Evaluate the statistical power of heterogeneity detection methods using a Monte Carlo simulation process. Results: The Q test is not powerful when the meta-analysis contains up to a total of about 200 experimental subjects and the effect size difference is less than 1. Conclusions: The Q test cannot be used as a decision-making criterion for meta-analysis in small sample settings like SE. Random effects models should be used instead of fixed effects models. Caution should be exercised when applying Q test-mediated decomposition into subgroups.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La mosca mediterránea de la fruta Ceratitis capitata (Wiedemann, 1824) está considerada una de las plagas clave para la fruticultura. El malatión es un insecticida organofosforado que fue empleado mayoritariamente en España para el control de C. capitata hasta 2009, año en el que dejó de utilizarse por no estar incluido en el anexo I de la Directiva Europea 91/414/ECC. El incremento del uso del malatión, debido a las graves pérdidas económicas causadas por C. capitata, provocó la aparición de poblaciones de campo resistentes. El estudio de una población resistente a malatión, recogida en Castelló en 2004, permitió la identificación de dos mecanismos de resistencia: una mutación puntual (G328A) en la acetilcolinesterasa (AChE) y un mecanismo de resistencia metabólica, probablemente mediado por carboxilesterasas. Teniendo en cuenta estos antecedentes, nos propusimos estudiar los mecanismos implicados en la resistencia a malatión en C. capitata. Además, durante el desarrollo de esta Tesis, el malatión fue sustituido por otros insecticidas como el espinosad y la lambda-cialotrina para el control de la plaga. En este nuevo contexto, es extremadamente importante analizar la susceptibilidad de poblaciones de campo frente a espinosad y estudiar la posible existencia de resistencia cruzada a estos insecticidas, así como sentar las bases para el estudio de futuros mecanismos de resistencia. En primer lugar, analizamos mediante bioensayos con dosis discriminante la susceptibilidad a malatión y espinosad en doce poblaciones de C. capitata de Andalucía, Aragón, Cataluña, Comunidad Valenciana e Islas Baleares; y nuestros resultados sugirieron la presencia de individuos resistentes a malatión en la mayoría de las poblaciones analizadas. En el caso del espinosad, observamos que la susceptibilidad a este insecticida de origen biológico fue elevada en la mayoría de las poblaciones, sin embargo, la población recogida en Xàbia (Alicante) mostró un nivel de susceptibilidad unas dos veces menor al resto de poblaciones. Mediante la selección en laboratorio, obtuvimos dos líneas resistentes a malatión, W-4Km y W-10Km, con unos niveles de resistencia con respeto a la línea susceptible C de 178 y 400 veces, respectivamente. Además, se seleccionó por primera vez en C. capitata una línea altamente resistente a espinosad (Xàbia-W-100s), que actualmente es unas 500 veces más resistente que la línea de laboratorio C. Con el objetivo de escoger la estrategia más adecuada para el manejo de la plaga, estudiamos la susceptibilidad a diferentes tipos de insecticidas en la línea resistente a malatión W- 4Km. En esta línea detectamos resistencia cruzada moderada a los organofosforados fentión, diazinón, fosmet, triclorfón y metil-clorpirifos (de 7 a 16 veces) y frente al carbamato carbaril, al piretroide lambda-cialotrina y al quimioesterilizante lufenurón (de 4 a 6 veces). Por otra parte, la resistencia cruzada frente a espinosad fue baja (1,5 veces). Es importante destacar que los niveles de resistencia estimados frente a todos los insecticidas fueron de uno o dos órdenes de magnitud inferiores al observado en la línea W-4Km frente a malatión (178 veces), hecho que podría deberse, al menos, a dos posibles hipótesis: que la mutación AChE G328A confiera mayor insensibilidad al malaoxón (forma activa del malatión) que a otros insecticidas que tienen como diana la AChE y/o, en segundo lugar, que el mecanismo de resistencia mediado por carboxilesterasas hidrolice el malatión de manera más eficiente que los otros insecticidas analizados. En el estudio de nuevos mecanismos de resistencia en C. capitata, por un lado, analizamos la diversidad de enzimas citocromo P450, asociadas con resistencia metabólica en otras especies, y por otro lado, desarrollamos un sistema para la detección de nuevas mutaciones puntuales que pudiesen aparecer en los genes que codifican la AChE (Ccace2) y la aliesterasa (Ccae7). Mediante el empleo de cebadores degenerados obtuvimos 37 genes CYP, que codifican enzimas P450, pertenecientes a cinco familias. Posteriormente, en un estudio de inducción con fenobarbital, observamos que la expresión de cuatro de los seis genes analizados era susceptible de ser inducida. Por otro lado, se puso a punto un sistema que permite amplificar y secuenciar, a partir de DNA genómico, los exones de los genes Ccace2 y Ccae7 en los que se han encontrado mutaciones relacionadas con resistencia a insecticidas en otras especies. Los resultados obtenidos facilitarán el estudio de nuevos mecanismos de resistencia mediados por estas enzimas en C. capitata. Se diseñó un método PCR-RFLP para identificar los individuos portadores de la mutación AChE G328A (alelo de resistencia Ccace2R) sin la necesidad de realizar bioensayos y que, además, permite detectar resistencia cuando ésta se encuentra a baja frecuencia. Según el análisis realizado, el alelo Ccace2R se observó en 25 de las 27 localidades españolas muestreadas en el territorio español, incluyendo las Islas Baleares y Canarias. Sin embargo, este alelo no se detectó en poblaciones procedentes de once países y de cinco continentes. El análisis de la presencia del alelo Ccace2R en las líneas resistentes a malatión durante el proceso de selección en el laboratorio mostró una rápida disminución de los homocigotos, tanto para el alelo susceptible como para el alelo de resistencia, en favor de los individuos heterocigotos. Así, después de 52 generaciones de selección, se observó que la totalidad de los individuos analizados de la línea W-10Km presentaban un genotipo heterocigoto para la mutación AChE G328A. Este desequilibrio contradice la segregación mendeliana esperada para un gen con dos alelos pero podría ser explicado por la existencia de una duplicación del gen Ccace2. La demostración de la presencia de esta duplicación se realizó mediante: i) el cruzamiento de individuos heterocigotos de la línea W-10Km con homocigotos susceptibles de la línea C, que dio lugar a una descendencia en la que el 100% de los individuos eran heterocigotos; ii) la evaluación del número de copias del gen Ccace2 por PCR cuantitativa en tiempo real (qPCR), que resultó dos veces mayor en individuos de la línea W-10Km en comparación con los de la línea C; iii) el análisis del nivel de expresión de Ccace2, que fue el doble en la línea W-10Km con respecto a la línea C, y iv) el estudio de la actividad AChE, que resultó mayor en los individuos de la línea W-10Km. Según los resultados obtenidos, una duplicación del gen Ccace2 provoca la coexistencia en un mismo cromosoma del alelo silvestre y del alelo mutado y, además, las dos copias del gen Ccace2, al estar ligadas, producen una heterocigosis permanente (Ccace2RS). De esta manera se explica que el hecho de que 100% de los individuos de la línea W-10Km mostrasen un perfil de restricción correspondiente a un individuo heterocigoto ya que, en realidad, eran homocigotos estructurales para la duplicación (genotipo CCace2RS/RS). Se ha detectado un coste biológico asociado a la duplicación que consiste en un incremento en la mortalidad acumulada de los adultos a partir del séptimo día después de la emergencia. La descripción de la duplicación Ccace2RS supone la identificación de un nuevo mecanismo de resistencia a malatión en C. capitata. Finalmente, mediante el diseño de un método de doble PCR-RFLP se determinó la presencia de la duplicación Ccace2RS en la mayoría de las poblaciones españolas. La proporción de individuos portadores de la duplicación osciló entre el 5% y el 35%, observándose los mayores valores de frecuencia en las poblaciones de C. capitata recogidas en la cuenca mediterránea. Podemos por lo tanto concluir que la resistencia a malatión asociada a la mutación AChE G328A y a la duplicación Ccace2RS está ampliamente establecida en las poblaciones españolas de C. capitata. Nuestros resultados desaconsejan la utilización del malatión (si fuera de nuevo autorizado) o de otros organofosforados para el control de esta plaga. Además, una de las líneas resistentes a malatión mostró resistencia cruzada frente a insecticidas con diferentes modos de acción y que se utilizan actualmente para el control de C. capitata, tales como lambda-cialotrina y lufenurón. La alta susceptibilidad a espinosad observada en las poblaciones españolas, así como la reducida resistencia cruzada estimada para este insecticida, sugieren que su utilización es adecuada para el control de la plaga. Sin embargo, la utilización de un sólo insecticida puede entrañar riesgos por favorecer la selección de resistencia, de hecho, mediante selección en laboratorio se obtuvo una población altamente resistente a espinosad. Por tanto, es recomendable implementar programas de control integrado y de manejo de la resistencia en C. capitata utilizando distintos sistemas de control e insecticidas con diferentes mecanismos de acción que permitan su sostenibilidad en el tiempo. Los sistemas de detección de alelos de resistencia desarrollados en este trabajo permitirán la detección precoz de resistencia en campo, facilitando la decisión sobre el sistema de control más adecuado. Además, los conocimientos generados podrán contribuir al desarrollo de nuevos sistemas de detección para otros mecanismos de resistencia. Abstract. The Mediterranean fruit fly, Ceratitis capitata (Wiedemann, 1824), is considered one of the most harmful pests in fruit crops. Until 2009, when malathion use was banned due to its not inclusion in the Annex I of Directive 91/414/EEC, the application of this organophosphate (OP) insecticide in Spain increased gradually due to the large economic losses caused by C. capitata. The increase in the frequency of treatments resulted in the development of resistant field populations. The study of a malathion-resistant population, collected in 2004 in Castelló (Comunidad Valenciana), allowed the identification of two resistance mechanisms: a single point mutation (G328A) in the target acetylcholinesterase (AChE), as well as a metabolic resistance mechanism, most likely carboxylesterase-mediated. Taking all the preceding into account, we studied the malathion resistance mechanisms in C. capitata. During the development of this PhD Thesis malathion use was banned by the European Union, being replaced by other insecticides, such as spinosad and lambda-cyhalotrin. Within this new working frame, the need to analyse the possible existence of cross-resistance to these insecticides and the susceptibility to spinosad in field populations was raised. This would define the baseline for future studies on resistance mechanisms. Firstly, through discriminant dose bioassays, we analysed malathion and spinosad susceptibility in twelve C. capitata populations from Andalucia, Aragon, Cataluña, C. Valenciana and the Baleares Islands. Our results suggest the presence of malathion-resistant individuals in most of the populations analysed. Regarding spinosad, we noticed a high susceptibility to this biologically derived insecticide in most of the populations, but in the one collected in Xabia (Alicante), which had a susceptibility level two times lower than the rest of populations. Through laboratory selection, we obtained two malathion-resistant strains, W-4Km and W-10Km, with resistance levels 178- and 400-fold, respectively, compared to the control susceptible C strain. Besides, a strain highly-resistant to spinosad (Xabia-W-100s), 500-times more resistant than control C strain, was selected. In order to decide the most appropriate management strategy for the pest, we studied the susceptibility to different insecticides in the malathion-resistant W-4Km strain. We detected a moderated cross-resistance to the OPs fenthion, diazinon, phosmet, trichlorphon and methylchlorpyrifos (7- to 16-fold), and to the carbamate carbaryl, the pyretroid lambda-cyhalotrin and the chemosterilizer lufenuron (4- to 6-fold). On the other hand, cross-resistance to spinosad was low (1.5-fold). It is important to note that resistance levels to all insecticides were one or two orders of magnitude less than that observed against malathion in W-4Km strain (178-fold), a fact that might be due to, at least, two possible causes: mutation AChE G328A may provide a higher insensitivity to malaoxon (the active form of malathion) than to other insecticides having AChE as target, and/or, secondly, the carboxylesterase-mediated resistance mechanism hydrolyzes malathion more efficiently than all other analysed insecticides. To investigate new resistance mechanisms in C. capitata we analysed the diversity of the cytochrome P450 enzymes, which have been associated to metabolic resistance in insects, and we developed a new method to detect single point mutations in acetylcholinesterase (Ccace2) and aliesterase (Ccae7) genes that could appear. Using degenerate primers we obtained 37 CYP genes, coding P450 enzymes, included in five families. Afterwards, in a phenobarbital-induction study, we observed that the expression of 4 out of the 6 analysed genes could be induced. On the other hand, a system was set up to amplify and to sequence from genomic DNA the exons of genes Ccace2 and Ccae7 where mutations related to insecticide resistance have been found in other species. The results obtained could facilitate the study of new resistance mechanisms in C. capitata mediated by these enzymes. A PCR-RFLP method was designed to detect the presence of the mutation AChE G328A (resistance allele Ccace2R), with no need to perform bioassays and allowing detecting resistance at low frequency. According to the analysis, the resistance allele was found in 25 out of 27 sampled locations in Spain, including the Balearic and the Canary Islands. However, this allele was not detected in other populations collected in 11 countries from 5 continents. The follow-up of the presence of the allele Ccace2R in the malathion-resistant strains during the selection process in the laboratory showed a quick decrease in homozygous individuals, for both the susceptible and the resistant alleles, favouring heterozygous. Thus, after 52 generations of selection, all the individuals analysed from W-10Km strain showed a heterozygous genotype for mutation AChE G328A, contradicting mendelian segregation as expected for a gene with two alleles. Afterwards, we were able to demonstrate that this was caused by the presence of a duplication of the gene coding acetylcholinesterase by: i) crossing heterozygous individuals from W-10Km strain with susceptible homozygous from C strain, originating a F1 population in which 100% of individuals were heterozygous; ii) evaluating the number of copies of gen Ccace2 by quantitative PCR in real time (qPCR), that happened to be twice higher in individuals from W-10Km VII strain when compared with C strain; iii) analysing the level of expression of Ccace2, twice in W- 10Km strain when compared to C strain; iv) studying the acetylcholinesterase activity, that was higher in individuals from W-10Km strain. According to these results, duplication of gen Ccace2 originates the coexistence of the susceptible and the resistant allele in the same chromosome. The two linked copies of the gene Ccace2 provoke the existence of permanent heterozygosis (Ccace2RS). This explains why the 100% of individuals from W-10Km strain showed an heterozygous restriction pattern since, in fact, they were structural homozygotes for the duplication (genotype Ccace2RS/RS). A biological cost has been detected associated to this duplication, consisting in a rise in accumulated adult mortality from the seventh day after emergence. The Ccace2RS duplication described in this study represents a new resistance mechanism to malathion in C. capitata. Finally, by the design of a double PCR-RFLP method, the presence of Ccace2RS duplication was confirmed in most of the Spanish populations. We observed that the proportion of individuals carrying the duplication oscillated between 5 and 35%, the frequency being higher in those C. capitata populations collected in the area of the Mediterranean basin. Therefore, we can conclude that malathion resistance associated to mutation AChE G328A and to Ccace2RS duplication are widely distributed in Spanish populations of C. capitata. Our results advice against the use of malathion (if it came to be newly authorized for use) or other OPs for the control of this pest. Besides, one of the malathion-resistant strains showed cross-resistance against insecticides with diverse action modes that are currently used for pest control, such as lambdacyhalotrin and lufenuron. High susceptibility to spinosad in the Spanish populations, as well as the reduced cross-resistance estimated for this insecticide suggests its adequacy for Medfly control. However, the use of a single insecticide is a risky strategy since it favours the selection of resistance. In fact, a population highly resistant to spinosad was obtained through laboratory selection. Therefore, it is advisable to implement integrated pest management (IPM) and resistance management programs for C. capitata control. Using insecticides with different modes of action and diverse control systems would contribute to the sustainability of the pest control. The resistance allele detection systems developed through this work will allow the early detection of resistance in the field, making possible the selection of the most appropriate method for pest control. Besides, the generated knowledge may also contribute to the development of new detection systems for other resistance mechanisms.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

There are many industries that use highly technological solutions to improve quality in all of their products. The steel industry is one example. Several automatic surface-inspection systems are used in the steel industry to identify various types of defects and to help operators decide whether to accept, reroute, or downgrade the material, subject to the assessment process. This paper focuses on promoting a strategy that considers all defects in an integrated fashion. It does this by managing the uncertainty about the exact position of a defect due to different process conditions by means of Gaussian additive influence functions. The relevance of the approach is in making possible consistency and reliability between surface inspection systems. The results obtained are an increase in confidence in the automatic inspection system and an ability to introduce improved prediction and advanced routing models. The prediction is provided to technical operators to help them in their decision-making process. It shows the increase in improvement gained by reducing the 40 % of coils that are downgraded at the hot strip mill because of specific defects. In addition, this technology facilitates an increase of 50 % in the accuracy of the estimate of defect survival after the cleaning facility in comparison to the former approach. The proposed technology is implemented by means of software-based, multi-agent solutions. It makes possible the independent treatment of information, presentation, quality analysis, and other relevant functions.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper deals with the assessment of the contribution of the second bending mode to the dynamic behavior of simply supported railway bridges. Traditionally the contributions of modes higher than the fundamental have been considered of little importance for the computation of the magnitudes of interest to structural engineers (vertical deflections, bending moments, etc.). Starting from the dimensionless equations of motion of a simply supported beam subjected to moving loads, the key parameters governing the dynamic behavior are identified. Then, a parametric study over realistic ranges of values of those parameters is conducted, and the influence of the second mode examined in detail. The main purpose is to decide whether the second mode should be taken into account for the determination of the maximum displacement and acceleration in high-speed bridges. In addition, the reasons that cause the contribution of the second bending mode to be relevant in some situations are highlighted, particularly with regard to the computation of the maximum acceleration.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Smart and green cities are hot topics in current research because people are becoming more conscious about their impact on the environment and the sustainability of their cities as the population increases. Many researchers are searching for mechanisms that can reduce power consumption and pollution in the city environment. This paper addresses the issue of public lighting and how it can be improved in order to achieve a more energy efficient city. This work is focused on making the process of turning the streetlights on and off more intelligent so that they consume less power and cause less light pollution. The proposed solution is comprised of a radar device and an expert system implemented on a low-cost platform based on a DSP. By analyzing the radar echo in both the frequency and time domains, the system is able to detect and identify objects moving in front of it. This information is used to decide whether or not the streetlight should be turned on. Experimental results show that the proposed system can provide hit rates over 80%, promising a good performance. In addition, the proposed solution could be useful in kind of other applications such as intelligent security and surveillance systems and home automation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Intervention has taken different forms in different countries and periods of time. Moreover, recent episodes showed that in front of an imminent crisis, the promise of no interventions made by governments is barely credible. In this paper we address the problem of resolving banking crises from the government perspective, taking into account the fact that preventing banking crises is crucial for the government. In addition, we introduce the moral hazard problem, inherent in the banking system, and consider the interaction between regulation, policy measures and banks’ behavior. To the best of our knowledge, this is the first paper that compares different policy plans to resolve banking crises in an environment where insufficiently capitalized banks have incentives to take risk, and the government has to decide whether to provide public services or impede crises. We show that when individuals highly value public services then the best policy in terms of welfare is to apply the tax on early withdrawals, as the government can transfer those taxes to the whole population by investing in public services (although at some cost). Conversely, when individuals assign a low value to consuming public services, recapitalization is the dominant policy. Finally, when the probability of a crisis is sufficiently high, capital requirements should be used

Relevância:

70.00% 70.00%

Publicador:

Resumo:

More than 2.5 billion people are still unbanked and they do not access or use financial services. In this paper, we present an innovative service that allows Santander University Smart Card holders to make person-to-person payments to their friends, using different social channels, such as Telegram, Facebook or Twitter. Our first implementation is based on Facebook, one of the most used social networks. This approach allows the service to reach a great number of potential users but the delivery and stability of the service depends on an external provider. We include the description of the service architecture, its implementation, tests, and the lessons learned from the development. We also discuss pros and cons of the third party service dependency from the technical and business viewpoints.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The figure of protection "micro-reserves" was created in the Region of Valencia (ANONYMOUS, 1994) with the aim of protecting endangered plant species. This is one of the areas of greatest floristic richness and uniqueness of the western Mediterranean. In this area rare, endemic or threatened vascular flora has a peculiar distribution: they appear to form small fragments spread over the entire region (LAGUNA, 1994; LAGUNA, 2001) The protection of every these small populations of great scientific value has significant challenges. It doesn´t try to protect every species that set out in Annex IV of the by then existing Law 4 / 1989 (repealed in 2007), or to protect to the most ecological level with the creation of Natural Protected Area but an intermediate level: the plant community of small size. According to the decree: “as Micro-Reserve will be declared the natural parcels of land under 20 hectares that contain a high concentration of rare plants, endemic, threatened or of high scientific interest” (ANONYMOUS, 1994) . Of course, the statement of an area as micro-reserve carries certain prohibitions that are harmful to the vegetal community

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The design and development of spoken interaction systems has been a thoroughly studied research scope for the last decades. The aim is to obtain systems with the ability to interact with human agents with a high degree of naturalness and efficiency, allowing them to carry out the actions they desire using speech, as it is the most natural means of communication between humans. To achieve that degree of naturalness, it is not enough to endow systems with the ability to accurately understand the user’s utterances and to properly react to them, even considering the information provided by the user in his or her previous interactions. The system has also to be aware of the evolution of the conditions under which the interaction takes place, in order to act the most coherent way as possible at each moment. Consequently, one of the most important features of the system is that it has to be context-aware. This context awareness of the system can be reflected in the modification of the behaviour of the system taking into account the current situation of the interaction. For instance, the system should decide which action it has to carry out, or the way to perform it, depending on the user that requests it, on the way that the user addresses the system, on the characteristics of the environment in which the interaction takes place, and so on. In other words, the system has to adapt its behaviour to these evolving elements of the interaction. Moreover that adaptation has to be carried out, if possible, in such a way that the user: i) does not perceive that the system has to make any additional effort, or to devote interaction time to perform tasks other than carrying out the requested actions, and ii) does not have to provide the system with any additional information to carry out the adaptation, which could imply a lesser efficiency of the interaction, since users should devote several interactions only to allow the system to become adapted. In the state-of-the-art spoken dialogue systems, researchers have proposed several disparate strategies to adapt the elements of the system to different conditions of the interaction (such as the acoustic characteristics of a specific user’s speech, the actions previously requested, and so on). Nevertheless, to our knowledge there is not any consensus on the procedures to carry out these adaptation. The approaches are to an extent unrelated from one another, in the sense that each one considers different pieces of information, and the treatment of that information is different taking into account the adaptation carried out. In this regard, the main contributions of this Thesis are the following ones: Definition of a contextualization framework. We propose a unified approach that can cover any strategy to adapt the behaviour of a dialogue system to the conditions of the interaction (i.e. the context). In our theoretical definition of the contextualization framework we consider the system’s context as all the sources of variability present at any time of the interaction, either those ones related to the environment in which the interaction takes place, or to the human agent that addresses the system at each moment. Our proposal relies on three aspects that any contextualization approach should fulfill: plasticity (i.e. the system has to be able to modify its behaviour in the most proactive way taking into account the conditions under which the interaction takes place), adaptivity (i.e. the system has also to be able to consider the most appropriate sources of information at each moment, both environmental and user- and dialogue-dependent, to effectively adapt to the conditions aforementioned), and transparency (i.e. the system has to carry out the contextualizaton-related tasks in such a way that the user neither perceives them nor has to do any effort in providing the system with any information that it needs to perform that contextualization). Additionally, we could include a generality aspect to our proposed framework: the main features of the framework should be easy to adopt in any dialogue system, regardless of the solution proposed to manage the dialogue. Once we define the theoretical basis of our contextualization framework, we propose two cases of study on its application in a spoken dialogue system. We focus on two aspects of the interaction: the contextualization of the speech recognition models, and the incorporation of user-specific information into the dialogue flow. One of the modules of a dialogue system that is more prone to be contextualized is the speech recognition system. This module makes use of several models to emit a recognition hypothesis from the user’s speech signal. Generally speaking, a recognition system considers two types of models: an acoustic one (that models each of the phonemes that the recognition system has to consider) and a linguistic one (that models the sequences of words that make sense for the system). In this work we contextualize the language model of the recognition system in such a way that it takes into account the information provided by the user in both his or her current utterance and in the previous ones. These utterances convey information useful to help the system in the recognition of the next utterance. The contextualization approach that we propose consists of a dynamic adaptation of the language model that is used by the recognition system. We carry out this adaptation by means of a linear interpolation between several models. Instead of training the best interpolation weights, we make them dependent on the conditions of the dialogue. In our approach, the system itself will obtain these weights as a function of the reliability of the different elements of information available, such as the semantic concepts extracted from the user’s utterance, the actions that he or she wants to carry out, the information provided in the previous interactions, and so on. One of the aspects more frequently addressed in Human-Computer Interaction research is the inclusion of user specific characteristics into the information structures managed by the system. The idea is to take into account the features that make each user different from the others in order to offer to each particular user different services (or the same service, but in a different way). We could consider this approach as a user-dependent contextualization of the system. In our work we propose the definition of a user model that contains all the information of each user that could be potentially useful to the system at a given moment of the interaction. In particular we will analyze the actions that each user carries out throughout his or her interaction. The objective is to determine which of these actions become the preferences of that user. We represent the specific information of each user as a feature vector. Each of the characteristics that the system will take into account has a confidence score associated. With these elements, we propose a probabilistic definition of a user preference, as the action whose likelihood of being addressed by the user is greater than the one for the rest of actions. To include the user dependent information into the dialogue flow, we modify the information structures on which the dialogue manager relies to retrieve information that could be needed to solve the actions addressed by the user. Usage preferences become another source of contextual information that will be considered by the system towards a more efficient interaction (since the new information source will help to decrease the need of the system to ask users for additional information, thus reducing the number of turns needed to carry out a specific action). To test the benefits of the contextualization framework that we propose, we carry out an evaluation of the two strategies aforementioned. We gather several performance metrics, both objective and subjective, that allow us to compare the improvements of a contextualized system against the baseline one. We will also gather the user’s opinions as regards their perceptions on the behaviour of the system, and its degree of adaptation to the specific features of each interaction. Resumen El diseño y el desarrollo de sistemas de interacción hablada ha sido objeto de profundo estudio durante las pasadas décadas. El propósito es la consecución de sistemas con la capacidad de interactuar con agentes humanos con un alto grado de eficiencia y naturalidad. De esta manera, los usuarios pueden desempeñar las tareas que deseen empleando la voz, que es el medio de comunicación más natural para los humanos. A fin de alcanzar el grado de naturalidad deseado, no basta con dotar a los sistemas de la abilidad de comprender las intervenciones de los usuarios y reaccionar a ellas de manera apropiada (teniendo en consideración, incluso, la información proporcionada en previas interacciones). Adicionalmente, el sistema ha de ser consciente de las condiciones bajo las cuales transcurre la interacción, así como de la evolución de las mismas, de tal manera que pueda actuar de la manera más coherente en cada instante de la interacción. En consecuencia, una de las características primordiales del sistema es que debe ser sensible al contexto. Esta capacidad del sistema de conocer y emplear el contexto de la interacción puede verse reflejada en la modificación de su comportamiento debida a las características actuales de la interacción. Por ejemplo, el sistema debería decidir cuál es la acción más apropiada, o la mejor manera de llevarla a término, dependiendo del usuario que la solicita, del modo en el que lo hace, etcétera. En otras palabras, el sistema ha de adaptar su comportamiento a tales elementos mutables (o dinámicos) de la interacción. Dos características adicionales son requeridas a dicha adaptación: i) el usuario no ha de percibir que el sistema dedica recursos (temporales o computacionales) a realizar tareas distintas a las que aquél le solicita, y ii) el usuario no ha de dedicar esfuerzo alguno a proporcionar al sistema información adicional para llevar a cabo la interacción. Esto último implicaría una menor eficiencia de la interacción, puesto que los usuarios deberían dedicar parte de la misma a proporcionar información al sistema para su adaptación, sin ningún beneficio inmediato. En los sistemas de diálogo hablado propuestos en la literatura, se han propuesto diferentes estrategias para llevar a cabo la adaptación de los elementos del sistema a las diferentes condiciones de la interacción (tales como las características acústicas del habla de un usuario particular, o a las acciones a las que se ha referido con anterioridad). Sin embargo, no existe una estrategia fija para proceder a dicha adaptación, sino que las mismas no suelen guardar una relación entre sí. En este sentido, cada una de ellas tiene en cuenta distintas fuentes de información, la cual es tratada de manera diferente en función de las características de la adaptación buscada. Teniendo en cuenta lo anterior, las contribuciones principales de esta Tesis son las siguientes: Definición de un marco de contextualización. Proponemos un criterio unificador que pueda cubrir cualquier estrategia de adaptación del comportamiento de un sistema de diálogo a las condiciones de la interacción (esto es, el contexto de la misma). En nuestra definición teórica del marco de contextualización consideramos el contexto del sistema como todas aquellas fuentes de variabilidad presentes en cualquier instante de la interacción, ya estén relacionadas con el entorno en el que tiene lugar la interacción, ya dependan del agente humano que se dirige al sistema en cada momento. Nuestra propuesta se basa en tres aspectos que cualquier estrategia de contextualización debería cumplir: plasticidad (es decir, el sistema ha de ser capaz de modificar su comportamiento de la manera más proactiva posible, teniendo en cuenta las condiciones en las que tiene lugar la interacción), adaptabilidad (esto es, el sistema ha de ser capaz de considerar la información oportuna en cada instante, ya dependa del entorno o del usuario, de tal manera que adecúe su comportamiento de manera eficaz a las condiciones mencionadas), y transparencia (que implica que el sistema ha de desarrollar las tareas relacionadas con la contextualización de tal manera que el usuario no perciba la manera en que dichas tareas se llevan a cabo, ni tampoco deba proporcionar al sistema con información adicional alguna). De manera adicional, incluiremos en el marco propuesto el aspecto de la generalidad: las características del marco de contextualización han de ser portables a cualquier sistema de diálogo, con independencia de la solución propuesta en los mismos para gestionar el diálogo. Una vez hemos definido las características de alto nivel de nuestro marco de contextualización, proponemos dos estrategias de aplicación del mismo a un sistema de diálogo hablado. Nos centraremos en dos aspectos de la interacción a adaptar: los modelos empleados en el reconocimiento de habla, y la incorporación de información específica de cada usuario en el flujo de diálogo. Uno de los módulos de un sistema de diálogo más susceptible de ser contextualizado es el sistema de reconocimiento de habla. Este módulo hace uso de varios modelos para generar una hipótesis de reconocimiento a partir de la señal de habla. En general, un sistema de reconocimiento emplea dos tipos de modelos: uno acústico (que modela cada uno de los fonemas considerados por el reconocedor) y uno lingüístico (que modela las secuencias de palabras que tienen sentido desde el punto de vista de la interacción). En este trabajo contextualizamos el modelo lingüístico del reconocedor de habla, de tal manera que tenga en cuenta la información proporcionada por el usuario, tanto en su intervención actual como en las previas. Estas intervenciones contienen información (semántica y/o discursiva) que puede contribuir a un mejor reconocimiento de las subsiguientes intervenciones del usuario. La estrategia de contextualización propuesta consiste en una adaptación dinámica del modelo de lenguaje empleado en el reconocedor de habla. Dicha adaptación se lleva a cabo mediante una interpolación lineal entre diferentes modelos. En lugar de entrenar los mejores pesos de interpolación, proponemos hacer los mismos dependientes de las condiciones actuales de cada diálogo. El propio sistema obtendrá estos pesos como función de la disponibilidad y relevancia de las diferentes fuentes de información disponibles, tales como los conceptos semánticos extraídos a partir de la intervención del usuario, o las acciones que el mismo desea ejecutar. Uno de los aspectos más comúnmente analizados en la investigación de la Interacción Persona-Máquina es la inclusión de las características específicas de cada usuario en las estructuras de información empleadas por el sistema. El objetivo es tener en cuenta los aspectos que diferencian a cada usuario, de tal manera que el sistema pueda ofrecer a cada uno de ellos el servicio más apropiado (o un mismo servicio, pero de la manera más adecuada a cada usuario). Podemos considerar esta estrategia como una contextualización dependiente del usuario. En este trabajo proponemos la definición de un modelo de usuario que contenga toda la información relativa a cada usuario, que pueda ser potencialmente utilizada por el sistema en un momento determinado de la interacción. En particular, analizaremos aquellas acciones que cada usuario decide ejecutar a lo largo de sus diálogos con el sistema. Nuestro objetivo es determinar cuáles de dichas acciones se convierten en las preferencias de cada usuario. La información de cada usuario quedará representada mediante un vector de características, cada una de las cuales tendrá asociado un valor de confianza. Con ambos elementos proponemos una definición probabilística de una preferencia de uso, como aquella acción cuya verosimilitud es mayor que la del resto de acciones solicitadas por el usuario. A fin de incluir la información dependiente de usuario en el flujo de diálogo, llevamos a cabo una modificación de las estructuras de información en las que se apoya el gestor de diálogo para recuperar información necesaria para resolver ciertos diálogos. En dicha modificación las preferencias de cada usuario pasarán a ser una fuente adicional de información contextual, que será tenida en cuenta por el sistema en aras de una interacción más eficiente (puesto que la nueva fuente de información contribuirá a reducir la necesidad del sistema de solicitar al usuario información adicional, dando lugar en consecuencia a una reducción del número de intervenciones necesarias para llevar a cabo una acción determinada). Para determinar los beneficios de las aplicaciones del marco de contextualización propuesto, llevamos a cabo una evaluación de un sistema de diálogo que incluye las estrategias mencionadas. Hemos recogido diversas métricas, tanto objetivas como subjetivas, que nos permiten determinar las mejoras aportadas por un sistema contextualizado en comparación con el sistema sin contextualizar. De igual manera, hemos recogido las opiniones de los participantes en la evaluación acerca de su percepción del comportamiento del sistema, y de su capacidad de adaptación a las condiciones concretas de cada interacción.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In this paper we present a global description of a telematic voting system based on advanced cryptography and on the use of smart cards (VOTESCRIPT system) whose most outstanding characteristic is the ability to verify that the tally carried out by the system is correct, meaning that the results published by the system correspond with votes cast. The VOTESCRIPT system provides an individual verification mechanism allowing each Voter to confirm whether his vote has been correctly counted. The innovation with respect to other solutions lies in the fact that the verification process is private so that Voters have no way of proving what they voted in the presence of a non-authorized third party. Vote buying and selling or any other kind of extortion are prevented. The existence of the Intervention Systems allows the whole electoral process to be controlled by groups of citizens or authorized candidatures. In addition to this the system can simply make an audit not only of the final results, but also of the whole process. Global verification provides the Scrutineers with robust cryptographic evidence which enables unequivocal proof if the system has operated in a fraudulent way.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Los sistemas de recomendación son potentes herramientas de filtrado de información que permiten a usuarios solicitar sugerencias sobre ítems que cubran sus necesidades. Tradicionalmente estas recomendaciones han estado basadas en opiniones de los mismos, así como en datos obtenidos de su consumo histórico o comportamiento en el propio sistema. Sin embargo, debido a la gran penetración y uso de los dispositivos móviles en nuestra sociedad, han surgido nuevas oportunidades en el campo de los sistemas de recomendación móviles gracias a la información contextual que se puede obtener sobre la localización o actividad de los usuarios. Debido a este estilo de vida en el que todo tiende a la movilidad y donde los usuarios están plenamente interconectados, la información contextual no sólo es física, sino que también adquiere una dimensión social. Todo esto ha dado lugar a una nueva área de investigación relacionada con los Sistemas de Recomendación Basados en Contexto (CARS) móviles donde se busca incrementar el nivel de personalización de las recomendaciones al usar dicha información. Por otro lado, este nuevo escenario en el que los usuarios llevan en todo momento un terminal móvil consigo abre la puerta a nuevas formas de recomendar. Sustituir el tradicional patrón de uso basado en petición-respuesta para evolucionar hacia un sistema proactivo es ahora posible. Estos sistemas deben identificar el momento más adecuado para generar una recomendación sin una petición explícita del usuario, siendo para ello necesario analizar su contexto. Esta tesis doctoral propone un conjunto de modelos, algoritmos y métodos orientados a incorporar proactividad en CARS móviles, a la vez que se estudia el impacto que este tipo de recomendaciones tienen en la experiencia de usuario con el fin de extraer importantes conclusiones sobre "qué", "cuándo" y "cómo" se debe notificar proactivamente. Con este propósito, se comienza planteando una arquitectura general para construir CARS móviles en escenarios sociales. Adicionalmente, se propone una nueva forma de representar el proceso de recomendación a través de una interfaz REST, lo que permite crear una arquitectura independiente de dispositivo y plataforma. Los detalles de su implementación tras su puesta en marcha en el entorno bancario español permiten asimismo validar el sistema construido. Tras esto se presenta un novedoso modelo para incorporar proactividad en CARS móviles. Éste muestra las ideas principales que permiten analizar una situación para decidir cuándo es apropiada una recomendación proactiva. Para ello se presentan algoritmos que establecen relaciones entre lo propicia que es una situación y cómo esto influye en los elementos a recomendar. Asimismo, para demostrar la viabilidad de este modelo se describe su aplicación a un escenario de recomendación para herramientas de creación de contenidos educativos. Siguiendo el modelo anterior, se presenta el diseño e implementación de nuevos interfaces móviles de usuario para recomendaciones proactivas, así como los resultados de su evaluación entre usuarios, lo que aportó importantes conclusiones para identificar cuáles son los factores más relevantes a considerar en el diseño de sistemas proactivos. A raíz de los resultados anteriores, el último punto de esta tesis presenta una metodología para calcular cuán apropiada es una situación de cara a recomendar de manera proactiva siguiendo el modelo propuesto. Como conclusión, se describe la validación llevada a cabo tras la aplicación de la arquitectura, modelo de recomendación y métodos descritos en este trabajo en una red social de aprendizaje europea. Finalmente, esta tesis discute las conclusiones obtenidas a lo largo de la extensa investigación llevada a cabo, y que ha propiciado la consecución de una buena base teórica y práctica para la creación de sistemas de recomendación móviles proactivos basados en información contextual. ABSTRACT Recommender systems are powerful information filtering tools which offer users personalized suggestions about items whose aim is to satisfy their needs. Traditionally the information used to make recommendations has been based on users’ ratings or data on the item’s consumption history and transactions carried out in the system. However, due to the remarkable growth in mobile devices in our society, new opportunities have arisen to improve these systems by implementing them in ubiquitous environments which provide rich context-awareness information on their location or current activity. Because of this current all-mobile lifestyle, users are socially connected permanently, which allows their context to be enhanced not only with physical information, but also with a social dimension. As a result of these novel contextual data sources, the advent of mobile Context-Aware Recommender Systems (CARS) as a research area has appeared to improve the level of personalization in recommendation. On the other hand, this new scenario in which users have their mobile devices with them all the time offers the possibility of looking into new ways of making recommendations. Evolving the traditional user request-response pattern to a proactive approach is now possible as a result of this rich contextual scenario. Thus, the key idea is that recommendations are made to the user when the current situation is appropriate, attending to the available contextual information without an explicit user request being necessary. This dissertation proposes a set of models, algorithms and methods to incorporate proactivity into mobile CARS, while the impact of proactivity is studied in terms of user experience to extract significant outcomes as to "what", "when" and "how" proactive recommendations have to be notified to users. To this end, the development of this dissertation starts from the proposal of a general architecture for building mobile CARS in scenarios with rich social data along with a new way of managing a recommendation process through a REST interface to make this architecture multi-device and cross-platform compatible. Details as regards its implementation and evaluation in a Spanish banking scenario are provided to validate its usefulness and user acceptance. After that, a novel model is presented for proactivity in mobile CARS which shows the key ideas related to decide when a situation warrants a proactive recommendation by establishing algorithms that represent the relationship between the appropriateness of a situation and the suitability of the candidate items to be recommended. A validation of these ideas in the area of e-learning authoring tools is also presented. Following the previous model, this dissertation presents the design and implementation of new mobile user interfaces for proactive notifications. The results of an evaluation among users testing these novel interfaces is also shown to study the impact of proactivity in the user experience of mobile CARS, while significant factors associated to proactivity are also identified. The last stage of this dissertation merges the previous outcomes to design a new methodology to calculate the appropriateness of a situation so as to incorporate proactivity into mobile CARS. Additionally, this work provides details about its validation in a European e-learning social network in which the whole architecture and proactive recommendation model together with its methods have been implemented. Finally, this dissertation opens up a discussion about the conclusions obtained throughout this research, resulting in useful information from the different design and implementation stages of proactive mobile CARS.