412 resultados para Fingerprint


Relevância:

10.00% 10.00%

Publicador:

Resumo:

It is well known that many neurological diseases leave a fingerprint in voice and speech production. The dramatic impact of these pathologies in life quality is a growing concert. Many techniques have been designed for the detection, diagnose and monitoring the neurological disease. Most of them are costly or difficult to extend to primary services. The present paper shows that some neurological diseases can be traced a the level of voice production. The detection procedure would be based on a simple voice test. The availability of advanced tools and methodologies to monitor the organic pathology of voice would facilitate the implantation of these tests. The paper hypothesizes some of the underlying mechanisms affecting the production of voice and presents a general description of the methodological foundations for the voice analysis system which can estimate correlates to the neurological disease. A case of study is presented from spasmodic dysphonia to illustrate the possibilities of the methodology to monitor other neurological problems as well.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The dramatic impact of neurological degenerative pathologies in life quality is a growing concern. It is well known that many neurological diseases leave a fingerprint in voice and speech production. Many techniques have been designed for the detection, diagnose and monitoring the neurological disease. Most of them are costly or difficult to extend to primary attention medical services. Through the present paper it will be shown how some neurological diseases can be traced at the level of phonation. The detection procedure would be based on a simple voice test. The availability of advanced tools and methodologies to monitor the organic pathology of voice would facilitate the implantation of these tests. The paper hypothesizes that some of the underlying mechanisms affecting the production of voice produce measurable correlates in vocal fold biomechanics. A general description of the methodological foundations for the voice analysis system which can estimate correlates to the neurological disease is shown. Some study cases will be presented to illustrate the possibilities of the methodology to monitor neurological diseases by voice

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A total of 92 samples of street dust were collected in Luanda, Angola, were sieved below 100 μm, and analysed by ICP-MS for 35 elements after an aqua-regia digestion. The concentration and spatial heterogeneity of trace elements in the street dust of Luanda are generally lower than in most industrialized cities in the Northern hemisphere. These observations reveal a predominantly “natural” origin for the street dust in Luanda, which is also manifested in that some geochemical processes that occur in natural soils are preserved in street dust: the separation of uranium from thorium, and the retention of the former by carbonate materials, or the high correlation between arsenic and vanadium due to their common mode of adsorption on solid particles in the form of oxyanions. The only distinct anthropogenic fingerprint in the composition of Luanda's street dust is the association Pb–Cd–Sb–Cu (and to a lesser extent, Ba–Cr–Zn). The use of risk assessment strategies has proved helpful in identifying the routes of exposure to street dust and the trace elements therein of most concern in terms of potential adverse health effects. In Luanda the highest levels of risk seem to be associated (a) with the presence of As and Pb in the street dust and (b) with the route of ingestion of dust particles, for all the elements included in the study except Hg, for which inhalation of vapours presents a slightly higher risk than ingestion. However, given the large uncertainties associated with the estimates of toxicity values and exposure factors, and the absence of site-specific biometric factors, these results should be regarded as preliminary and further research should be undertaken before any definite conclusions regarding potential health effects are drawn.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The geochemical fingerprint of sediment retrieved from the banks of the River Manzanares as it passes through the City of Madrid is presented here. The river collects the effluent water from several Waste Water Treatment (WWT) plants in and around the city, such that, at low flows, up to 60% of the flow has been treated. A total of 18 bank-sediment cores were collected along the course of the river, down to its confluence with the Jarama river, to the south–east of Madrid. Trace and major elements in each sample were extracted following a double protocol: (a) “Total” digestion with HNO3, HClO4 and HF; (b) “Weak” digestion with sodium acetate buffered to pH=5 with acetic acid, under constant stirring. The digests thus obtained were subsequently analysed by ICP-AES, except for Hg which was extracted with aqua regia and sodium chloride-hydroxylamine sulfate, and analysed by Cold Vapour-AAS. X-ray diffraction was additionally employed to determine the mineralogical composition of the samples. Uni- and multivariate analyses of the chemical data reveal the influence of Madrid on the geochemistry of Manzanares' sediments, clearly manifested by a marked increase in the concentration of typically “urban” elements Ag, Cr, Cu, Pb and Zn, downstream of the intersection of the river with the city's perimeter. The highest concentrations of these elements appear to be associated with illegal or accidental dumping of waste materials, and with the uncontrolled incorporation of untreated urban runoff to the river. The natural matrix of the sediment is characterised by fairly constant concentrations of Ce, La and Y, whereas changes in the lithology intersected by the river cause corresponding variations in Ca–Mg and Al–Na contents. In the final stretch of the river, the presence of carbonate materials seems to exert a strong geochemical control on the amount of Zn and, to a lesser extent, Cu immobilised in the sediments. This fact suggests that a variable but significant proportion of both elements may be susceptible to reincorporation in the aqueous phase under realistic environmental conditions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper we propose a flexible Multi-Agent Architecture together with a methodology for indoor location which allows us to locate any mobile station (MS) such as a Laptop, Smartphone, Tablet or a robotic system in an indoor environment using wireless technology. Our technology is complementary to the GPS location finder as it allows us to locate a mobile system in a specific room on a specific floor using the Wi-Fi networks. The idea is that any MS will have an agent known at a Fuzzy Location Software Agent (FLSA) with a minimum capacity processing at its disposal which collects the power received at different Access Points distributed around the floor and establish its location on a plan of the floor of the building. In order to do so it will have to communicate with the Fuzzy Location Manager Software Agent (FLMSA). The FLMSAs are local agents that form part of the management infrastructure of the Wi-Fi network of the Organization. The FLMSA implements a location estimation methodology divided into three phases (measurement, calibration and estimation) for locating mobile stations (MS). Our solution is a fingerprint-based positioning system that overcomes the problem of the relative effect of doors and walls on signal strength and is independent of the network device manufacturer. In the measurement phase, our system collects received signal strength indicator (RSSI) measurements from multiple access points. In the calibration phase, our system uses these measurements in a normalization process to create a radio map, a database of RSS patterns. Unlike traditional radio map-based methods, our methodology normalizes RSS measurements collected at different locations on a floor. In the third phase, we use Fuzzy Controllers to locate an MS on the plan of the floor of a building. Experimental results demonstrate the accuracy of the proposed method. From these results it is clear that the system is highly likely to be able to locate an MS in a room or adjacent room.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The type-I intermittency route to (or out of) chaos is investigated within the horizontal visibility (HV) graph theory. For that purpose, we address the trajectories generated by unimodal maps close to an inverse tangent bifurcation and construct their associatedHVgraphs.We showhowthe alternation of laminar episodes and chaotic bursts imprints a fingerprint in the resulting graph structure. Accordingly, we derive a phenomenological theory that predicts quantitative values for several network parameters. In particular, we predict that the characteristic power-law scaling of the mean length of laminar trend sizes is fully inherited by the variance of the graph degree distribution, in good agreement with the numerics. We also report numerical evidence on how the characteristic power-law scaling of the Lyapunov exponent as a function of the distance to the tangent bifurcation is inherited in the graph by an analogous scaling of block entropy functionals defined on the graph. Furthermore, we are able to recast the full set of HV graphs generated by intermittent dynamics into a renormalization-group framework, where the fixed points of its graph-theoretical renormalization-group flow account for the different types of dynamics.We also establish that the nontrivial fixed point of this flow coincides with the tangency condition and that the corresponding invariant graph exhibits extremal entropic properties.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El siguiente Trabajo Fin de Master se divide en tres partes, siempre, alrededor de la identificación biométrica. Esta ciencia aprovecha que existen ciertas características biológicas o conductuales singulares e inalterables, por lo que pueden ser analizados y medidos para crear una huella biométrica. Estas características son difíciles de perder, transferir u olvidar y son perdurables en el tiempo. En la primera de las partes se ofrecerá una visión sobre la importancia histórica de esta ciencia, desde los primeros vestigios humanos, en la zona de Mesopotamia, pasando por los grandes innovadores y precursores de la identificación biométrica, como Bertillon, Galton, Vucetich, etc. auspiciados por una finalidad mayoritariamente criminalística o policiaca, hasta la gran revolución a finales del siglo pasado, en las que técnicas que parecían ciencia ficción se hicieron realidad. En el siguiente apartado se analizaran las 6 principales técnicas que se usan actualmente, realizando una mirada más profunda en los principios naturales, fisiológicos y físicos sobre los que se basan se expondrán las tendencias futuras sobre las que trabajara la industria para el desarrollo de técnicas más seguras, menos invasivas y más transparentes para los usuarios finales. Estas como ha pasado a lo largo de la historia sonaran increíbles, pero una vez más la raza humana conseguirá materializarlas e introducirlas en su día a día. Para finalizar y después de este estudio en detalle, se intentará realizar una comparación y análisis basados en las más importantes características para las técnicas biométricas, fiabilidad, facilidad, usurpación, aceptación y estabilidad, etc. ABSTRACT The following Master's Thesis is divided into three parts, always, about biometric identification. This science fail that certain biological or behavioural characteristics unique and unchangeable, so it can be analysed and measured to create a biometric fingerprint. These features are hard to miss, or forget to transfer and are enduring in time. In the first part a vision of the historical importance of this science are offered, from the earliest human remains in the area of Mesopotamia, to the great innovators and pioneers of biometric identification, such as Bertillon, Galton, Vucetich, etc. . sponsored a largely forensic or detective purpose, until the great revolution in the late nineteenth century, in which techniques that seemed science fiction became reality. The following section will analyse the 6 main techniques currently in use, making a deeper look at the natural, physiological and physical principles on which future trends are based on the industry to work for the development of techniques will be discussed more safer, less invasive and more transparent to end users. Such as has happened throughout history sounded amazing, but once again the human race get materialize and introduce them in their day to day. Finally and after the study in detail, and try to make a comparison based on the most important features for biometric technologies, reliability, ease, alienation, acceptance and stability analysis etc..

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A lo largo del presente trabajo se investiga la viabilidad de la descomposición automática de espectros de radiación gamma por medio de algoritmos de resolución de sistemas de ecuaciones algebraicas lineales basados en técnicas de pseudoinversión. La determinación de dichos algoritmos ha sido realizada teniendo en cuenta su posible implementación sobre procesadores de propósito específico de baja complejidad. En el primer capítulo se resumen las técnicas para la detección y medida de la radiación gamma que han servido de base para la confección de los espectros tratados en el trabajo. Se reexaminan los conceptos asociados con la naturaleza de la radiación electromagnética, así como los procesos físicos y el tratamiento electrónico que se hallan involucrados en su detección, poniendo de relieve la naturaleza intrínsecamente estadística del proceso de formación del espectro asociado como una clasificación del número de detecciones realizadas en función de la energía supuestamente continua asociada a las mismas. Para ello se aporta una breve descripción de los principales fenómenos de interacción de la radiación con la materia, que condicionan el proceso de detección y formación del espectro. El detector de radiación es considerado el elemento crítico del sistema de medida, puesto que condiciona fuertemente el proceso de detección. Por ello se examinan los principales tipos de detectores, con especial hincapié en los detectores de tipo semiconductor, ya que son los más utilizados en la actualidad. Finalmente, se describen los subsistemas electrónicos fundamentales para el acondicionamiento y pretratamiento de la señal procedente del detector, a la que se le denomina con el término tradicionalmente utilizado de Electrónica Nuclear. En lo que concierne a la espectroscopia, el principal subsistema de interés para el presente trabajo es el analizador multicanal, el cual lleva a cabo el tratamiento cualitativo de la señal, y construye un histograma de intensidad de radiación en el margen de energías al que el detector es sensible. Este vector N-dimensional es lo que generalmente se conoce con el nombre de espectro de radiación. Los distintos radionúclidos que participan en una fuente de radiación no pura dejan su impronta en dicho espectro. En el capítulo segundo se realiza una revisión exhaustiva de los métodos matemáticos en uso hasta el momento ideados para la identificación de los radionúclidos presentes en un espectro compuesto, así como para determinar sus actividades relativas. Uno de ellos es el denominado de regresión lineal múltiple, que se propone como la aproximación más apropiada a los condicionamientos y restricciones del problema: capacidad para tratar con espectros de baja resolución, ausencia del concurso de un operador humano (no supervisión), y posibilidad de ser soportado por algoritmos de baja complejidad capaces de ser instrumentados sobre procesadores dedicados de alta escala de integración. El problema del análisis se plantea formalmente en el tercer capítulo siguiendo las pautas arriba mencionadas y se demuestra que el citado problema admite una solución en la teoría de memorias asociativas lineales. Un operador basado en este tipo de estructuras puede proporcionar la solución al problema de la descomposición espectral deseada. En el mismo contexto, se proponen un par de algoritmos adaptativos complementarios para la construcción del operador, que gozan de unas características aritméticas especialmente apropiadas para su instrumentación sobre procesadores de alta escala de integración. La característica de adaptatividad dota a la memoria asociativa de una gran flexibilidad en lo que se refiere a la incorporación de nueva información en forma progresiva.En el capítulo cuarto se trata con un nuevo problema añadido, de índole altamente compleja. Es el del tratamiento de las deformaciones que introducen en el espectro las derivas instrumentales presentes en el dispositivo detector y en la electrónica de preacondicionamiento. Estas deformaciones invalidan el modelo de regresión lineal utilizado para describir el espectro problema. Se deriva entonces un modelo que incluya las citadas deformaciones como una ampliación de contribuciones en el espectro compuesto, el cual conlleva una ampliación sencilla de la memoria asociativa capaz de tolerar las derivas en la mezcla problema y de llevar a cabo un análisis robusto de contribuciones. El método de ampliación utilizado se basa en la suposición de pequeñas perturbaciones. La práctica en el laboratorio demuestra que, en ocasiones, las derivas instrumentales pueden provocar distorsiones severas en el espectro que no pueden ser tratadas por el modelo anterior. Por ello, en el capítulo quinto se plantea el problema de medidas afectadas por fuertes derivas desde el punto de vista de la teoría de optimización no lineal. Esta reformulación lleva a la introducción de un algoritmo de tipo recursivo inspirado en el de Gauss-Newton que permite introducir el concepto de memoria lineal realimentada. Este operador ofrece una capacidad sensiblemente mejorada para la descomposición de mezclas con fuerte deriva sin la excesiva carga computacional que presentan los algoritmos clásicos de optimización no lineal. El trabajo finaliza con una discusión de los resultados obtenidos en los tres principales niveles de estudio abordados, que se ofrecen en los capítulos tercero, cuarto y quinto, así como con la elevación a definitivas de las principales conclusiones derivadas del estudio y con el desglose de las posibles líneas de continuación del presente trabajo.---ABSTRACT---Through the present research, the feasibility of Automatic Gamma-Radiation Spectral Decomposition by Linear Algebraic Equation-Solving Algorithms using Pseudo-Inverse Techniques is explored. The design of the before mentioned algorithms has been done having into account their possible implementation on Specific-Purpose Processors of Low Complexity. In the first chapter, the techniques for the detection and measurement of gamma radiation employed to construct the spectra being used throughout the research are reviewed. Similarly, the basic concepts related with the nature and properties of the hard electromagnetic radiation are also re-examined, together with the physic and electronic processes involved in the detection of such kind of radiation, with special emphasis in the intrinsic statistical nature of the spectrum build-up process, which is considered as a classification of the number of individual photon-detections as a function of the energy associated to each individual photon. Fbr such, a brief description of the most important matter-energy interaction phenomena conditioning the detection and spectrum formation processes is given. The radiation detector is considered as the most critical element in the measurement system, as this device strongly conditions the detection process. Fbr this reason, the characteristics of the most frequent detectors are re-examined, with special emphasis on those of semiconductor nature, as these are the most frequently employed ones nowadays. Finally, the fundamental electronic subsystems for preaconditioning and treating of the signal delivered by the detector, classically addresed as Nuclear Electronics, is described. As far as Spectroscopy is concerned, the subsystem most interesting for the scope covered by the present research is the so-called Multichannel Analyzer, which is devoted to the cualitative treatment of the signal, building-up a hystogram of radiation intensity in the range of energies in which the detector is sensitive. The resulting N-dimensional vector is generally known with the ñame of Radiation Spectrum. The different radio-nuclides contributing to the spectrum of a composite source will leave their fingerprint in the resulting spectrum. Through the second chapter, an exhaustive review of the mathematical methods devised to the present moment to identify the radio-nuclides present in the composite spectrum and to quantify their relative contributions, is reviewed. One of the more popular ones is the so-known Múltiple Linear Regression, which is proposed as the best suited approach according to the constraints and restrictions present in the formulation of the problem, i.e., the need to treat low-resolution spectra, the absence of control by a human operator (un-supervision), and the possibility of being implemented as low-complexity algorithms amenable of being supported by VLSI Specific Processors. The analysis problem is formally stated through the third chapter, following the hints established in this context, and it is shown that the addressed problem may be satisfactorily solved under the point of view of Linear Associative Memories. An operator based on this kind of structures may provide the solution to the spectral decomposition problem posed. In the same context, a pair of complementary adaptive algorithms useful for the construction of the solving operator are proposed, which share certain special arithmetic characteristics that render them specially suitable for their implementation on VLSI Processors. The adaptive nature of the associative memory provides a high flexibility to this operator, in what refers to the progressive inclusión of new information to the knowledge base. Through the fourth chapter, this fact is treated together with a new problem to be considered, of a high interest but quite complex nature, as is the treatment of the deformations appearing in the spectrum when instrumental drifts in both the detecting device and the pre-acconditioning electronics are to be taken into account. These deformations render the Linear Regression Model proposed almost unuseful to describe the resulting spectrum. A new model including the drifts is derived as an extensión of the individual contributions to the composite spectrum, which implies a simple extensión of the Associative Memory, which renders this suitable to accept the drifts in the composite spectrum, thus producing a robust analysis of contributions. The extensión method is based on the Low-Amplitude Perturbation Hypothesis. Experimental practice shows that in certain cases the instrumental drifts may provoke severe distortions in the resulting spectrum, which can not be treated with the before-mentioned hypothesis. To cover also these less-frequent cases, through the fifth chapter, the problem involving strong drifts is treated under the point of view of Non-Linear Optimization Techniques. This reformulation carries the study to the consideration of recursive algorithms based on the Gauss-Newton methods, which allow the introduction of Feed-Back Memories, computing elements with a sensibly improved capability to decompose spectra affected by strong drifts. The research concludes with a discussion of the results obtained in the three main levéis of study considerad, which are presented in chapters third, fourth and fifth, toghether with the review of the main conclusions derived from the study and the outline of the main research lines opened by the present work.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los medios sociales han revolucionado la manera en la que los consumidores se relacionan entre sí y con las marcas. Las opiniones publicadas en dichos medios tienen un poder de influencia en las decisiones de compra tan importante como las campañas de publicidad. En consecuencia, los profesionales del marketing cada vez dedican mayores esfuerzos e inversión a la obtención de indicadores que permitan medir el estado de salud de las marcas a partir de los contenidos digitales generados por sus consumidores. Dada la naturaleza no estructurada de los contenidos publicados en los medios sociales, la tecnología usada para procesar dichos contenidos ha menudo implementa técnicas de Inteligencia Artificial, tales como algoritmos de procesamiento de lenguaje natural, aprendizaje automático y análisis semántico. Esta tesis, contribuye al estado de la cuestión, con un modelo que permite estructurar e integrar la información publicada en medios sociales, y una serie de técnicas cuyos objetivos son la identificación de consumidores, así como la segmentación psicográfica y sociodemográfica de los mismos. La técnica de identificación de consumidores se basa en la huella digital de los dispositivos que utilizan para navegar por la Web y es tolerante a los cambios que se producen con frecuencia en dicha huella digital. Las técnicas de segmentación psicográfica descritas obtienen la posición en el embudo de compra de los consumidores y permiten clasificar las opiniones en función de una serie de atributos de marketing. Finalmente, las técnicas de segmentación sociodemográfica permiten obtener el lugar de residencia y el género de los consumidores. ABSTRACT Social media has revolutionised the way in which consumers relate to each other and with brands. The opinions published in social media have a power of influencing purchase decisions as important as advertising campaigns. Consequently, marketers are increasing efforts and investments for obtaining indicators to measure brand health from the digital content generated by consumers. Given the unstructured nature of social media contents, the technology used for processing such contents often implements Artificial Intelligence techniques, such as natural language processing, machine learning and semantic analysis algorithms. This thesis contributes to the State of the Art, with a model for structuring and integrating the information posted on social media, and a number of techniques whose objectives are the identification of consumers, as well as their socio-demographic and psychographic segmentation. The consumer identification technique is based on the fingerprint of the devices they use to surf the Web and is tolerant to the changes that occur frequently in such fingerprint. The psychographic profiling techniques described infer the position of consumer in the purchase funnel, and allow to classify the opinions based on a series of marketing attributes. Finally, the socio-demographic profiling techniques allow to obtain the residence and gender of consumers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Determinar con buena precisión la posición en la que se encuentra un terminal móvil, cuando éste se halla inmerso en un entorno de interior (centros comerciales, edificios de oficinas, aeropuertos, estaciones, túneles, etc), es el pilar básico sobre el que se sustentan un gran número de aplicaciones y servicios. Muchos de esos servicios se encuentran ya disponibles en entornos de exterior, aunque los entornos de interior se prestan a otros servicios específicos para ellos. Ese número, sin embargo, podría ser significativamente mayor de lo que actualmente es, si no fuera necesaria una costosa infraestructura para llevar a cabo el posicionamiento con la precisión adecuada a cada uno de los hipotéticos servicios. O, igualmente, si la citada infraestructura pudiera tener otros usos distintos, además del relacionado con el posicionamiento. La usabilidad de la misma infraestructura para otros fines distintos ofrecería la oportunidad de que la misma estuviera ya presente en las diferentes localizaciones, porque ha sido previamente desplegada para esos otros usos; o bien facilitaría su despliegue, porque el coste de esa operación ofreciera un mayor retorno de usabilidad para quien lo realiza. Las tecnologías inalámbricas de comunicaciones basadas en radiofrecuencia, ya en uso para las comunicaciones de voz y datos (móviles, WLAN, etc), cumplen el requisito anteriormente indicado y, por tanto, facilitarían el crecimiento de las aplicaciones y servicios basados en el posicionamiento, en el caso de poderse emplear para ello. Sin embargo, determinar la posición con el nivel de precisión adecuado mediante el uso de estas tecnologías, es un importante reto hoy en día. El presente trabajo pretende aportar avances significativos en este campo. A lo largo del mismo se llevará a cabo, en primer lugar, un estudio de los principales algoritmos y técnicas auxiliares de posicionamiento aplicables en entornos de interior. La revisión se centrará en aquellos que sean aptos tanto para tecnologías móviles de última generación como para entornos WLAN. Con ello, se pretende poner de relieve las ventajas e inconvenientes de cada uno de estos algoritmos, teniendo como motivación final su aplicabilidad tanto al mundo de las redes móviles 3G y 4G (en especial a las femtoceldas y small-cells LTE) como al indicado entorno WLAN; y teniendo siempre presente que el objetivo último es que vayan a ser usados en interiores. La principal conclusión de esa revisión es que las técnicas de triangulación, comúnmente empleadas para realizar la localización en entornos de exterior, se muestran inútiles en los entornos de interior, debido a efectos adversos propios de este tipo de entornos como la pérdida de visión directa o los caminos múltiples en el recorrido de la señal. Los métodos de huella radioeléctrica, más conocidos bajo el término inglés “fingerprinting”, que se basan en la comparación de los valores de potencia de señal que se están recibiendo en el momento de llevar a cabo el posicionamiento por un terminal móvil, frente a los valores registrados en un mapa radio de potencias, elaborado durante una fase inicial de calibración, aparecen como los mejores de entre los posibles para los escenarios de interior. Sin embargo, estos sistemas se ven también afectados por otros problemas, como por ejemplo los importantes trabajos a realizar para ponerlos en marcha, y la variabilidad del canal. Frente a ellos, en el presente trabajo se presentan dos contribuciones originales para mejorar los sistemas basados en los métodos fingerprinting. La primera de esas contribuciones describe un método para determinar, de manera sencilla, las características básicas del sistema a nivel del número de muestras necesarias para crear el mapa radio de la huella radioeléctrica de referencia, junto al número mínimo de emisores de radiofrecuencia que habrá que desplegar; todo ello, a partir de unos requerimientos iniciales relacionados con el error y la precisión buscados en el posicionamiento a realizar, a los que uniremos los datos correspondientes a las dimensiones y realidad física del entorno. De esa forma, se establecen unas pautas iniciales a la hora de dimensionar el sistema, y se combaten los efectos negativos que, sobre el coste o el rendimiento del sistema en su conjunto, son debidos a un despliegue ineficiente de los emisores de radiofrecuencia y de los puntos de captura de su huella. La segunda contribución incrementa la precisión resultante del sistema en tiempo real, gracias a una técnica de recalibración automática del mapa radio de potencias. Esta técnica tiene en cuenta las medidas reportadas continuamente por unos pocos puntos de referencia estáticos, estratégicamente distribuidos en el entorno, para recalcular y actualizar las potencias registradas en el mapa radio. Un beneficio adicional a nivel operativo de la citada técnica, es la prolongación del tiempo de usabilidad fiable del sistema, bajando la frecuencia en la que se requiere volver a capturar el mapa radio de potencias completo. Las mejoras anteriormente citadas serán de aplicación directa en la mejora de los mecanismos de posicionamiento en interiores basados en la infraestructura inalámbrica de comunicaciones de voz y datos. A partir de ahí, esa mejora será extensible y de aplicabilidad sobre los servicios de localización (conocimiento personal del lugar donde uno mismo se encuentra), monitorización (conocimiento por terceros del citado lugar) y seguimiento (monitorización prolongada en el tiempo), ya que todos ellas toman como base un correcto posicionamiento para un adecuado desempeño. ABSTRACT To find the position where a mobile is located with good accuracy, when it is immersed in an indoor environment (shopping centers, office buildings, airports, stations, tunnels, etc.), is the cornerstone on which a large number of applications and services are supported. Many of these services are already available in outdoor environments, although the indoor environments are suitable for other services that are specific for it. That number, however, could be significantly higher than now, if an expensive infrastructure were not required to perform the positioning service with adequate precision, for each one of the hypothetical services. Or, equally, whether that infrastructure may have other different uses beyond the ones associated with positioning. The usability of the same infrastructure for purposes other than positioning could give the opportunity of having it already available in the different locations, because it was previously deployed for these other uses; or facilitate its deployment, because the cost of that operation would offer a higher return on usability for the deployer. Wireless technologies based on radio communications, already in use for voice and data communications (mobile, WLAN, etc), meet the requirement of additional usability and, therefore, could facilitate the growth of applications and services based on positioning, in the case of being able to use it. However, determining the position with the appropriate degree of accuracy using these technologies is a major challenge today. This paper provides significant advances in this field. Along this work, a study about the main algorithms and auxiliar techniques related with indoor positioning will be initially carried out. The review will be focused in those that are suitable to be used with both last generation mobile technologies and WLAN environments. By doing this, it is tried to highlight the advantages and disadvantages of each one of these algorithms, having as final motivation their applicability both in the world of 3G and 4G mobile networks (especially in femtocells and small-cells of LTE) and in the WLAN world; and having always in mind that the final aim is to use it in indoor environments. The main conclusion of that review is that triangulation techniques, commonly used for localization in outdoor environments, are useless in indoor environments due to adverse effects of such environments as loss of sight or multipaths. Triangulation techniques used for external locations are useless due to adverse effects like the lack of line of sight or multipath. Fingerprinting methods, based on the comparison of Received Signal Strength values measured by the mobile phone with a radio map of RSSI Recorded during the calibration phase, arise as the best methods for indoor scenarios. However, these systems are also affected by other problems, for example the important load of tasks to be done to have the system ready to work, and the variability of the channel. In front of them, in this paper we present two original contributions to improve the fingerprinting methods based systems. The first one of these contributions describes a method for find, in a simple way, the basic characteristics of the system at the level of the number of samples needed to create the radio map inside the referenced fingerprint, and also by the minimum number of radio frequency emitters that are needed to be deployed; and both of them coming from some initial requirements for the system related to the error and accuracy in positioning wanted to have, which it will be joined the data corresponding to the dimensions and physical reality of the environment. Thus, some initial guidelines when dimensioning the system will be in place, and the negative effects into the cost or into the performance of the whole system, due to an inefficient deployment of the radio frequency emitters and of the radio map capture points, will be minimized. The second contribution increases the resulting accuracy of the system when working in real time, thanks to a technique of automatic recalibration of the power measurements stored in the radio map. This technique takes into account the continuous measures reported by a few static reference points, strategically distributed in the environment, to recalculate and update the measurements stored into the map radio. An additional benefit at operational level of such technique, is the extension of the reliable time of the system, decreasing the periodicity required to recapture the radio map within full measurements. The above mentioned improvements are directly applicable to improve indoor positioning mechanisms based on voice and data wireless communications infrastructure. From there, that improvement will be also extensible and applicable to location services (personal knowledge of the location where oneself is), monitoring (knowledge by other people of your location) and monitoring (prolonged monitoring over time) as all of them are based in a correct positioning for proper performance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La vid silvestre se considera como el ancestro autóctono de las vides cultivadas y una enorme reserva genética en peligro de extinción. La prospección llevada a cabo entre 2003 y 2004 permitió catalogar 51 localizaciones de vides silvestres españolas, la mayoría de ellas ubicadas en riberas de ríos. Estos ejemplares se incluyeron en el Banco de Germoplasma de la Finca "El Encín" (BGVCAM - Alcalá de Henares, Madrid, España). En primer lugar, se caracterizó la cantidad y la distribución de su diversidad genética utilizando 25 loci empleando microsatélites nucleares (SSR). Hemos analizado también la posible coexistencia en el hábitat natural de vides silvestres con vides cultivadas naturalizadas y portainjertos. De este modo, los análisis fenotípicos y genéticos identificaron el 19% de las muestras recogidas como derivadas de genotipos cultivados, siendo, o bien vides cultivadas naturalizadas o genotipos híbridos derivados de cruces espontáneos entre vides silvestres y cultivadas. La diversidad genética de las poblaciones de vides silvestres fue similar a la observada en el grupo de las cultivadas. El análisis molecular mostró que el germoplasma de cultivadas y silvestres es genéticamente divergente con bajo nivel de introgresión. Se ha identificado cuatro grupos genéticos, con dos de ellos fundamentalmente representados por los genotipos de vides cultivadas y dos por las accesiones silvestres. El análisis de los vínculos genéticos entre las vides silvestres y cultivadas podría sugerir una contribución genética de las accesiones silvestres españolas a las actuales variedades occidentales. En segundo lugar, se realizó un profundo estudio morfológico "ex situ " y se contrastaron con los resultados de la caracterización realizada en 182 variedades comerciales españolas de la misma colección. Todos los individuos silvestres mostraron diferencias morfológicas con Vitis vinifera L subsp. vinifera, pero no se encontraron diferencias significativas dentro Vitis vinifera L. subsp. sylvestris, ni por localización geográfica ni por sexo. Los resultados de este estudio describen las principales características morfológicas de las vides silvestres españolas y sus rasgos diferenciales con su pariente cultivada. Por último, se analizó la composición antociánica presente en 21 accesiones de vides silvestres de la Península Ibérica conservadas en el BGVCAM de la Finca "El Encín" y seleccionadas basándose en diferencias ampelográficas y caracterización molecular. La concentración de antocianinas es similar la encontrad en vides cultivadas con destino a la vinificación. Las accesiones estudiadas mostraron una variabilidad considerable en su perfil antociánico y fue posible distinguir varios grupos. Sin embargo, la presencia de material silvestre con perfiles antociánicos poco comunes o inexistentes en variedades españolas, sugiere que la variabilidad genética relacionada con antocianinas en poblaciones españolas de vides silvestres podría ser más alta que la de variedades cultivadas comúnmente consideradas de origen español. ABSTRACT The wild grapevine is considered an autochthonous relative of cultivated vines and a huge gene pool endangered in Europe. Prospecting carried out between 2003 and 2004 enabled to inventory 51 Spanish sites with wild grapevines, most of them located near rivers. These individuals were grafted in the collection of "El Encín" (BGVCAM - Alcalá de Henares, Madrid, Spain). Firstly, werw characterized the amount and distribution of their genetic diversity using 25 nuclear SSR loci. We have also analysed the possible coexistence in the natural habitat of wild grapevines with naturalized grapevine cultivars and rootstocks. In this way, phenotypic and genetic analyses identified 19% of the collected samples as derived from cultivated genotypes, being either naturalized cultivars or hybrid genotypes derived from spontaneous crosses between wild and cultivated grapevines. The genetic diversity of wild grapevine populations was similar than that observed in the cultivated group. The molecular analysis showed that cultivated germplasm and wild germplasm are genetically divergent with low level of introgression. We identified four genetic groups, with two of them fundamentally represented among cultivated genotypes and two among wild accessions. The analyses of genetic relationships between wild and cultivated grapevines could suggest a genetic contribution of wild accessions from Spain to current Western cultivars. Secondly, a morphological study was done "ex situ" and were compared with data from 182 Spanish commercial cultivars grown in the same collection. All wild individuals showed morphological differences with Vitis vinifera L. ssp. vinifera but no significant differences were found within Vitis vinifera L subsp. sylvestris neither by geographic origin nor by sex. A pattern with the main characteristics of Spanish wild grapevines is suggested. Ultimately, were investigated the anthocyanin composition of 21 mostly Spanish wild grapevine accessions preserved at BGVCAM "El Encín" and selected in consideration of observed ampelographic differences and molecular characterization. Total anthocyanin concentration was similar to that found in winegrape cultivars. The accessions studied showed considerable variability in their anthocyanin fingerprints and it was possible to distinguish several groups, similar to previous reports on the anthocyanin fingerprint of winegrapes. The anthocyanin composition of wild grapevine accessions was similar to that of cultivated grapes. Nevertheless, the presence of wild accessions with anthocyanin fingerprints uncommon or nonexistent in Spanish cultivated varieties suggests that the genetic variability related to anthocyanins in Spanish wild grapevine populations may be higher than that of cultivated varieties commonly considered of Spanish origin.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis se centra en el análisis de dos aspectos complementarios de la ciberdelincuencia (es decir, el crimen perpetrado a través de la red para ganar dinero). Estos dos aspectos son las máquinas infectadas utilizadas para obtener beneficios económicos de la delincuencia a través de diferentes acciones (como por ejemplo, clickfraud, DDoS, correo no deseado) y la infraestructura de servidores utilizados para gestionar estas máquinas (por ejemplo, C & C, servidores explotadores, servidores de monetización, redirectores). En la primera parte se investiga la exposición a las amenazas de los ordenadores victimas. Para realizar este análisis hemos utilizado los metadatos contenidos en WINE-BR conjunto de datos de Symantec. Este conjunto de datos contiene metadatos de instalación de ficheros ejecutables (por ejemplo, hash del fichero, su editor, fecha de instalación, nombre del fichero, la versión del fichero) proveniente de 8,4 millones de usuarios de Windows. Hemos asociado estos metadatos con las vulnerabilidades en el National Vulnerability Database (NVD) y en el Opens Sourced Vulnerability Database (OSVDB) con el fin de realizar un seguimiento de la decadencia de la vulnerabilidad en el tiempo y observar la rapidez de los usuarios a remiendar sus sistemas y, por tanto, su exposición a posibles ataques. Hemos identificado 3 factores que pueden influir en la actividad de parches de ordenadores victimas: código compartido, el tipo de usuario, exploits. Presentamos 2 nuevos ataques contra el código compartido y un análisis de cómo el conocimiento usuarios y la disponibilidad de exploit influyen en la actividad de aplicación de parches. Para las 80 vulnerabilidades en nuestra base de datos que afectan código compartido entre dos aplicaciones, el tiempo entre el parche libera en las diferentes aplicaciones es hasta 118 das (con una mediana de 11 das) En la segunda parte se proponen nuevas técnicas de sondeo activos para detectar y analizar las infraestructuras de servidores maliciosos. Aprovechamos técnicas de sondaje activo, para detectar servidores maliciosos en el internet. Empezamos con el análisis y la detección de operaciones de servidores explotadores. Como una operación identificamos los servidores que son controlados por las mismas personas y, posiblemente, participan en la misma campaña de infección. Hemos analizado un total de 500 servidores explotadores durante un período de 1 año, donde 2/3 de las operaciones tenían un único servidor y 1/2 por varios servidores. Hemos desarrollado la técnica para detectar servidores explotadores a diferentes tipologías de servidores, (por ejemplo, C & C, servidores de monetización, redirectores) y hemos logrado escala de Internet de sondeo para las distintas categorías de servidores maliciosos. Estas nuevas técnicas se han incorporado en una nueva herramienta llamada CyberProbe. Para detectar estos servidores hemos desarrollado una novedosa técnica llamada Adversarial Fingerprint Generation, que es una metodología para generar un modelo único de solicitud-respuesta para identificar la familia de servidores (es decir, el tipo y la operación que el servidor apartenece). A partir de una fichero de malware y un servidor activo de una determinada familia, CyberProbe puede generar un fingerprint válido para detectar todos los servidores vivos de esa familia. Hemos realizado 11 exploraciones en todo el Internet detectando 151 servidores maliciosos, de estos 151 servidores 75% son desconocidos a bases de datos publicas de servidores maliciosos. Otra cuestión que se plantea mientras se hace la detección de servidores maliciosos es que algunos de estos servidores podrán estar ocultos detrás de un proxy inverso silente. Para identificar la prevalencia de esta configuración de red y mejorar el capacidades de CyberProbe hemos desarrollado RevProbe una nueva herramienta a través del aprovechamiento de leakages en la configuración de la Web proxies inversa puede detectar proxies inversos. RevProbe identifica que el 16% de direcciones IP maliciosas activas analizadas corresponden a proxies inversos, que el 92% de ellos son silenciosos en comparación con 55% para los proxies inversos benignos, y que son utilizado principalmente para equilibrio de carga a través de múltiples servidores. ABSTRACT In this dissertation we investigate two fundamental aspects of cybercrime: the infection of machines used to monetize the crime and the malicious server infrastructures that are used to manage the infected machines. In the first part of this dissertation, we analyze how fast software vendors apply patches to secure client applications, identifying shared code as an important factor in patch deployment. Shared code is code present in multiple programs. When a vulnerability affects shared code the usual linear vulnerability life cycle is not anymore effective to describe how the patch deployment takes place. In this work we show which are the consequences of shared code vulnerabilities and we demonstrate two novel attacks that can be used to exploit this condition. In the second part of this dissertation we analyze malicious server infrastructures, our contributions are: a technique to cluster exploit server operations, a tool named CyberProbe to perform large scale detection of different malicious servers categories, and RevProbe a tool that detects silent reverse proxies. We start by identifying exploit server operations, that are, exploit servers managed by the same people. We investigate a total of 500 exploit servers over a period of more 13 months. We have collected malware from these servers and all the metadata related to the communication with the servers. Thanks to this metadata we have extracted different features to group together servers managed by the same entity (i.e., exploit server operation), we have discovered that 2/3 of the operations have a single server while 1/3 have multiple servers. Next, we present CyberProbe a tool that detects different malicious server types through a novel technique called adversarial fingerprint generation (AFG). The idea behind CyberProbe’s AFG is to run some piece of malware and observe its network communication towards malicious servers. Then it replays this communication to the malicious server and outputs a fingerprint (i.e. a port selection function, a probe generation function and a signature generation function). Once the fingerprint is generated CyberProbe scans the Internet with the fingerprint and finds all the servers of a given family. We have performed a total of 11 Internet wide scans finding 151 new servers starting with 15 seed servers. This gives to CyberProbe a 10 times amplification factor. Moreover we have compared CyberProbe with existing blacklists on the internet finding that only 40% of the server detected by CyberProbe were listed. To enhance the capabilities of CyberProbe we have developed RevProbe, a reverse proxy detection tool that can be integrated with CyberProbe to allow precise detection of silent reverse proxies used to hide malicious servers. RevProbe leverages leakage based detection techniques to detect if a malicious server is hidden behind a silent reverse proxy and the infrastructure of servers behind it. At the core of RevProbe is the analysis of differences in the traffic by interacting with a remote server.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La arquitectura y la construcción deben generar un bien común para la sociedad y medio ambiente, los arquitectos tienen la responsabilidad de mitigar muchos efectos negativos que se generan en esta profesión; esto no es posible si los estudiantes egresan con un conocimiento nulo sobre la arquitectura sostenible; por lo que surge la inquietud de desarrollar la presente tesis, con el objetivo de aportar de una forma sutil al desarrollo de la arquitectura compartiendo conocimiento para generar conocimiento, ya que la investigación que a continuación se desarrolla está enfocada al desarrollo de la arquitectura sostenible en el campo de la formación de los estudiantes, donde se pueda enlazar los nuevos requerimientos profesionales planteados desde la sostenibilidad. La formación del arquitecto ha intentado abordar el conocimiento humanístico, técnico, cultural, tecnológico, calculo estructural, instalaciones y construcciones; sin embargo, se ha dejado a un lado lo que abarca la arquitectura sostenible, como calidad de vida, diseño bioclimático, energías renovables, normativas sostenibles, economía viable, emisiones, contaminación y residuos generados, materiales, elementos constructivos sostenibles, mancha urbana, huella ecológica, impacto ambiental y análisis del ciclo de vida, entre otras estrategias o elementos. A través de la investigación científica y profunda que se ha realizado, se busca conformar el conocimiento sistemático que contribuya a la resolución de los problemas de nuestra sociedad, ambiente y educación, con la elaboración de un sistema metodológico de evaluación y aplicación de sostenibilidad en los modelos educativos. Para desarrollar el sistema de evaluación y aplicación, se desarrolla una metodología de investigación donde se justifica la necesidad de la creación de dicho sistema, en base al análisis de la situación actual del medio ambiente y la relación directa con la arquitectura, construcción y conocimientos adquiridos en la formación de los estudiantes de arquitectura, donde se demuestra la importancia de la educación de la arquitectura sostenible en el desarrollo de las sociedades. En base al análisis de metodologías y sistemas que evalúan la sostenibilidad de los edificios y los sistemas que evalúan la educación, se propone uno propio para evaluar las asignaturas de los modelos educativos en base a elementos sostenibles propuestos. La presente investigación se enmarca en una estrategia general de promover la evaluación y aplicación de la sostenibilidad en los modelos educativos de las escuelas de arquitectura a nivel internacional; como caso de estudio se evaluará el plan de estudios llamado Minerva, de la Benemérita Universidad Autónoma de Puebla en México, donde he realizado una estancia de investigación y la Escuela Técnica Superior de Arquitectura de la Universidad Politécnica de Madrid en España, donde he cursado el doctorado. ABSTRACT Architecture and construction must generate a common good for the society and environment, the architects have the responsibility of mitigating many negative effects that are generated in this profession; this is not possible if the students graduate with a void knowledge on the sustainable architecture that is why the concern for developing the present thesis, with the aim to contribute to the development of the architecture sharing knowledge to generate knowledge, seeing as the investigation that later develops is focused on the development of the sustainable architecture in about the student’s professional training, where it could connect the new professional requirements raised from the sustainability. The architect’s professional training has tried to approach the humanistic, technical, cultural, technological knowledge, structural calculation, fittings and constructions; nevertheless, there has been left aside what includes the sustainable architecture, as quality of life, design bioclimatic, renewable energies, sustainable regulations, viable economy, emission, pollution and generated, material residues, constructive sustainable elements, urban spot, ecological fingerprint, environmental impact and analysis of the life cycle, between other strategies or elements. Across the scientific and deep research that has been realized, it reaches to make up the systematic knowledge that he contributes to the resolution of the problems of our society, environment and education, with the production of a methodological system of evaluation and application of sustainability in the educational models. To develop the system of evaluation and application, there is a methodology of research where it justifies itself the need of the creation of the above mentioned system, on the basis of the analysis of the current situation of the environment and the direct relationship with the architecture, construction and knowledge acquired in the architecture student’s education, where there is demonstrated the matter of the education of the sustainable architecture in the development of the companies. Based on the analysis of methodologies and systems that evaluate the sustainability of the buildings and the systems that evaluate the education, there is one own proposes to evaluate the subjects of the educational models on the basis of sustainable proposed elements. The present research places in a general strategy of promoting the evaluation and application of the sustainability in the educational models of the schools of architecture worldwide; since case of study will evaluate the study plan called Minerva, of the Meritorious Autonomous University of It Populates in Mexico, where I have realized a stay of researching and the Technical Top School of Architecture of the Technical University of Madrid in Spain, where the PHD has been done.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Molecular methods are used widely to measure genetic diversity within populations and determine relationships among species. However, it is difficult to observe genomic evolution in action because these dynamics are too slow in most organisms. To overcome this limitation, we sampled genomes from populations of Escherichia coli evolving in the laboratory for 10,000 generations. We analyzed the genomes for restriction fragment length polymorphisms (RFLP) using seven insertion sequences (IS) as probes; most polymorphisms detected by this approach reflect rearrangements (including transpositions) rather than point mutations. The evolving genomes became increasingly different from their ancestor over time. Moreover, tremendous diversity accumulated within each population, such that almost every individual had a different genetic fingerprint after 10,000 generations. As has been often suggested, but not previously shown by experiment, the rates of phenotypic and genomic change were discordant, both across replicate populations and over time within a population. Certain pivotal mutations were shared by all descendants in a population, and these are candidates for beneficial mutations, which are rare and difficult to find. More generally, these data show that the genome is highly dynamic even over a time scale that is, from an evolutionary perspective, very brief.