437 resultados para knotting fingerprint
Resumo:
A lo largo del presente trabajo se investiga la viabilidad de la descomposición automática de espectros de radiación gamma por medio de algoritmos de resolución de sistemas de ecuaciones algebraicas lineales basados en técnicas de pseudoinversión. La determinación de dichos algoritmos ha sido realizada teniendo en cuenta su posible implementación sobre procesadores de propósito específico de baja complejidad. En el primer capítulo se resumen las técnicas para la detección y medida de la radiación gamma que han servido de base para la confección de los espectros tratados en el trabajo. Se reexaminan los conceptos asociados con la naturaleza de la radiación electromagnética, así como los procesos físicos y el tratamiento electrónico que se hallan involucrados en su detección, poniendo de relieve la naturaleza intrínsecamente estadística del proceso de formación del espectro asociado como una clasificación del número de detecciones realizadas en función de la energía supuestamente continua asociada a las mismas. Para ello se aporta una breve descripción de los principales fenómenos de interacción de la radiación con la materia, que condicionan el proceso de detección y formación del espectro. El detector de radiación es considerado el elemento crítico del sistema de medida, puesto que condiciona fuertemente el proceso de detección. Por ello se examinan los principales tipos de detectores, con especial hincapié en los detectores de tipo semiconductor, ya que son los más utilizados en la actualidad. Finalmente, se describen los subsistemas electrónicos fundamentales para el acondicionamiento y pretratamiento de la señal procedente del detector, a la que se le denomina con el término tradicionalmente utilizado de Electrónica Nuclear. En lo que concierne a la espectroscopia, el principal subsistema de interés para el presente trabajo es el analizador multicanal, el cual lleva a cabo el tratamiento cualitativo de la señal, y construye un histograma de intensidad de radiación en el margen de energías al que el detector es sensible. Este vector N-dimensional es lo que generalmente se conoce con el nombre de espectro de radiación. Los distintos radionúclidos que participan en una fuente de radiación no pura dejan su impronta en dicho espectro. En el capítulo segundo se realiza una revisión exhaustiva de los métodos matemáticos en uso hasta el momento ideados para la identificación de los radionúclidos presentes en un espectro compuesto, así como para determinar sus actividades relativas. Uno de ellos es el denominado de regresión lineal múltiple, que se propone como la aproximación más apropiada a los condicionamientos y restricciones del problema: capacidad para tratar con espectros de baja resolución, ausencia del concurso de un operador humano (no supervisión), y posibilidad de ser soportado por algoritmos de baja complejidad capaces de ser instrumentados sobre procesadores dedicados de alta escala de integración. El problema del análisis se plantea formalmente en el tercer capítulo siguiendo las pautas arriba mencionadas y se demuestra que el citado problema admite una solución en la teoría de memorias asociativas lineales. Un operador basado en este tipo de estructuras puede proporcionar la solución al problema de la descomposición espectral deseada. En el mismo contexto, se proponen un par de algoritmos adaptativos complementarios para la construcción del operador, que gozan de unas características aritméticas especialmente apropiadas para su instrumentación sobre procesadores de alta escala de integración. La característica de adaptatividad dota a la memoria asociativa de una gran flexibilidad en lo que se refiere a la incorporación de nueva información en forma progresiva.En el capítulo cuarto se trata con un nuevo problema añadido, de índole altamente compleja. Es el del tratamiento de las deformaciones que introducen en el espectro las derivas instrumentales presentes en el dispositivo detector y en la electrónica de preacondicionamiento. Estas deformaciones invalidan el modelo de regresión lineal utilizado para describir el espectro problema. Se deriva entonces un modelo que incluya las citadas deformaciones como una ampliación de contribuciones en el espectro compuesto, el cual conlleva una ampliación sencilla de la memoria asociativa capaz de tolerar las derivas en la mezcla problema y de llevar a cabo un análisis robusto de contribuciones. El método de ampliación utilizado se basa en la suposición de pequeñas perturbaciones. La práctica en el laboratorio demuestra que, en ocasiones, las derivas instrumentales pueden provocar distorsiones severas en el espectro que no pueden ser tratadas por el modelo anterior. Por ello, en el capítulo quinto se plantea el problema de medidas afectadas por fuertes derivas desde el punto de vista de la teoría de optimización no lineal. Esta reformulación lleva a la introducción de un algoritmo de tipo recursivo inspirado en el de Gauss-Newton que permite introducir el concepto de memoria lineal realimentada. Este operador ofrece una capacidad sensiblemente mejorada para la descomposición de mezclas con fuerte deriva sin la excesiva carga computacional que presentan los algoritmos clásicos de optimización no lineal. El trabajo finaliza con una discusión de los resultados obtenidos en los tres principales niveles de estudio abordados, que se ofrecen en los capítulos tercero, cuarto y quinto, así como con la elevación a definitivas de las principales conclusiones derivadas del estudio y con el desglose de las posibles líneas de continuación del presente trabajo.---ABSTRACT---Through the present research, the feasibility of Automatic Gamma-Radiation Spectral Decomposition by Linear Algebraic Equation-Solving Algorithms using Pseudo-Inverse Techniques is explored. The design of the before mentioned algorithms has been done having into account their possible implementation on Specific-Purpose Processors of Low Complexity. In the first chapter, the techniques for the detection and measurement of gamma radiation employed to construct the spectra being used throughout the research are reviewed. Similarly, the basic concepts related with the nature and properties of the hard electromagnetic radiation are also re-examined, together with the physic and electronic processes involved in the detection of such kind of radiation, with special emphasis in the intrinsic statistical nature of the spectrum build-up process, which is considered as a classification of the number of individual photon-detections as a function of the energy associated to each individual photon. Fbr such, a brief description of the most important matter-energy interaction phenomena conditioning the detection and spectrum formation processes is given. The radiation detector is considered as the most critical element in the measurement system, as this device strongly conditions the detection process. Fbr this reason, the characteristics of the most frequent detectors are re-examined, with special emphasis on those of semiconductor nature, as these are the most frequently employed ones nowadays. Finally, the fundamental electronic subsystems for preaconditioning and treating of the signal delivered by the detector, classically addresed as Nuclear Electronics, is described. As far as Spectroscopy is concerned, the subsystem most interesting for the scope covered by the present research is the so-called Multichannel Analyzer, which is devoted to the cualitative treatment of the signal, building-up a hystogram of radiation intensity in the range of energies in which the detector is sensitive. The resulting N-dimensional vector is generally known with the ñame of Radiation Spectrum. The different radio-nuclides contributing to the spectrum of a composite source will leave their fingerprint in the resulting spectrum. Through the second chapter, an exhaustive review of the mathematical methods devised to the present moment to identify the radio-nuclides present in the composite spectrum and to quantify their relative contributions, is reviewed. One of the more popular ones is the so-known Múltiple Linear Regression, which is proposed as the best suited approach according to the constraints and restrictions present in the formulation of the problem, i.e., the need to treat low-resolution spectra, the absence of control by a human operator (un-supervision), and the possibility of being implemented as low-complexity algorithms amenable of being supported by VLSI Specific Processors. The analysis problem is formally stated through the third chapter, following the hints established in this context, and it is shown that the addressed problem may be satisfactorily solved under the point of view of Linear Associative Memories. An operator based on this kind of structures may provide the solution to the spectral decomposition problem posed. In the same context, a pair of complementary adaptive algorithms useful for the construction of the solving operator are proposed, which share certain special arithmetic characteristics that render them specially suitable for their implementation on VLSI Processors. The adaptive nature of the associative memory provides a high flexibility to this operator, in what refers to the progressive inclusión of new information to the knowledge base. Through the fourth chapter, this fact is treated together with a new problem to be considered, of a high interest but quite complex nature, as is the treatment of the deformations appearing in the spectrum when instrumental drifts in both the detecting device and the pre-acconditioning electronics are to be taken into account. These deformations render the Linear Regression Model proposed almost unuseful to describe the resulting spectrum. A new model including the drifts is derived as an extensión of the individual contributions to the composite spectrum, which implies a simple extensión of the Associative Memory, which renders this suitable to accept the drifts in the composite spectrum, thus producing a robust analysis of contributions. The extensión method is based on the Low-Amplitude Perturbation Hypothesis. Experimental practice shows that in certain cases the instrumental drifts may provoke severe distortions in the resulting spectrum, which can not be treated with the before-mentioned hypothesis. To cover also these less-frequent cases, through the fifth chapter, the problem involving strong drifts is treated under the point of view of Non-Linear Optimization Techniques. This reformulation carries the study to the consideration of recursive algorithms based on the Gauss-Newton methods, which allow the introduction of Feed-Back Memories, computing elements with a sensibly improved capability to decompose spectra affected by strong drifts. The research concludes with a discussion of the results obtained in the three main levéis of study considerad, which are presented in chapters third, fourth and fifth, toghether with the review of the main conclusions derived from the study and the outline of the main research lines opened by the present work.
Resumo:
Los medios sociales han revolucionado la manera en la que los consumidores se relacionan entre sí y con las marcas. Las opiniones publicadas en dichos medios tienen un poder de influencia en las decisiones de compra tan importante como las campañas de publicidad. En consecuencia, los profesionales del marketing cada vez dedican mayores esfuerzos e inversión a la obtención de indicadores que permitan medir el estado de salud de las marcas a partir de los contenidos digitales generados por sus consumidores. Dada la naturaleza no estructurada de los contenidos publicados en los medios sociales, la tecnología usada para procesar dichos contenidos ha menudo implementa técnicas de Inteligencia Artificial, tales como algoritmos de procesamiento de lenguaje natural, aprendizaje automático y análisis semántico. Esta tesis, contribuye al estado de la cuestión, con un modelo que permite estructurar e integrar la información publicada en medios sociales, y una serie de técnicas cuyos objetivos son la identificación de consumidores, así como la segmentación psicográfica y sociodemográfica de los mismos. La técnica de identificación de consumidores se basa en la huella digital de los dispositivos que utilizan para navegar por la Web y es tolerante a los cambios que se producen con frecuencia en dicha huella digital. Las técnicas de segmentación psicográfica descritas obtienen la posición en el embudo de compra de los consumidores y permiten clasificar las opiniones en función de una serie de atributos de marketing. Finalmente, las técnicas de segmentación sociodemográfica permiten obtener el lugar de residencia y el género de los consumidores. ABSTRACT Social media has revolutionised the way in which consumers relate to each other and with brands. The opinions published in social media have a power of influencing purchase decisions as important as advertising campaigns. Consequently, marketers are increasing efforts and investments for obtaining indicators to measure brand health from the digital content generated by consumers. Given the unstructured nature of social media contents, the technology used for processing such contents often implements Artificial Intelligence techniques, such as natural language processing, machine learning and semantic analysis algorithms. This thesis contributes to the State of the Art, with a model for structuring and integrating the information posted on social media, and a number of techniques whose objectives are the identification of consumers, as well as their socio-demographic and psychographic segmentation. The consumer identification technique is based on the fingerprint of the devices they use to surf the Web and is tolerant to the changes that occur frequently in such fingerprint. The psychographic profiling techniques described infer the position of consumer in the purchase funnel, and allow to classify the opinions based on a series of marketing attributes. Finally, the socio-demographic profiling techniques allow to obtain the residence and gender of consumers.
Resumo:
Determinar con buena precisión la posición en la que se encuentra un terminal móvil, cuando éste se halla inmerso en un entorno de interior (centros comerciales, edificios de oficinas, aeropuertos, estaciones, túneles, etc), es el pilar básico sobre el que se sustentan un gran número de aplicaciones y servicios. Muchos de esos servicios se encuentran ya disponibles en entornos de exterior, aunque los entornos de interior se prestan a otros servicios específicos para ellos. Ese número, sin embargo, podría ser significativamente mayor de lo que actualmente es, si no fuera necesaria una costosa infraestructura para llevar a cabo el posicionamiento con la precisión adecuada a cada uno de los hipotéticos servicios. O, igualmente, si la citada infraestructura pudiera tener otros usos distintos, además del relacionado con el posicionamiento. La usabilidad de la misma infraestructura para otros fines distintos ofrecería la oportunidad de que la misma estuviera ya presente en las diferentes localizaciones, porque ha sido previamente desplegada para esos otros usos; o bien facilitaría su despliegue, porque el coste de esa operación ofreciera un mayor retorno de usabilidad para quien lo realiza. Las tecnologías inalámbricas de comunicaciones basadas en radiofrecuencia, ya en uso para las comunicaciones de voz y datos (móviles, WLAN, etc), cumplen el requisito anteriormente indicado y, por tanto, facilitarían el crecimiento de las aplicaciones y servicios basados en el posicionamiento, en el caso de poderse emplear para ello. Sin embargo, determinar la posición con el nivel de precisión adecuado mediante el uso de estas tecnologías, es un importante reto hoy en día. El presente trabajo pretende aportar avances significativos en este campo. A lo largo del mismo se llevará a cabo, en primer lugar, un estudio de los principales algoritmos y técnicas auxiliares de posicionamiento aplicables en entornos de interior. La revisión se centrará en aquellos que sean aptos tanto para tecnologías móviles de última generación como para entornos WLAN. Con ello, se pretende poner de relieve las ventajas e inconvenientes de cada uno de estos algoritmos, teniendo como motivación final su aplicabilidad tanto al mundo de las redes móviles 3G y 4G (en especial a las femtoceldas y small-cells LTE) como al indicado entorno WLAN; y teniendo siempre presente que el objetivo último es que vayan a ser usados en interiores. La principal conclusión de esa revisión es que las técnicas de triangulación, comúnmente empleadas para realizar la localización en entornos de exterior, se muestran inútiles en los entornos de interior, debido a efectos adversos propios de este tipo de entornos como la pérdida de visión directa o los caminos múltiples en el recorrido de la señal. Los métodos de huella radioeléctrica, más conocidos bajo el término inglés “fingerprinting”, que se basan en la comparación de los valores de potencia de señal que se están recibiendo en el momento de llevar a cabo el posicionamiento por un terminal móvil, frente a los valores registrados en un mapa radio de potencias, elaborado durante una fase inicial de calibración, aparecen como los mejores de entre los posibles para los escenarios de interior. Sin embargo, estos sistemas se ven también afectados por otros problemas, como por ejemplo los importantes trabajos a realizar para ponerlos en marcha, y la variabilidad del canal. Frente a ellos, en el presente trabajo se presentan dos contribuciones originales para mejorar los sistemas basados en los métodos fingerprinting. La primera de esas contribuciones describe un método para determinar, de manera sencilla, las características básicas del sistema a nivel del número de muestras necesarias para crear el mapa radio de la huella radioeléctrica de referencia, junto al número mínimo de emisores de radiofrecuencia que habrá que desplegar; todo ello, a partir de unos requerimientos iniciales relacionados con el error y la precisión buscados en el posicionamiento a realizar, a los que uniremos los datos correspondientes a las dimensiones y realidad física del entorno. De esa forma, se establecen unas pautas iniciales a la hora de dimensionar el sistema, y se combaten los efectos negativos que, sobre el coste o el rendimiento del sistema en su conjunto, son debidos a un despliegue ineficiente de los emisores de radiofrecuencia y de los puntos de captura de su huella. La segunda contribución incrementa la precisión resultante del sistema en tiempo real, gracias a una técnica de recalibración automática del mapa radio de potencias. Esta técnica tiene en cuenta las medidas reportadas continuamente por unos pocos puntos de referencia estáticos, estratégicamente distribuidos en el entorno, para recalcular y actualizar las potencias registradas en el mapa radio. Un beneficio adicional a nivel operativo de la citada técnica, es la prolongación del tiempo de usabilidad fiable del sistema, bajando la frecuencia en la que se requiere volver a capturar el mapa radio de potencias completo. Las mejoras anteriormente citadas serán de aplicación directa en la mejora de los mecanismos de posicionamiento en interiores basados en la infraestructura inalámbrica de comunicaciones de voz y datos. A partir de ahí, esa mejora será extensible y de aplicabilidad sobre los servicios de localización (conocimiento personal del lugar donde uno mismo se encuentra), monitorización (conocimiento por terceros del citado lugar) y seguimiento (monitorización prolongada en el tiempo), ya que todos ellas toman como base un correcto posicionamiento para un adecuado desempeño. ABSTRACT To find the position where a mobile is located with good accuracy, when it is immersed in an indoor environment (shopping centers, office buildings, airports, stations, tunnels, etc.), is the cornerstone on which a large number of applications and services are supported. Many of these services are already available in outdoor environments, although the indoor environments are suitable for other services that are specific for it. That number, however, could be significantly higher than now, if an expensive infrastructure were not required to perform the positioning service with adequate precision, for each one of the hypothetical services. Or, equally, whether that infrastructure may have other different uses beyond the ones associated with positioning. The usability of the same infrastructure for purposes other than positioning could give the opportunity of having it already available in the different locations, because it was previously deployed for these other uses; or facilitate its deployment, because the cost of that operation would offer a higher return on usability for the deployer. Wireless technologies based on radio communications, already in use for voice and data communications (mobile, WLAN, etc), meet the requirement of additional usability and, therefore, could facilitate the growth of applications and services based on positioning, in the case of being able to use it. However, determining the position with the appropriate degree of accuracy using these technologies is a major challenge today. This paper provides significant advances in this field. Along this work, a study about the main algorithms and auxiliar techniques related with indoor positioning will be initially carried out. The review will be focused in those that are suitable to be used with both last generation mobile technologies and WLAN environments. By doing this, it is tried to highlight the advantages and disadvantages of each one of these algorithms, having as final motivation their applicability both in the world of 3G and 4G mobile networks (especially in femtocells and small-cells of LTE) and in the WLAN world; and having always in mind that the final aim is to use it in indoor environments. The main conclusion of that review is that triangulation techniques, commonly used for localization in outdoor environments, are useless in indoor environments due to adverse effects of such environments as loss of sight or multipaths. Triangulation techniques used for external locations are useless due to adverse effects like the lack of line of sight or multipath. Fingerprinting methods, based on the comparison of Received Signal Strength values measured by the mobile phone with a radio map of RSSI Recorded during the calibration phase, arise as the best methods for indoor scenarios. However, these systems are also affected by other problems, for example the important load of tasks to be done to have the system ready to work, and the variability of the channel. In front of them, in this paper we present two original contributions to improve the fingerprinting methods based systems. The first one of these contributions describes a method for find, in a simple way, the basic characteristics of the system at the level of the number of samples needed to create the radio map inside the referenced fingerprint, and also by the minimum number of radio frequency emitters that are needed to be deployed; and both of them coming from some initial requirements for the system related to the error and accuracy in positioning wanted to have, which it will be joined the data corresponding to the dimensions and physical reality of the environment. Thus, some initial guidelines when dimensioning the system will be in place, and the negative effects into the cost or into the performance of the whole system, due to an inefficient deployment of the radio frequency emitters and of the radio map capture points, will be minimized. The second contribution increases the resulting accuracy of the system when working in real time, thanks to a technique of automatic recalibration of the power measurements stored in the radio map. This technique takes into account the continuous measures reported by a few static reference points, strategically distributed in the environment, to recalculate and update the measurements stored into the map radio. An additional benefit at operational level of such technique, is the extension of the reliable time of the system, decreasing the periodicity required to recapture the radio map within full measurements. The above mentioned improvements are directly applicable to improve indoor positioning mechanisms based on voice and data wireless communications infrastructure. From there, that improvement will be also extensible and applicable to location services (personal knowledge of the location where oneself is), monitoring (knowledge by other people of your location) and monitoring (prolonged monitoring over time) as all of them are based in a correct positioning for proper performance.
Resumo:
La vid silvestre se considera como el ancestro autóctono de las vides cultivadas y una enorme reserva genética en peligro de extinción. La prospección llevada a cabo entre 2003 y 2004 permitió catalogar 51 localizaciones de vides silvestres españolas, la mayoría de ellas ubicadas en riberas de ríos. Estos ejemplares se incluyeron en el Banco de Germoplasma de la Finca "El Encín" (BGVCAM - Alcalá de Henares, Madrid, España). En primer lugar, se caracterizó la cantidad y la distribución de su diversidad genética utilizando 25 loci empleando microsatélites nucleares (SSR). Hemos analizado también la posible coexistencia en el hábitat natural de vides silvestres con vides cultivadas naturalizadas y portainjertos. De este modo, los análisis fenotípicos y genéticos identificaron el 19% de las muestras recogidas como derivadas de genotipos cultivados, siendo, o bien vides cultivadas naturalizadas o genotipos híbridos derivados de cruces espontáneos entre vides silvestres y cultivadas. La diversidad genética de las poblaciones de vides silvestres fue similar a la observada en el grupo de las cultivadas. El análisis molecular mostró que el germoplasma de cultivadas y silvestres es genéticamente divergente con bajo nivel de introgresión. Se ha identificado cuatro grupos genéticos, con dos de ellos fundamentalmente representados por los genotipos de vides cultivadas y dos por las accesiones silvestres. El análisis de los vínculos genéticos entre las vides silvestres y cultivadas podría sugerir una contribución genética de las accesiones silvestres españolas a las actuales variedades occidentales. En segundo lugar, se realizó un profundo estudio morfológico "ex situ " y se contrastaron con los resultados de la caracterización realizada en 182 variedades comerciales españolas de la misma colección. Todos los individuos silvestres mostraron diferencias morfológicas con Vitis vinifera L subsp. vinifera, pero no se encontraron diferencias significativas dentro Vitis vinifera L. subsp. sylvestris, ni por localización geográfica ni por sexo. Los resultados de este estudio describen las principales características morfológicas de las vides silvestres españolas y sus rasgos diferenciales con su pariente cultivada. Por último, se analizó la composición antociánica presente en 21 accesiones de vides silvestres de la Península Ibérica conservadas en el BGVCAM de la Finca "El Encín" y seleccionadas basándose en diferencias ampelográficas y caracterización molecular. La concentración de antocianinas es similar la encontrad en vides cultivadas con destino a la vinificación. Las accesiones estudiadas mostraron una variabilidad considerable en su perfil antociánico y fue posible distinguir varios grupos. Sin embargo, la presencia de material silvestre con perfiles antociánicos poco comunes o inexistentes en variedades españolas, sugiere que la variabilidad genética relacionada con antocianinas en poblaciones españolas de vides silvestres podría ser más alta que la de variedades cultivadas comúnmente consideradas de origen español. ABSTRACT The wild grapevine is considered an autochthonous relative of cultivated vines and a huge gene pool endangered in Europe. Prospecting carried out between 2003 and 2004 enabled to inventory 51 Spanish sites with wild grapevines, most of them located near rivers. These individuals were grafted in the collection of "El Encín" (BGVCAM - Alcalá de Henares, Madrid, Spain). Firstly, werw characterized the amount and distribution of their genetic diversity using 25 nuclear SSR loci. We have also analysed the possible coexistence in the natural habitat of wild grapevines with naturalized grapevine cultivars and rootstocks. In this way, phenotypic and genetic analyses identified 19% of the collected samples as derived from cultivated genotypes, being either naturalized cultivars or hybrid genotypes derived from spontaneous crosses between wild and cultivated grapevines. The genetic diversity of wild grapevine populations was similar than that observed in the cultivated group. The molecular analysis showed that cultivated germplasm and wild germplasm are genetically divergent with low level of introgression. We identified four genetic groups, with two of them fundamentally represented among cultivated genotypes and two among wild accessions. The analyses of genetic relationships between wild and cultivated grapevines could suggest a genetic contribution of wild accessions from Spain to current Western cultivars. Secondly, a morphological study was done "ex situ" and were compared with data from 182 Spanish commercial cultivars grown in the same collection. All wild individuals showed morphological differences with Vitis vinifera L. ssp. vinifera but no significant differences were found within Vitis vinifera L subsp. sylvestris neither by geographic origin nor by sex. A pattern with the main characteristics of Spanish wild grapevines is suggested. Ultimately, were investigated the anthocyanin composition of 21 mostly Spanish wild grapevine accessions preserved at BGVCAM "El Encín" and selected in consideration of observed ampelographic differences and molecular characterization. Total anthocyanin concentration was similar to that found in winegrape cultivars. The accessions studied showed considerable variability in their anthocyanin fingerprints and it was possible to distinguish several groups, similar to previous reports on the anthocyanin fingerprint of winegrapes. The anthocyanin composition of wild grapevine accessions was similar to that of cultivated grapes. Nevertheless, the presence of wild accessions with anthocyanin fingerprints uncommon or nonexistent in Spanish cultivated varieties suggests that the genetic variability related to anthocyanins in Spanish wild grapevine populations may be higher than that of cultivated varieties commonly considered of Spanish origin.
Resumo:
Esta tesis se centra en el análisis de dos aspectos complementarios de la ciberdelincuencia (es decir, el crimen perpetrado a través de la red para ganar dinero). Estos dos aspectos son las máquinas infectadas utilizadas para obtener beneficios económicos de la delincuencia a través de diferentes acciones (como por ejemplo, clickfraud, DDoS, correo no deseado) y la infraestructura de servidores utilizados para gestionar estas máquinas (por ejemplo, C & C, servidores explotadores, servidores de monetización, redirectores). En la primera parte se investiga la exposición a las amenazas de los ordenadores victimas. Para realizar este análisis hemos utilizado los metadatos contenidos en WINE-BR conjunto de datos de Symantec. Este conjunto de datos contiene metadatos de instalación de ficheros ejecutables (por ejemplo, hash del fichero, su editor, fecha de instalación, nombre del fichero, la versión del fichero) proveniente de 8,4 millones de usuarios de Windows. Hemos asociado estos metadatos con las vulnerabilidades en el National Vulnerability Database (NVD) y en el Opens Sourced Vulnerability Database (OSVDB) con el fin de realizar un seguimiento de la decadencia de la vulnerabilidad en el tiempo y observar la rapidez de los usuarios a remiendar sus sistemas y, por tanto, su exposición a posibles ataques. Hemos identificado 3 factores que pueden influir en la actividad de parches de ordenadores victimas: código compartido, el tipo de usuario, exploits. Presentamos 2 nuevos ataques contra el código compartido y un análisis de cómo el conocimiento usuarios y la disponibilidad de exploit influyen en la actividad de aplicación de parches. Para las 80 vulnerabilidades en nuestra base de datos que afectan código compartido entre dos aplicaciones, el tiempo entre el parche libera en las diferentes aplicaciones es hasta 118 das (con una mediana de 11 das) En la segunda parte se proponen nuevas técnicas de sondeo activos para detectar y analizar las infraestructuras de servidores maliciosos. Aprovechamos técnicas de sondaje activo, para detectar servidores maliciosos en el internet. Empezamos con el análisis y la detección de operaciones de servidores explotadores. Como una operación identificamos los servidores que son controlados por las mismas personas y, posiblemente, participan en la misma campaña de infección. Hemos analizado un total de 500 servidores explotadores durante un período de 1 año, donde 2/3 de las operaciones tenían un único servidor y 1/2 por varios servidores. Hemos desarrollado la técnica para detectar servidores explotadores a diferentes tipologías de servidores, (por ejemplo, C & C, servidores de monetización, redirectores) y hemos logrado escala de Internet de sondeo para las distintas categorías de servidores maliciosos. Estas nuevas técnicas se han incorporado en una nueva herramienta llamada CyberProbe. Para detectar estos servidores hemos desarrollado una novedosa técnica llamada Adversarial Fingerprint Generation, que es una metodología para generar un modelo único de solicitud-respuesta para identificar la familia de servidores (es decir, el tipo y la operación que el servidor apartenece). A partir de una fichero de malware y un servidor activo de una determinada familia, CyberProbe puede generar un fingerprint válido para detectar todos los servidores vivos de esa familia. Hemos realizado 11 exploraciones en todo el Internet detectando 151 servidores maliciosos, de estos 151 servidores 75% son desconocidos a bases de datos publicas de servidores maliciosos. Otra cuestión que se plantea mientras se hace la detección de servidores maliciosos es que algunos de estos servidores podrán estar ocultos detrás de un proxy inverso silente. Para identificar la prevalencia de esta configuración de red y mejorar el capacidades de CyberProbe hemos desarrollado RevProbe una nueva herramienta a través del aprovechamiento de leakages en la configuración de la Web proxies inversa puede detectar proxies inversos. RevProbe identifica que el 16% de direcciones IP maliciosas activas analizadas corresponden a proxies inversos, que el 92% de ellos son silenciosos en comparación con 55% para los proxies inversos benignos, y que son utilizado principalmente para equilibrio de carga a través de múltiples servidores. ABSTRACT In this dissertation we investigate two fundamental aspects of cybercrime: the infection of machines used to monetize the crime and the malicious server infrastructures that are used to manage the infected machines. In the first part of this dissertation, we analyze how fast software vendors apply patches to secure client applications, identifying shared code as an important factor in patch deployment. Shared code is code present in multiple programs. When a vulnerability affects shared code the usual linear vulnerability life cycle is not anymore effective to describe how the patch deployment takes place. In this work we show which are the consequences of shared code vulnerabilities and we demonstrate two novel attacks that can be used to exploit this condition. In the second part of this dissertation we analyze malicious server infrastructures, our contributions are: a technique to cluster exploit server operations, a tool named CyberProbe to perform large scale detection of different malicious servers categories, and RevProbe a tool that detects silent reverse proxies. We start by identifying exploit server operations, that are, exploit servers managed by the same people. We investigate a total of 500 exploit servers over a period of more 13 months. We have collected malware from these servers and all the metadata related to the communication with the servers. Thanks to this metadata we have extracted different features to group together servers managed by the same entity (i.e., exploit server operation), we have discovered that 2/3 of the operations have a single server while 1/3 have multiple servers. Next, we present CyberProbe a tool that detects different malicious server types through a novel technique called adversarial fingerprint generation (AFG). The idea behind CyberProbe’s AFG is to run some piece of malware and observe its network communication towards malicious servers. Then it replays this communication to the malicious server and outputs a fingerprint (i.e. a port selection function, a probe generation function and a signature generation function). Once the fingerprint is generated CyberProbe scans the Internet with the fingerprint and finds all the servers of a given family. We have performed a total of 11 Internet wide scans finding 151 new servers starting with 15 seed servers. This gives to CyberProbe a 10 times amplification factor. Moreover we have compared CyberProbe with existing blacklists on the internet finding that only 40% of the server detected by CyberProbe were listed. To enhance the capabilities of CyberProbe we have developed RevProbe, a reverse proxy detection tool that can be integrated with CyberProbe to allow precise detection of silent reverse proxies used to hide malicious servers. RevProbe leverages leakage based detection techniques to detect if a malicious server is hidden behind a silent reverse proxy and the infrastructure of servers behind it. At the core of RevProbe is the analysis of differences in the traffic by interacting with a remote server.
Resumo:
La arquitectura y la construcción deben generar un bien común para la sociedad y medio ambiente, los arquitectos tienen la responsabilidad de mitigar muchos efectos negativos que se generan en esta profesión; esto no es posible si los estudiantes egresan con un conocimiento nulo sobre la arquitectura sostenible; por lo que surge la inquietud de desarrollar la presente tesis, con el objetivo de aportar de una forma sutil al desarrollo de la arquitectura compartiendo conocimiento para generar conocimiento, ya que la investigación que a continuación se desarrolla está enfocada al desarrollo de la arquitectura sostenible en el campo de la formación de los estudiantes, donde se pueda enlazar los nuevos requerimientos profesionales planteados desde la sostenibilidad. La formación del arquitecto ha intentado abordar el conocimiento humanístico, técnico, cultural, tecnológico, calculo estructural, instalaciones y construcciones; sin embargo, se ha dejado a un lado lo que abarca la arquitectura sostenible, como calidad de vida, diseño bioclimático, energías renovables, normativas sostenibles, economía viable, emisiones, contaminación y residuos generados, materiales, elementos constructivos sostenibles, mancha urbana, huella ecológica, impacto ambiental y análisis del ciclo de vida, entre otras estrategias o elementos. A través de la investigación científica y profunda que se ha realizado, se busca conformar el conocimiento sistemático que contribuya a la resolución de los problemas de nuestra sociedad, ambiente y educación, con la elaboración de un sistema metodológico de evaluación y aplicación de sostenibilidad en los modelos educativos. Para desarrollar el sistema de evaluación y aplicación, se desarrolla una metodología de investigación donde se justifica la necesidad de la creación de dicho sistema, en base al análisis de la situación actual del medio ambiente y la relación directa con la arquitectura, construcción y conocimientos adquiridos en la formación de los estudiantes de arquitectura, donde se demuestra la importancia de la educación de la arquitectura sostenible en el desarrollo de las sociedades. En base al análisis de metodologías y sistemas que evalúan la sostenibilidad de los edificios y los sistemas que evalúan la educación, se propone uno propio para evaluar las asignaturas de los modelos educativos en base a elementos sostenibles propuestos. La presente investigación se enmarca en una estrategia general de promover la evaluación y aplicación de la sostenibilidad en los modelos educativos de las escuelas de arquitectura a nivel internacional; como caso de estudio se evaluará el plan de estudios llamado Minerva, de la Benemérita Universidad Autónoma de Puebla en México, donde he realizado una estancia de investigación y la Escuela Técnica Superior de Arquitectura de la Universidad Politécnica de Madrid en España, donde he cursado el doctorado. ABSTRACT Architecture and construction must generate a common good for the society and environment, the architects have the responsibility of mitigating many negative effects that are generated in this profession; this is not possible if the students graduate with a void knowledge on the sustainable architecture that is why the concern for developing the present thesis, with the aim to contribute to the development of the architecture sharing knowledge to generate knowledge, seeing as the investigation that later develops is focused on the development of the sustainable architecture in about the student’s professional training, where it could connect the new professional requirements raised from the sustainability. The architect’s professional training has tried to approach the humanistic, technical, cultural, technological knowledge, structural calculation, fittings and constructions; nevertheless, there has been left aside what includes the sustainable architecture, as quality of life, design bioclimatic, renewable energies, sustainable regulations, viable economy, emission, pollution and generated, material residues, constructive sustainable elements, urban spot, ecological fingerprint, environmental impact and analysis of the life cycle, between other strategies or elements. Across the scientific and deep research that has been realized, it reaches to make up the systematic knowledge that he contributes to the resolution of the problems of our society, environment and education, with the production of a methodological system of evaluation and application of sustainability in the educational models. To develop the system of evaluation and application, there is a methodology of research where it justifies itself the need of the creation of the above mentioned system, on the basis of the analysis of the current situation of the environment and the direct relationship with the architecture, construction and knowledge acquired in the architecture student’s education, where there is demonstrated the matter of the education of the sustainable architecture in the development of the companies. Based on the analysis of methodologies and systems that evaluate the sustainability of the buildings and the systems that evaluate the education, there is one own proposes to evaluate the subjects of the educational models on the basis of sustainable proposed elements. The present research places in a general strategy of promoting the evaluation and application of the sustainability in the educational models of the schools of architecture worldwide; since case of study will evaluate the study plan called Minerva, of the Meritorious Autonomous University of It Populates in Mexico, where I have realized a stay of researching and the Technical Top School of Architecture of the Technical University of Madrid in Spain, where the PHD has been done.
Resumo:
Molecular methods are used widely to measure genetic diversity within populations and determine relationships among species. However, it is difficult to observe genomic evolution in action because these dynamics are too slow in most organisms. To overcome this limitation, we sampled genomes from populations of Escherichia coli evolving in the laboratory for 10,000 generations. We analyzed the genomes for restriction fragment length polymorphisms (RFLP) using seven insertion sequences (IS) as probes; most polymorphisms detected by this approach reflect rearrangements (including transpositions) rather than point mutations. The evolving genomes became increasingly different from their ancestor over time. Moreover, tremendous diversity accumulated within each population, such that almost every individual had a different genetic fingerprint after 10,000 generations. As has been often suggested, but not previously shown by experiment, the rates of phenotypic and genomic change were discordant, both across replicate populations and over time within a population. Certain pivotal mutations were shared by all descendants in a population, and these are candidates for beneficial mutations, which are rare and difficult to find. More generally, these data show that the genome is highly dynamic even over a time scale that is, from an evolutionary perspective, very brief.
Resumo:
The ability to isolate fetal nucleated red blood cells (NRBCs) from the maternal circulation makes possible prenatal genetic analysis without the need for diagnostic procedures that are invasive for the fetus. Such isolation requires antibodies specific to fetal NRBCs. To generate a panel of antibodies to antigens present on fetal NRBCs, a new type of nonimmune phage antibody library was generated in which multiple copies of antibody fragments are displayed on each phage. Antibody fragments specific for fetal NRBCs were isolated by extensive predepletion of the phage library on adult RBCs and white blood cells (WBCs) followed by positive selection and amplification on fetal liver erythroid cells. After two rounds of selection, 44% of the antibodies analyzed bound fetal NRBCs, with two-thirds of these showing no binding of WBCs. DNA fingerprint analysis revealed the presence of at least 16 unique antibodies. Antibody specificity was confirmed by flow cytometry, immunohistochemistry, and immunofluorescence of total fetal liver and adult RBCs and WBCs. Antibody profiling suggested the generation of antibodies to previously unknown fetal RBC antigens. We conclude that multivalent display of antibodies on phage leads to efficient selection of panels of specific antibodies to cell surface antigens. The antibodies generated to fetal RBC antigens may have clinical utility for isolating fetal NRBCs from maternal circulation for noninvasive prenatal genetic diagnosis. Some of the antibodies may also have possible therapeutic utility for erythroleukemia.
Resumo:
Ligands acting at the benzodiazepine (BZ) site of γ-aminobutyric acid type A (GABAA) receptors currently are the most widely used hypnotics. BZs such as diazepam (Dz) potentiate GABAA receptor activation. To determine the GABAA receptor subtypes that mediate the hypnotic action of Dz wild-type mice and mice that harbor Dz-insensitive α1 GABAA receptors [α1 (H101R) mice] were compared. Sleep latency and the amount of sleep after Dz treatment were not affected by the point mutation. An initial reduction of rapid eye movement (REM) sleep also occurred equally in both genotypes. Furthermore, the Dz-induced changes in the sleep and waking electroencephalogram (EEG) spectra, the increase in power density above 21 Hz in non-REM sleep and waking, and the suppression of slow-wave activity (SWA; EEG power in the 0.75- to 4.0-Hz band) in non-REM sleep were present in both genotypes. Surprisingly, these effects were even more pronounced in α1(H101R) mice and sleep continuity was enhanced by Dz only in the mutants. Interestingly, Dz did not affect the initial surge of SWA at the transitions to sleep, indicating that the SWA-generating mechanisms are not impaired by the BZ. We conclude that the REM sleep inhibiting action of Dz and its effect on the EEG spectra in sleep and waking are mediated by GABAA receptors other than α1, i.e., α2, α3, or α5 GABAA receptors. Because α1 GABAA receptors mediate the sedative action of Dz, our results provide evidence that the hypnotic effect of Dz and its EEG “fingerprint” can be dissociated from its sedative action.
Resumo:
To investigate the role of nucleotide excision repair (NER) in the cellular processing of carcinogenic DNA photoproducts induced by defined, environmentally relevant portions of the solar wavelength spectrum, we have determined the mutagenic specificity of simulated sunlight (310-1100 nm), UVA (350-400 nm), and UVB (290-320 nm), as well as of the "nonsolar" model mutagen 254-nm UVC, at the adenine phosphoribosyltransferase (aprt) locus in NER-deficient (ERCC1) Chinese hamster ovary (CHO) cells. The frequency distributions of mutational classes induced by UVB and by simulated sunlight in repair-deficient CHO cells were virtually identical, each showing a marked increase in tandem CC-->TT transitions relative to NER-proficient cells. A striking increase in CC-->TT events was also previously documented for mutated p53 tumor-suppressor genes from nonmelanoma tumors of NER-deficient, skin cancer-prone xeroderma pigmentosum patients, compared to normal individuals. The data therefore indicate that the aprt gene in NER-deficient cultured rodent cells irradiated with artificial solar light generates the same distinctive "fingerprint" for sunlight mutagenesis as the p53 locus in NER-deficient humans exposed to natural sunlight in vivo. Moreover, in strong contrast to the situation for repair-component CHO cells, where a significant role for UVA was previously noted, the mutagenic specificity of simulated sunlight in NER-deficient CHO cells and of natural sunlight in humans afflicted with xeroderma pigmentosum can be entirely accounted for by the UVB portion of the solar wavelength spectrum.
Resumo:
Rhizobia were isolated from nodules off a stand of Lotus corniculatus established with a single inoculant strain, ICMP3153, 7 years earlier in an area devoid of naturalized Rhizobium loti. The isolates showed diversity in growth rate, Spe I fingerprint of genomic DNA, and hybridization pattern to genomic DNA probes. The 19% of isolates that grew at the same rate as strain ICMP3153 were the only isolates that had the same fingerprint as strain ICMP3153. Sequencing of part of the 16S rRNA gene of several diverse isolates confirmed that they were not derived from the inoculant strain. Nevertheless, all non-ICMP3153 strains gave EcoRI and Spe I hybridization patterns identical to ICMP3153 when hybridized to nodulation gene cosmids. Hybridization of digests generated by the very rare cutting enzyme Swa I revealed that the symbiotic DNA region (at least 105 kb) was chromosomally integrated in the strains. The results suggest that the diverse strains arose by transfer of chromosomal symbiotic genes from ICMP3153 to nonsymbiotic rhizobia in the environment.
Resumo:
Localizar objetos ou pessoas no interior de um edifício é de grande interesse. Contudo, diferentemente do que ocorre no exterior de edificações, não há metodologia consagrada para a determinação da posição desses entes nos edifícios. Para o posicionamento em locais abertos existem tecnologias consolidadas, como GNSS (Global Navigation Satellite System), a dificuldade em fazê-lo em interiores é maior. Nesses casos, o GNSS não pode ser utilizado, pois os sinais de rádio dos satélites não conseguem penetrar através das estruturas, enquanto que outras tecnologias são apenas incipientes nesse quesito. Abordagens habituais para a resolução dessa demanda têm se baseado na utilização de propagadores das ondas de rádio do GNSS, no uso da potência de sinais de redes sem fio ou, ainda, no emprego de transmissores infravermelhos. No entanto, uma técnica diferente pode ser empreendida para essa finalidade. Usando-se a assinatura das potências de rádio das redes sem fio nas imediações e no interior da edificação, é possível criar um mapa com base nesses sinais, permitindo a determinação da posição de um objeto. No presente trabalho foram desenvolvidos um sistema para geração do mapa de sinais, com critério de parada e um método de cálculo de posicionamento. Procedeu-se, também, à análise de quatro critérios para o cálculo final da posição do objeto, baseados no uso da distância euclidiana com os conjuntos de roteadores disponíveis. Concluiu-se que, quando o mapa de sinais é pequeno, o posicionamento fracassou. Entretanto, quando a quantidade de sinais geradores do mapa aumenta, os resultados apresentaram melhora significativa, com resultados próximos a 100% de assertividade. Desse modo foi possível determinar uma estimativa boa para o número mínimo de roteadores presentes na base e estabelecer um critério de parada para a fase de criação do mapa de sinais.
Resumo:
In this work we report for the first time a post-translational modification of PII homologues from the Archaea Domain. Haloferax mediterranei is the first haloarchaea whose PII proteins have been studied, it possesses two of them (GlnK1 and GlnK2), both encoded adjacent to a gene for the ammonia transporter Amt. An approach based on 2DE, anti-GlnK immunoblot and peptide mass fingerprint (MALDI-TOF-MS) of the reactive spots showed that GlnK proteins in H. mediterranei are post-translationally uridylylated. A third spot with lower pI suggests the existence of a non-descript post-translational modification in this protein family.
Resumo:
In some cases external morphology is not sufficient to discern between populations of a species, as occurs in the dung beetle Canthon humectus hidalgoensis Bates; and much less to determine phenotypic distances between them. FTIR-ATR spectroscopy show several advantages over other identification techniques (e.g. morphological, genetic, and cuticular hydrocarbons analysis) due to the non-invasive manner of the sample preparation, the relative speed of sample analysis and the low-cost of this technology. The infrared spectrum obtained is recognized to give a unique ‘fingerprint’ because vibrational spectra are specific and unique to the molecular nature of the sample. In our study, results showed that proteins, amino acids and aromatic ethers of insect exocuticle have promising discriminative power to discern between different populations of C. h. hidalgoensis. Furthermore, the correlation between geographic distances between populations and the chemical distances obtained by proteins + amino acids + aromatic ethers was statistically significant, showing that the spectral and spatial information available of the taxa together with appropriated chemometric methods may help to a better understanding of the identity, structure, dynamics and diversity of insect populations.
Resumo:
Forty-three core samples from Sites 511 through 514 of DSDP Leg 71 were analyzed geochemically. The black shales at the bottom of Hole 511, in the basin province of the Falkland Plateau, contain an average of 1590 ppm extractable organic matter (EOM) and 120 ppm hydrocarbons. Whereas molecular type-carbon number distributions of mono- and polynuclear aromatic hydrocarbons and their sulphur and oxygen analogues in the black shale "aromatic hydrocarbon" fractions are very similar to those of many crude oils, other data - gas chromatography (GC) fingerprint, pyrolysis GC, visual kerogen analysis, H/C ratio - suggest the black shale section is thermally immature. Together, these observations imply that many of the hydrocarbons were deposited with the original sediments or are diagenetic products of other biological compounds. Pyrograms of the humic acid and kerogen fractions from the black shale interval are typical of geopolymers derived from marine algal material. It appears that these humic acids and kerogens are derived from the same lipid stock.