1000 resultados para Cafeína Análisis. Inseminación artificial Cerdos


Relevância:

30.00% 30.00%

Publicador:

Resumo:

El espacio geográfico, entendido como territorio que da soporte a la vida y a la civilización, ha estado siempre fuertemente supeditado a la presencia de agua. Desde la Prehistoria el hombre otorgó al agua, junto a otros elementos que aseguraban o protegían su vida, un valor superior, por encima de lo humano. Paralelamente y de manera natural, el jardín, en sus inicios en estrecha relación con la agricultura y con el paisaje, fue el ámbito idóneo para la creación de nuevas formas acuáticas artificiales. Este proceso dio lugar a un extenso repertorio de formas compositivas que parece que tuvo en el Renacimiento un punto de inflexión, en el que se observa como la mayoría de recursos y configuraciones básicas del agua estaban ya plenamente establecidas. Esta evolución y sus resultados ha sido el objeto de la primera parte de la tesis: su objetivo ha sido analizar cómo el agua configura, cualifica o puede llegar a construir el jardín y el territorio en el que se inserta, así como establecer las posibles relaciones entre estos dos ámbitos de estudio. Aunque la historia es su fundamento, el planteamiento aquí ha sido más bien conceptual; estudiando los componentes acuáticos desde un punto de vista fundamentalmente compositivo. Esta indagación previa ha sido indispensable para llegar a entender en profundidad los modos en los que el agua se muestra en el jardín y en el paisaje renacentista y manierista, momentos en que se insertan los dos casos de estudio que constituyen la segunda parte de la tesis. Sin caer en un determinismo geográfico extremo, puede admitirse que el jardín, como manifestación cultural intrínsecamente ligada al entorno, depende fuertemente del territorio en el que se asienta; hecho particularmente evidente en aquellas regiones en las que su especial geografía ha sido un claro factor condicionante de su historia. Por ello, Holanda y España han sido las dos localizaciones elegidas para profundizar en este estudio; no tanto por su estrecha relación política y cultural, sino por su profundo y sugerente contraste de medio físico y climático. La Península Ibérica, geográficamente el término del mundo conocido en Occidente hasta el final de la Edad Media, y por esta circunstancia convertida en destino, en territorio de permanencia y fusión, estará además supeditada en la mayoría de su territorio a la falta de agua, siendo a la vez heredera directa del universo y la tradición del jardín meridional originario de Oriente. En el extremo opuesto, Holanda, espacio de transición entre el mar y la tierra firme “real”, es un territorio permeado de humedad y surcado con generosidad por grandes ríos. El país, con una relación ambivalente con el agua, unas veces como amenaza y otras como fuente de nuevas oportunidades, será por el contrario especialmente favorable para el desarrollo de un modelo de jardín septentrional. Un jardín del norte, que no obstante, no surgirá de despejar los bosques, como en el arquetipo nórdico, sino que crecerá sobre planicies antes saturadas de agua o directamente anegadas. El marco temporal de los dos casos concretos ha considerado como fecha inicial 1548, momento en el que Felipe II, aún príncipe, realizó su primer viaje a los Países Bajos, y entró en contacto con el modelo holandés. La extensa producción posterior de jardines de Felipe II, siempre con el agua como protagonista, tuvo como destacado referente la adaptación al suelo y la geografía hispánicos de dicho modelo. Como fecha final se fija 1648, justo un siglo después, fecha coincidente con la firma de la Paz de Westfalia, tratado que supone la total reorganización política del territorio europeo y la pérdida de la hegemonía española en Europa. En Holanda sólo dos años después nacerá Guillermo III de Orange, estatúder de las Provincias Unidas, también futuro rey de Inglaterra, Escocia e Irlanda. Para entonces en Holanda ya se había asistido al desarrollo de un arte propio de jardín, íntimamente ligado al agua, sorprendentemente no demasiado bien conocido y que será uno de los temas de esta investigación. Finalmente, se propone una lectura conjunta de toda esta serie de intervenciones que tienen como argumento el agua, en la que se integra la información procedente de distintos campos de estudio, cada una con su metodología particular. El resultado es una tesis en la que el jardín y el territorio son tratados desde un nuevo y enriquecedor punto de vista. ABSTRACT Geographical space, understood as the territory that provides support to human life and civilization, has always been strongly subjected to the presence of water. From Prehistory man gave to water, along with other elements that ensured or protected life, a higher value than the merely human. At the same time and in a natural way, the garden, in its beginnings with a close relationship with agriculture and landscape, soon developed as the appropriate ground for the creation of new artificial aquatic forms, in a process that seems to have a turning point in the Renaissance, when most of the basic waterworks and resources were already fully established. This development and its outcomes are the subjects of the first part of the thesis: its scope has been to analyse how water configures, qualifies and might even help to construct the garden or landscape attached to it; and to establish the possible links between these two fields of study. Although history based, the point of view here is mainly conceptual, studying the water components understood as composite elements. This exploratory research has been essential to deeply understand the water patterns shown in the Renaissance and Mannerist garden and landscape, periods in which the two case studies are inserted. Without falling in extreme determinism, it can be accepted however, that garden, as a cultural expression linked to environment, is strongly dependant on territorial setting; something particularly evident in those areas where specific geography has been a clear history conditioning factor. This is the reason that leads to choose the Netherlands and Spain to deepen this study, no so much for their interesting cultural and politics relations as for the suggestive and profound contrast of their physical environment and climate. The Iberian Peninsula, geographically the limit of the known world in Occident until the end of the Medium Age, and by this circumstance understood as endpoint, more a destination than a crossroad, a territory of permanence and fusion, but also subjected to water shortage; is thus associated with the universe and tradition of the meridional garden imported from Orient. In the opposite, the Netherlands, a transitional space between the sea and the “real” firm land, is a territory permeated by water and crossed by big rivers. Always with an ambivalent relationship with water, sometimes seen as a threat and sometimes as a source of new opportunities, it was in the other hand the adequate land for the development of a special model of Northern garden. A garden that will not arise, however, from the clearing of woods as in the Nordic archetype, but that will grow on plains originally saturated of water or directly waterlogged. The timeframe of the two cases has 1548 as the initial year, moment in which Philip II, yet prince, made his first trip to the Low Lands and imbibed the Dutch garden model. The later and bountiful garden works of the king, always with the water as the main focus, adapted the imported model to the Spanish ground and geography. The final date is fixed in 1648, just a century after, in coincidence with the Westfalia Peace; a treaty that implied the total political reorganization of the European territory and the end of the Spanish hegemony in the continent. In Holland, only two years later, William III of Orange, Stadtholder of the United Provinces and also future king of England, Scotland and Ireland, was born. But by then the Netherlands had developed an own garden art, closely linked to water. This type garden, surprisingly not very well known, and its relationship with water, will be other of the addressing questions of this work. Finally, the investigation merges the different interventions that have water as an argument, integrating all the fields considered with their particular methodological approaches. The final result is a thesis in which garden and territory are treated from a new and enriching perspective.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente trabajo tiene como objetivo general el análisis de las técnicas de diseño y optimización de redes topográficas, observadas mediante topografía convencional (no satelital) el desarrollo e implementación de un sistema informático capaz de ayudar a la definición de la geometría más fiable y precisa, en función de la orografía del terreno donde se tenga que ubicar. En primer lugar se realizará un estudio de la metodología del ajuste mediante mínimos cuadrados y la propagación de varianzas, para posteriormente analizar su dependencia de la geometría que adopte la red. Será imprescindible determinar la independencia de la matriz de redundancia (R) de las observaciones y su total dependencia de la geometría, así como la influencia de su diagonal principal (rii), números de redundancia, para garantizar la máxima fiabilidad interna de la misma. También se analizará el comportamiento de los números de redundancia (rii) en el diseño de una red topográfica, la variación de dichos valores en función de la geometría, analizando su independencia respecto de las observaciones así como los diferentes niveles de diseño en función de los parámetros y datos conocidos. Ha de señalarse que la optimización de la red, con arreglo a los criterios expuestos, está sujeta a los condicionantes que impone la necesidad de que los vértices sean accesibles, y además sean visibles entre sí, aquellos relacionados por observaciones, situaciones que dependen esencialmente del relieve del terreno y de los obstáculos naturales o artificiales que puedan existir. Esto implica la necesidad de incluir en el análisis y en el diseño, cuando menos de un modelo digital del terreno (MDT), aunque lo más útil sería la inclusión en el estudio del modelo digital de superficie (MDS), pero esta opción no siempre será posible. Aunque el tratamiento del diseño esté basado en un sistema bidimensional se estudiará la posibilidad de incorporar un modelo digital de superficie (MDS); esto permitirá a la hora de diseñar el emplazamiento de los vértices de la red la viabilidad de las observaciones en función de la orografía y los elementos, tanto naturales como artificiales, que sobre ella estén ubicados. Este sistema proporcionaría, en un principio, un diseño óptimo de una red constreñida, atendiendo a la fiabilidad interna y a la precisión final de sus vértices, teniendo en cuenta la orografía, lo que equivaldría a resolver un planteamiento de diseño en dos dimensiones y media1; siempre y cuando se dispusiera de un modelo digital de superficie o del terreno. Dado que la disponibilidad de obtener de manera libre el MDS de las zonas de interés del proyecto, hoy en día es costoso2, se planteará la posibilidad de conjuntar, para el estudio del diseño de la red, de un modelo digital del terreno. Las actividades a desarrollar en el trabajo de esta tesis se describen en esta memoria y se enmarcan dentro de la investigación para la que se plantean los siguientes objetivos globales: 1. Establecer un modelo matemático del proceso de observación de una red topográfica, atendiendo a todos los factores que intervienen en el mismo y a su influencia sobre las estimaciones de las incógnitas que se obtienen como resultado del ajuste de las observaciones. 2. Desarrollar un sistema que permita optimizar una red topográfica en sus resultados, aplicando técnicas de diseño y simulación sobre el modelo anterior. 3. Presentar una formulación explícita y rigurosa de los parámetros que valoran la fiabilidad de una red topográfica y de sus relaciones con el diseño de la misma. El logro de este objetivo se basa, además de en la búsqueda y revisión de las fuentes, en una intensa labor de unificación de notaciones y de construcción de pasos intermedios en los desarrollos matemáticos. 4. Elaborar una visión conjunta de la influencia del diseño de una red, en los seis siguientes factores (precisiones a posteriori, fiabilidad de las observaciones, naturaleza y viabilidad de las mismas, instrumental y metodología de estacionamiento) como criterios de optimización, con la finalidad de enmarcar el tema concreto que aquí se aborda. 5. Elaborar y programar los algoritmos necesarios para poder desarrollar una aplicación que sea capaz de contemplar las variables planteadas en el apartado anterior en el problema del diseño y simulación de redes topográficas, contemplando el modelo digital de superficie. Podrían considerarse como objetivos secundarios, los siguientes apartados: Desarrollar los algoritmos necesarios para interrelacionar el modelo digital del terreno con los propios del diseño. Implementar en la aplicación informática la posibilidad de variación, por parte del usuario, de los criterios de cobertura de los parámetros (distribución normal o t de Student), así como los grados de fiabilidad de los mismos ABSTRACT The overall purpose of this work is the analysis of the techniques of design and optimization for geodetic networks, measured with conventional survey methods (not satellite), the development and implementation of a computational system capable to help on the definition of the most liable and accurate geometry, depending on the land orography where the network has to be located. First of all, a study of the methodology by least squares adjustment and propagation of variances will be held; then, subsequently, analyze its dependency of the geometry that the network will take. It will be essential to determine the independency of redundancy matrix (R) from the observations and its absolute dependency from the network geometry, as well as the influence of the diagonal terms of the R matrix (rii), redundancy numbers, in order to ensure maximum re liability of the network. It will also be analyzed first the behavior of redundancy numbers (rii) in surveying network design, then the variation of these values depending on the geometry with the analysis of its independency from the observations, and finally the different design levels depending on parameters and known data. It should be stated that network optimization, according to exposed criteria, is subject to the accessibility of the network points. In addition, common visibility among network points, which of them are connected with observations, has to be considered. All these situations depends essentially on the terrain relief and the natural or artificial obstacles that should exist. Therefore, it is necessary to include, at least, a digital terrain model (DTM), and better a digital surface model (DSM), not always available. Although design treatment is based on a bidimensional system, the possibility of incorporating a digital surface model (DSM) will be studied; this will allow evaluating the observations feasibility based on the terrain and the elements, both natural and artificial, which are located on it, when selecting network point locations. This system would provide, at first, an optimal design of a constrained network, considering both the internal reliability and the accuracy of its points (including the relief). This approach would amount to solving a “two and a half dimensional”3 design, if a digital surface model is available. As the availability of free DSM4 of the areas of interest of the project today is expensive, the possibility of combining a digital terrain model will arise. The activities to be developed on this PhD thesis are described in this document and are part of the research for which the following overall objectives are posed: 1. To establish a mathematical model for the process of observation of a survey network, considering all the factors involved and its influence on the estimates of the unknowns that are obtained as a result of the observations adjustment. 2. To develop a system to optimize a survey network results, applying design and simulation techniques on the previous model. 3. To present an explicit and rigorous formulation of parameters which assess the reliability of a survey network and its relations with the design. The achievement of this objective is based, besides on the search and review of sources, in an intense work of unification of notation and construction of intermediate steps in the mathematical developments. 4. To develop an overview of the influence on the network design of six major factors (posterior accuracy, observations reliability, viability of observations, instruments and station methodology) as optimization criteria, in order to define the subject approached on this document. 5. To elaborate and program the algorithms needed to develop an application software capable of considering the variables proposed in the previous section, on the problem of design and simulation of surveying networks, considering the digital surface model. It could be considered as secondary objectives, the following paragraphs: To develop the necessary algorithms to interrelate the digital terrain model with the design ones. To implement in the software application the possibility of variation of the coverage criteria parameters (normal distribution or Student t test) and therefore its degree of reliability.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Una de las barreras para la aplicación de las técnicas de monitorización de la integridad estructural (SHM) basadas en ondas elásticas guiadas (GLW) en aeronaves es la influencia perniciosa de las condiciones ambientales y de operación (EOC). En esta tesis se ha estudiado dicha influencia y la compensación de la misma, particularizando en variaciones del estado de carga y temperatura. La compensación de dichos efectos se fundamenta en Redes Neuronales Artificiales (ANN) empleando datos experimentales procesados con la Transformada Chirplet. Los cambios en la geometría y en las propiedades del material respecto al estado inicial de la estructura (lo daños) provocan cambios en la forma de onda de las GLW (lo que denominamos característica sensible al daño o DSF). Mediante técnicas de tratamiento de señal se puede buscar una relación entre dichas variaciones y los daños, esto se conoce como SHM. Sin embargo, las variaciones en las EOC producen también cambios en los datos adquiridos relativos a las GLW (DSF) que provocan errores en los algoritmos de diagnóstico de daño (SHM). Esto sucede porque las firmas de daño y de las EOC en la DSF son del mismo orden. Por lo tanto, es necesario cuantificar y compensar el efecto de las EOC sobre la GLW. Si bien existen diversas metodologías para compensar los efectos de las EOC como por ejemplo “Optimal Baseline Selection” (OBS) o “Baseline Signal Stretching” (BSS), estas, se emplean exclusivamente en la compensación de los efectos térmicos. El método propuesto en esta tesis mezcla análisis de datos experimentales, como en el método OBS, y modelos basados en Redes Neuronales Artificiales (ANN) que reemplazan el modelado físico requerido por el método BSS. El análisis de datos experimentales consiste en aplicar la Transformada Chirplet (CT) para extraer la firma de las EOC sobre la DSF. Con esta información, obtenida bajo diversas EOC, se entrena una ANN. A continuación, la ANN actuará como un interpolador de referencias de la estructura sin daño, generando información de referencia para cualquier EOC. La comparación de las mediciones reales de la DSF con los valores simulados por la ANN, dará como resultado la firma daño en la DSF, lo que permite el diagnóstico de daño. Este esquema se ha aplicado y verificado, en diversas EOC, para una estructura unidimensional con un único camino de daño, y para una estructura representativa de un fuselaje de una aeronave, con curvatura y múltiples elementos rigidizadores, sometida a un estado de cargas complejo, con múltiples caminos de daños. Los efectos de las EOC se han estudiado en detalle en la estructura unidimensional y se han generalizado para el fuselaje, demostrando la independencia del método respecto a la configuración de la estructura y el tipo de sensores utilizados para la adquisición de datos GLW. Por otra parte, esta metodología se puede utilizar para la compensación simultánea de una variedad medible de EOC, que afecten a la adquisición de datos de la onda elástica guiada. El principal resultado entre otros, de esta tesis, es la metodología CT-ANN para la compensación de EOC en técnicas SHM basadas en ondas elásticas guiadas para el diagnóstico de daño. ABSTRACT One of the open problems to implement Structural Health Monitoring techniques based on elastic guided waves in real aircraft structures at operation is the influence of the environmental and operational conditions (EOC) on the damage diagnosis problem. This thesis deals with the compensation of these environmental and operational effects, specifically, the temperature and the external loading, by the use of the Chirplet Transform working with Artificial Neural Networks. It is well known that the guided elastic wave form is affected by the damage appearance (what is known as the damage sensitive feature or DSF). The DSF is modified by the temperature and by the load applied to the structure. The EOC promotes variations in the acquired data (DSF) and cause mistakes in damage diagnosis algorithms. This effect promotes changes on the waveform due to the EOC variations of the same order than the damage occurrence. It is difficult to separate both effects in order to avoid damage diagnosis mistakes. Therefore it is necessary to quantify and compensate the effect of EOC over the GLW forms. There are several approaches to compensate the EOC effects such as Optimal Baseline Selection (OBS) or Baseline Signal Stretching (BSS). Usually, they are used for temperature compensation. The new method proposed here mixes experimental data analysis, as in the OBS method, and Artificial Neural Network (ANN) models to replace the physical modelling which involves the BSS method. The experimental data analysis studied is based on apply the Chirplet Transform (CT) to extract the EOC signature on the DSF. The information obtained varying EOC is employed to train an ANN. Then, the ANN will act as a baselines interpolator of the undamaged structure. The ANN generates reference information at any EOC. By comparing real measurements of the DSF against the ANN simulated values, the damage signature appears clearly in the DSF, enabling an accurate damage diagnosis. This schema has been applied in a range of EOC for a one-dimensional structure containing single damage path and two dimensional real fuselage structure with stiffener elements and multiple damage paths. The EOC effects tested in the one-dimensional structure have been generalized to the fuselage showing its independence from structural arrangement and the type of sensors used for GLW data acquisition. Moreover, it can be used for the simultaneous compensation of a variety of measurable EOC, which affects the guided wave data acquisition. The main result, among others, of this thesis is the CT-ANN methodology for the compensation of EOC in GLW based SHM technique for damage diagnosis.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabajo presenta el desarrollo de una aplicación destinada al análisis de secuencias de imágenes para la detección de movimiento en la escena. Se trata de un campo importante de la Visión Artificial, con múltiples aplicaciones entre las que se encuentra la videovigilancia con fines de seguridad, el control de tráfico, el movimiento de personas o el seguimiento y localización de objetos entre otras muchas. Para ello se utilizan métodos de análisis como son el de Lucas-Kanade y Gauss-Seidel, que obtienen el denominado flujo óptico. Este describe el movimiento que ha tenido lugar entre las imágenes y su fundamento estriba en la determinación de las variables espaciales y temporales en las imágenes, siendo precisamente la variable temporal la que introduce el concepto fundamental para el análisis del movimiento a partir de las imágenes captadas en diferentes instantes de tiempo dentro de la secuencia analizada. Para el desarrollo de la aplicación se han utilizado técnicas propias del tratamiento de la Visión Artificial, así como la metodología proporcionada por la Ingeniería del Software. Así, se ha realizado una especificación de requisitos, se ha elaborado y seguido un plan de proyecto y se ha realizado un análisis de alto nivel, que se materializa en el correspondiente diseño e implementación, junto con las pruebas de verificación y validación, obviamente adaptados en todos los casos a las dimensiones del proyecto, pero que establecen claramente los planteamientos básicos para el desarrollo de una aplicación a nivel empresarial. La aplicación planteada se enmarca perfectamente dentro del paradigma, hoy en día en pleno auge, conocido como el Internet de las Cosas (IoT). El IoT permite la intercomunicación entre dispositivos remotos, de forma que mediante la correspondiente comunicación a través de conexiones a Internet es posible obtener datos remotos para su posterior análisis, bien en nodos locales o en la nube, como concepto íntimamente relacionado con el IoT. Este es el caso de la aplicación que se presenta, de suerte que los métodos de procesamiento de las imágenes pueden aplicarse localmente o bien transmitir las mismas para su procesamiento en nodos remotos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La percepción de profundidad se hace imprescindible en muchas tareas de manipulación, control visual y navegación de robots. Las cámaras de tiempo de vuelo (ToF: Time of Flight) generan imágenes de rango que proporcionan medidas de profundidad en tiempo real. No obstante, el parámetro distancia que calculan estas cámaras es fuertemente dependiente del tiempo de integración que se configura en el sensor y de la frecuencia de modulación empleada por el sistema de iluminación que integran. En este artículo, se presenta una metodología para el ajuste adaptativo del tiempo de integración y un análisis experimental del comportamiento de una cámara ToF cuando se modifica la frecuencia de modulación. Este método ha sido probado con éxito en algoritmos de control visual con arquitectura ‘eye-in-hand’ donde el sistema sensorial está compuesto por una cámara ToF. Además, la misma metodología puede ser aplicada en otros escenarios de trabajo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cuaderno de prácticas de Matemáticas II, Grado en Ingeniería Informática, Universidad de Alicante.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este documento explica la creación, implementación y uso del proyecto de fin de grado, desarrollado dentro del grupo de investigación ISCAR (Ingeniería de Sistemas, Control, Automática y Robótica) de la Facultad de Informática de la Universidad Complutense. El proyecto consiste en la implementación de una aplicación capaz de clasificar texturas extraídas de distintas imágenes mediante técnicas de visión por computador. Dicha aplicación se divide en tres pilares fundamentales: interfaz gráfica de usuario, algoritmos de extracción de características texturales y aprendizaje supervisado mediante una máquina “SVM” (Support Vector Machine). Interfaz gráfica: proporciona al usuario una forma fácil de uso de la aplicación por medio de la visualización gráfica de una imagen con una serie de elementos de configuración para su posterior análisis. Una vez analizada, el usuario si así lo desea, podrá visualizar los resultados de manera intuitiva, así como guardar dichos resultados después de la ejecución de los algoritmos pertinentes. Algoritmos de análisis de texturas: Procede al cálculo de las configuraciones y las muestras provistas por el usuario en la interfaz gráfica como el cálculo de la matriz de co-ocurrencia y el cálculo de los vectores de características (homogeneidad, media, varianza, Entropía, etc…). SVM: Utiliza los vectores de características obtenidos en los cálculos estadísticos de texturas para realizar el proceso de aprendizaje de un clasificador SVM. La aplicación ha sido construida en JAVA haciendo uso de librerías como JNI_SVM-light-6.01, commons-math3-3.0 y WindowsBuilder, para la construcción de la ventana gráfica, cálculo de los métodos estadísticos y máquina de aprendizaje automático. Dicha aplicación se ha utilizado con el objetivo de identificar y clasificar el quiste de Baker mediante imágenes obtenidas por Resonancias Magnéticas de la rodilla.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La investigación se ha orientado, partiendo del origen y la evolución de la neurociencia, hacia los efectos que otorga la toma de decisiones, donde la interdisciplinariedad existente en la neurociencia, nos muestra una complementariedad e “integración” entre diversas disciplinas, que permite el reordenamiento de los saberes y dar cabida a nuevos planteamientos científicos -- Contamos por una parte con las ciencias cognitivas, las cuales tienen su origen en seis disciplinas: la lingüística, la filosofía, la inteligencia artificial, la psicología, las neurociencias y las ciencias sociales (teoría de la comunicación, la economía, la antropología y la teoría de la decisión) -- Dentro del desarrollo de esta ciencia unificada salta a la palestra el hecho de la toma de decisiones, que es producto de las actividades cerebrales que van correlacionadas al comportamiento humano -- A partir de la anterior premisa surge el concepto de la neuroeconomía, la dualidad cerebrofunción y conducta económica, originando la toma de decisión ante las múltiples alternativas de elección

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En este articulo se presenta un análisis de la situación actual de la inteligencia artificial. sus aplicaciones y su posible desarrollo en Colombia

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La actividad cerebral puede ser monitoreada mediante la electroencefalografía y utilizada como un indicador bioeléctrico. Este articulo muestra como un dispositivo de bajo costo y fácil acceso puede utilizarse para el desarrollo de aplicaciones basadas en interfaces cerebro-computador (BCI). Los resultados obtenidos muestran que el dispositivo MindWave puede efectivamente utilizarse para la adquisición de señales relacionadas a la actividad cerebral en diversas actividades cerebrales bajo la influencia de diversos estímulos. Se propone además el uso de la transformada Wavelet para el acondicionamiento de las señales EEG con el objetivo de utilizar algoritmos de inteligencia artificial y técnicas de reconocimiento de patrones para distinguir respuestas cerebrales.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo de este trabajo es presentar unas bases de conocimiento sobre el denominado General Game Playing (GGP) analizando los conceptos relacionados con esta área que ha surgido recientemente, de forma que nuestro trabajo pueda ser usado como base en futuras investigaciones y tesis relacionadas con la materia. Para ello, se hará un estudio de los enfoques que se han empleado para abordar el problema y se profundizará en otras técnicas algorítmicas, tales como por ejemplo la de Montecarlo Tree Search y los algoritmos bio-inspirados que no se han empleado (o se han empleado poco) en este contexto. Adicionalmente, se realiza una propuesta de un agente autónomo (es decir, un resolutor del problema), implementando un algoritmo bio-inspirado mixto, dentro de la plataforma para la General Video Game Artificial Intelligence Competition (GVGAI), analizando sus resultados y extrayendo conclusiones.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los sensores de propósito general RGB-D son dispositivos capaces de proporcionar información de color y de profundidad de la escena. Debido al amplio rango de aplicación que tienen estos sensores, despiertan gran interés en múltiples áreas, provocando que en algunos casos funcionen al límite de sensibilidad. Los métodos de calibración resultan más importantes, si cabe, para este tipo de sensores para mejorar la precisión de los datos adquiridos. Por esta razón, resulta de enorme transcendencia analizar y estudiar el calibrado de estos sensores RGBD de propósito general. En este trabajo se ha realizado un estudio de las diferentes tecnologías empleadas para determinar la profundidad, siendo la luz estructurada y el tiempo de vuelo las más comunes. Además, se ha analizado y estudiado aquellos parámetros del sensor que influyen en la obtención de los datos con precisión adecuada dependiendo del problema a tratar. El calibrado determina, como primer elemento del proceso de visión, los parámetros característicos que definen un sistema de visión artificial, en este caso, aquellos que permiten mejorar la exactitud y precisión de los datos aportados. En este trabajo se han analizado tres algoritmos de calibración, tanto de propósito general como de propósito específico, para llevar a cabo el proceso de calibrado de tres sensores ampliamente utilizados: Microsoft Kinect, PrimeSense Carmine 1.09 y Microsoft Kinect v2. Los dos primeros utilizan la tecnología de luz estructurada para determinar la profundidad, mientras que el tercero utiliza tiempo de vuelo. La experimentación realizada permite determinar de manera cuantitativa la exactitud y la precisión de los sensores y su mejora durante el proceso de calibrado, aportando los mejores resultados para cada caso. Finalmente, y con el objetivo de mostrar el proceso de calibrado en un sistema de registro global, diferentes pruebas han sido realizadas con el método de registro µ-MAR. Se ha utilizado inspección visual para determinar el comportamiento de los datos de captura corregidos según los resultados de los diferentes algoritmos de calibrado. Este hecho permite observar la importancia de disponer de datos exactos para ciertas aplicaciones como el registro 3D de una escena.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Solar radiation, especially ultraviolet A (UVA) and ultraviolet B (UVB), can cause damage to the human body, and exposure to the radiation may vary according to the geographical location, time of year and other factors. The effects of UVA and UVB radiation on organisms range from erythema formation, through tanning and reduced synthesis of macromolecules such as collagen and elastin, to carcinogenic DNA mutations. Some studies suggest that, in addition to the radiation emitted by the sun, artificial sources of radiation, such as commercial lamps, can also generate small amounts of UVA and UVB radiation. Depending on the source intensity and on the distance from the source, this radiation can be harmful to photosensitive individuals. In healthy subjects, the evidence on the danger of this radiation is still far from conclusive.