1000 resultados para profundidad


Relevância:

20.00% 20.00%

Publicador:

Resumo:

La discontinuidad de Mohorovičić, más conocida simplemente como “Moho” constituye la superficie de separación entre los materiales rocosos menos densos de la corteza y los materiales rocosos más densos del manto, suponiendo estas capas de densidad constante del orden de 2.67 y 3.27 g/cm3, y es un contorno básico para cualquier estudio geofísico de la corteza terrestre. Los estudios sísmicos y gravimétricos realizados demuestran que la profundidad del Moho es del orden de 30-40 km por debajo de la Península Ibérica y 5-15 km bajo las zonas marinas. Además las distintas técnicas existentes muestran gran correlación en los resultados. Haciendo la suposición de que el campo de gravedad de la Península Ibérica (como le ocurre al 90% de la Tierra) está isostáticamente compensado por la variable profundidad del Moho, suponiendo un contraste de densidad constante entre la corteza y el manto y siguiendo el modelo isostático de Vening Meinesz (1931), se formula el problema isostático inverso para obtener tal profundidad a partir de la anomalía Bouguer de la gravedad calculada gracias a la gravedad observada en la superficie terrestre. La particularidad de este modelo es la compensación isostática regional de la que parte la teoría, que se asemeja a la realidad en mayor medida que otros modelos existentes, como el de Airy-Heiskanen, que ha sido históricamente el más utilizado en trabajos semejantes. Además, su solución está relacionada con el campo de gravedad global para toda la Tierra, por lo que los actuales modelos gravitacionales, la mayoría derivados de observaciones satelitales, deberían ser importantes fuentes de información para nuestra solución. El objetivo de esta tesis es el estudio con detalle de este método, desarrollado por Helmut Moritz en 1990, que desde entonces ha tenido poca evolución y seguidores y que nunca se ha puesto en práctica en la Península Ibérica. Después de tratar su teoría, desarrollo y aspectos computacionales, se está en posición de obtener un modelo digital del Moho para esta zona a fin de poder utilizarse para el estudio de la distribución de masas bajo la superficie terrestre. A partir de los datos del Moho obtenidos por métodos alternativos se hará una comparación. La precisión de ninguno de estos métodos es extremadamente alta (+5 km aproximadamente). No obstante, en aquellas zonas donde exista una discrepancia de datos significaría un área descompensada, con posibles movimientos tectónicos o alto grado de riesgo sísmico, lo que le da a este estudio un valor añadido. ABSTRACT The Mohorovičić discontinuity, simply known as “Moho” constitutes the division between the rocky and less thick materials of the mantle and the heavier ones in the crust, assuming densities of the orders of 2.67 y 3.27 g/cm3 respectively. It is also a basic contour for every geophysical kind of studies about the terrestrial crust. The seismic and previous gravimetric observations done in the study area show that the Moho depth is of the order of 30-40 km beneath the ground and 5-15 km under the ocean basin. Besides, the different techniques show a good correlation in their results. Assuming that the Iberian Peninsula gravity field (as it happens for the 90% of the Earth) is isostatically compensated according to the variable Moho depth, supposing a constant density contrast between crust and mantle, and following the isostatic Vening Meinesz model (1931), the inverse isostatic problem can be formulated from Bouguer gravity anomaly data obtained thanks to the observed gravity at the surface of the Earth. The main difference between this model and other existing ones, such as Airy- Heiskanen’s (pure local compensation and mostly used in these kinds of works) is the approaching to a regional isostatic compensation, much more in accordance with reality. Besides, its solution is related to the global gravity field, and the current gravitational models -mostly satellite derived- should be important data sources in such solution. The aim of this thesis is to study with detail this method, developed by Helmut Moritz in 1990, which hardly ever has it put into practice. Moreover, it has never been used in Iberia. After studying its theory, development and computational aspects, we are able to get a Digital Moho Model of the Iberian Peninsula, in order to study the masses distribution beneath the Earth’s surface. With the depth Moho information obtained from alternative methods, a comparison will be done. Both methods give results with the same order of accuracy, which is not quite high (+ 5 km approximately). Nevertheless, the areas in which a higher difference is observed would mean a disturbance of the compensation, which could show an unbalanced area with possible tectonic movements or potential seismic risk. It will give us an important additive value, which could be used in, at first, non related fields, such as density discrepancies or natural disasters contingency plans.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudio presenta una comparativa entre un LIDAR modelo LMS-111 (Sick Ltd.) y una cámara de profundidad de uso doméstico: Kinect (Microsoft Corporation), orientada a determinar las condiciones de uso de uno y otro sensor, así como sus ventajas e inconvenientes cuando son empleados en condiciones de campo, en una explotación agrícola. Para ello se realizaron diversos ensayos en una parcela experimental del CSIC-CAR de Arganda del Rey, España. Para los ensayos ambos sensores fueron instalados en un tractor operado remotamente diseñado y construido en el marco del proyecto europeo RHEA. Dicho tractor realizó dos recorridos diferentes: el primero se efectuó en paralelo a un muro y el segundo paralelo a una hilera de olivos. El primer ensayo se realizó con el propósito de cuantificar la uniformidad de las mediciones de ambos sensores y el segundo para validar los resultados en un cultivo real. Los recorridos se realizaron empleando cuatro marchas diferentes, con el objetivo de determinar si los diferentes regímenes de operación del motor influyen sobre la precisión de los sensores. Los resultados muestran que el LIDAR posee un mayor alcance máximo de medición, pero una resolución menor frente a Kinect, muestran además que el LIDAR puede ser operado a cualquier hora del día y condición meteorológica, mientras que Kinect, no puede operar en exteriores, salvo en horas del día con baja intensidad lumínica. Por otra parte la gran desventaja del LIDAR es su coste, 30 veces más alto que Kinect.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este proyecto fín de carrera describe el desarrollo de un sistema de estimación de mapas de profundidad densos a partir de secuencias reales de vídeo 3D. Está motivado por la necesidad de utilizar la información de profundidad de un vídeo estéreo para calcular las oclusiones en el módulo de inserción de objetos sintéticos interactivos desarrollado en el proyecto ImmersiveTV. En el receptor 3DTV, el sistema debe procesar en tiempo real secuencias estéreo de escenas reales en alta resolución con formato Side-by-Side. Se analizan las características del contenido para conocer los problemas a enfrentar. Obtener un mapa de profundidad denso mediante correspondencia estéreo (stereo matching) permite calcular las oclusiones del objeto sintético con la escena. No es necesario que el valor de disparidad asignado a cada píxel sea preciso, basta con distinguir los distintos planos de profundidad ya que se trabaja con distancias relativas. La correspondencia estéreo exige que las dos vistas de entrada estén alineadas. Primero se comprueba si se deben rectificar y se realiza un repaso teórico de calibración y rectificación, resumiendo algunos métodos a considerar en la resolución del problema. Para estimar la profundidad, se revisan técnicas de correspondencia estéreo densa habituales, seleccionando un conjunto de implementaciones con el fin de valorar cuáles son adecuadas para resolver el problema, incluyendo técnicas locales, globales y semiglobales, algunas sobre CPU y otras para GPU; modificando algunas para soportar valores negativos de disparidad. No disponer de ground truth de los mapas de disparidad del contenido real supone un reto que obliga a buscar métodos indirectos de comparación de resultados. Para una evaluación objetiva, se han revisado trabajos relacionados con la comparación de técnicas de correspondencia y entornos de evaluación existentes. Se considera el mapa de disparidad como error de predicción entre vistas desplazadas. A partir de la vista derecha y la disparidad de cada píxel, puede reconstruirse la vista izquierda y, comparando la imagen reconstruida con la original, se calculan estadísticas de error y las tasas de píxeles con disparidad inválida y errónea. Además, hay que tener en cuenta la eficiencia de los algoritmos midiendo la tasa de cuadros por segundo que pueden procesar. Observando los resultados, atendiendo a los criterios de maximización de PSNR y minimización de la tasa de píxeles incorrectos, se puede elegir el algoritmo con mejor comportamiento. Como resultado, se ha implementado una herramienta que integra el sistema de estimación de mapas de disparidad y la utilidad de evaluación de resultados. Trabaja sobre una imagen, una secuencia o un vídeo estereoscópico. Para realizar la correspondencia, permite escoger entre un conjunto de algoritmos que han sido adaptados o modificados para soportar valores negativos de disparidad. Para la evaluación, se ha implementado la reconstrucción de la vista de referencia y la comparación con la original mediante el cálculo de la RMS y PSNR, como medidas de error, además de las tasas de píxeles inválidos e incorrectos y de la eficiencia en cuadros por segundo. Finalmente, se puede guardar las imágenes (o vídeos) generados como resultado, junto con un archivo de texto en formato csv con las estadísticas para su posterior comparación.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En este Trabajo Fin de Grado se ha realizado primero un informe técnico de la cámara de profundidad de la empresa SoftKinetic DepthSense 325 y de cuatro entornos de desarrollo que tiene como objetivo el uso de dicha cámara para el desarrollo de interfaces hombre-máquina: Perceptual Computing, RealSense, DepthSense e iisu. Posteriormente, tras la evaluación de los entornos de desarrollo y selección del más adecuado para el objetivo, se ha desarrollado un prototipo de un sistema de reconocimiento visual de gestos de manos. La principal contribución a dicho sistema es el uso de redes neuronales para la clasificación de patrones espacio-temporales que representan los gestos a reconocer. Para el entrenamiento de las redes neuronales, se han probado varias configuraciones y los métodos de optimización basados en Gradiente Conjugado y el Gradiente Conjugado Escalado, eficaces para grandes cantidades de información. El sistema propuesto basado en redes neuronales se ha comparado con las populares Máquinas Vectores Soporte, obteniéndose resultados equiparables en términos de reconocimiento de gestos

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En esta tesis se recoge el trabajo realizado centrado en el estudio del vídeo estereoscópico y, en particular, la información que aportan los mapas de disparidad y sus posibles aplicaciones. El trabajo se ha dividido en tres bloques diferenciados: En primer lugar se presentan los resultados de un codificador de vídeo multivista basado en mapas de disparidad previamente computados. La finalidad del estudio es comprobar los efectos de la aplicación directa de la disparidad para la compensación entre vistas en cuanto a reducción del tiempo de procesado y calidad de la compresión sobre algoritmos basados en división de bloques, como AVC o HEVC. También se ha trabajado para obtener un flujo de vídeo compatible con MVC que contenga la información de los mapas de disparidad embebida en el flujo en forma de vectores de compensación. Estos mapas se usan como base para obtener la compensación entre bloques de la imagen derecha e izquierda. Para reducir aún más el coste computacional, se ha diseñado un algoritmo de decisión previa del tamaño del bloque de compensación. Aquí se presentan los resultados de ambas estrategias, con decisión previa y sin ella, para evaluar las alternativas. Se presentan los resultados tanto sobre imágenes estereoscópicas estáticas como secuencias de vídeo estereoscópico, cada una de ellas a diferentes valores de compresión de forma que se obtenga una referencia parametrizada del comportamiento del algoritmo. Dichos resultados revelan una reducción drástica del tiempo de procesado con estabilización de la tasa binaria para valores de compresión moderados (compresión de alta calidad), mientras que para compresiones severas, la tasa binaria crece en comparación con el software de referencia JMVC. En segundo lugar se realiza un análisis de calidad relacionado con la información de disparidad de las secuencias estereoscópicas, sus valores absolutos y sus derivadas temporales, de modo que pueda servir tanto para generar sistemas automáticos de evaluación de la calidad, como para sintetizar una lista de buenas prácticas para la creación de contenidos audiovisuales estereoscópicos que ofrezcan una calidad de la experiencia elevada. Para relacionar la calidad de la experiencia y el confort visual generado por una secuencia estereoscópica se ha llevado a cabo una serie de tests de visualización por parte de un grupo de observadores, de secuencias previamente generadas y catalogadas en base a sus variaciones de la disparidad y de movimiento. Las conclusiones extraídas indican que los paralajes negativos son más efectistas y ofrecen una inmersión mayor y, por tanto, mejor calidad de la experiencia, cuando se utilizan de forma moderada. Variaciones rápidas de los valores de disparidad negativa y variaciones de movimiento de objetos con disparidad negativa generan disconfort visual. La probabilidad de que paralajes positivos generen disconfort visual son mucho menores, por lo que resulta interesante en este caso utilizar variaciones rápidas de disparidad y movimiento para compensar la falta de efectismo que producen dichos paralajes. Por último, se ha planteado el diseño de un sistema de inserción coherente de gráficos, en tiempo real, en una escena estereoscópica. Se ha hecho hincapié en la necesidad de la coherencia entre la disparidad de los objetos que conforman una escena y las oclusiones que éstos producen, por lo que la inserción de un elemento no nativo de la escena debe tener en cuenta esta circunstancia para mantener la calidad de la experiencia estereoscópica. Se ha estudiado la influencia de la calidad del mapa de disparidad de la escena como base sobre la que realizar la inserción, así como posibles formas de modificar dicho mapa para que la inserción produzca el efecto deseado de coherencia. En concreto se ha postulado que es preferible sacrificar la precisión punto a punto del mapa de disparidad si, de esa manera, se evita cometer pequeños errores aislados de inserción, a costa de introducir un ajuste menos fino en los bordes de los objetos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este es un ensayo clínico controlado realizado en 327 pacientes ASA II, sometidas a cesárea, distribuidas aleatoriamente en dos grupos iguales para identificar las variaciones hemodinámicas y nivel metamérico, al aplicar Anestesia Intratecal con Lidocaína Isobárica al 2(AILI) comparada con Lidocaína Hiperbárica al 5(AILH), ambas a dosis de 80 mg. Resultados: la AILI, se mantuvo en determinadas metámeras sin sustancial variabilidad, comportamiento totalmente contrario a la AILH. Las diferencias estadísticas en la presión sistólica, diastólica, y frecuencia cardiaca, entre ambos tipos de anestesia no fueron significativas. La hipotensión se presentó en 32,9con AILI, y 54con AILH; siendo tratada con 2,26 mg (ñ 3.65) y 3,93 mg (ñ 4,26) de efedrina respectivamente. (p> 0.05). Con AILI se presentaron 4 casos de bloqueo raquídeo alto más dificultad respiratoria y, con AILH 3 casos, de los cuales solo 2 presentaron dificultad respiratoria. Conclusión: la AILI produce un bloqueo nervioso más predecible que la AILH. Los valores hemodinámicos y la incidencia de complicaciones, entre ambos anestésicos fueron semejantes

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tesis (Maestría en Ciencias de la Visión).-- Universidad de La Salle. Maestría en Ciencias de la Visión, 2014

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper presents the implementation of a high quality real-time 3D video system intended for 3D videoconferencing -- Basically, the system is able to extract depth information from a pair of images coming from a short-baseline camera setup -- The system is based on the use of a variant of the adaptive support-weight algorithm to be applied on GPU-based architectures -- The reason to do it is to get real-time results without compromising accuracy and also to reduce costs by using commodity hardware -- The complete system runs over the GStreamer multimedia software platform to make it even more flexible -- Moreover, an autoestereoscopic display has been used as the end-up terminal for 3D content visualization

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este es un ensayo clínico controlado realizado en 327 pacientes ASA II, sometidas a cesárea, distribuidas aleatoriamente en dos grupos iguales para identificar las variaciones hemodinámicas y nivel metamérico, al aplicar Anestesia Intratecal con Lidocaína Isobárica al 2(AILI) comparada con Lidocaína Hiperbárica al 5(AILH), ambas a dosis de 80 mg. Resultados: la AILI, se mantuvo en determinadas metámeras sin sustancial variabilidad, comportamiento totalmente contrario a la AILH. Las diferencias estadísticas en la presión sistólica, diastólica, y frecuencia cardiaca, entre ambos tipos de anestesia no fueron significativas. La hipotensión se presentó en 32,9con AILI, y 54con AILH; siendo tratada con 2,26 mg (ñ 3.65) y 3,93 mg (ñ 4,26) de efedrina respectivamente. (p> 0.05). Con AILI se presentaron 4 casos de bloqueo raquídeo alto más dificultad respiratoria y, con AILH 3 casos, de los cuales solo 2 presentaron dificultad respiratoria. Conclusión: la AILI produce un bloqueo nervioso más predecible que la AILH. Los valores hemodinámicos y la incidencia de complicaciones, entre ambos anestésicos fueron semejantes

Relevância:

10.00% 10.00%

Publicador:

Resumo:

FUNDAMENTO: A doença periodontal representa risco à gestante portadora de valvopatia reumática, seja para contrair endocardite infecciosa, seja por propiciar complicações obstétricas. OBJETIVO: Estudar a frequência da doença periodontal em portadoras de valvopatia reumática durante a gravidez. MÉTODOS: Foram estudadas 140 gestantes, comparáveis quanto a idade e o nível socioeconômico, divididas em: 70 portadoras de doença valvar reumática e 70 mulheres saudáveis. Todas se submeteram a: 1) avaliação clínica odontológica que incluiu a análise dos seguintes parâmetros: 1.1) profundidade à sondagem, 1.2) distância da linha esmalte-cemento à margem gengival, 1.3) nível clínico de inserção, 1.4) índice de sangramento, 1.5) índice de placa bacteriana, e, 1.6) comprometimento de furca; e, 2) exame microbiológico nas amostras de saliva e do cone que considerou o controle positivo para as cepas das bactérias Porphyromonas gingivalis, Tannerella forsithia e Aggregobacter actinomycetemcomitans. RESULTADOS: A lesão valvar mitral foi prevalente (65 casos = 92,8%) dentre as gestantes cardiopatas. A comparação entre os grupos mostrou não haver diferenças entre idade e a paridade, e embora tenham sido verificadas diferenças entre as medidas da distância da linha esmalte-cemento à margem gengival (p = 0,01) e o índice de placa (p=0,04), a frequência da doença periodontal identificada em 20 (14,3%) gestantes, não foi diferente entre os grupos (p = 0,147). O exame microbiológico mostrou uma proporção maior da bactéria P. gingivalis na saliva de gestantes saudáveis (p = 0,004). CONCLUSÃO: O estudo clínico e microbiológico periodontal durante a gravidez demonstrou igual frequência da doença periodontal em portadoras de valvopatia reumática quando comparada às mulheres saudáveis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A cor é um atributo perceptual que nos permite identificar e localizar padrões ambientais de mesmo brilho e constitui uma dimensão adicional na identificação de objetos, além da detecção de inúmeros outros atributos dos objetos em sua relação com a cena visual, como luminância, contraste, forma, movimento, textura, profundidade. Decorre daí a sua importância fundamental nas atividades desempenhadas pelos animais e pelos seres humanos em sua interação com o ambiente. A psicofísica visual preocupa-se com o estudo quantitativo da relação entre eventos físicos de estimulação sensorial e a resposta comportamental resultante desta estimulação, fornecendo dessa maneira meios de avaliar aspectos da visão humana, como a visão de cores. Este artigo tem o objetivo de mostrar diversas técnicas eficientes na avaliação da visão cromática humana através de métodos psicofísicos adaptativos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este artigo apresenta o caso do modelo de mensura????o de desempenho existente na Secretaria de Estado da Fazenda do Rio Grande do Sul. Mediante abordagem explorat??ria e descritiva, baseada em entrevistas em profundidade, comparamos as similaridades entre o modelo vigente na Secretaria e as principais caracter??sticas citadas nos estudos desses modelos aplicados ?? iniciativa privada. Encontramos como semelhan??as: a dissocia????o entre recompensa e esfor??o; negocia????o de metas; e mecanismos sociais de puni????o. A an??lise das s??ries trimestrais dos indicadores de desempenho, na compara????o meta/realizado entre 2005-2008 (14 trimestres, at?? junho/2008), fornece evid??ncias iniciais de que os funcion??rios da Secretaria t??m atingido em m??dia 91,46% das metas. Isso sugere a exist??ncia de folga or??ament??ria e, portanto, de baixo incentivo ao desempenho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente artigo toma como ponto de partida a revis??o do estado da arte sobre os centros de servi??os compartilhados (CSC). Arranjos de servi??os compartilhados est??o ganhando import??ncia na gest??o p??blica como meio para reduzir despesas e elevar a qualidade dos servi??os. Os objetivos da pesquisa foram investigar as determinantes do surgimento dos CSC na gest??o p??blica, os principais problemas em sua implanta????o e as tend??ncias futuras dos CSC. Al??m da publica????o cient??fica e t??cnica sobre o tema, a metodologia se assenta no estudo da experi??ncia brit??nica de compartilhamento de servi??os entre diferentes esferas de governo. Uma das conclus??es relevantes da pesquisa ?? que o Brasil, embora tenha poucas experi??ncias de servi??os compartilhados na administra????o p??blica, poder?? obter significativos benef??cios financeiros e na qualidade dos servi??os p??blicos.