994 resultados para virtual topology, decomposition, hex meshing algorithms
Resumo:
En este proyecto se desarrollarán algoritmos numéricos para sistemas no lineales hiperbólicos-parabólicos de ecuaciones diferenciales en derivadas parciales. Dichos sistemas tienen aplicación en propagación de ondas en ámbitos aeroespaciales y astrofísicos.Objetivos generales: 1)Desarrollo y mejora de algoritmos numéricos con la finalidad de incrementar la calidad en la simulación de propagación e interacción de ondas gasdinámicas y magnetogasdinámicas no lineales. 2)Desarrollo de códigos computacionales con la finalidad de simular flujos gasdinámicos de elevada entalpía incluyendo cambios químicos, efectos dispersivos y difusivos.3)Desarrollo de códigos computacionales con la finalidad de simular flujos magnetogasdinámicos ideales y reales.4)Aplicación de los nuevos algoritmos y códigos computacionales a la solución del flujo aerotermodinámico alrededor de cuerpos que ingresan en la atmósfera terrestre. 5)Aplicación de los nuevos algoritmos y códigos computacionales a la simulación del comportamiento dinámico no lineal de arcos magnéticos en la corona solar. 6)Desarrollo de nuevos modelos para describir el comportamiento no lineal de arcos magnéticos en la corona solar.Este proyecto presenta como objetivo principal la introducción de mejoras en algoritmos numéricos para simular la propagación e interacción de ondas no lineales en dos medios gaseosos: aquellos que no poseen carga eléctrica libre (flujos gasdinámicos) y aquellos que tienen carga eléctrica libre (flujos magnetogasdinámicos). Al mismo tiempo se desarrollarán códigos computacionales que implementen las mejoras de las técnicas numéricas.Los algoritmos numéricos se aplicarán con la finalidad de incrementar el conocimiento en tópicos de interés en la ingeniería aeroespacial como es el cálculo del flujo de calor y fuerzas aerotermodinámicas que soportan objetos que ingresan a la atmósfera terrestre y en temas de astrofísica como la propagación e interacción de ondas, tanto para la transferencia de energía como para la generación de inestabilidades en arcos magnéticos de la corona solar. Estos dos temas poseen en común las técnicas y algoritmos numéricos con los que serán tratados. Las ecuaciones gasdinámicas y magnetogasdinámicas ideales conforman sistemas hiperbólicos de ecuaciones diferenciales y pueden ser solucionados utilizando "Riemann solvers" junto con el método de volúmenes finitos (Toro 1999; Udrea 1999; LeVeque 1992 y 2005). La inclusión de efectos difusivos genera que los sistemas de ecuaciones resulten hiperbólicos-parabólicos. La contribución parabólica puede ser considerada como términos fuentes y tratada adicionalmente tanto en forma explícita como implícita (Udrea 1999; LeVeque 2005).Para analizar el flujo alrededor de cuerpos que ingresan en la atmósfera se utilizarán las ecuaciones de Navier-Stokes químicamente activas, mientras la temperatura no supere los 6000K. Para mayores temperaturas es necesario considerar efectos de ionización (Anderson, 1989). Tanto los efectos difusivos como los cambios químicos serán considerados como términos fuentes en las ecuaciones de Euler. Para tratar la propagación de ondas, transferencia de energía e inestabilidades en arcos magnéticos de la corona solar se utilizarán las ecuaciones de la magnetogasdinámica ideal y real. En este caso será también conveniente implementar términos fuente para el tratamiento de fenómenos de transporte como el flujo de calor y el de radiación. Los códigos utilizarán la técnica de volúmenes finitos, junto con esquemas "Total Variation Disminishing - TVD" sobre mallas estructuradas y no estructuradas.
Resumo:
El presente proyecto se plantea el siguiente problema de investigación:¿Cuál es la eficacia de los entornos virtuales de enseñanza para optimizar los aprendizajes de Química? Se sostiene la hipótesis de que los entornos virtuales de enseñanza, empleados como mediación instrumental, son eficaces para optimizar los aprendizajes de química, particularmente facilitando la vinculación y reversibilidad entre "mundo micro y macroscópico"; capacidad que usualmente sólo se atribuye al trabajo experimental de laboratorio. Los objetivos propuestos son: Determinar la eficacia de entornos virtuales de enseñanza, como mediaciones instrumentales, para optimizar los aprendizajes de química en estudiantes de ingeniería. Implementar un entrono virtual de enseñanza de química, diseñado como mediación instrumental y destinado a estudiantes de dos carreras de ingeniería del IUA. Evaluar el desarrollo y los resultados de la innovación introducida. Comparar los resultados de la innovación con los resultados de la enseñanza usual. Derivar conclusiones acerca de la eficacia de la innovación propuesta. Socializar el conocimiento producido en ámbitos científico-tecnológicos reconocidos. Se generará un aula virtual en plataforma Educativa y utilidzando el laboratorio de computación de la institución se buscará desarrollar laboratorios virtuales donde se propondrán actividades de simulación de trabajo experimental. Los resultados esperados son: - Un Aula Virtual que cumpla funciones análogas a las de un laboratorio experimental. - Información válida y confiable acerca de la eficacia de la misma como medio para optimizar los aprendizajes de química. - Publicaciones en ámbitos científico-tecnológicos reconocidos que sometan a juicio público la innovación y la investigación efectuadas. La importancia del proyecto radica principalmente en poner a prueba la eficacia de los entornos virtuales para optimizar los aprendizajes de química, analogando tareas usualmente limitadas al trabajo experimental de laboratorio. Su pertinencia apunta a un replanteo del curriculo de los cursos de Química para estudiantes de Ingeniería.
Resumo:
En nuestro proyecto anterior aproximamos el cálculo de una integral definida con integrandos de grandes variaciones funcionales. Nuestra aproximación paraleliza el algoritmo de cómputo de un método adaptivo de cuadratura, basado en reglas de Newton-Cote. Los primeros resultados obtenidos fueron comunicados en distintos congresos nacionales e internacionales; ellos nos permintieron comenzar con una tipificación de las reglas de cuadratura existentes y una clasificación de algunas funciones utilizadas como funciones de prueba. Estas tareas de clasificación y tipificación no las hemos finalizado, por lo que pretendemos darle continuidad a fin de poder informar sobre la conveniencia o no de utilizar nuestra técnica. Para llevar adelante esta tarea se buscará una base de funciones de prueba y se ampliará el espectro de reglas de cuadraturas a utilizar. Además, nos proponemos re-estructurar el cálculo de algunas rutinas que intervienen en el cómputo de la mínima energía de una molécula. Este programa ya existe en su versión secuencial y está modelizado utilizando la aproximación LCAO. El mismo obtiene resultados exitosos en cuanto a precisión, comparado con otras publicaciones internacionales similares, pero requiere de un tiempo de cálculo significativamente alto. Nuestra propuesta es paralelizar el algoritmo mencionado abordándolo al menos en dos niveles: 1- decidir si conviene distribuir el cálculo de una integral entre varios procesadores o si será mejor distribuir distintas integrales entre diferentes procesadores. Debemos recordar que en los entornos de arquitecturas paralelas basadas en redes (típicamente redes de área local, LAN) el tiempo que ocupa el envío de mensajes entre los procesadores es muy significativo medido en cantidad de operaciones de cálculo que un procesador puede completar. 2- de ser necesario, paralelizar el cálculo de integrales dobles y/o triples. Para el desarrollo de nuestra propuesta se desarrollarán heurísticas para verificar y construir modelos en los casos mencionados tendientes a mejorar las rutinas de cálculo ya conocidas. A la vez que se testearán los algoritmos con casos de prueba. La metodología a utilizar es la habitual en Cálculo Numérico. Con cada propuesta se requiere: a) Implementar un algoritmo de cálculo tratando de lograr versiones superadoras de las ya existentes. b) Realizar los ejercicios de comparación con las rutinas existentes para confirmar o desechar una mejor perfomance numérica. c) Realizar estudios teóricos de error vinculados al método y a la implementación. Se conformó un equipo interdisciplinario integrado por investigadores tanto de Ciencias de la Computación como de Matemática. Metas a alcanzar Se espera obtener una caracterización de las reglas de cuadratura según su efectividad, con funciones de comportamiento oscilatorio y con decaimiento exponencial, y desarrollar implementaciones computacionales adecuadas, optimizadas y basadas en arquitecturas paralelas.
Resumo:
Estudios epidemiológicos, reportan que la fobia social es uno de los trastornos de ansiedad de alta prevalencia en la población mundial, que oscila entre el 7 y el 13%. La incidencia de este trastorno se ubica entre el 13 y 14% en personas de 15 a 54 años, manifestándose antes de los 25 años (Furmark,et al 2002). De esta manera, se destaca la importancia de el estudio y abordaje de este trastorno en adolecentes, considerando que es en esta etapa del desarrollo donde se empieza a manifestar, y donde la intervención temprana se torna fundamental. Este trastorno afecta la vida familiar, social y laboral de una persona, dado que la persona evita exponerse a lugares públicos o a situaciones donde anticipa la evaluación negativa. Las consecuencias del trastorno son variadas, ya que los individuos pueden perder su trabajo por miedo a la exposición, fracasar en los estudios o fracazar en la concertación de citas y la vida en pareja. El miedo a hablar en público, por otro lado, es una forma particular de ansiedad social que implica la preocupación de que el público va a pensar que el rendimiento de uno es inadecuado (o que evaluaranm negativamente la persona o el rendimiento de la misma). La relevancia social de esta problemática requiere de tratamientos más eficientes, dada la creciente prevalencia de estos trastornos en los últimos años a nivel internacional. En este sentido la terapia de exposición en diferentes modalidades, acompañada dereestructuración cognitiva se ha transformado en un abordjae de elección para estos trastornos ara el tratamiento de fobia social. Entre las modalidades más novedosas en la actualidad, se destaca la utilización de programas basados en escenarios virtuales y la utilización de la telepsicología para el tratamiento de la fobia social y el miedo a hablar en público. La exposición con realidad virtual o mediante simulaciones no sólo da la oportunidad de capitalizar las habilidades de imaginación del paciente sino también las suplementa con experiencias visuales y auditivas simuladas. Además expone al paciente a un ambiente virtual que contiene la situación temida en vez de llevar al paciente a una situación real o pedirle que imagine los estímulos asociados, aumentando de esta manera la eficiencia del tratamiento En particular en nuestro país, la investigación en este campo es inexistente y sus aplicaciones son incipientes, por lo que la adaptación, desarrollo y evaluación de programas de tratamiento clínico utilizando modalidades terapéuticas innovadoras, a la vez de otorgar atención a la comunidad que padece este tipo de trastornos, es fundamental Por esto, el propósito del presente proyecto es el desarrollo, la instrumentación y evaluación de software de telepsicología y tecnologías de realidad virtual orientados a la valoración y tratamiento de la Fobia Social y el miedo a Hablar en Público. Específicamente, el objetivo es adaptar, instrumentar y evaluar un sistema de tratamiento con base en ambientes virtuales para el tratamiento de la Fobia Social transferidos a nuestro equpio de investigación por el grupo de investigación del Laboratorio de Enseñanza Virtual y Ciberpsicología de la UNAM. También nos proponemos desarrollar dos softwares de telepsicología con videos digitales para la valoración y tratamiento del miedo a hablar en público. Finalmente, otro objetivo es el desarrollo de un instrumento de evaluación diagnóstica de la Fobia Social y el Miedo a Hablar en Público en estudiantes universitarios, el cual será incorporado a un software junto a los videos digitales.
Resumo:
As digital imaging processing techniques become increasingly used in a broad range of consumer applications, the critical need to evaluate algorithm performance has become recognised by developers as an area of vital importance. With digital image processing algorithms now playing a greater role in security and protection applications, it is of crucial importance that we are able to empirically study their performance. Apart from the field of biometrics little emphasis has been put on algorithm performance evaluation until now and where evaluation has taken place, it has been carried out in a somewhat cumbersome and unsystematic fashion, without any standardised approach. This paper presents a comprehensive testing methodology and framework aimed towards automating the evaluation of image processing algorithms. Ultimately, the test framework aims to shorten the algorithm development life cycle by helping to identify algorithm performance problems quickly and more efficiently.
Resumo:
FUNDAMENTOS: Estudos prévios demonstram que o principal determinante de vulnerabilidade da placa aterosclerótica é a sua composição. Recentemente, diversos métodos de imagens e marcadores laboratoriais têm sido investigados visando identificar lesões vulneráveis. O ultrassom com Histologia Virtual® (HV) permite a diferenciação e quantificação dos componentes da placa. Por sua vez, a proteína C-reativa (PCR) é apontada como importante preditor de eventos adversos. A correlação entre este marcador e as características da placa não é bem estabelecida. OBJETIVOS: Avaliar a constituição da lesão culpada em pacientes com síndrome coronária aguda (SCA) - conforme caracterizada pela HV - e investigar a relação dos componentes da placa com o marcador inflamatório PCR. MÉTODOS: Cinquenta e dois pacientes com SCA e com indicação de intervenção coronária percutânea foram submetidos a dosagens de PCR de alta sensibilidade antes e 24 horas após a ICP. Análise por ultrassom HV da lesão-alvo foi realizada antes da ICP. RESULTADOS: A média de idade foi de 55,3 ± 4,9 anos, sendo 76,9% homens, 67,3% hipertensos e 30,8% diabéticos. A área luminal mínima foi de 3,9 ± 1,3 mm², e a carga de placa de 69 ± 11,3%. Os componentes da placa foram assim identificados: fibrótico (59,6 ± 15,8%), fibrolipídico (7,6 ± 8,2%), cálcio (12,1 ± 9,2%), necrótico (20,7 ± 12,7%). Não observamos correlação entre os níveis basais de PCR ou a variação dentre os valores pré e pós-ICP com os componentes da placa. CONCLUSÃO: Neste estudo, a composição das placas pela HV foi predominantemente fibrótica, com alto conteúdo necrótico. Não foi encontrada correlação entre a PCR e os componentes da lesão culpada em pacientes com SCA.
Resumo:
Dynamic potential fields, guided exploration, virtual environments, navigation
Resumo:
Distribution systems, eigenvalue analysis, nodal admittance matrix, power quality, spectral decomposition
Resumo:
Magdeburg, Univ., Fak. für Verfahrens- und Systemtechnik, Diss., 2011
Resumo:
Magdeburg, Univ., Fak. für Mathematik, Habil.-Schr., 2006
Resumo:
ERP, auditory virtual reality, dichotic listening, selective auditory attention, cocktail-party phenomenon, HRTF
Resumo:
Magdeburg, Univ., Fak. für Informatik, Diss., 2009
Resumo:
Software product line, variability, virtual separation, ifdef, preprocessor, cpp, annotative approaches, annotations
Resumo:
Magdeburg, Univ., Fak. für Informatik, Diss., 2012
Resumo:
This work describes a test tool that allows to make performance tests of different end-to-end available bandwidth estimation algorithms along with their different implementations. The goal of such tests is to find the best-performing algorithm and its implementation and use it in congestion control mechanism for high-performance reliable transport protocols. The main idea of this paper is to describe the options which provide available bandwidth estimation mechanism for highspeed data transport protocols and to develop basic functionality of such test tool with which it will be possible to manage entities of test application on all involved testing hosts, aided by some middleware.