981 resultados para Software 3D e 2D
Resumo:
En ambientes fluviales, la interacción del flujo con la geometría del cauce y con los sedimentos del lecho define una dinámica turbulenta compleja en permanente evolución. El nivel de complejidad del flujo aumenta ante la presencia de estructuras hidráulicas (pilas de puentes, protecciones contra erosión, etc.). La mayoría de los ríos, o canales naturales, presentan confluencias y bifurcaciones, en donde se genera una convergencia (o divergencia) del flujo con el resultado de un ambiente hidrodinámico complejo en la cercanía de las uniones (Kenworthy y Rhoads 1995). Bajo estas condiciones no es posible extrapolar las soluciones tradicionales básicas de las ecuaciones de gobierno desarrolladas para canales rectos y uniformes. Algunas investigaciones experimentales realizadas en estos sistemas son las de Best (1988), Rhoads y Sukhodolov (2001), Richardson et al. (1996); Richardson y Thorne (1998, 2001); Parsons et al. (2004); Szupiany et al. (2005).Por otro lado, la zona costera en ambientes marítimos se caracteriza por la existencia de diversos procesos dinámicos, entre los que se destacan la acción de olas, corrientes, interacción olas-corrientes, transporte de sedimentos y cambios batimétricos. Estos se manifiestan en una alteración morfodinámica de la playa generando superficies potenciales de erosión. Así, el diseño de las protecciones costeras (ya sean continuas, como escolleras o muros verticales; o discontinuas como espigones o diques externos) sometidas al clima marítimo bajo distintas condiciones de olas y mareas, alteran los patrones de circulación y de transporte afectando la morfodinámica en su zona de influencia y plantean, por ejemplo, la necesidad de ajustes de los coeficientes de estabilidad y pesos de los bloques de roca de las escolleras. Los problemas generados, son especialmente complejos ya que deben considerarse para su estudio, los niveles de turbulencia, la transmisión del oleaje sobre o a través de la estructura, difracción alrededor de la misma, refracción y shoaling sobre un fondo dinámico, reflexión en la estructura, etc. (Alsina et al., 2007) Revisiones bibliográficas previas muestran que, en ambos ambientes (fluvial y marítimo), es necesario optimizar las técnicas experimentales existentes para que ellas permitan caracterizar con precisión los flujos turbulentos complejos presentes. El objetivo general propuesto en esta investigación es contribuir a mejorar el conocimiento de los procesos hidrodinámicos de flujos turbulentos naturales con y sin la presencia de estructuras hidráulicas que den lugar a formaciones complejas (3D). Para alcanzar este objetivo se propone realizar una recopilación de antecedentes y un análisis crítico detallado de los equipos de ultima generación para mediciones de flujo con alta frecuencia y resolución disponibles en el Laboratorio de Hidráulica (LH) de la Universidad Nacional de Córdoba (UNC): ADV 3D (Acoustic Doppler Velocimeter de Sontek) y laser PIV 2D (Particle Image Velocimeter de Dantec). A estos equipamientos se le agrega un moderno equipo de generación bidimensional de oleaje con absorción dinámica (adquiridos a HR Ltd. en 2007 por el CAI 085 del FONTAR). Finalmente se prevé utilizar este equipamiento durante el desarrollo de experimentos y mediciones los cuales se realizarán sobre modelos físicos fluviales y costeros diseñados y construidos con y sin estructuras que interactúen con flujo turbulentos complejos. Los resultados obtenidos en este proyecto permitirá alcanzar una mejor comprensión de los procesos hidrodinámicos de los flujos turbulentos complejos, lo cual es necesario y de gran utilidad para realizar un manejo apropiado de los ambientes fluviales y marítimos, teniendo como campo directo de aplicación el correcto diseño de estructuras hidráulicas, asistiendo a la toma de medidas correctivas en sistemas naturales sometidos a procesos erosivos o de sedimentación, y contribuyendo de esta forma al manejo ambientalmente sustentable de los recursos.
Resumo:
El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificarán el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas,produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene un alto componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que más se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales.
Resumo:
El carcinoma colorrectal es una de las neoplasias más comunes y es la segunda causa de muerte por cáncer luego del cáncer de pulmón. La principal causa de muerte de los individuos que padecen esta enfermedad es la metástasis hepática. La angiogénesis está asociada con la progresión y metástasis de dicho cáncer, afectando la supervivencia del paciente, y ocasionando la mayoría de las muertes. El crecimiento de nuevos vasos sanguíneos en relación al crecimiento tumoral, es un proceso complejo. En 1971, Judat Folkman postuló la hipótesis: “el crecimiento tumoral es angiogénesis dependiente y que la inhibición de la angiogénesis podría ser terapéutica”. La Terapia fotodinámica es una modalidad terapéutica que utiliza compuestos fotosensibilizadores (FSs) que se acumulan en tejidos tumorales y una vez excitados por la luz actúan mediante 3 mecanismos principales: muerte directa de la célula tumoral; daño de la vasculatura tumoral; y respuesta inmunológica. La inhibición del proceso angiogénico presenta claras ventajas debido a la casi inexistencia, en individuos adultos, de neovascularización en condiciones fisiológicas normales. El desarrollo de ambientes celulares de arquitectura tridimensional es clave para simular las condiciones que gobiernan en el microambiente tumoral ya que las interacciones célula - célula juegan un papel clave en eventos fisiológicos tal como la angiogénesis. Por lo tanto, postulamos que el impacto de la TFD sobre los componentes del ambiente tumoral permitirá modular el proceso angiogénico como estrategia antitumoral. Los objetivos planteados son: I) Investigar la susceptibilidad individual de las de células endoteliales y tumorales a la TFD en la expresión y alteración de moléculas relevantes en angiogénesis. II) Examinar la respuesta de “células endoteliales fotosensibilizadas” al estímulo tumoral para comprender la regulación del proceso angiogénico 2D y 3D. III) Examinar la respuesta a la TFD vascular y TFD tumoral, determinando la eficacia de la doble terapéutica en revertir el proceso de angiogénesis 2D y 3D. IV) Investigar la capacidad estimulante de las “células tumorales fotosensibilizadas” de inducir angiogénesis en modelos in vivo. Para cumplir con los objetivos se propone evaluar: a) La expresión de factores proangiogénicos, moléculas de adhesión, invasividad y migración de células microendoteliales humanas y de adenocarcinoma de colon, comparando modelos de monocultivos 2D y 3D. b) La capacidad de las células tumorales, con diferente malignidad, de promover en las células endoteliales tratadas con TFD estímulos de: proliferación, migración, formación de tubos y quimiotáxis. c) La capacidad de la TFD en modular la respuesta parácrina que participa en la progresión tumoral. d) La implicancia en la respuesta a la TFD de factores de crecimiento y receptores celulares por siRNA o anticuerpos bloqueantes. e) La respuesta angiogénica in vivo mediante el uso de implantes de matrigel con células tumorales o sobrenadantes tratados con TFD. Este trabajo aportará conocimientos sobre el dialogo tumor-endotelio y la susceptibilidad de ese estímulo a la TFD. Además, se determinarán blancos terapéuticos que incrementen su efectividad en relación al proceso angiogénico. Las interacciones entre las células tumorales y endoteliales son relevantes en la angiogénesis tumoral. Por ello, nuevas y más eficientes terapéuticas involucran estrategias combinadas que se dirigen hacia las células tumorales y su entorno, el cual está compuesto por células endoteliales, perivasculares, y matriz extracelular. El abordaje de esta problemática de manera integrada hace suponer encontrar una solución más específica al tratamiento del cáncer. Se espera, según los resultados obtenidos, poder optimizar y/o modular la intervención terapéutica de la acción fotodinámica sobre blancos moleculares del proceso angiogénico.
Resumo:
Identificación y caracterización del problema. Uno de los problemas más importantes asociados con la construcción de software es la corrección del mismo. En busca de proveer garantías del correcto funcionamiento del software, han surgido una variedad de técnicas de desarrollo con sólidas bases matemáticas y lógicas conocidas como métodos formales. Debido a su naturaleza, la aplicación de métodos formales requiere gran experiencia y conocimientos, sobre todo en lo concerniente a matemáticas y lógica, por lo cual su aplicación resulta costosa en la práctica. Esto ha provocado que su principal aplicación se limite a sistemas críticos, es decir, sistemas cuyo mal funcionamiento puede causar daños de magnitud, aunque los beneficios que sus técnicas proveen son relevantes a todo tipo de software. Poder trasladar los beneficios de los métodos formales a contextos de desarrollo de software más amplios que los sistemas críticos tendría un alto impacto en la productividad en tales contextos. Hipótesis. Contar con herramientas de análisis automático es un elemento de gran importancia. Ejemplos de esto son varias herramientas potentes de análisis basadas en métodos formales, cuya aplicación apunta directamente a código fuente. En la amplia mayoría de estas herramientas, la brecha entre las nociones a las cuales están acostumbrados los desarrolladores y aquellas necesarias para la aplicación de estas herramientas de análisis formal sigue siendo demasiado amplia. Muchas herramientas utilizan lenguajes de aserciones que escapan a los conocimientos y las costumbres usuales de los desarrolladores. Además, en muchos casos la salida brindada por la herramienta de análisis requiere cierto manejo del método formal subyacente. Este problema puede aliviarse mediante la producción de herramientas adecuadas. Otro problema intrínseco a las técnicas automáticas de análisis es cómo se comportan las mismas a medida que el tamaño y complejidad de los elementos a analizar crece (escalabilidad). Esta limitación es ampliamente conocida y es considerada crítica en la aplicabilidad de métodos formales de análisis en la práctica. Una forma de atacar este problema es el aprovechamiento de información y características de dominios específicos de aplicación. Planteo de objetivos. Este proyecto apunta a la construcción de herramientas de análisis formal para contribuir a la calidad, en cuanto a su corrección funcional, de especificaciones, modelos o código, en el contexto del desarrollo de software. Más precisamente, se busca, por un lado, identificar ambientes específicos en los cuales ciertas técnicas de análisis automático, como el análisis basado en SMT o SAT solving, o el model checking, puedan llevarse a niveles de escalabilidad superiores a los conocidos para estas técnicas en ámbitos generales. Se intentará implementar las adaptaciones a las técnicas elegidas en herramientas que permitan su uso a desarrolladores familiarizados con el contexto de aplicación, pero no necesariamente conocedores de los métodos o técnicas subyacentes. Materiales y métodos a utilizar. Los materiales a emplear serán bibliografía relevante al área y equipamiento informático. Métodos. Se emplearán los métodos propios de la matemática discreta, la lógica y la ingeniería de software. Resultados esperados. Uno de los resultados esperados del proyecto es la individualización de ámbitos específicos de aplicación de métodos formales de análisis. Se espera que como resultado del desarrollo del proyecto surjan herramientas de análisis cuyo nivel de usabilidad sea adecuado para su aplicación por parte de desarrolladores sin formación específica en los métodos formales utilizados. Importancia del proyecto. El principal impacto de este proyecto será la contribución a la aplicación práctica de técnicas formales de análisis en diferentes etapas del desarrollo de software, con la finalidad de incrementar su calidad y confiabilidad. A crucial factor for software quality is correcteness. Traditionally, formal approaches to software development concentrate on functional correctness, and tackle this problem basically by being based on well defined notations founded on solid mathematical grounds. This makes formal methods better suited for analysis, due to their precise semantics, but they are usually more complex, and require familiarity and experience with the manipulation of mathematical definitions. So, their acceptance by software engineers is rather restricted, and formal methods applications have been confined to critical systems. Nevertheless, it is obvious that the advantages that formal methods provide apply to any kind of software system. It is accepted that appropriate software tool support for formal analysis is essential, if one seeks providing support for software development based on formal methods. Indeed, some of the relatively recent sucesses of formal methods are accompanied by good quality tools that automate powerful analysis mechanisms, and are even integrated in widely used development environments. Still, most of these tools either concentrate on code analysis, and in many cases are still far from being simple enough to be employed by software engineers without experience in formal methods. Another important problem for the adoption of tool support for formal methods is scalability. Automated software analysis is intrinsically complex, and thus techniques do not scale well in the general case. In this project, we will attempt to identify particular modelling, design, specification or coding activities in software development processes where to apply automated formal analysis techniques. By focusing in very specific application domains, we expect to find characteristics that might be exploited to increase the scalability of the corresponding analyses, compared to the general case.
Resumo:
FUNDAMENTO: O ecocardiograma tridimensional em tempo real (ECO 3D) e a tomografia computadorizada ultra-rápida (CT) são dois novos métodos de análise da fração de ejeção e dos volumes do VE. OBJETIVO: Comparar as medidas da FEVE e dos volumes do VE aferidos pelo ECO 3D e pela CT ultra-rápida. MÉTODOS: Foram estudados pelo ECO 3D e pela CT ultra-rápida de 64 cortes, 39 pacientes consecutivos (27 homens, média etária de 57±12 anos). Foram analisados: FEVE e volumes do VE. Análise estatística: coeficiente de correlação (r: Pearson), teste de Bland & Altman, teste de regressão linear, 95 % IC, p<0,05. RESULTADOS: Medidas do ECO 3D: a FEVE variou de 56,1 a 78,6 (65,5±5,58)%; volume diastólico final variou de 49,6 a 178,2 (87±27,8)ml; volume sistólico final variou de 11,4 a 78 (33,1±13,6)ml. Medidas da CT: a FEVE variou de 53 a 86 (67,8±7,78)%; volume diastólico final variou de 51 a 186 (106,5±30,3) ml; volume sistólico final variou de 7 a 72 (35,5±13,4)ml. As correlações entre ECO 3D e CT foram: FEVE (r: 0,7888, p<0,0001, 95% IC 0,6301 a 0,8843); volume diastólico final (r: 0,7695, p<0,0001, 95% IC 0,5995 a 0,8730); volume sistólico final (r: 0,8119, p<0,0001, 95% IC 0,6673 a 0,8975). CONCLUSÃO: Nesta série, foi observada boa correlação entre as medidas da FEVE e entre os volumes ventriculares aferidos pelo ECO3D e pela CT ultra-rápida de 64 cortes.
Resumo:
Surgeons may use a number of cutting instruments such as osteotomes and chisels to cut bone during an operative procedure. The initial loading of cortical bone during the cutting process results in the formation of microcracks in the vicinity of the cutting zone with main crack propagation to failure occuring with continued loading. When a material cracks, energy is emitted in the form of Acoustic Emission (AE) signals that spread in all directions, therefore, AE transducers can be used to monitor the occurrence and development of microcracking and crack propagation in cortical bone. In this research, number of AE signals (hits) and related parameters including amplitude, duration and absolute energy (abs-energy) were recorded during the indentation cutting process by a wedge blade on cortical bone specimens. The cutting force was also measured to correlate between load-displacement curves and the output from the AE sensor. The results from experiments show AE signals increase substantially during the loading just prior to fracture between 90% and 100% of maximum fracture load. Furthermore, an amplitude threshold value of 64dB (with approximate abs-energy of 1500 aJ) was established to saparate AE signals associated with microcracking (41 – 64dB) from fracture related signals (65 – 98dB). The results also demonstrated that the complete fracture event which had the highest duration value can be distinguished from other growing macrocracks which did not lead to catastrophic fracture. It was observed that the main crack initiation may be detected by capturing a high amplitude signal at a mean load value of 87% of maximum load and unsteady crack propagation may occur just prior to final fracture event at a mean load value of 96% of maximum load. The author concludes that the AE method is useful in understanding the crack initiation and fracture during the indentation cutting process.
Resumo:
Transmission of Cherenkov light through the atmosphere is strongly influenced by the optical clarity of the atmosphere and the prevailing weather conditions. The performance of telescopes measuring this light is therefore dependent on atmospheric effects. This thesis presents software and hardware developed to implement a prototype sky monitoring system for use on the proposed next-generation gamma-ray telescope array, VERITAS. The system, consisting of a CCD camera and a far-infrared pyrometer, was successfully installed and tested on the ten metre atmospheric Cherenkov imaging telescope operated by the VERITAS Collaboration at the F.L. Whipple Observatory in Arizona. The thesis also presents the results of observations of the BL Lacertae object, 1ES1959+650, made with the Whipple ten metre telescope. The observations provide evidence for TeV gamma-ray emission from the BL Lacertae object, 1ES1959+650, at a level of more than 15 standard deviations above background. This represents the first unequivocal detection of this object at TeV energies, making it only the third extragalactic source seen at such levels of significance in this energy range. The flux variability of the source on a number of timescales is also investigated.
Resumo:
The research described in this thesis was developed as part o f the Information Management for Green Design (IMA GREE) Project. The 1MAGREE Project was founded by Enterprise Ireland under a Strategic Research Grant Scheme as a partnership project between Galway Mayo Institute o f Technology and C1MRU University College Galway. The project aimed to develop a CAD integrated software tool to support environmental information management for design, particularly for the electronics-manufacturing sector in Ireland.
Resumo:
1
Resumo:
3
Resumo:
2
Resumo:
A terapia de ressincronização cardíaca consiste em tratamento promissor para pacientes com insuficiência cardíaca grave, porém cerca de 30% dos pacientes não apresentam melhora clínica com este tratamento. Por outro lado, aproximadamente 10% dos pacientes submetidos a essa terapia podem apresentar hiper resposta, e a ecocardiografia tridimensional pode oferecer uma opção interessante para a seleção e avaliação de tratamento desses pacientes.