16 resultados para Software 3D e 2D

em Cor-Ciencia - Acuerdo de Bibliotecas Universitarias de Córdoba (ABUC), Argentina


Relevância:

20.00% 20.00%

Publicador:

Resumo:

El uso de robots industriales junto con los sistemas de diseño asistidos por computadora (CAD), y los sistemas de fabricación asistidos por computadora (CAM), son la última tendencia en automatización de los procesos de fabricación. Aunque el crecimiento del mercado de la industria Robótica ha sido lento en comparación con los primeros años de la década de los 80´s, de acuerdo a algunas predicciones, la industria de la robótica está en su infancia. Ya sea que éstas predicciones se realicen completamente, o no, es claro que la industria robótica, en una forma o en otra, permanecerá. En la actualidad el uso de los robots industriales está concentrado en operaciones muy simples, como tareas repetitivas que no requieren tanta precisión. En los 80´s las tareas relativamente simples como las máquinas de inspección, transferencia de materiales, pintado automotriz, y soldadura son económicamente viables para ser robotizadas. Los análisis de mercado en cuanto a fabricación predicen que en ésta década y en las posteriores los robots industriales incrementarán su campo de aplicación, ésto debido a los avances tecnológicos en sensórica, los cuales permitirán tareas mas sofisticadas. El futuro es muy incierto y seguramente los ROBOTS tendrán mucho que ver en nuestra vida diaria en los próximos años y tenemos que lograr que la Argentina no solo este presente, en desarrollos que ameriten una publicación Internacional, si no también que puedan ser, en conjunción con la Universidad, la industria y aportes de capitales privados, diseñados, construidos, aplicados y comercializados según las necesidades de nuestro medio, desde el reemplazo de miembros humanos a personas con discapacidades, el alivio al hombre en tareas inhumanas y también en aplicaciones industriales aun no explotadas. Actualmente la investigación en el área de robótica en la Argentina, esta enfocada a problemas de electrónica y control. La mecánica no forma parte de dicho ambiente científico como puede verse en las 4 últimas Jornadas Argentinas de Robótica. En todos los casos se trabaja en la investigación de algoritmos o métodos de control montados en pequeños robots comerciales. El proyecto ROBOT-01 propone la construcción de un manipulador de 7 grados de libertad, aplicando las mas modernas técnicas de Simulación, diseño, CAD-3D, materiales compuestos, construcción de micro-mecánica, electrónica y software. El brazo manipulador estará diseñado para ser continuado o asociado con una mano robótica y con una base móvil autónoma, las que serán encaradas en proyectos futuros, o con interacción con otros grupos de investigación similares de otras Universidades

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El proyecto ROBOT-01 propone la construcción de un manipulador de 7 grados de libertad, aplicando las mas modernas técnicas de Simulación, diseño, CAD-3D, materiales compuestos, construcción de micro-mecánica, electrónica y software. Con el diseño detallado finalizado en CATIA se iniciará el modelado de las ecuaciones de movimiento y su simulación en la computadora, la construcción de los componentes mecánicos que serán realizados en empresas locales, se iniciara con las pruebas de los componentes electrónicos drivers de motores y de sistemas de control con sensores y de la interface con una PC que será la que controlará los componentes electrónicos y de simulación del modelo 3D en tiempo real. Finalmente se procederá al ensamblado de todos los componentes mecánicos y electrónicos para el inicio de las pruebas de laboratorio y sus ensayos de funcionamiento y testeos de acuerdo a los requerimientos previstos. El brazo manipulador estará diseñado para ser continuado o asociado con una mano robótica y con una base móvil autónoma, las que serán encaradas en proyectos futuros, o con interacción con otros grupos de investigación similares de otras Universidades.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificará el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas. Produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/ proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene una alta componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que mas se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En ambientes fluviales, la interacción del flujo con la geometría del cauce y con los sedimentos del lecho define una dinámica turbulenta compleja en permanente evolución. El nivel de complejidad del flujo aumenta ante la presencia de estructuras hidráulicas (pilas de puentes, protecciones contra erosión, etc.). La mayoría de los ríos, o canales naturales, presentan confluencias y bifurcaciones, en donde se genera una convergencia (o divergencia) del flujo con el resultado de un ambiente hidrodinámico complejo en la cercanía de las uniones (Kenworthy y Rhoads 1995). Bajo estas condiciones no es posible extrapolar las soluciones tradicionales básicas de las ecuaciones de gobierno desarrolladas para canales rectos y uniformes. Algunas investigaciones experimentales realizadas en estos sistemas son las de Best (1988), Rhoads y Sukhodolov (2001), Richardson et al. (1996); Richardson y Thorne (1998, 2001); Parsons et al. (2004); Szupiany et al. (2005).Por otro lado, la zona costera en ambientes marítimos se caracteriza por la existencia de diversos procesos dinámicos, entre los que se destacan la acción de olas, corrientes, interacción olas-corrientes, transporte de sedimentos y cambios batimétricos. Estos se manifiestan en una alteración morfodinámica de la playa generando superficies potenciales de erosión. Así, el diseño de las protecciones costeras (ya sean continuas, como escolleras o muros verticales; o discontinuas como espigones o diques externos) sometidas al clima marítimo bajo distintas condiciones de olas y mareas, alteran los patrones de circulación y de transporte afectando la morfodinámica en su zona de influencia y plantean, por ejemplo, la necesidad de ajustes de los coeficientes de estabilidad y pesos de los bloques de roca de las escolleras. Los problemas generados, son especialmente complejos ya que deben considerarse para su estudio, los niveles de turbulencia, la transmisión del oleaje sobre o a través de la estructura, difracción alrededor de la misma, refracción y shoaling sobre un fondo dinámico, reflexión en la estructura, etc. (Alsina et al., 2007) Revisiones bibliográficas previas muestran que, en ambos ambientes (fluvial y marítimo), es necesario optimizar las técnicas experimentales existentes para que ellas permitan caracterizar con precisión los flujos turbulentos complejos presentes. El objetivo general propuesto en esta investigación es contribuir a mejorar el conocimiento de los procesos hidrodinámicos de flujos turbulentos naturales con y sin la presencia de estructuras hidráulicas que den lugar a formaciones complejas (3D). Para alcanzar este objetivo se propone realizar una recopilación de antecedentes y un análisis crítico detallado de los equipos de ultima generación para mediciones de flujo con alta frecuencia y resolución disponibles en el Laboratorio de Hidráulica (LH) de la Universidad Nacional de Córdoba (UNC): ADV 3D (Acoustic Doppler Velocimeter de Sontek) y laser PIV 2D (Particle Image Velocimeter de Dantec). A estos equipamientos se le agrega un moderno equipo de generación bidimensional de oleaje con absorción dinámica (adquiridos a HR Ltd. en 2007 por el CAI 085 del FONTAR). Finalmente se prevé utilizar este equipamiento durante el desarrollo de experimentos y mediciones los cuales se realizarán sobre modelos físicos fluviales y costeros diseñados y construidos con y sin estructuras que interactúen con flujo turbulentos complejos. Los resultados obtenidos en este proyecto permitirá alcanzar una mejor comprensión de los procesos hidrodinámicos de los flujos turbulentos complejos, lo cual es necesario y de gran utilidad para realizar un manejo apropiado de los ambientes fluviales y marítimos, teniendo como campo directo de aplicación el correcto diseño de estructuras hidráulicas, asistiendo a la toma de medidas correctivas en sistemas naturales sometidos a procesos erosivos o de sedimentación, y contribuyendo de esta forma al manejo ambientalmente sustentable de los recursos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificarán el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas,produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene un alto componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que más se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El carcinoma colorrectal es una de las neoplasias más comunes y es la segunda causa de muerte por cáncer luego del cáncer de pulmón. La principal causa de muerte de los individuos que padecen esta enfermedad es la metástasis hepática. La angiogénesis está asociada con la progresión y metástasis de dicho cáncer, afectando la supervivencia del paciente, y ocasionando la mayoría de las muertes. El crecimiento de nuevos vasos sanguíneos en relación al crecimiento tumoral, es un proceso complejo. En 1971, Judat Folkman postuló la hipótesis: “el crecimiento tumoral es angiogénesis dependiente y que la inhibición de la angiogénesis podría ser terapéutica”. La Terapia fotodinámica es una modalidad terapéutica que utiliza compuestos fotosensibilizadores (FSs) que se acumulan en tejidos tumorales y una vez excitados por la luz actúan mediante 3 mecanismos principales: muerte directa de la célula tumoral; daño de la vasculatura tumoral; y respuesta inmunológica. La inhibición del proceso angiogénico presenta claras ventajas debido a la casi inexistencia, en individuos adultos, de neovascularización en condiciones fisiológicas normales. El desarrollo de ambientes celulares de arquitectura tridimensional es clave para simular las condiciones que gobiernan en el microambiente tumoral ya que las interacciones célula - célula juegan un papel clave en eventos fisiológicos tal como la angiogénesis. Por lo tanto, postulamos que el impacto de la TFD sobre los componentes del ambiente tumoral permitirá modular el proceso angiogénico como estrategia antitumoral. Los objetivos planteados son: I) Investigar la susceptibilidad individual de las de células endoteliales y tumorales a la TFD en la expresión y alteración de moléculas relevantes en angiogénesis. II) Examinar la respuesta de “células endoteliales fotosensibilizadas” al estímulo tumoral para comprender la regulación del proceso angiogénico 2D y 3D. III) Examinar la respuesta a la TFD vascular y TFD tumoral, determinando la eficacia de la doble terapéutica en revertir el proceso de angiogénesis 2D y 3D. IV) Investigar la capacidad estimulante de las “células tumorales fotosensibilizadas” de inducir angiogénesis en modelos in vivo. Para cumplir con los objetivos se propone evaluar: a) La expresión de factores proangiogénicos, moléculas de adhesión, invasividad y migración de células microendoteliales humanas y de adenocarcinoma de colon, comparando modelos de monocultivos 2D y 3D. b) La capacidad de las células tumorales, con diferente malignidad, de promover en las células endoteliales tratadas con TFD estímulos de: proliferación, migración, formación de tubos y quimiotáxis. c) La capacidad de la TFD en modular la respuesta parácrina que participa en la progresión tumoral. d) La implicancia en la respuesta a la TFD de factores de crecimiento y receptores celulares por siRNA o anticuerpos bloqueantes. e) La respuesta angiogénica in vivo mediante el uso de implantes de matrigel con células tumorales o sobrenadantes tratados con TFD. Este trabajo aportará conocimientos sobre el dialogo tumor-endotelio y la susceptibilidad de ese estímulo a la TFD. Además, se determinarán blancos terapéuticos que incrementen su efectividad en relación al proceso angiogénico. Las interacciones entre las células tumorales y endoteliales son relevantes en la angiogénesis tumoral. Por ello, nuevas y más eficientes terapéuticas involucran estrategias combinadas que se dirigen hacia las células tumorales y su entorno, el cual está compuesto por células endoteliales, perivasculares, y matriz extracelular. El abordaje de esta problemática de manera integrada hace suponer encontrar una solución más específica al tratamiento del cáncer. Se espera, según los resultados obtenidos, poder optimizar y/o modular la intervención terapéutica de la acción fotodinámica sobre blancos moleculares del proceso angiogénico.