7 resultados para Cesar Ritz
em Cor-Ciencia - Acuerdo de Bibliotecas Universitarias de Córdoba (ABUC), Argentina
Resumo:
Se propone sintetizar nuevos materiales como bloques de construcción de estructuras en escala nanometrica o micrométrica: nanotubos de carbono funcionalizados; nanopartículas metálicas; hidrogeles inteligentes; carbones mesoporosos. Con ellos se construiran interfaces solido/liquido estructuradas: multicapas autoensambladas, patrones micrométricos con heterogeneidad tridimensional y estructuras jerárquicas. Se estudiara el intercambio de especies móviles en las interfaces usando técnicas electroquímicas, espectroelectroquimicas, ópticas y de microscopia. De esta manera se podran controlar el intercambio en esa interface. En base a este conocimientos se desarrollaran aplicaciones tecnológicas tales como sensores de oligonucletidos, microceldas de combustible, arreglos de microelectrodos y supercapacitores.
Resumo:
Uno de los objetivos concretos de los remanentes radiculares tratados endodónticamente, es de servir como elemento de anclaje para una futura restauración protética. Si bien, todo tratamiento con pernos trae aparejado un cierto grado de debilitamiento tisular, es vital que este tipo de prótesis adapten correctamente, ya que de ellas depende la estabilidad y la permanencia de la consecuente corona en boca. Son muchas las causas que nos pueden llevar a la falta de ajuste y adaptación de nuestras restauraciones. En líneas generales, el Odontólogo generalista esta preocupado especialmente en lo referente al campo clínico, es decir, características anatómicas y fisiológicas del diente a tratar, longitud y diámetro canalicular, remanente coronario, particularidades del tejido duro de soporte, proximidad con el tejido blando, técnicas y materiales de impresión, etc. Cada uno de estos aspectos son de suma importancia para lograr el éxito de las restauraciones protéticas, pero si las técnicas o procedimientos de laboratorio no son cuidadosos, precisos y de alta fidelidad, los procedimientos clínicos pierden sustento y valor profesional. Es por ello que nos proponemos investigar específicamente en el área de laboratorio la posibilidad de utilizar variantes de la técnica convencional para la realización de pernos intraradiculares colados. Nuestra propuesta es la de realizar patrones sobre modelos sin la necesidad de ser separados del mismo para ser colados, a diferencia de la técnica convencional que si lo hace. El uso de material refractario en reemplazo del yeso dental, en el acto del vaciado de la impresión, nos proporciona esa ventaja, ya que de esta manera no es necesario introducir el material de confección del patrón en el interior del conducto que se encuentra en el modelo. En otras palabras, con esta técnica no habrá confección de patrón (en la porción “intraradicular” del perno) ya que la cavidad para el acceso del metal en el proceso de colado queda formada como consecuencia del vaciado con revestimiento sobre la impresión. (Método COPISMY, Técnica creada y diseñada por el responsable de la Cátedra y colaboradores). La disminución de los pasos secuenciales, la facilitación de la tarea técnica, la reducción del grado de manipulación de los materiales y la simplificación del proceso, son los fundamentos principales para alentar esta idea. Posteriormente, se llevará a cabo un estudio comparativo entre los resultados obtenidos en ambas técnicas, con el objetivo de establecer si tales variantes mejoran o no los valores de retención conocidos.
Resumo:
Este proyecto tiene por objetivo sentar las bases que permitan armonizar los criterios de la utilización de herramientas innovadoras en la gestión de los laboratorios clínicos que lleven a una optimización de capacidades y recursos y generar las bases normativas y regulatorias que apliquen a este sector. El estudio se focalizará en la revisión de los antecedentes que existen referidos a la gestión de calidad y las regulaciones de aplicación en al ámbito, local, provincial, nacional y regional para los laboratorios de análisis clínicos, las características básicas de la Gestión Clínica y las posibilidades prácticas de aplicación de un marco regulatorio común y armonizado en los laboratorios de la provincia de Córdoba. Con los resultados de este trabajo se pretende elaborar un modelo de gestión para laboratorios clínicos de la provincia de Córdoba. Esta propuesta implica la convergencia de múltiples conocimientos, habilidades y destrezas provenientes de diferentes áreas del conocimiento como lo son las ciencias de la administración, las ciencias estadísticas, la salud pública y la bioquímica, que en definitiva han de permitir optimizar capacidades y recursos instalados en los laboratorios clínicos. Una consecuencia esperada sería lograr una mejor adecuación de la prestación de servicios a la satisfacción de las necesidades de atención de los pacientes, reducción de costos innecesarios y una mayor eficiencia de los servicios en beneficio de una mejor gestión de la Salud Pública.
Resumo:
Identificación y caracterización del problema: En Córdoba la llanura ondulada y la sierra de comechingones los problemas ambientales y productivos han comenzado manifestarse. En la llanura ondulada, 700.000 has de tierras se encuentran sujetas a severos procesos de erosión hídrica, generando perdida de suelos y disminución de la producción en los sistemas agrícolo-ganaderos. En la Sierra de Comechingones (300.000 ha), las plantaciones de pinos sobre pastizales naturales presentan escaso o nulo manejo silvicultural con lo que se obtiene madera de baja calidad y baja capacidad sustentadora animal cuando el pastoreo se practica en estas plantaciones. Objetivos generales: Validar funciones de crecimiento para la especie forestal Pinus elliottii y especies forrajeras en sistemas silvopastoriles con diferentes tratamientos siviculturales ((densidad de plantación, podas y raleos) destinados a obtener alta calidad de madera y capacidad sustentadora animal en la llanura ondulada y sierra de comechingones del centro de Argentina. Materiales y métodos: Para el desarrollo del trabajo se utilizaran dos módulos, uno situado en la llanura ondulada y otro en la sierra de Comechingones. El módulo silvopastoril de la llanura ondulada se encuentra en el campo de docencia y experimentación Pozo del Carril, ubicado a los 32° 58’ LS y 64° 40’ LO, a 550 m.s.n.m, Las situaciones que se evaluaran en este modulo serán: Pastoreo en callejones de 21 m, Pastoreo en callejones de 12m y un testigo sin árboles. Se aplicaran tratamientos de poda y raleo con la intensidad que corresponda a cada caso. El modulo silvopastoril en el ambiente sierra de comechingones se encuentra en el campo de experimentación y docencia “Las Guindas” ubicado a los 32° 35´ 9.64” S y 64° 43´ 66” O, a 1063 msnm. Las situaciones que se evaluaran en este modulo serán: Pastoreo en plantaciones (3x3 m), Pastoreo en plantaciones (3x4 m) y un testigo de pastizal serrano sin árboles. Se aplicaran tratamientos de poda y raleo con la intensidad que corresponda a cada caso. Para el cumplimiento de los objetivos propuestos un conjunto de determinaciones se realizaran en cada uno de los módulos propuestos: a)Determinación de volumen anual (m3/ha) de la especie leñosa Pinus elliottii . b) Parametrización y validación de una función de crecimiento de la biomasa forestal (m3/ha).. C) Estimación de la dinámica de crecimiento de copa de Pinus elliottii d) Determinación del grado de sombreamiento de Pinus elliottii para cada año del crecimiento e) Determinación de la producción de biomasa forrajera para diferentes posiciones del sistema silvopastoril g) Parametrización y validación de una función de producción de biomasa forrajera según grado de sombreamiento. h)Estimación de la capacidad sustentadora animal para los sistemas silvopastoriles bajo estudio. Resultados esperados: Sobre la base información secundaria y de los datos que se obtengan durante los dos años del estudio permitiran modelar la dinamica de la produccion de madera de calidad, cantidad y calidad de forraje y la capacidad sustentadora animal en silvopastoriles adaptados a la región de llanura ondulada y sierras de Córdoba, los que podrán ser utilizados para la definición de la tecnología de implantación y manejo silvícola de sistemas silvopastoriles para las condiciones ambientales semejantes a las del ensayo. Importancia del proyecto: Los resultados del proyecto permitirán enriquecer el conocimiento de los profesionales dedicados al asesoramiento tecnico y productores que buscan alternativas técnicas amigables con el ambiente como asi tambien el enriquecimiento de las bases teoricas que reciben alumnosde de grado y posgrado en asignaturas que abordan esta temática.
Resumo:
La endometritis posparto es una afección que influye negativamente sobre la eficiencia reproductiva de los rodeos lecheros. A pesar de que existen varios métodos de diagnostico disponibles, no hay consenso entre los investigadores y técnicos sobre cuál es el más indicado y el criterio para determinar la presencia o ausencia de la enfermedad. Dado que el diagnóstico es controversial, la eficacia de los tratamientos evaluados hasta la fecha es también muy controvertida, lo que se ve reflejado en la gran disparidad de resultados reportados. El propósito fundamental de este proyecto es determinar la validez de distintos métodos de diagnostico de endometritis clínica y subclínica en rodeos lecheros de la Provincia de Cordoba y estimar el costo-eficacia del tratamiento de endometritis mediante el uso combinado de prostaglandinas y un inmunomodulador, sobre la eficiencia reproductiva. La Etapa I se realizará en 10 tambos de la zona de Villa María, con aproximadamente 350 vacas en ordeño cada uno y manejo tradicional de base pastoril. Se incluirán vacas multíparas y de primer parto, las que serán sometidas a un examen ginecológico entre los 20 y 35 días posparto (tacto rectal, vaginoscopía y cytobrush). Los animales estudiados serán monitoreados desde el momento del diagnóstico hasta los 200 días posparto para evaluar el efecto de la endometritis clínica y subclínica sobre la fertilidad. En la Etapa II, vacas con endometritis serán asignadas al azar a tres grupos: Control (sin tratamiento), tratadas con prostaglandina al cabo del diagnostico y las tratadas con prostaglandina más un inmunomodulador (MCC). Todas las vacas serán liberadas para la Inseminación Artificial a los 45 días posparto, siguiendo el manejo reproductivo usual de cada tambo. Se espera que el método de cytobrush permita detectar una proporción importante de vacas con endometritis no diagnosticadas por el método tradicional y obtener precisiones sobre el valor umbral de infiltración de polimorfonucleares (como indicativo de inflamación del endometrio) para el diagnostico de la endometritis en nuestras condiciones de producción. Además, esta identificación permitirá ver si esas vacas con endometritis clínica y subclínica experimentan una mayor proporción de fallas reproductivas. Por último, se espera que la tasa de curación para aquellas vacas con endometritis y tratadas con prostaglandina y MCC, sea mayor que los controles y el beneficio compense los costos del tratamiento, dada la mayor tasa de preñez a observar en el grupo tratado.
Resumo:
El avance en la potencia de cómputo en nuestros días viene dado por la paralelización del procesamiento, dadas las características que disponen las nuevas arquitecturas de hardware. Utilizar convenientemente este hardware impacta en la aceleración de los algoritmos en ejecución (programas). Sin embargo, convertir de forma adecuada el algoritmo en su forma paralela es complejo, y a su vez, esta forma, es específica para cada tipo de hardware paralelo. En la actualidad los procesadores de uso general más comunes son los multicore, procesadores paralelos, también denominados Symmetric Multi-Processors (SMP). Hoy en día es difícil hallar un procesador para computadoras de escritorio que no tengan algún tipo de paralelismo del caracterizado por los SMP, siendo la tendencia de desarrollo, que cada día nos encontremos con procesadores con mayor numero de cores disponibles. Por otro lado, los dispositivos de procesamiento de video (Graphics Processor Units - GPU), a su vez, han ido desarrollando su potencia de cómputo por medio de disponer de múltiples unidades de procesamiento dentro de su composición electrónica, a tal punto que en la actualidad no es difícil encontrar placas de GPU con capacidad de 200 a 400 hilos de procesamiento paralelo. Estos procesadores son muy veloces y específicos para la tarea que fueron desarrollados, principalmente el procesamiento de video. Sin embargo, como este tipo de procesadores tiene muchos puntos en común con el procesamiento científico, estos dispositivos han ido reorientándose con el nombre de General Processing Graphics Processor Unit (GPGPU). A diferencia de los procesadores SMP señalados anteriormente, las GPGPU no son de propósito general y tienen sus complicaciones para uso general debido al límite en la cantidad de memoria que cada placa puede disponer y al tipo de procesamiento paralelo que debe realizar para poder ser productiva su utilización. Los dispositivos de lógica programable, FPGA, son dispositivos capaces de realizar grandes cantidades de operaciones en paralelo, por lo que pueden ser usados para la implementación de algoritmos específicos, aprovechando el paralelismo que estas ofrecen. Su inconveniente viene derivado de la complejidad para la programación y el testing del algoritmo instanciado en el dispositivo. Ante esta diversidad de procesadores paralelos, el objetivo de nuestro trabajo está enfocado en analizar las características especificas que cada uno de estos tienen, y su impacto en la estructura de los algoritmos para que su utilización pueda obtener rendimientos de procesamiento acordes al número de recursos utilizados y combinarlos de forma tal que su complementación sea benéfica. Específicamente, partiendo desde las características del hardware, determinar las propiedades que el algoritmo paralelo debe tener para poder ser acelerado. Las características de los algoritmos paralelos determinará a su vez cuál de estos nuevos tipos de hardware son los mas adecuados para su instanciación. En particular serán tenidos en cuenta el nivel de dependencia de datos, la necesidad de realizar sincronizaciones durante el procesamiento paralelo, el tamaño de datos a procesar y la complejidad de la programación paralela en cada tipo de hardware. Today´s advances in high-performance computing are driven by parallel processing capabilities of available hardware architectures. These architectures enable the acceleration of algorithms when thes ealgorithms are properly parallelized and exploit the specific processing power of the underneath architecture. Most current processors are targeted for general pruposes and integrate several processor cores on a single chip, resulting in what is known as a Symmetric Multiprocessing (SMP) unit. Nowadays even desktop computers make use of multicore processors. Meanwhile, the industry trend is to increase the number of integrated rocessor cores as technology matures. On the other hand, Graphics Processor Units (GPU), originally designed to handle only video processing, have emerged as interesting alternatives to implement algorithm acceleration. Current available GPUs are able to implement from 200 to 400 threads for parallel processing. Scientific computing can be implemented in these hardware thanks to the programability of new GPUs that have been denoted as General Processing Graphics Processor Units (GPGPU).However, GPGPU offer little memory with respect to that available for general-prupose processors; thus, the implementation of algorithms need to be addressed carefully. Finally, Field Programmable Gate Arrays (FPGA) are programmable devices which can implement hardware logic with low latency, high parallelism and deep pipelines. Thes devices can be used to implement specific algorithms that need to run at very high speeds. However, their programmability is harder that software approaches and debugging is typically time-consuming. In this context where several alternatives for speeding up algorithms are available, our work aims at determining the main features of thes architectures and developing the required know-how to accelerate algorithm execution on them. We look at identifying those algorithms that may fit better on a given architecture as well as compleme