51 resultados para Intel·ligències múltiples
Resumo:
El presente proyecto plantea utilizar integralmente la técnica de Resonancia Magnética Nuclear en sólidos como un medio experimental que permite entender fenómenos de la física fundamental, como así también realizar aplicaciones de interés en el campo de la química, los desarrollos farmacéuticos y la biología. Novedosas técnicas experimentales serán empleadas, en conjunción con otras más tradicionales, en la caracterización de nuevas estructuras poliméricas acomplejadas a metales, membranas biológicas y compuestos de interés farmacéutico en vías de desarrollo, los cuales presentan el fenómeno de polimorfismo . Esto se llevará a cabo complementando los resultados de RMN en sólidos con técnicas tanto espectroscópicas como analíticas (Infrarrojo, Difracción de Rayos X, Calorimetría, RMN en solución) y trabajo interdisciplinario. Paralelamente al desarrollo de estos temas, profundizaremos mediante investigación básica, en la compresión de la dinámica cuántica y el surgimiento de la irreversibilidad en sistemas de espines nucleares. Observaremos en particular la generación, evolución y control de las coherencias cuánticas múltiples en sistemas cuánticos abiertos, lo cual nos da información sobre tamaño de clusters de espines. Esto permitirá la correcta implementación de secuencias de pulsos sofisticadas, como así también desarrollar nuevos métodos de medición aplicados a la caracterización estructural y a la dinámica molecular de sólidos complejos. Debemos resaltar que este proyecto está conectado con aspectos tanto básicos como aplicados de la RMN en sólidos como técnica experimental, la cual se desarrolla en el país únicamente en FaMAF-UNC. Se nutre además de trabajo multidisciplinario promoviendo la colaboración con investigadores y becarios de distintas áreas (física, química, farmacia, biología) provenientes de distintos puntos del país. Finalmente podemos afirmar que este plan impulsa la aplicación de la física básica proyectada a diferentes áreas del conocimiento, en el ámbito de la provincia de Córdoba. The aim of the present proyect is to use Nuclear Magnetic Resonance (NMR) as a complete techique that allows the understanding of fundamental physics phenomena and, at the same time, it leads to important applications in the fields of chemistry, pharmaceutical developments and biology. New experiments will be used together with traditional ones, in the characterization of new metal-polymer complexes, biological membranes and pharmaceutical compounds, some of them presenting polymorfism. NMR experiments will be complemented with diverse spectroscopic and analytical techniques: Infrared, X ray Diffraction, Thermal Analysis, solution NMR, as well as multidisciplinary investigation. Additionally, the present proyect plans to study in depth several aspects of quantum dynamics phenomena and decoherence in nuclear spin systems. The present proyect is connected with basic and applied aspects of the solid state NMR technique, developed in our country, only at FaMAF-UNC. It is is composed by multidisciplinary work and it promotes the collaboration with researchers and students coming from different fields (physics, chemistry, pharmaceutical developments, biology) and different points of our country.
Resumo:
El avance en la potencia de cómputo en nuestros días viene dado por la paralelización del procesamiento, dadas las características que disponen las nuevas arquitecturas de hardware. Utilizar convenientemente este hardware impacta en la aceleración de los algoritmos en ejecución (programas). Sin embargo, convertir de forma adecuada el algoritmo en su forma paralela es complejo, y a su vez, esta forma, es específica para cada tipo de hardware paralelo. En la actualidad los procesadores de uso general más comunes son los multicore, procesadores paralelos, también denominados Symmetric Multi-Processors (SMP). Hoy en día es difícil hallar un procesador para computadoras de escritorio que no tengan algún tipo de paralelismo del caracterizado por los SMP, siendo la tendencia de desarrollo, que cada día nos encontremos con procesadores con mayor numero de cores disponibles. Por otro lado, los dispositivos de procesamiento de video (Graphics Processor Units - GPU), a su vez, han ido desarrollando su potencia de cómputo por medio de disponer de múltiples unidades de procesamiento dentro de su composición electrónica, a tal punto que en la actualidad no es difícil encontrar placas de GPU con capacidad de 200 a 400 hilos de procesamiento paralelo. Estos procesadores son muy veloces y específicos para la tarea que fueron desarrollados, principalmente el procesamiento de video. Sin embargo, como este tipo de procesadores tiene muchos puntos en común con el procesamiento científico, estos dispositivos han ido reorientándose con el nombre de General Processing Graphics Processor Unit (GPGPU). A diferencia de los procesadores SMP señalados anteriormente, las GPGPU no son de propósito general y tienen sus complicaciones para uso general debido al límite en la cantidad de memoria que cada placa puede disponer y al tipo de procesamiento paralelo que debe realizar para poder ser productiva su utilización. Los dispositivos de lógica programable, FPGA, son dispositivos capaces de realizar grandes cantidades de operaciones en paralelo, por lo que pueden ser usados para la implementación de algoritmos específicos, aprovechando el paralelismo que estas ofrecen. Su inconveniente viene derivado de la complejidad para la programación y el testing del algoritmo instanciado en el dispositivo. Ante esta diversidad de procesadores paralelos, el objetivo de nuestro trabajo está enfocado en analizar las características especificas que cada uno de estos tienen, y su impacto en la estructura de los algoritmos para que su utilización pueda obtener rendimientos de procesamiento acordes al número de recursos utilizados y combinarlos de forma tal que su complementación sea benéfica. Específicamente, partiendo desde las características del hardware, determinar las propiedades que el algoritmo paralelo debe tener para poder ser acelerado. Las características de los algoritmos paralelos determinará a su vez cuál de estos nuevos tipos de hardware son los mas adecuados para su instanciación. En particular serán tenidos en cuenta el nivel de dependencia de datos, la necesidad de realizar sincronizaciones durante el procesamiento paralelo, el tamaño de datos a procesar y la complejidad de la programación paralela en cada tipo de hardware. Today´s advances in high-performance computing are driven by parallel processing capabilities of available hardware architectures. These architectures enable the acceleration of algorithms when thes ealgorithms are properly parallelized and exploit the specific processing power of the underneath architecture. Most current processors are targeted for general pruposes and integrate several processor cores on a single chip, resulting in what is known as a Symmetric Multiprocessing (SMP) unit. Nowadays even desktop computers make use of multicore processors. Meanwhile, the industry trend is to increase the number of integrated rocessor cores as technology matures. On the other hand, Graphics Processor Units (GPU), originally designed to handle only video processing, have emerged as interesting alternatives to implement algorithm acceleration. Current available GPUs are able to implement from 200 to 400 threads for parallel processing. Scientific computing can be implemented in these hardware thanks to the programability of new GPUs that have been denoted as General Processing Graphics Processor Units (GPGPU).However, GPGPU offer little memory with respect to that available for general-prupose processors; thus, the implementation of algorithms need to be addressed carefully. Finally, Field Programmable Gate Arrays (FPGA) are programmable devices which can implement hardware logic with low latency, high parallelism and deep pipelines. Thes devices can be used to implement specific algorithms that need to run at very high speeds. However, their programmability is harder that software approaches and debugging is typically time-consuming. In this context where several alternatives for speeding up algorithms are available, our work aims at determining the main features of thes architectures and developing the required know-how to accelerate algorithm execution on them. We look at identifying those algorithms that may fit better on a given architecture as well as compleme
Resumo:
La caries dental es la patología más prevalente de la cavidad bucal. Diversos recursos para su prevención y tratamiento se han propuesto desde su identificación, asociando los abordajes convencionales actuales de las lesiones por caries con los elementos de mayor temor en la figura del odontólogo: la infiltración anestésica y efecto sonoro y vibratorio del instrumental rotatorio para la remoción de tejido cariado. El Tratamiento Restaurador Atraumático (ART) se ha reportado en publicaciones científicas como una alternativa exitosa, en la cual se remueve tejido descompuesto por caries con instrumental de excavación manual, restaurando la cavidad resultante con un material bioactivo, con características adhesivas. Sin embargo, dichos estudios clínicos revelan bajas tasas de sobrevida para cavidades de múltiples superficies, adjudicando el fracaso de las restauraciones a deficiencias del material de obturación. En función de estos hallazgos, la industria de los materiales dentales ha desarrollado nuevos productos superadores que podrían igualar a aquellos utilizados en técnicas convencionales, con la ventaja de asegurar una respuesta biológica más eficaz en la reparación del daño ocasionado por la enfermedad de caries, sustituyendo el uso de materiales resinosos o metálicos para la restauración. El objetivo general del presente estudio es comparar restauraciones convencionales y ART en cavidades de múltiples superficies (clase II) en premolares y molares.
Resumo:
La escasa disponibilidad y diversidad de variedades ornamentales adaptadas a las condiciones ambientales locales genera grandes problemas de sustentabilidad a nivel productivo. Estos problemas de sustentabilidad se expresan en la dependencia de la compra de variedades extranjeras con el pago de regalías, aún en los casos que deriven de germoplasma argentino, y en el cultivo de variedades poco adaptadas a las condiciones ambientales locales. Se agregan, los cambios de los ambientes humanos asociados a la vida en espacios más reducidos, grandes conglomerados urbanos, situaciones paisajísticas donde los recursos son escasos, lo que impulsa a programas de mejoramiento genético que utilicen nuevas fuentes de variabilidad, en especial, la que proviene de plantas nativas adaptadas tras miles de años de evolución. Las poblaciones naturales presentan una considerable variabilidad en distintos caracteres, lo que les permite a las especies nativas, sobrevivir en ambientes con distintas condiciones edáficas, climáticas o bióticas. Esta variabilidad es fundamental para seleccionar individuos con caracteres de alto valor ornamental. Con este proyecto, se propone asumir el desarrollo de nuevos cultivos y la creación de variedades locales con alto valor ornamental. Esto incluye la combinación de múltiples aspectos tales como el mejoramiento genético, la tecnología de producción y las estrategias de difusión y comercialización. El proceso sustantivo que encara el proyecto, que son los programas de mejoramiento genético en diferentes especies, implica la aplicación de técnicas y procedimientos propios del mejoramiento como así también aspectos vinculados a la prospección y colecta de germoplasma, caracterización de la aptitud ornamental, propagación, manejo del cultivo, estudios de comercialización y mercado, difusión y transferencia de paquetes tecnológicos al sector productivo. La sincronización adecuada entre estos factores es requisito indispensable para lograr que una variedad ingrese al mercado o que un producto pueda ser adoptado. Estos desarrollos permitirán mejorar la competitividad y sustentabilidad del sector considerando que se diversifica la oferta de variedades novedosas, nativas y mejor adaptadas.
Resumo:
El presente proyecto persigue como finalidad la implementación de códigos QR en bibliotecas con el fin de enriquecer la experiencia del usuario con el catálogo; permitiendo acceder a contenido actualizado online, compartir comentarios y leer revisiones del material entre múltiples funcionalidades desde la pantalla de un celular. Se habla de entornos colaborativos ya que se posibilita que la comunidad educativa pueda interactuar sobre el material bibliográfico, publicando opiniones, sugerencias, y notas relacionadas a cada ítem del catálogo utilizando su propio teléfono celular. Está previsto utilizar la biblioteca Jean Sonet SJ, situada en el campus de la Universidad Católica de Córdoba como caso de estudio para este proyecto de investigación.
Resumo:
¿Qué es la metodología Kaizen y para que se utiliza? Kaizen, En japonés significa "mejora", o "cambio para la mejora" se refiere a la filosofía o las prácticas que se centran en la mejora continua de los procesos de fabricación, ingeniería y administración de empresas. La herramienta se implementó por primera vez en la industria japonesa después de la Segunda Guerra Mundial, logrando resultados destacables en el conjunto de industrias niponas. Desde sus inicios, la metodología se ha aplicado en múltiples proyectos industriales, de medicina, de estados de gobiernos, de empresas de servicios bancarios y otras industrias con excelentes resultados. Sin embargo no se han encontrado ejemplos directos en empresas de tipo agropecuario. Mediante la mejora de las operaciones y los procesos estandarizados, Kaizen tiene como objetivo eliminar todas aquellas operaciones o acciones que no contribuyen con las metas de la organización. En la actualidad la metodología Kaizen se ha extendido por todo el mundo y se está aplicando en diversos tipos de organizaciones. Distintas empresas adoptan la metodología y la modifican para darle las características particulares que se adapten al tipo de organización. ¿Por qué aplicar la metodología Kaizen en la producción en feedlot? Feedlot es un término inglés, de uso cada vez más frecuente en Argentina, para designar la versión contemporánea de lo que antaño eran los corrales de engorde de ganado. Está técnica está muy difundida entre los productores agropecuarios locales. Si bien es una técnica que ofrece muchas ventajas competitivas la misma ocasiona algunos problemas productivos recurrentes tales como enfermedades, maltrato animal, y otros inconvenientes relacionados con el medio ambiente. Durante la presente investigación se propone analizar las características de la producción en feedlot y adaptar e implementar el uso de la metodología Kaizen en la resolución de los problemas recurrentes que se dan en este tipo de prácticas agropecuarias.