21 resultados para Programación no lineal


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El avance de la frontera agropecuaria y la urbanización han reducido la superficie boscosa del Espinal en Córdoba a fragmentos que son sumamente valiosos como relictos del ambiente original del Algarrobal y como barreras frente a la acción erosiva del agua y los vientos. Por su estructura, degradada y enmarañada, el productor agropecuario generalmente los visualiza como una molestia ya que le restan superficie apta para el cultivo y resultan poco aprovechables para el pastoreo de los animales. Bajo pautas de manejo adecuadas estos bosquecillos podrían rehabilitarse para el aprovechamiento del ganado y otros usos complementarios. Para que el productor local cuente con herramientas de manejo sustentable de sus recursos naturales es necesario generar información confiable para la zona. En ese contexto, se plantea la siguiente Hipótesis General: Existen alternativas de manejo que, aplicadas sobre los bosques del Espinal, permiten recuperar y conservar la biodiversidad a la vez que mejoran la rentabilidad del productor. El Objetivo General es diseñar y evaluar, en términos ecológicos, tecnológicos y socio-económicos, alternativas de manejo sustentable de bosques degradados del Espinal de la provincia de Córdoba tendientes a su recuperación y conservación. El proyecto se localizará en el bosque fragmentado del Campo Escuela de la FCA-UNC. Se establecerán parcelas con distintos niveles de cobertura arbustiva en las que se medirán el efecto de los arbustos sobre la regeneración de especies arbóreas deseables, la producción y calidad de la pastura, el crecimiento de los árboles y las condiciones edáficas del sistema. Además, la incidencia del ganado vacuno sobre la regeneración de especies arbóreas deseables, la riqueza y abundancia de especies forrajeras deseables y las condiciones edáficas del sistema. Se hará enriquecimiento con plantines de tres especies de Prosopis tanto en el bosque con distintos anchos de fajas como en suelo desmontado, para evaluar su comportamiento. También se probará la diseminación y establecimiento posterior de estas especies por medio de la ingesta del ganado vacuno. Se relevarán especies medicinales, aromáticas, melíferas, tintóreas y ornamentales nativas, y se las valorará económicamente según su uso actual y potencial en esta y otras zonas de la provincia y el país. Se efectuará la caracterización socio-económica y ambiental del área circundante al Campo Escuela y mediante encuestas se determinará el grado de valorización del bosque que tienen los pobladores zonales. Se realizará el análisis económico y financiero del sistema propuesto versus el sistema sin proyecto, considerando bienes producidos y servicios ambientales del bosque y se socializará el proyecto a través de encuestas y reuniones participativas con los productores zonales. Para el análisis de toda la información se usará el software INFOSTAT 2007. Se harán tablas y gráficos de estadística descriptiva para visualizar la distribución de datos. Se usará análisis de correlación, análisis de regresión lineal múltiple, ANAVA y test a posteriori. Se espera generar pautas preliminares de manejo, sencillas y económicas, fácilmente adoptables por los productores de la región, que aseguren la persistencia de estos fragmentos boscosos, relictos de la vegetación original del Espinal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente trabajo contempla el estudio del comportamiento termomecánico de un motor monopropelente, cuyo funcionamiento se basa en la descomposición catalítica del combustible, produciendo la gasificación del mismo, con su consecuente generación de calor. Estos gases, al ser conducidos convenientemente a través de una tobera con el fin de generar su apropiada expansión, producirán la acción deseada. Un diseño erróneo del sistema de alimentación podría producir el acortamiento de la vida útil del catalizador, la degradación de los sellos de la válvula, vaporizaciones indeseadas del propelente, etc.El objetivo que se persigue es construir un modelo computacional que permita visualizar el comportamiento conjunto de los diversos fenómenos, la influencia de los diversos componentes y su interacción, a fin de identificar los elementos críticos, y poder así tomar acciones correctivas u operar sobre aspectos de diseño del sistema para un mejor acondicionamiento del combustible. Para la aplicación del método, se modelizarán cada uno de los fenómenos que gobiernan el comportamiento del sistema y se les codificará en lenguaje de programación, prestando especial atención al comportamiento del fluido tanto en régimen estable como durante los transitorios. Una vez validado el programa se correrán simulaciones para determinar la influencia de los parámetros básicos de diseño sobre los procesos termomecánicos mediante un análisis de sensitividad, a fin de mitigar los posibles efectos adversos. Sin embargo, durante la ejecución de proyectos de ingeniería de este tipo, una de las cuestiones de mayor importancia es el uso racional de materiales. Una adecuada utilización de los mismos tiene diversas ventajas, dentro de las cuales podemos citar como a las de mayor relevancia a: (i) mejor aprovechamiento de las capacidades de los materiales, (ii) elementos estructurales de menor tamaño, lo que genera una economía de espacio, (iii) menor costo económico y financiero del proyecto y (iv) menor impacto ambiental. En este sentido, una de las maneras más difundidas para el uso racional de materiales es, utilizar materiales con propiedades constitutivas que se adapten mejor a las características del proyecto en desarrollo. Sin embargo, cuando se está frente a la imposibilidad de cambiar de material o mejorar las propiedades existentes, es importante comenzar a utilizar otras metodologías que permitan un mejor aprovechamiento del mismo. Aquí surge naturalmente la necesidad de introducir cambios en la forma de los componentes estructurales que integran el proyecto ejecutivo. Para realizar una adecuada optimización de los componentes estructurales, es necesario previamente definir cual o cuales van a ser las características a optimizar y como van a ser medidas esas características durante el proceso de análisis. Por lo tanto, se propone aplicar el análisis de sensibilidad topológica para problemas termo-mecánicos para optimizar los componentes estructurales del motor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La programación concurrente es una tarea difícil aún para los más experimentados programadores. Las investigaciones en concurrencia han dado como resultado una gran cantidad de mecanismos y herramientas para resolver problemas de condiciones de carrera de datos y deadlocks, problemas que surgen por el mal uso de los mecanismos de sincronización. La verificación de propiedades interesantes de programas concurrentes presenta dificultades extras a los programas secuenciales debido al no-determinismo de su ejecución, lo cual resulta en una explosión en el número de posibles estados de programa, haciendo casi imposible un tratamiento manual o aún con la ayuda de computadoras. Algunos enfoques se basan en la creación de lenguajes de programación con construcciones con un alto nivel de abstración para expresar concurrencia y sincronización. Otros enfoques tratan de desarrollar técnicas y métodos de razonamiento para demostrar propiedades, algunos usan demostradores de teoremas generales, model-checking o algortimos específicos sobre un determinado sistema de tipos. Los enfoques basados en análisis estático liviano utilizan técnicas como interpretación abstracta para detectar ciertos tipos de errores, de una manera conservativa. Estas técnicas generalmente escalan lo suficiente para aplicarse en grandes proyectos de software pero los tipos de errores que pueden detectar es limitada. Algunas propiedades interesantes están relacionadas a condiciones de carrera y deadlocks, mientras que otros están interesados en problemas relacionados con la seguridad de los sistemas, como confidencialidad e integridad de datos. Los principales objetivos de esta propuesta es identificar algunas propiedades de interés a verificar en sistemas concurrentes y desarrollar técnicas y herramientas para realizar la verificación en forma automática. Para lograr estos objetivos, se pondrá énfasis en el estudio y desarrollo de sistemas de tipos como tipos dependientes, sistema de tipos y efectos, y tipos de efectos sensibles al flujo de datos y control. Estos sistemas de tipos se aplicarán a algunos modelos de programación concurrente como por ejemplo, en Simple Concurrent Object-Oriented Programming (SCOOP) y Java. Además se abordarán propiedades de seguridad usando sistemas de tipos específicos. Concurrent programming has remained a dificult task even for very experienced programmers. Concurrency research has provided a rich set of tools and mechanisms for dealing with data races and deadlocks that arise of incorrect use of synchronization. Verification of most interesting properties of concurrent programs is a very dificult task due to intrinsic non-deterministic nature of concurrency, resulting in a state explosion which make it almost imposible to be manually treat and it is a serious challenge to do that even with help of computers. Some approaches attempts create programming languages with higher levels of abstraction for expressing concurrency and synchronization. Other approaches try to develop reasoning methods to prove properties, either using general theorem provers, model-checking or specific algorithms on some type systems. The light-weight static analysis approach apply techniques like abstract interpretation to find certain kind of bugs in a conservative way. This techniques scale well to be applied in large software projects but the kind of bugs they may find are limited. Some interesting properties are related to data races and deadlocks, while others are interested in some security problems like confidentiality and integrity of data. The main goals of this proposal is to identify some interesting properties to verify in concurrent systems and develop techniques and tools to do full automatic verification. The main approach will be the application of type systems, as dependent types, type and effect systems, and flow-efect types. Those type systems will be applied to some models for concurrent programming as Simple Concurrent Object-Oriented Programming (SCOOP) and Java. Other goals include the analysis of security properties also using specific type systems.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El avance en la potencia de cómputo en nuestros días viene dado por la paralelización del procesamiento, dadas las características que disponen las nuevas arquitecturas de hardware. Utilizar convenientemente este hardware impacta en la aceleración de los algoritmos en ejecución (programas). Sin embargo, convertir de forma adecuada el algoritmo en su forma paralela es complejo, y a su vez, esta forma, es específica para cada tipo de hardware paralelo. En la actualidad los procesadores de uso general más comunes son los multicore, procesadores paralelos, también denominados Symmetric Multi-Processors (SMP). Hoy en día es difícil hallar un procesador para computadoras de escritorio que no tengan algún tipo de paralelismo del caracterizado por los SMP, siendo la tendencia de desarrollo, que cada día nos encontremos con procesadores con mayor numero de cores disponibles. Por otro lado, los dispositivos de procesamiento de video (Graphics Processor Units - GPU), a su vez, han ido desarrollando su potencia de cómputo por medio de disponer de múltiples unidades de procesamiento dentro de su composición electrónica, a tal punto que en la actualidad no es difícil encontrar placas de GPU con capacidad de 200 a 400 hilos de procesamiento paralelo. Estos procesadores son muy veloces y específicos para la tarea que fueron desarrollados, principalmente el procesamiento de video. Sin embargo, como este tipo de procesadores tiene muchos puntos en común con el procesamiento científico, estos dispositivos han ido reorientándose con el nombre de General Processing Graphics Processor Unit (GPGPU). A diferencia de los procesadores SMP señalados anteriormente, las GPGPU no son de propósito general y tienen sus complicaciones para uso general debido al límite en la cantidad de memoria que cada placa puede disponer y al tipo de procesamiento paralelo que debe realizar para poder ser productiva su utilización. Los dispositivos de lógica programable, FPGA, son dispositivos capaces de realizar grandes cantidades de operaciones en paralelo, por lo que pueden ser usados para la implementación de algoritmos específicos, aprovechando el paralelismo que estas ofrecen. Su inconveniente viene derivado de la complejidad para la programación y el testing del algoritmo instanciado en el dispositivo. Ante esta diversidad de procesadores paralelos, el objetivo de nuestro trabajo está enfocado en analizar las características especificas que cada uno de estos tienen, y su impacto en la estructura de los algoritmos para que su utilización pueda obtener rendimientos de procesamiento acordes al número de recursos utilizados y combinarlos de forma tal que su complementación sea benéfica. Específicamente, partiendo desde las características del hardware, determinar las propiedades que el algoritmo paralelo debe tener para poder ser acelerado. Las características de los algoritmos paralelos determinará a su vez cuál de estos nuevos tipos de hardware son los mas adecuados para su instanciación. En particular serán tenidos en cuenta el nivel de dependencia de datos, la necesidad de realizar sincronizaciones durante el procesamiento paralelo, el tamaño de datos a procesar y la complejidad de la programación paralela en cada tipo de hardware. Today´s advances in high-performance computing are driven by parallel processing capabilities of available hardware architectures. These architectures enable the acceleration of algorithms when thes ealgorithms are properly parallelized and exploit the specific processing power of the underneath architecture. Most current processors are targeted for general pruposes and integrate several processor cores on a single chip, resulting in what is known as a Symmetric Multiprocessing (SMP) unit. Nowadays even desktop computers make use of multicore processors. Meanwhile, the industry trend is to increase the number of integrated rocessor cores as technology matures. On the other hand, Graphics Processor Units (GPU), originally designed to handle only video processing, have emerged as interesting alternatives to implement algorithm acceleration. Current available GPUs are able to implement from 200 to 400 threads for parallel processing. Scientific computing can be implemented in these hardware thanks to the programability of new GPUs that have been denoted as General Processing Graphics Processor Units (GPGPU).However, GPGPU offer little memory with respect to that available for general-prupose processors; thus, the implementation of algorithms need to be addressed carefully. Finally, Field Programmable Gate Arrays (FPGA) are programmable devices which can implement hardware logic with low latency, high parallelism and deep pipelines. Thes devices can be used to implement specific algorithms that need to run at very high speeds. However, their programmability is harder that software approaches and debugging is typically time-consuming. In this context where several alternatives for speeding up algorithms are available, our work aims at determining the main features of thes architectures and developing the required know-how to accelerate algorithm execution on them. We look at identifying those algorithms that may fit better on a given architecture as well as compleme

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introducción: El recién nacido necesita una adecuada asistencia materna para lograr la competencia inmunológica inicial. Objetivos: • Demostrar la conformación del sistema inmune en las crías de diferentes especies en nuestra región en los primeros meses de vida. • Comparar las diferencias biológicas de la estructuración del sistema inmune en diferentes especies. Material y método: Diseño del estudio: de cohorte, observacional, descriptivo, análitico. Especies a estudiar: equinos, caprinos, camélidos sudamericanos y caninos. Se realizará dosaje de inmunoglobulinas en suero y calostro de la madre y suero de la cría mediante una cinética preestablecida. Se medirá la producción de anticuerpos específicos y su transferencia a través de calostro. Las muestras son almacenadas en freezer -80°C hasta su procesamiento en el Laboratorio de Enfermedades Infecciosas y Zoonosis e Inmunología (UCC). La medición de inmunoglobulinas se realizará mediante inmunodifusión radial según la técnica de Mancini. La lectura de los halos se realizará mediante toma de imágenes y medición de los diámetros correspondientes, empleando a través del software Philips CamSuite Capture V. 2.0.15.0. También se comparara el dosaje cuantitativo con la medición cualitativa de las Inmunoglobulinas mediante el Test de coagulación con glutaraldehído. Se evaluara la estructura celular del sistema inmune a través del recuento y fórmula leucocitaria del hemograma. Tamaño muestral y análisis estadístico. El tamaño muestral se calcula según el criterio de Freeman y cols, que propone diez eventos de interés por variable analizada. Se determina 30 animales por especie. Para realizar comparaciones de medias se utilizará prueba t apareada (para 2 muestras dependientes) o prueba t de diferencia de medias (para muestras independientes), según correspondiera. En todos los casos el nivel de significación será menor a 0,05. Se realizará un análisis de los componentes principales, correlacionando de manera lineal las distintas variables en las diferentes especies estudiadas. Resultados esperados y utilidad de los mismos: La originalidad del trabajo tiene dos aspectos fundamentales. El primero se basa en el material utilizado, diseño y comparación entre especies. El segundo, es la importancia productiva que tiene el reconocer un mecanismo fisiológico fundamental para el desarrollo de las crías y establecer la dinámica de la transferencia de la inmunidad con datos regionales de las especies estudiadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este proyecto se propone: 1- Formular y analizar los problemas actuales en las técnicas de inyección de fallas para estimar SER (Single Event Response) en los circuitos integrados, aplicandolas luego para evaluar la tolerancia a fallos de diferentes circuitos integrados analógicos/digitales. El objetivo general que se persigue es proporcionar una solución que permita realizar, de forma rápida, eficaz y a bajo costo, la inyección de fallos en los circuitos analógicos y digitales. 2- Estudiar una aproximación no intrusita de detección de fallos en CI, combinando técnicas de hardware y software para detectar errores transitorios en circuitos analógicos y digitales. Este tipo de fallos transitorios tienen una influencia importante en sistemas de microprocesadores, que afectan al flujo de datos y a la etapa de control. Con el fin de proteger el sistema, un módulo de hardware orientado a la aplicación se generará automáticamente, reconfigurándose en el sistema durante el tiempo de ejecución. Cuando se combina esto con técnicas de tolerancia a fallas basadas en programación (Software), esta solución ofrece una protección total del sistema contra fallos transitorios. La campaña de inyección de fallas se planea realizar en un microprocesador MIPS, ejecutando algún programa de evaluación, con ayuda de una plataforma genérica y versátil desarrollada en TIMA (Francia). 3- Comparar los resultados obtenidos del estudio de las técnicas de inyección con los resultados experimentales, a partir de ensayos de radiación (aceleradores de partículas, micro rayos, etc.) al exponer a los circuitos a posibles fuentes de fallas.