1000 resultados para Manufacturas-Programación
Resumo:
El empleo intensivo de computadoras constituye para las investigaciones en los campos de diseño, arte y arquitectura, como así también en las investigaciones formales y/o generativas de cualquier tipo una constante en nuestra actividad. Todo ello trae aparejadas ventajas innegables (velocidad y diversidad de resultados) como también una nueva estructura de costos. (...) Todas nuestras investigaciones tradicionales se valen de recursos muy semejantes a los mecanismos de las computadoras por tratarse de crecimientos o desarrollos numéricos como también leyes de color (tablas cromáticas). Ahora estamos trabajando bajo el sistema de operativo de Windows (empleando herramientas de programación los lenguajes Pascal y C++) empleados equipos PC 486. Paralelamente continuamos las Investigaciones Tradicionales no-computarizadas en lo referido a Color por considerarlas absolutamente indispensables como complemento de las resoluciones que nos brindan las Computadoras. Objetivo general: Avance y ampliación de posibilidades investigativas en el campo de la Geometría Generativa (Creación de Formas) y Cromogénesis (Estudio sistemático y generación del color). Objetivos específicos: 1. Creación y utilización de programas computarizados sobre Puntos Generadores sobre Circunferencia. 2.Creación de obras pictórico-investigativas con base numérica.
Resumo:
Una de las notas distintivas de América Latina, ha sido su condición de región periférica, inserta en un sistema de relaciones cada vez más marcada de naciones hegemónicas. En el marco de esta situación, las presiones e intereses de las potencias industrializadas, coadyuvaron a la desigualdad en el desarrollo de las relaciones internacionales entre los países latinoamericanos, lo que influyó de manera decisiva en la programación de vínculos continentales, ya sea a nivel multilateral o regional. Desde la Primera Guerra Mundial el avance de la influencia económica de los Estados Unidos sobre América Latina, fue sumamente rápido. (...) El carácter asimétrico de las relaciones inter-latinoamericanas se ponía de manifiesto en la afirmación de la hegemonía de los países latinoamericanos más "poderosos", sobre los más débiles, observándose además el protagonismo de las dirigencias de los países centrales, en acuerdo con sus homólogas locales. La presencia de tres países con aspiraciones hegemónicas en el Cono Sur, esto es Argentina, Brasil y Chile, hizo que la región se constituyera en un factor de importancia respecto de los objetivos de las naciones centrales, así como en función de los cambios sociopolíticos que comenzaban a proyectarse en el sistema vinculaciones interregional. De este modo, el aumento del poderío estadounidense, el conflicto mundial y las diferentes políticas llevadas a cabo por los gobiernos Argentina, Brasil y Chile constituyeron variables fundamentales en la estructuración del sistema de relaciones inter-latinoamericano. Con este contexto se intenta, a partir de las categorías de análisis propuestas, comprender y explicar la red de relaciones estructuradas en el Cono Sur de América Latina durante el período que transcurre desde 1914 hasta el fin de la guerra y los profundos cambios que esta fenómeno produjo posteriormente en el orden internacional. Objetivos generales 1. Introducir en el análisis la dimensión regional como categoría válida para un intento de clasificar el espacio latinoamericano, pues proporciona una representación de la realidad socioeconómica y sociocultural que puede alcanzar su institucionalización a través de formas políticas y jurídicas. 2. Aproximarse al concepto de sistema Latinoamericano de naciones, el cual se haría más inteligible cuando se presenta en él una situación conflictiva y cuya dinámica permitiría aprehender la realidad regional como una unidad de análisis.
Resumo:
La verificación y el análisis de programas con características probabilistas es una tarea necesaria del quehacer científico y tecnológico actual. El éxito y su posterior masificación de las implementaciones de protocolos de comunicación a nivel hardware y soluciones probabilistas a problemas distribuidos hacen más que interesante el uso de agentes estocásticos como elementos de programación. En muchos de estos casos el uso de agentes aleatorios produce soluciones mejores y más eficientes; en otros proveen soluciones donde es imposible encontrarlas por métodos tradicionales. Estos algoritmos se encuentran generalmente embebidos en múltiples mecanismos de hardware, por lo que un error en los mismos puede llegar a producir una multiplicación no deseada de sus efectos nocivos.Actualmente el mayor esfuerzo en el análisis de programas probabilísticos se lleva a cabo en el estudio y desarrollo de herramientas denominadas chequeadores de modelos probabilísticos. Las mismas, dado un modelo finito del sistema estocástico, obtienen de forma automática varias medidas de performance del mismo. Aunque esto puede ser bastante útil a la hora de verificar programas, para sistemas de uso general se hace necesario poder chequear especificaciones más completas que hacen a la corrección del algoritmo. Incluso sería interesante poder obtener automáticamente las propiedades del sistema, en forma de invariantes y contraejemplos.En este proyecto se pretende abordar el problema de análisis estático de programas probabilísticos mediante el uso de herramientas deductivas como probadores de teoremas y SMT solvers. Las mismas han mostrado su madurez y eficacia en atacar problemas de la programación tradicional. Con el fin de no perder automaticidad en los métodos, trabajaremos dentro del marco de "Interpretación Abstracta" el cual nos brinda un delineamiento para nuestro desarrollo teórico. Al mismo tiempo pondremos en práctica estos fundamentos mediante implementaciones concretas que utilicen aquellas herramientas.
Resumo:
Uno de los temas centrales del proyecto concierne la naturaleza de la ciencia de la computación. La reciente aparición de esta disciplina sumada a su origen híbrido como ciencia formal y disciplina tecnológica hace que su caracterización aún no esté completa y menos aún acordada entre los científicos del área. En el trabajo Three paradigms of Computer Science de A. Eden, se presentan tres posiciones admitidamente exageradas acerca de como entender tanto el objeto de estudio (ontología) como los métodos de trabajo (metodología) y la estructura de la teoría y las justificaciones del conocimiento informático (epistemología): La llamada racionalista, la cual se basa en la idea de que los programas son fórmulas lógicas y que la forma de trabajo es deductiva, la tecnocrática que presenta a la ciencia computacional como una disciplina ingenieril y la ahi llamada científica, la cual asimilaría a la computación a las ciencias empíricas. Algunos de los problemas de ciencia de la computación están relacionados con cuestiones de filosofía de la matemática, en particular la relación entre las entidades abstractas y el mundo. Sin embargo, el carácter prescriptivo de los axiomas y teoremas de las teorías de la programación puede permitir interpretaciones alternativas y cuestionaría fuertemente la posibilidad de pensar a la ciencia de la computación como una ciencia empírica, al menos en el sentido tradicional. Por otro lado, es posible que el tipo de análisis aplicado a las ciencias de la computación propuesto en este proyecto aporte nuevas ideas para pensar problemas de filosofía de la matemática. Un ejemplo de estos posibles aportes puede verse en el trabajo de Arkoudas Computers, Justi?cation, and Mathematical Knowledge el cual echa nueva luz al problema del significado de las demostraciones matemáticas.Los objetivos del proyecto son: Caracterizar el campo de las ciencias de la computación.Evaluar los fundamentos ontológicos, epistemológicos y metodológicos de la ciencia de la computación actual.Analizar las relaciones entre las diferentes perspectivas heurísticas y epistémicas y las practicas de la programación.
Resumo:
El crecimiento exponencial del tráfico de datos es uno de los mayores desafíos que enfrentan actualmente los sistemas de comunicaciones, debiendo los mismos ser capaces de soportar velocidades de procesamiento de datos cada vez mas altas. En particular, el consumo de potencia se ha transformado en uno de los parámetros de diseño más críticos, generando la necesidad de investigar el uso de nuevas arquitecturas y algoritmos para el procesamiento digital de la información. Por otro lado, el análisis y evaluación de nuevas técnicas de procesamiento presenta dificultades dadas las altas velocidades a las que deben operar, resultando frecuentemente ineficiente el uso de la simulación basada en software como método. En este contexto, el uso de electrónica programable ofrece una oportunidad a bajo costo donde no solo se evaluan nuevas técnicas de diseño de alta velocidad sino también se valida su implementación en desarrollos tecnológicos. El presente proyecto tiene como objetivo principal el estudio y desarrollo de nuevas arquitecturas y algoritmos en electrónica programable para el procesamiento de datos a alta velocidad. El método a utilizar será la programación en dispositivos FPGA (Field-Programmable Gate Array) que ofrecen una buena relación costo-beneficio y gran flexibilidad para integrarse con otros dispositivos de comunicaciones. Para la etapas de diseño, simulación y programación se utilizaran herramientas CAD (Computer-Aided Design) orientadas a sistemas electrónicos digitales. El proyecto beneficiara a estudiantes de grado y postgrado de carreras afines a la informática y las telecomunicaciones, contribuyendo al desarrollo de proyectos finales y tesis doctorales. Los resultados del proyecto serán publicados en conferencias y/o revistas nacionales e internacionales y divulgados a través de charlas de difusión y/o encuentros. El proyecto se enmarca dentro de un área de gran importancia para la Provincia de Córdoba, como lo es la informática y las telecomunicaciones, y promete generar conocimiento de gran valor agregado que pueda ser transferido a empresas tecnológicas de la Provincia de Córdoba a través de consultorias o desarrollos de productos.
Resumo:
Este es un proyecto que tiene por objetivo general dar continuidad a las investigaciones relacionadas a materiales de interés tecnológico que el Grupo Ciencia de Materiales de Fa.M.A.F lleva a cabo. Las diferentes líneas de trabajo se pueden agrupar en tres grandes temas: aceros y superaleaciones basadas en Fe y Ni; cerámicos magnéticos [filtros moleculares de sílice del tipo ZSM-5, MCM-41 y MCM-48 modificados con Fe, Co, Mn; hematita nanométrica] y aleaciones metálicas magnéticas [CoCu, nanohilos y multicapas de CoM y FeM (M= Pt y Pd); aleaciones de tipo Heusler Mn-Ni-Ga, aleaciones CoSiB y FeSiB nanoestructuradas ]. El primer tema apunta a la optimización de las propiedades mecánicas de aceros de medio carbono y baja aleación, de producción nacional y aptos para construcciones mecánicas, y al desarrollo de superaleaciones (Fe,Ni) de alta temperatura, para su aplicación en pequeñas Turbomáquinas Térmicas. En el caso de materiales magnéticos cerámicos y metálicos, el objetivo es la producción y el desarrollo de nanoestructuras novedosas, con propiedades especiales, de potencial uso en nano-dispositivos y nanotecnología en general. En todos los casos se plantea la producción del material de interés a escala laboratorio, con control de las variables del proceso, la caracterización de la microestructura resultante y sus propiedades relevantes. Luego se establecen las correlaciones proceso-microestructura y microestructura–propiedades y se formalizan en modelos para los diferentes mecanismos que operan tanto durante la etapa de proceso (modelos de solidificación, de deposición, de aleado mecánico) como los involucrados en las propiedades de interés (modelos de magnetización, transporte, deformación). En este esquema se busca optimizar las propiedades. El presente proyecto fortalecerá además el área Ciencia de Materiales en la Universidad Nacional de Córdoba, formando en el nivel de grado y posgrado a ingenieros y físicos en esta disciplina. En el área de materiales cerámicos magnéticas nos dedicaremos (en colaboración con CiTeQ-UTN-FRC) a la producción y caracterización de filtros moleculares de sílice de amplio uso en procesos de catálisis, modificados por la incorporación de especies magnéticas. La incorporación del material magnético se realizará mediante técnicas hidrotérmicas y de impregnación. Los composites obtenidos se estudiarán con dos propósitos: evaluar los efectos de la funcionalización magnética sobre el desempeño del filtro de sílice como catalizador de diferentes reacciones y describir las propiedades magnéticas de las pequeñas (2 a 5 nm) nanoestructuras encapsuladas en los poros. Se continuará con la producción y caracterización de partículas de ferritas, con propiedades determinadas a partir del control de los distintos parámetros que intervienen en la síntesis. En la línea de aleaciones metálicas magnéticas se estudiarán las aleaciones de Heusler, con memoria de forma magnetica, las aleaciones CuCo con magneto-resistencia gigante y las aleaciones (Co,Fe)SiB con magnetoimpedancia gigante. Se aplicará la técnica de melt spinning con dos rodillos, a la producción de estas aleaciones. En el caso de aceros de medio carbono el plan propuesto apunta a identificar los micromecanismos de deformación y fractura que pueden operar en estas microestructuras. Se realizará el "collar test" con el objetivo de propagar una grieta radialmente hacia el centro del collar y luego poder observar la sección de material que la contiene. Esta serie de experimentos y observaciones permitirán localizar el inicio de la grieta y avanzar sobre la determinación del tipo de partículas que actúan como intermediarios en la propagación. Se espera que estos antecedentes más los resultados metalográficos arrojen luz sobre los mecanismos de fractura del acero IRAM – IAS 15B41
Resumo:
El presente trabajo contempla el estudio del comportamiento termomecánico de un motor monopropelente, cuyo funcionamiento se basa en la descomposición catalítica del combustible, produciendo la gasificación del mismo, con su consecuente generación de calor. Estos gases, al ser conducidos convenientemente a través de una tobera con el fin de generar su apropiada expansión, producirán la acción deseada. Un diseño erróneo del sistema de alimentación podría producir el acortamiento de la vida útil del catalizador, la degradación de los sellos de la válvula, vaporizaciones indeseadas del propelente, etc.El objetivo que se persigue es construir un modelo computacional que permita visualizar el comportamiento conjunto de los diversos fenómenos, la influencia de los diversos componentes y su interacción, a fin de identificar los elementos críticos, y poder así tomar acciones correctivas u operar sobre aspectos de diseño del sistema para un mejor acondicionamiento del combustible. Para la aplicación del método, se modelizarán cada uno de los fenómenos que gobiernan el comportamiento del sistema y se les codificará en lenguaje de programación, prestando especial atención al comportamiento del fluido tanto en régimen estable como durante los transitorios. Una vez validado el programa se correrán simulaciones para determinar la influencia de los parámetros básicos de diseño sobre los procesos termomecánicos mediante un análisis de sensitividad, a fin de mitigar los posibles efectos adversos. Sin embargo, durante la ejecución de proyectos de ingeniería de este tipo, una de las cuestiones de mayor importancia es el uso racional de materiales. Una adecuada utilización de los mismos tiene diversas ventajas, dentro de las cuales podemos citar como a las de mayor relevancia a: (i) mejor aprovechamiento de las capacidades de los materiales, (ii) elementos estructurales de menor tamaño, lo que genera una economía de espacio, (iii) menor costo económico y financiero del proyecto y (iv) menor impacto ambiental. En este sentido, una de las maneras más difundidas para el uso racional de materiales es, utilizar materiales con propiedades constitutivas que se adapten mejor a las características del proyecto en desarrollo. Sin embargo, cuando se está frente a la imposibilidad de cambiar de material o mejorar las propiedades existentes, es importante comenzar a utilizar otras metodologías que permitan un mejor aprovechamiento del mismo. Aquí surge naturalmente la necesidad de introducir cambios en la forma de los componentes estructurales que integran el proyecto ejecutivo. Para realizar una adecuada optimización de los componentes estructurales, es necesario previamente definir cual o cuales van a ser las características a optimizar y como van a ser medidas esas características durante el proceso de análisis. Por lo tanto, se propone aplicar el análisis de sensibilidad topológica para problemas termo-mecánicos para optimizar los componentes estructurales del motor.
Resumo:
La programación concurrente es una tarea difícil aún para los más experimentados programadores. Las investigaciones en concurrencia han dado como resultado una gran cantidad de mecanismos y herramientas para resolver problemas de condiciones de carrera de datos y deadlocks, problemas que surgen por el mal uso de los mecanismos de sincronización. La verificación de propiedades interesantes de programas concurrentes presenta dificultades extras a los programas secuenciales debido al no-determinismo de su ejecución, lo cual resulta en una explosión en el número de posibles estados de programa, haciendo casi imposible un tratamiento manual o aún con la ayuda de computadoras. Algunos enfoques se basan en la creación de lenguajes de programación con construcciones con un alto nivel de abstración para expresar concurrencia y sincronización. Otros enfoques tratan de desarrollar técnicas y métodos de razonamiento para demostrar propiedades, algunos usan demostradores de teoremas generales, model-checking o algortimos específicos sobre un determinado sistema de tipos. Los enfoques basados en análisis estático liviano utilizan técnicas como interpretación abstracta para detectar ciertos tipos de errores, de una manera conservativa. Estas técnicas generalmente escalan lo suficiente para aplicarse en grandes proyectos de software pero los tipos de errores que pueden detectar es limitada. Algunas propiedades interesantes están relacionadas a condiciones de carrera y deadlocks, mientras que otros están interesados en problemas relacionados con la seguridad de los sistemas, como confidencialidad e integridad de datos. Los principales objetivos de esta propuesta es identificar algunas propiedades de interés a verificar en sistemas concurrentes y desarrollar técnicas y herramientas para realizar la verificación en forma automática. Para lograr estos objetivos, se pondrá énfasis en el estudio y desarrollo de sistemas de tipos como tipos dependientes, sistema de tipos y efectos, y tipos de efectos sensibles al flujo de datos y control. Estos sistemas de tipos se aplicarán a algunos modelos de programación concurrente como por ejemplo, en Simple Concurrent Object-Oriented Programming (SCOOP) y Java. Además se abordarán propiedades de seguridad usando sistemas de tipos específicos. Concurrent programming has remained a dificult task even for very experienced programmers. Concurrency research has provided a rich set of tools and mechanisms for dealing with data races and deadlocks that arise of incorrect use of synchronization. Verification of most interesting properties of concurrent programs is a very dificult task due to intrinsic non-deterministic nature of concurrency, resulting in a state explosion which make it almost imposible to be manually treat and it is a serious challenge to do that even with help of computers. Some approaches attempts create programming languages with higher levels of abstraction for expressing concurrency and synchronization. Other approaches try to develop reasoning methods to prove properties, either using general theorem provers, model-checking or specific algorithms on some type systems. The light-weight static analysis approach apply techniques like abstract interpretation to find certain kind of bugs in a conservative way. This techniques scale well to be applied in large software projects but the kind of bugs they may find are limited. Some interesting properties are related to data races and deadlocks, while others are interested in some security problems like confidentiality and integrity of data. The main goals of this proposal is to identify some interesting properties to verify in concurrent systems and develop techniques and tools to do full automatic verification. The main approach will be the application of type systems, as dependent types, type and effect systems, and flow-efect types. Those type systems will be applied to some models for concurrent programming as Simple Concurrent Object-Oriented Programming (SCOOP) and Java. Other goals include the analysis of security properties also using specific type systems.
Resumo:
El avance en la potencia de cómputo en nuestros días viene dado por la paralelización del procesamiento, dadas las características que disponen las nuevas arquitecturas de hardware. Utilizar convenientemente este hardware impacta en la aceleración de los algoritmos en ejecución (programas). Sin embargo, convertir de forma adecuada el algoritmo en su forma paralela es complejo, y a su vez, esta forma, es específica para cada tipo de hardware paralelo. En la actualidad los procesadores de uso general más comunes son los multicore, procesadores paralelos, también denominados Symmetric Multi-Processors (SMP). Hoy en día es difícil hallar un procesador para computadoras de escritorio que no tengan algún tipo de paralelismo del caracterizado por los SMP, siendo la tendencia de desarrollo, que cada día nos encontremos con procesadores con mayor numero de cores disponibles. Por otro lado, los dispositivos de procesamiento de video (Graphics Processor Units - GPU), a su vez, han ido desarrollando su potencia de cómputo por medio de disponer de múltiples unidades de procesamiento dentro de su composición electrónica, a tal punto que en la actualidad no es difícil encontrar placas de GPU con capacidad de 200 a 400 hilos de procesamiento paralelo. Estos procesadores son muy veloces y específicos para la tarea que fueron desarrollados, principalmente el procesamiento de video. Sin embargo, como este tipo de procesadores tiene muchos puntos en común con el procesamiento científico, estos dispositivos han ido reorientándose con el nombre de General Processing Graphics Processor Unit (GPGPU). A diferencia de los procesadores SMP señalados anteriormente, las GPGPU no son de propósito general y tienen sus complicaciones para uso general debido al límite en la cantidad de memoria que cada placa puede disponer y al tipo de procesamiento paralelo que debe realizar para poder ser productiva su utilización. Los dispositivos de lógica programable, FPGA, son dispositivos capaces de realizar grandes cantidades de operaciones en paralelo, por lo que pueden ser usados para la implementación de algoritmos específicos, aprovechando el paralelismo que estas ofrecen. Su inconveniente viene derivado de la complejidad para la programación y el testing del algoritmo instanciado en el dispositivo. Ante esta diversidad de procesadores paralelos, el objetivo de nuestro trabajo está enfocado en analizar las características especificas que cada uno de estos tienen, y su impacto en la estructura de los algoritmos para que su utilización pueda obtener rendimientos de procesamiento acordes al número de recursos utilizados y combinarlos de forma tal que su complementación sea benéfica. Específicamente, partiendo desde las características del hardware, determinar las propiedades que el algoritmo paralelo debe tener para poder ser acelerado. Las características de los algoritmos paralelos determinará a su vez cuál de estos nuevos tipos de hardware son los mas adecuados para su instanciación. En particular serán tenidos en cuenta el nivel de dependencia de datos, la necesidad de realizar sincronizaciones durante el procesamiento paralelo, el tamaño de datos a procesar y la complejidad de la programación paralela en cada tipo de hardware. Today´s advances in high-performance computing are driven by parallel processing capabilities of available hardware architectures. These architectures enable the acceleration of algorithms when thes ealgorithms are properly parallelized and exploit the specific processing power of the underneath architecture. Most current processors are targeted for general pruposes and integrate several processor cores on a single chip, resulting in what is known as a Symmetric Multiprocessing (SMP) unit. Nowadays even desktop computers make use of multicore processors. Meanwhile, the industry trend is to increase the number of integrated rocessor cores as technology matures. On the other hand, Graphics Processor Units (GPU), originally designed to handle only video processing, have emerged as interesting alternatives to implement algorithm acceleration. Current available GPUs are able to implement from 200 to 400 threads for parallel processing. Scientific computing can be implemented in these hardware thanks to the programability of new GPUs that have been denoted as General Processing Graphics Processor Units (GPGPU).However, GPGPU offer little memory with respect to that available for general-prupose processors; thus, the implementation of algorithms need to be addressed carefully. Finally, Field Programmable Gate Arrays (FPGA) are programmable devices which can implement hardware logic with low latency, high parallelism and deep pipelines. Thes devices can be used to implement specific algorithms that need to run at very high speeds. However, their programmability is harder that software approaches and debugging is typically time-consuming. In this context where several alternatives for speeding up algorithms are available, our work aims at determining the main features of thes architectures and developing the required know-how to accelerate algorithm execution on them. We look at identifying those algorithms that may fit better on a given architecture as well as compleme
Resumo:
Las reacciones bioquímicas que ocurren como consecuencia del tratamiento y almacenamiento de los alimentos, mejoran la seguridad alimentaria, las propiedades sensoriales y la vida útil. Sin embargo, el tratamiento térmico, la exposición a la luz y el oxígeno pueden causar daño oxidativo a los lípidos y proteínas. Los procesos oxidativos de matrices complejas tienen características distintivas que no se manifiestan cuando los componentes son sometidos a oxidación individualmente. La hipótesis de trabajo es que la oxidación de proteínas en matrices alimentarias complejas altera la estructura y las propiedades funcionales de las proteínas y, que las modificaciones que se producen varían según las condiciones de procesamiento y de la composición química del alimento. Nuestros estudios intentan demostrar que el estado oxidativo de las proteínas de un alimento es un parámetro importante para la evaluación de las propiedades funcionales, sensoriales y nutricionales de un producto lácteo. El objetivo general del proyecto es el estudio de los procesos de oxidación de matrices alimentarias complejas (la leche, miel) y su relación con distintos procesos y materiales utilizados en la industria. Es decir, nos proponemos estudiar las consecuencias funcionales y biológicas (calidad nutricional, coagulación) de la oxidación proteica en modelos experimentales “in vitro” y en productos comerciales. 1. Estudiar los fenómenos de peroxidación proteica en leche entera y descremada sometida a los distintos procesos tecnológicos de la producción de leche y queso a escala laboratorio. Se realizarán las mismas experiencias con albúmina sérica y con proteínas aisladas de suero de leche para comparar diferencias entre una matriz compleja y una simple. 2. Determinar la relación entre oxidación y composición proteica de la leche, y los cambios en las fracciones proteicas aisladas (caseínas y beta-lactoglobulina). 3. Analizar el impacto de los procesos tecnológicos a nivel de producción primaria (composición proteica y estado de oxidación) en los indicadores de inflamación (contenido de células somáticas y proteína C Reactiva) y de estado redox (capacidad antioxidante de los productos lácteos y nivel de carbonilos de proteinas). 4. Comparar las características de composición química y el estado de oxidación de leche provenientes de las tres regiones (Buenos Aires, Santa Fe y Córdoba) que conforman la cuenca láctea Argentina. Este objetivo se realizará conjuntamente con los integrantes de nuestro grupo de investigación que trabajan en el Laboratorio de Control de Calidad de la Escuela Superior de Lechería. 5. Determinar los metabolitos secundarios de mieles uniflorales propuestos como responsables de la capacidad antioxidante de estas (polifenoles) y como indicadores de su origen botánico. 6. Valorar la capacidad antioxidante total de mieles uniflorales. 7. Validar los métodos analíticos y semicuantitativos utilizados y a utilizar en el presente proyecto teniendo en cuenta lo efectos de matrices típico de los fluidos biológicos y las mezclas. El estudio de las modificaciones oxidativas de matrices complejas es un tema que es importante tanto desde el punto de vista del conocimiento básico como del aplicado. Nosotros creemos que el presente proyecto aportará conocimiento sobre las características de las vías oxidativas de proteínas en matrices complejas y que podrá ser utilizado para diseñar estrategias productivas tendientes a disminuir el deterioro de la calidad de la leche debido a la exposición a energía radiante. Parte de la experiencia ganada por el grupo ha sido ya volcada a subsanar dificultades y problemas de oxidación y deterioro de la calidad de alimentos. Además, se contribuirá a discernir la paradoja que existe en el área sobre las propiedades oxidantes/antioxidantes de los polifenoles y la relación entre estas y el estado oxidativo de un alimento. The biochemical reactions that occur as a result of food treatment and storage, improve food security, sensory properties and shelf life. Heat treatment, exposure to light and oxygen can cause oxidative damage to lipids and proteins. Oxidative processes in complex matrices display distinctive features that do not appear when the components are individually subjected to oxidation. The hypothesis is that protein oxidation in complex food matrices alters the structure and functional properties of proteins and that the modifications vary according to process conditions and food composition. The main goal is to study oxidation of complex food matrices (milk, honey) with different processes and materials used in the industry. The specific aims are: 1. To study protein oxidation in whole milk and skim subject to various technological processes. The same experiences will be done with serum albumin and isolated whey proteins to compare complex and simple matrices. 2. To determine the relationship between oxidation and milk protein composition, and changes in casein and beta-lactoglobulin. 3. Analyze the impact of technological processes at the level of primary production on markers of inflammation and redox (antioxidant capacity and protein carbonyls). 4. Compare characteristics of chemical composition and oxidation state of milk. 5. Determine secondary metabolites of honey responsible for the antioxidant capacity of these. 6. To evaluate the total antioxidant capacity unifloral honey. This project will provide knowledge about characteristics of oxidative pathways of proteins in complex matrices that can be used to design production strategies aimed at reduce the deterioration of milk quality. Also, it would help to discern the paradox that exists on the oxidants/antioxidants properties of polyphenols and the relationship between these and the oxidative status of a food.
Resumo:
Este proyecto intenta caracterizar, procesos productivos y sociales en los que participan productores familiares del cinturón verde norte de la ciudad de Córdoba; con el fin de elaborar una base de datos, que refleje las principales características vinculadas a la producción primaria de alimentos a comercializar en la ciudad. Focalizaremos nuestra investigación en las relaciones existentes entre sus trayectorias laborales con: sus lógicas de producción, disponibilidad de mano de obra, incidencia de nuevas tecnologías, aplicación de buenas prácticas agrícolas y de manufacturas, vínculos con redes sociales y problemáticas de comercialización. Planteamos las siguientes hipótesis: 1) Los productores familiares, ante el modelo hegemónico de producción, implementan lógicas resistenciales, tendientes a evitar la descapitalización y el deterioro de su calidad de vida. 2) Los inmigrantes bolivianos aportan su mano de obra como trabajadores informales y logran cierta movilidad social ascendente en el sector hortícola. 3) La adquisición de tecnologías está condicionada por conocimientos tradicionales, lógicas de trabajo, disponibilidad de recursos y perspectivas comerciales. 4) La implementación de las Buenas Prácticas Agrícolas y Buenas Prácticas de Manufactura no garantiza la inclusión laboral ni el mejoramiento de las condiciones de vida. 5) El fortalecimiento de los vínculos en las redes sociales permiten que los productores al hacer uso de ellas, implementen estrategias para superan los problemas vinculados a la comercialización de alimentos. Nuestro objetivo principal es identificar, describir y analizar la situación socio productiva, vinculada a las transformaciones tecnológicas y socio económicas exigidas por el modelo agroalimentario global. Realizaremos la localización socio espacial de cada unidad de producción y caracterizaremos el tipo de actividad. Describiremos las estrategias productivas y de comercialización que surgen, ante problemáticas emergentes y en respuestas a las normas vigentes. Analizaremos la toma de decisiones, condicionada por las trayectorias laborales y sostenidas por las redes sociales. El abordaje será de tipo cualitativo. Analizaremos las normativas vigentes en relación a la implementación de las buenas prácticas agrícolas y de manufacturas. Pretendemos realizar un aporte, posicionando a los sistemas productivos que abastecen de alimento a la ciudad y que persisten en una franja intermedia entre el campo y la ciudad.
Resumo:
En este proyecto se propone: 1- Formular y analizar los problemas actuales en las técnicas de inyección de fallas para estimar SER (Single Event Response) en los circuitos integrados, aplicandolas luego para evaluar la tolerancia a fallos de diferentes circuitos integrados analógicos/digitales. El objetivo general que se persigue es proporcionar una solución que permita realizar, de forma rápida, eficaz y a bajo costo, la inyección de fallos en los circuitos analógicos y digitales. 2- Estudiar una aproximación no intrusita de detección de fallos en CI, combinando técnicas de hardware y software para detectar errores transitorios en circuitos analógicos y digitales. Este tipo de fallos transitorios tienen una influencia importante en sistemas de microprocesadores, que afectan al flujo de datos y a la etapa de control. Con el fin de proteger el sistema, un módulo de hardware orientado a la aplicación se generará automáticamente, reconfigurándose en el sistema durante el tiempo de ejecución. Cuando se combina esto con técnicas de tolerancia a fallas basadas en programación (Software), esta solución ofrece una protección total del sistema contra fallos transitorios. La campaña de inyección de fallas se planea realizar en un microprocesador MIPS, ejecutando algún programa de evaluación, con ayuda de una plataforma genérica y versátil desarrollada en TIMA (Francia). 3- Comparar los resultados obtenidos del estudio de las técnicas de inyección con los resultados experimentales, a partir de ensayos de radiación (aceleradores de partículas, micro rayos, etc.) al exponer a los circuitos a posibles fuentes de fallas.
Resumo:
En este trabajo se analiza una vía alternativa en el debate de la convergencia regional en España: el estudio de la dinámica industrial de sus Comunidades Autónomas. Para ello se analizan los flujos de entrada y salida de establecimientos industriales en las manufacturas delas regiones españolas y se abordan los factores de carácter sectorial o regional que inciden sobre la movilidad industrial. Las specificaciones econométricas adoptan la estructura de un sistema de ecuaciones y cubren las tres hipótesis fundamentales que se han abordado en laliteratura (independencia, simetría y simultaneidad) a partir de un panel de datos construido con informaciones procedentes del Registro de Establecimientos Industriales y la Encuesta Industrial. Palabras clave: demografía industrial, sistemas de ecuaciones, datos de panel
Resumo:
OBJETIVOS DEL TRABAJO 1. Relacionar diferentes niveles específicamente definidos de estado hídrico de la planta, según su fase de desarrollo, con la producción de la viña y la calidad de su mosto y vino resultante. 2. Evaluar diferentes indicadores de estrés hídrico de la planta, como posible soporte para el manejo y automatización del riego de la vid. 3. Obtener una programación de riego suficientemente contrastada que incorpore claros beneficios al productor.
Resumo:
L’objectiu d’aquest projecte que consisteix a elaborar un algoritme d’optimització que permeti, mitjançant un ajust de dades per mínims quadrats, la extracció dels paràmetres del circuit equivalent que composen el model teòric d’un ressonador FBAR, a partir de les mesures dels paràmetres S. Per a dur a terme aquest treball, es desenvolupa en primer lloc tota la teoria necessària de ressonadors FBAR. Començant pel funcionament i l’estructura, i mostrant especial interès en el modelat d’aquests ressonadors mitjançant els models de Mason, Butterworth Van-Dyke i BVD Modificat. En segon terme, s’estudia la teoria sobre optimització i programació No-Lineal. Un cop s’ha exposat la teoria, es procedeix a la descripció de l’algoritme implementat. Aquest algoritme utilitza una estratègia de múltiples passos que agilitzen l'extracció dels paràmetres del ressonador.