56 resultados para Lógica TK
Resumo:
La industria metalmecánica Argentina está necesitada de un producto Nacional de grandes dimensiones y bajo costo, para aplicaciones variadas dependiendo del husillo o elemento de corte aplicado (Husillo, Corte por Plasma, Corte por Laser, etc.). La mayoría de las máquinas de esta envergadura son importadas y de costos muy altos y muchas veces tienen un costo elevado debido a que está diseñada para aplicaciones de mayor precisión o distintas, para el uso específico que se ha detallado anteriormente, lo que encarece al producto. El objetivo de este proyecto es: desarrollar y construir un centro de mecanizado por control numérico (CNC); de grandes dimensiones, para mecanizar grandes piezas de materiales como telgopor, polifan, plásticos, fibrofacil y terminación final de aluminio, con una precisión de 2 décimas de milímetro. Las dimensiones a las que se han arribado en un pre diseño, actualmente en estudio, obedecen a poder mecanizar desde el bloque de poliestirteno más grande para una matriz automotriz, hasta poder mecanizar sobre una placa entera de fibrofacil que tienen dimensiones de 1860x2600 mm
Resumo:
El objetivo general de este proyecto estratégico es incorporar una actividad de alto valor agregado como es el diseño de circuitos integrados dentro del segmento de alta tecnología de la cadena productiva nacional. Para ello resulta necesario cumplimentar los siguientes objetivos específicos: • Fortalecer los grupos de investigación y desarrollo que realizan tareas dentro de este área temática, tanto en infraestructura como en recursos humanos; • Fortalecer y desarrollar la Industria Electrónica mediante la incorporación de estas nuevas tecnologías en sus productos; • Representar y asistir a los grupos de diseño locales en la búsqueda de oportunidades para realizar "outsourcing" de diseño para compañías del exterior; • Establecer una primer masa crítica de diseñadores, que funcione como impulsora de la actividad en el medio; • Generar una red a nivel local, donde convivan empresas, universidades y profesionales. La mejora continua en las prestaciones de los productos y en los procesos productivos ha llevado a que la microelectrónica esté presente en los más diversos ámbitos de la actividad humana, con la perspectiva de ir incrementando constantemente su participación. Por eso mismo, un país que pretenda insertarse en el mundo de manera soberana no puede menospreciar la necesidad de incrementar la capacidad de su industria en el área. Los componentes de la Cadena de valor de la ME son los siguientes: • Diseño del circuito, con valor agregado de conocimientos y experiencia del diseñador; • Herramientas de Software de diseño (CAD) con verificación y simulación; • Prototipeo de circuitos y ensayo (testing); • Fabricación de chip en línea; • Encapsulado y testeo.
Resumo:
Durante las últimas décadas las ciudades latinoamericanas se caracterizaron por fuertes procesos de crecimiento urbano y profundización de la distribución inequitativa de la riqueza, reforzando el patrón de segregación residencial socioeconómica existente. Desde la supremacía de la lógica del mercado inmobiliario y de suelo vinculada al desarrollo urbano, estas situaciones prefiguran un contexto de reiteradas violaciones al derecho a la ciudad y acaban cristalizando en focos de conflictos sociales y urbanos, que atentan contra la gobernabilidad local del territorio y la posibiidad del ejercicio de derechos inalienables. En Córdoba el nivel de conflictividad urbana ha ido incrementándose. En este sentido, el presente proyecto propone identificar, caracterizar y georreferenciar los conflictos urbanos existentes en la ciudad a partir de la selección de variables urbanas, ambientales y sociopolíticas relevantes en su determinación (acceso al suelo, precariedad habitacional, necesidad de espacios verdes, acceso a infraestructura y servicios públicos, criticidad ambiental, entre otras variables emergentes en campo). También se pretende comprender las representaciones y prácticas de los distintos agentes involucrados respecto de las mismas y de las políticas públicas asociadas. La hipótesis del trabajo sostiene que cuando se analiza el sistema urbano de un modo integral, emergen vinculaciones espaciales que derivan en situaciones conflictivas, predominando la sectorización y la compartimentización según problemáticas focalizadas, no existiendo actualmente políticas que integren la complejidad de aristas que supone el desarrollo urbano. Esto también se observa en el campo de las representaciones y prácticas relacionadas a dichos conflictos, registrándose fuertes diferenciaciones entre las de la ciudadanía afectada por situaciones de violación de derechos a la ciudad, y aquellas que tienen los sectores públicos y/o privados con incidencia en las mismas. Ambas situaciones inciden en la formulación y ejecución de políticas públicas que no terminan de resolver las disputas que se materializan en el territorio. De aquí que el propósito del trabajo sea identificar y caracterizar de manera más integral los conflictos urbanos existentes en la ciudad, confrontando las distintas miradas y acciones que coexisten en su construcción territorial; y en base a ese diagnóstico proponer, a partir de su visibilización, estrategias de superación de dichas tensiones e incompatibilidades.
Resumo:
El objetivo general de esta propuesta es investigar y desarrollar nuevos convertidores electrónicos de potencia, más eficientes, confiables y robustos, para controlar el flujo de energía eléctrica en Sistemas Híbridos. Estos sistemas pueden alimentarse de almacenadores y generadores de CC, como por ejemplo baterías, ultracapacitores y celdas de combustible. Como objetivos específicos se pretende proponer nuevas topologías de convertidores electrónicos de potencia, incluyendo los controladores digitales, con las siguientes características: • Alto rendimiento, • Tolerantes a fallas, • Desarrollo de estrategias para la detección y diagnóstico de fallas. Se propone modelar y realizar simulaciones de las nuevas propuestas con el objetivo de compararlas con otras ya existentes. Con el objetivo de validar experimentalmente los resultados teóricos y de simulación también se propone implementar prototipos demostrativos. La implementación de los citados convertidores se realizará con dispositivos semiconductores de potencia y componentes magnéticos de alta frecuencia para maximizar las relaciones potencia/volumen y/o potencia/peso del sistema.
Resumo:
Identificación y caracterización del problema. Uno de los problemas más importantes asociados con la construcción de software es la corrección del mismo. En busca de proveer garantías del correcto funcionamiento del software, han surgido una variedad de técnicas de desarrollo con sólidas bases matemáticas y lógicas conocidas como métodos formales. Debido a su naturaleza, la aplicación de métodos formales requiere gran experiencia y conocimientos, sobre todo en lo concerniente a matemáticas y lógica, por lo cual su aplicación resulta costosa en la práctica. Esto ha provocado que su principal aplicación se limite a sistemas críticos, es decir, sistemas cuyo mal funcionamiento puede causar daños de magnitud, aunque los beneficios que sus técnicas proveen son relevantes a todo tipo de software. Poder trasladar los beneficios de los métodos formales a contextos de desarrollo de software más amplios que los sistemas críticos tendría un alto impacto en la productividad en tales contextos. Hipótesis. Contar con herramientas de análisis automático es un elemento de gran importancia. Ejemplos de esto son varias herramientas potentes de análisis basadas en métodos formales, cuya aplicación apunta directamente a código fuente. En la amplia mayoría de estas herramientas, la brecha entre las nociones a las cuales están acostumbrados los desarrolladores y aquellas necesarias para la aplicación de estas herramientas de análisis formal sigue siendo demasiado amplia. Muchas herramientas utilizan lenguajes de aserciones que escapan a los conocimientos y las costumbres usuales de los desarrolladores. Además, en muchos casos la salida brindada por la herramienta de análisis requiere cierto manejo del método formal subyacente. Este problema puede aliviarse mediante la producción de herramientas adecuadas. Otro problema intrínseco a las técnicas automáticas de análisis es cómo se comportan las mismas a medida que el tamaño y complejidad de los elementos a analizar crece (escalabilidad). Esta limitación es ampliamente conocida y es considerada crítica en la aplicabilidad de métodos formales de análisis en la práctica. Una forma de atacar este problema es el aprovechamiento de información y características de dominios específicos de aplicación. Planteo de objetivos. Este proyecto apunta a la construcción de herramientas de análisis formal para contribuir a la calidad, en cuanto a su corrección funcional, de especificaciones, modelos o código, en el contexto del desarrollo de software. Más precisamente, se busca, por un lado, identificar ambientes específicos en los cuales ciertas técnicas de análisis automático, como el análisis basado en SMT o SAT solving, o el model checking, puedan llevarse a niveles de escalabilidad superiores a los conocidos para estas técnicas en ámbitos generales. Se intentará implementar las adaptaciones a las técnicas elegidas en herramientas que permitan su uso a desarrolladores familiarizados con el contexto de aplicación, pero no necesariamente conocedores de los métodos o técnicas subyacentes. Materiales y métodos a utilizar. Los materiales a emplear serán bibliografía relevante al área y equipamiento informático. Métodos. Se emplearán los métodos propios de la matemática discreta, la lógica y la ingeniería de software. Resultados esperados. Uno de los resultados esperados del proyecto es la individualización de ámbitos específicos de aplicación de métodos formales de análisis. Se espera que como resultado del desarrollo del proyecto surjan herramientas de análisis cuyo nivel de usabilidad sea adecuado para su aplicación por parte de desarrolladores sin formación específica en los métodos formales utilizados. Importancia del proyecto. El principal impacto de este proyecto será la contribución a la aplicación práctica de técnicas formales de análisis en diferentes etapas del desarrollo de software, con la finalidad de incrementar su calidad y confiabilidad. A crucial factor for software quality is correcteness. Traditionally, formal approaches to software development concentrate on functional correctness, and tackle this problem basically by being based on well defined notations founded on solid mathematical grounds. This makes formal methods better suited for analysis, due to their precise semantics, but they are usually more complex, and require familiarity and experience with the manipulation of mathematical definitions. So, their acceptance by software engineers is rather restricted, and formal methods applications have been confined to critical systems. Nevertheless, it is obvious that the advantages that formal methods provide apply to any kind of software system. It is accepted that appropriate software tool support for formal analysis is essential, if one seeks providing support for software development based on formal methods. Indeed, some of the relatively recent sucesses of formal methods are accompanied by good quality tools that automate powerful analysis mechanisms, and are even integrated in widely used development environments. Still, most of these tools either concentrate on code analysis, and in many cases are still far from being simple enough to be employed by software engineers without experience in formal methods. Another important problem for the adoption of tool support for formal methods is scalability. Automated software analysis is intrinsically complex, and thus techniques do not scale well in the general case. In this project, we will attempt to identify particular modelling, design, specification or coding activities in software development processes where to apply automated formal analysis techniques. By focusing in very specific application domains, we expect to find characteristics that might be exploited to increase the scalability of the corresponding analyses, compared to the general case.
Resumo:
El objetivo general de este proyecto es desarrollar nuevos modelos multi-dominio de máquinas eléctricas para aplicaciones al control y al diagnóstico de fallas. Se propone comenzar con el modelo electromagnético del motor de inducción en base a circuitos magnéticos equivalentes (MEC) validándolo por medio de simulación y de resultados experimentales. Como segundo paso se pretende desarrollas modelos térmicos y mecánicos con el objetivo que puedan ser acoplados al modelo electromagnético y de esta estudiar la interacción de los dominios y se validará mediante resultados de simulación y experimentales el modelo completo. Finalmente se pretende utilizar el modelo multi-dominio como una herramienta para la prueba de nuevas estrategias de control y diagnóstico de fallas. The main objective of this project is the development of new multi-domain models of electric machines for control and fault diagnosis applications. The electromagnetic modeling of the induction motor (IM) will be done using the magnetic equivalent circuits approach. This model will be validated by simulation and by experimental results. As a second step of this project, new mechanical and thermal models for the IM will be developed, with the objective of coupling these models with the electromagnetic one. With this multi-domain model it will be possible to study the interaction between each others. After that, the complete model will be validated by simulation and experimental results. Finally, the model will be used as a tool for testing new control and fault diagnosis strategies.
Resumo:
El avance en la potencia de cómputo en nuestros días viene dado por la paralelización del procesamiento, dadas las características que disponen las nuevas arquitecturas de hardware. Utilizar convenientemente este hardware impacta en la aceleración de los algoritmos en ejecución (programas). Sin embargo, convertir de forma adecuada el algoritmo en su forma paralela es complejo, y a su vez, esta forma, es específica para cada tipo de hardware paralelo. En la actualidad los procesadores de uso general más comunes son los multicore, procesadores paralelos, también denominados Symmetric Multi-Processors (SMP). Hoy en día es difícil hallar un procesador para computadoras de escritorio que no tengan algún tipo de paralelismo del caracterizado por los SMP, siendo la tendencia de desarrollo, que cada día nos encontremos con procesadores con mayor numero de cores disponibles. Por otro lado, los dispositivos de procesamiento de video (Graphics Processor Units - GPU), a su vez, han ido desarrollando su potencia de cómputo por medio de disponer de múltiples unidades de procesamiento dentro de su composición electrónica, a tal punto que en la actualidad no es difícil encontrar placas de GPU con capacidad de 200 a 400 hilos de procesamiento paralelo. Estos procesadores son muy veloces y específicos para la tarea que fueron desarrollados, principalmente el procesamiento de video. Sin embargo, como este tipo de procesadores tiene muchos puntos en común con el procesamiento científico, estos dispositivos han ido reorientándose con el nombre de General Processing Graphics Processor Unit (GPGPU). A diferencia de los procesadores SMP señalados anteriormente, las GPGPU no son de propósito general y tienen sus complicaciones para uso general debido al límite en la cantidad de memoria que cada placa puede disponer y al tipo de procesamiento paralelo que debe realizar para poder ser productiva su utilización. Los dispositivos de lógica programable, FPGA, son dispositivos capaces de realizar grandes cantidades de operaciones en paralelo, por lo que pueden ser usados para la implementación de algoritmos específicos, aprovechando el paralelismo que estas ofrecen. Su inconveniente viene derivado de la complejidad para la programación y el testing del algoritmo instanciado en el dispositivo. Ante esta diversidad de procesadores paralelos, el objetivo de nuestro trabajo está enfocado en analizar las características especificas que cada uno de estos tienen, y su impacto en la estructura de los algoritmos para que su utilización pueda obtener rendimientos de procesamiento acordes al número de recursos utilizados y combinarlos de forma tal que su complementación sea benéfica. Específicamente, partiendo desde las características del hardware, determinar las propiedades que el algoritmo paralelo debe tener para poder ser acelerado. Las características de los algoritmos paralelos determinará a su vez cuál de estos nuevos tipos de hardware son los mas adecuados para su instanciación. En particular serán tenidos en cuenta el nivel de dependencia de datos, la necesidad de realizar sincronizaciones durante el procesamiento paralelo, el tamaño de datos a procesar y la complejidad de la programación paralela en cada tipo de hardware. Today´s advances in high-performance computing are driven by parallel processing capabilities of available hardware architectures. These architectures enable the acceleration of algorithms when thes ealgorithms are properly parallelized and exploit the specific processing power of the underneath architecture. Most current processors are targeted for general pruposes and integrate several processor cores on a single chip, resulting in what is known as a Symmetric Multiprocessing (SMP) unit. Nowadays even desktop computers make use of multicore processors. Meanwhile, the industry trend is to increase the number of integrated rocessor cores as technology matures. On the other hand, Graphics Processor Units (GPU), originally designed to handle only video processing, have emerged as interesting alternatives to implement algorithm acceleration. Current available GPUs are able to implement from 200 to 400 threads for parallel processing. Scientific computing can be implemented in these hardware thanks to the programability of new GPUs that have been denoted as General Processing Graphics Processor Units (GPGPU).However, GPGPU offer little memory with respect to that available for general-prupose processors; thus, the implementation of algorithms need to be addressed carefully. Finally, Field Programmable Gate Arrays (FPGA) are programmable devices which can implement hardware logic with low latency, high parallelism and deep pipelines. Thes devices can be used to implement specific algorithms that need to run at very high speeds. However, their programmability is harder that software approaches and debugging is typically time-consuming. In this context where several alternatives for speeding up algorithms are available, our work aims at determining the main features of thes architectures and developing the required know-how to accelerate algorithm execution on them. We look at identifying those algorithms that may fit better on a given architecture as well as compleme
Resumo:
El nuevo escenario internacional produce lo que se ha dado en caracterizar como la globalización del derecho, especialmente en el ámbito de los derechos humanos. En este contexto se analiza la incidencia del Sistema Interamericano de protección de los Derechos Humanos con especial énfasis en el derecho de la información, desde la optica del derecho interno. Nos preguntamos acerca de cómo se presenta la tensión entre la lógica estatal con su rasgo de afirmación en la soberanía y monopolio en la creación de la jurisdicción doméstica, con la doctrina del derecho internacional de los derechos humanos, que consecuentemente conduce hacia una globalización jurídica de estos temas. Esto refleja un debilitamiento en el monopolio de creación y aplicación del derecho por parte de los Estados. A partir de este dato del escenario internacional buscamos determinar la incidencia de los informes de la Comisión Interamericana de Derechos Humanos y los pronunciamientos de la Corte Interamericana en materia de derecho de la información y su influencia en la jurisprudencia y creación de legislación en nuestro país. The new internacional scenario produces wtah has come to be characterized as the globalization of law, especially in the field of the human rights. In this context we analyze the impact of the Inter-American system of human Rights, whit particular emphasis on media law in domestic law
Resumo:
El mejoramiento animal tiene como función modificar genéticamente una población animal con un fin económico determinado. Las herramientas que se utilizan son: evaluación genética, selección y/o esquemas de apareamiento. La evaluación genética se realiza obteniendo información (marcadores) que predice el genotipo del animal que no es registrable directamente. Estos marcadores son el fenotipo o información física del animal y algún predictor del genotipo que puede ser un marcador químico o la relación de parentesco con otro animal. El uso de los marcadores genéticos para determinar la genealogía está en desarrollo actualmente pero resulta extremadamente costoso para ciertos niveles de producción. Los dispositivos electrónicos ensayados hasta el momento no han resultado muy eficientes, por lo tanto se propone para este proyecto desarrollar un sistema electrónico de identificación animal que permita construir matrices de genealogía para la evaluación genética de reproductores de las diferentes especies en condiciones de producción extensivas. El proyecto se desarrollará entre especialistas en mejoramiento animal e ingenieros electrónicos, en un aporte multidisciplinario a la solución del problema de establecer la filiación a través del armado del para macho-hembra durante el servicio natural de las distintas especies y el par madre-cría en algún momento luego del parto. La solución propuesta consiste en la implementación de dispositivos electrónicos activos (microcontrolador y tranceptor de radiofrecuencia alimentados a batería) dispuestos como nodos de una red de sensores inalambricos. Estos dispositivos serán colocados en los animales tomados como objeto de estudio, y mediante el continuo intercambio de informacion entre ellos se genera una matriz de datos que permita a posterior establecer la relación que existe entre ellos a traves de la determinacion de la periodicidad de sus cercanias relativas.
Resumo:
Las ciudades de América Latina se han caracterizado por su patrón de segregación residencial socioeconómica (SRS). Sin embargo, a partir de la supremacía de la lógica del mercado inmobiliario y de suelo en dirección del desarrollo urbano, este fenómeno cobra relevancia debido a la profundización del mismo, produciéndose una mayor concentración de población homogénea en sectores específicos de la ciudad, que debilita las posibilidades de interrelación entre los distintos grupos sociales. Asimismo, se evidencia que la localización territorial residencial se relaciona directamente con el acceso a servicios y consumos colectivos, representando una de las condiciones de inequidad social y reproducción de la pobreza en las ciudades, lo cual pone en tensión las reales posibilidades del disfrute del derecho a la ciudad por parte de todos los ciudadanos. En la ciudad de Córdoba, durante la última década, ante el desarrollo de los proyectos residenciales ejecutados por las empresas constructoras (countries, torres, etc) y de los complejos estatales de vivienda social en los sectores periféricos, el proceso de segregación socioeconómica residencial se ha ido (y se está) transformando. En este sentido, en este estudio nos interesa analizar el nivel SRS en la ciudad, así como las representaciones y prácticas de los distintos agentes involucrados en la construcción de los territorios urbanos. La hipótesis que orienta nuestro trabajo es que no siempre existen coincidencias entre las representaciones y prácticas de la ciudadanía afectada por situaciones de segregación y aquellas que tienen los sectores públicos y/o privados con incidencia también en estas problemáticas. De aquí que el propósito del trabajo sea confrontar las distintas miradas y acciones que coexisten en la construcción de estos territorios en la ciudad, y en base a ese diagnóstico, proponer estrategias de superación ante dichas tensiones e incompatibilidades.
Resumo:
En el presente proyecto se propone el diseño e implementación de una plataforma de sensado inalámbrico. Para ello, es necesario el desarrollo de un nodo de Red de Sensores Inalámbricos (WSN, Wireless Sensor Network) y su implementación (hardware y software) mediante el uso de dispositivos programables que integren recursos analógicos, digitales y de señal mixta reconfigurables. Además se propone el modelado de una interfaz de sensado para permitir la fácil adaptación de la red a diferentes aplicaciones. El concepto de abstracción de hardware es utilizado para permitir una rápida portabilidad de la misma a distintas plataformas de sistemas embebidos. Para llevar a cabo esta tarea, se debe realizar previamente una caracterización de los sensores más comúnmente utilizados en aplicaciones WSN.