12 resultados para Problemas de rotemento, Algoritmos em colônia de formiga
em Cor-Ciencia - Acuerdo de Bibliotecas Universitarias de Córdoba (ABUC), Argentina
Resumo:
El uso de robots industriales junto con los sistemas de diseño asistidos por computadora (CAD), y los sistemas de fabricación asistidos por computadora (CAM), son la última tendencia en automatización de los procesos de fabricación. Aunque el crecimiento del mercado de la industria Robótica ha sido lento en comparación con los primeros años de la década de los 80´s, de acuerdo a algunas predicciones, la industria de la robótica está en su infancia. Ya sea que éstas predicciones se realicen completamente, o no, es claro que la industria robótica, en una forma o en otra, permanecerá. En la actualidad el uso de los robots industriales está concentrado en operaciones muy simples, como tareas repetitivas que no requieren tanta precisión. En los 80´s las tareas relativamente simples como las máquinas de inspección, transferencia de materiales, pintado automotriz, y soldadura son económicamente viables para ser robotizadas. Los análisis de mercado en cuanto a fabricación predicen que en ésta década y en las posteriores los robots industriales incrementarán su campo de aplicación, ésto debido a los avances tecnológicos en sensórica, los cuales permitirán tareas mas sofisticadas. El futuro es muy incierto y seguramente los ROBOTS tendrán mucho que ver en nuestra vida diaria en los próximos años y tenemos que lograr que la Argentina no solo este presente, en desarrollos que ameriten una publicación Internacional, si no también que puedan ser, en conjunción con la Universidad, la industria y aportes de capitales privados, diseñados, construidos, aplicados y comercializados según las necesidades de nuestro medio, desde el reemplazo de miembros humanos a personas con discapacidades, el alivio al hombre en tareas inhumanas y también en aplicaciones industriales aun no explotadas. Actualmente la investigación en el área de robótica en la Argentina, esta enfocada a problemas de electrónica y control. La mecánica no forma parte de dicho ambiente científico como puede verse en las 4 últimas Jornadas Argentinas de Robótica. En todos los casos se trabaja en la investigación de algoritmos o métodos de control montados en pequeños robots comerciales. El proyecto ROBOT-01 propone la construcción de un manipulador de 7 grados de libertad, aplicando las mas modernas técnicas de Simulación, diseño, CAD-3D, materiales compuestos, construcción de micro-mecánica, electrónica y software. El brazo manipulador estará diseñado para ser continuado o asociado con una mano robótica y con una base móvil autónoma, las que serán encaradas en proyectos futuros, o con interacción con otros grupos de investigación similares de otras Universidades
Resumo:
Los proyectos geotécnicos, ya sean civiles, mineros, de desarrollo urbano, etcétera, en la medida que implican afectaciones del medio físico, necesitan disponer de un modelo geológico y geomecánico con fines de una concepción racional con dimensionamiento adecuado y seguro. En este sentido la línea de desarrollo e investigaciones ya comenzada en el marco interdisciplinario (geotécnico, matemático y computacional) tiende a instrumentar modelizaciones geológico-geotécnicas que de acuerdo a la experiencia de los directores resultan mayormente aplicables a la solución de problemas en el campo de la geomecánica. De este modo las actividades previstas en el presente plan de trabajo son las siguientes: 1. Cuantificación estocástica de la geometría de macizos rocosos. Se aplicarán nuevos aportes a la modelización estructural ya realizada, tendiente al abordaje estocástico de la bloquimetría de los macizos rocosos. 2. Estabilidad de Taludes por equilibrio límite, evaluación probabilística del factor de seguridad. Se investigarán aproximaciones probabilística de este tipo de falla, utilizando variables randómicas de input. 3. Modelo predictivo para la deformabilidad de macizos rocosos. Los estudios en este aspecto tratarán el desarrollo de un sistema analítico de evaluación, con base estadística y experimental orientado a la evaluación de la deformabilidad de los macizos rocosos fracturados. 4. Modelización estructural aplicada a la determinación de la permeabilidad de macizos rocosos. Se estudiarán relaciones entre el tensor de permeabilidad de los macizos rocosos y las condiciones de fracturamiento de los mismos.
Resumo:
Desde hace aproximadamente una década, pensadores de distintas corrientes filosóficas vienen discutiendo el tema de la fundamentación de las normas morales en estrecha vinculación con el problema de su aplicación en los contextos históricos y culturales y en la praxis individual. Esta discusión es amplia y notoria sobre todo entre aquellos filósofos que intentan contribuir a una ampliación de o complementación de la ética del discurso. (...) El tema del presente proyecto de investigación -"Fundamentación y problemas de aplicación de la ética del discurso"-reviste una relevancia no solo histórica sino también sistemática. Desde un punto de vista histórico-filosófico, las teorías éticas tradicionales han insistido o bien en la fundamentación o bien en la aplicación de la ética, pero la articulación entre teoría y praxis no ha sido y tratada con la seriedad y aptitud que requiere. Esta afirmación es válida para todas las teorías éticas en general, pero especialmente para las éticas de principios de origen Kantiano. La ética del discurso se propone justamente esta deficiencia a través de una tematización explícita de esta articulación. (...) 1. Ofrecer un panorama sistemático de la ética del discurso, desde sus inicios hasta el presente. 2. Mostrar las posibilidades y dificultades que se presentan a la ética del discurso en un intento de articular la fundamentación última de las normas morales con la aplicación de las normas bien fundamentadas a la praxis histórica e individual. 3. Analizar los resultados de las posiciones ético-filosóficas afines a la pragmática universal/trascendental que intentan una complementación y/o ampliación de la ética del discurso. 4. Presentar algunas posiciones ético-filosóficas latinoamericanas que -desde presupuestos teóricos y metodológicos diferentes a los enunciados por la posición ético-discursiva-ensayan una crítica superadora de la ética del discurso.
Resumo:
La verificación y el análisis de programas con características probabilistas es una tarea necesaria del quehacer científico y tecnológico actual. El éxito y su posterior masificación de las implementaciones de protocolos de comunicación a nivel hardware y soluciones probabilistas a problemas distribuidos hacen más que interesante el uso de agentes estocásticos como elementos de programación. En muchos de estos casos el uso de agentes aleatorios produce soluciones mejores y más eficientes; en otros proveen soluciones donde es imposible encontrarlas por métodos tradicionales. Estos algoritmos se encuentran generalmente embebidos en múltiples mecanismos de hardware, por lo que un error en los mismos puede llegar a producir una multiplicación no deseada de sus efectos nocivos.Actualmente el mayor esfuerzo en el análisis de programas probabilísticos se lleva a cabo en el estudio y desarrollo de herramientas denominadas chequeadores de modelos probabilísticos. Las mismas, dado un modelo finito del sistema estocástico, obtienen de forma automática varias medidas de performance del mismo. Aunque esto puede ser bastante útil a la hora de verificar programas, para sistemas de uso general se hace necesario poder chequear especificaciones más completas que hacen a la corrección del algoritmo. Incluso sería interesante poder obtener automáticamente las propiedades del sistema, en forma de invariantes y contraejemplos.En este proyecto se pretende abordar el problema de análisis estático de programas probabilísticos mediante el uso de herramientas deductivas como probadores de teoremas y SMT solvers. Las mismas han mostrado su madurez y eficacia en atacar problemas de la programación tradicional. Con el fin de no perder automaticidad en los métodos, trabajaremos dentro del marco de "Interpretación Abstracta" el cual nos brinda un delineamiento para nuestro desarrollo teórico. Al mismo tiempo pondremos en práctica estos fundamentos mediante implementaciones concretas que utilicen aquellas herramientas.
Resumo:
En este proyecto se desarrollarán algoritmos numéricos para sistemas no lineales hiperbólicos-parabólicos de ecuaciones diferenciales en derivadas parciales. Dichos sistemas tienen aplicación en propagación de ondas en ámbitos aeroespaciales y astrofísicos.Objetivos generales: 1)Desarrollo y mejora de algoritmos numéricos con la finalidad de incrementar la calidad en la simulación de propagación e interacción de ondas gasdinámicas y magnetogasdinámicas no lineales. 2)Desarrollo de códigos computacionales con la finalidad de simular flujos gasdinámicos de elevada entalpía incluyendo cambios químicos, efectos dispersivos y difusivos.3)Desarrollo de códigos computacionales con la finalidad de simular flujos magnetogasdinámicos ideales y reales.4)Aplicación de los nuevos algoritmos y códigos computacionales a la solución del flujo aerotermodinámico alrededor de cuerpos que ingresan en la atmósfera terrestre. 5)Aplicación de los nuevos algoritmos y códigos computacionales a la simulación del comportamiento dinámico no lineal de arcos magnéticos en la corona solar. 6)Desarrollo de nuevos modelos para describir el comportamiento no lineal de arcos magnéticos en la corona solar.Este proyecto presenta como objetivo principal la introducción de mejoras en algoritmos numéricos para simular la propagación e interacción de ondas no lineales en dos medios gaseosos: aquellos que no poseen carga eléctrica libre (flujos gasdinámicos) y aquellos que tienen carga eléctrica libre (flujos magnetogasdinámicos). Al mismo tiempo se desarrollarán códigos computacionales que implementen las mejoras de las técnicas numéricas.Los algoritmos numéricos se aplicarán con la finalidad de incrementar el conocimiento en tópicos de interés en la ingeniería aeroespacial como es el cálculo del flujo de calor y fuerzas aerotermodinámicas que soportan objetos que ingresan a la atmósfera terrestre y en temas de astrofísica como la propagación e interacción de ondas, tanto para la transferencia de energía como para la generación de inestabilidades en arcos magnéticos de la corona solar. Estos dos temas poseen en común las técnicas y algoritmos numéricos con los que serán tratados. Las ecuaciones gasdinámicas y magnetogasdinámicas ideales conforman sistemas hiperbólicos de ecuaciones diferenciales y pueden ser solucionados utilizando "Riemann solvers" junto con el método de volúmenes finitos (Toro 1999; Udrea 1999; LeVeque 1992 y 2005). La inclusión de efectos difusivos genera que los sistemas de ecuaciones resulten hiperbólicos-parabólicos. La contribución parabólica puede ser considerada como términos fuentes y tratada adicionalmente tanto en forma explícita como implícita (Udrea 1999; LeVeque 2005).Para analizar el flujo alrededor de cuerpos que ingresan en la atmósfera se utilizarán las ecuaciones de Navier-Stokes químicamente activas, mientras la temperatura no supere los 6000K. Para mayores temperaturas es necesario considerar efectos de ionización (Anderson, 1989). Tanto los efectos difusivos como los cambios químicos serán considerados como términos fuentes en las ecuaciones de Euler. Para tratar la propagación de ondas, transferencia de energía e inestabilidades en arcos magnéticos de la corona solar se utilizarán las ecuaciones de la magnetogasdinámica ideal y real. En este caso será también conveniente implementar términos fuente para el tratamiento de fenómenos de transporte como el flujo de calor y el de radiación. Los códigos utilizarán la técnica de volúmenes finitos, junto con esquemas "Total Variation Disminishing - TVD" sobre mallas estructuradas y no estructuradas.
Resumo:
Se propone desarrollar e integrar estudios sobre Modelado y Resolución de Problemas en Física que asumen como factores explicativos: características de la situación planteada, conocimiento de la persona que resuelve y proceso puesto en juego durante la resolución. Interesa comprender cómo los estudiantes acceden al conocimiento previo, qué procedimientos usan para recuperar algunos conocimientos y desechar otros, cuáles son los criterios que dan coherencia a sus decisiones, cómo se relacionan estas decisiones con algunas características de la tarea, entre otras. Todo ello con miras a estudiar relaciones causales entre las dificultades encontradas y el retraso o abandono en las carreras.Se propone organizar el trabajo en tres ejes, los dos primeros de construcción teórica y un tercero de implementación y transferencia. Se pretende.1.-Estudiar los procesos de construcción de las representaciones mentales en resolución de problemas de física, tanto en expertos como en estudiantes de diferentes niveles académicos.2.-Analizar y clasificar las inferencias que se producen durante las tareas de comprensión en resolución de problemas de física. Asociar dichas inferencias con procesos de transición entre representaciones mentales de diferente naturaleza.3.-Desarrollar materiales y diseños instruccionales en la enseñanza de la Física, fundamentado en un conocimiento de los requerimientos psicológicos de los estudiantes en diversas tareas de aprendizaje.En términos generales se plantea un enfoque interpretativo a la luz de marcos de la psicología cognitiva y de los desarrollos propios del grupo. Se trabajará con muestras intencionales de alumnos y profesores de física. Se utilizarán protocolos verbales y registros escritos producidos durante la ejecución de las tareas con el fin de identificar indicadores de comprensión, inferencias, y diferentes niveles de representación. Se prevé analizar material escrito de circulación corriente sea comercial o preparado por los docentes de las carreras involucradas.Las características del objeto de estudio y el distinto nivel de desarrollo en que se encuentran los diferentes ojetivos específicos llevan a que el abordaje contemple -según consideracion de Juni y Urbano (2006)- tanto la lógica cualitativa como la cuantitativa.
Resumo:
En la investigación anterior -en la zona pampeana de la Provincia de Córdoba- se demostró teórica y empíricamente, que el desarrollo de la Sociedad Civil muchas veces libradas a su suerte y con limitaciones legales apoyan decididamente el desarrollo local, sin embargo han logrado solo parcialmente sus objetivos, por lo que es necesario comenzar un camino de fortalecimiento en los nuevos roles que deben asumir. Los gobiernos locales, a la vez, intentan trabajosamente con contados éxitos detener el procesos de descapitalización social -financiera y humana- de sus comunidades locales y regionales, peregrinando con escaso éxito a los centros concentrados del poder político y económico, para procurar los recursos financieros y humanos necesarios que no alcanzan a reponer los que se fugan desde hace décadas de sus localidades. Las empresas, con ciclos recurrentes de crecimiento y decrecimiento vinculados a los mercados en que colocan sus productos, también se debaten en la búsqueda de los escasos recursos, financieros y humanos, que les permitan consolidar un desarrollo a mediano y largo plazo. El desarrollo alcanzado en Sistemas de información, instrumentos de relevamiento, análisis y elaboración de propuestas para el Desarrollo Local, nos permite avanzar en: 1. La confirmación empírica de las hipótesis iniciales - factores exógenos y endógenos - en la zona Norte y Serrana de la provincia 2. La validación científica -mediante el Análisis de ecuaciones estructurales. de tales supuestos, para el conjunto de las poblaciones analizadas en ambas etapas. 3. La identificación de los problemas normativos que afectan el desarrollo de las Organizaciones de la Sociedad Civil (OSC). METODOLOGÍA Respecto la validación empírica en la zona norte y serrana 1. Selección de las 4 localidades a relevar de acuerdo a las categorías definidas 2. Elaboración de acuerdos con autoridades e instituciones locales. 3. Relevamiento cualitativo con líderes locales y fuentes de datos secundarias. 4. Adaptación de instrumentos de relevamiento a las realidades locales y estudios previos 5. Relevamiento cuantitativo de campo, capacitación de encuestadores y supervisores. 6. Procesamiento y elaboración de informes finales locales. Respecto de la construcción de modelos de desarrollo 1. Desarrollar las dimensiones especificas y las variables (items) de cada factor crítico. 2. Revisar el instrumento con expertos de cada una de las dimensiones. 3. Validar a nivel exploratorio por medio de un Análisis de Componentes Principales 4. Someter a los expertos la evaluación de una serie de localidades que representan cada uno. Respecto de la identificación de las normas legales que afectan a la Sociedad Civil 1.Relevamiento documental de normas 2. Relevamiento con líderes de instituciones de la Sociedad Civil 3. Análisis de las normas vigentes 4. Elaboración de Informes Finales y Transferencia a líderes e instituciones
Resumo:
Identificación y caracterización del problema: El problema que guía este proyecto, pretende dar respuesta a interrogantes tales como: ¿De qué modo el tipo de actividades que se diseñan, se constituyen en dispositivos posibilitadores de la comprensión de los temas propios de cada asignatura, por parte de los alumnos? A partir de esta pregunta, surge la siguiente: Al momento de resolver las actividades, ¿qué estrategias cognitivas ponen en juego los estudiantes? y ¿cuáles de ellas favorecen procesos de construcción del conocimiento? Hipótesis: - Las asignaturas cuyas actividades están elaboradas bajo la metodología de Aprendizaje Basado en Problemas y Estudio de Casos, propician aprendizajes significativos por parte de los estudiantes. - Las actividades elaboradas bajo la metodología del Aprendizaje Basado en Problemas y el Estudio de Casos requieren de procesos cognitivos más complejos que los que se implementan en las de tipo tradicional. Objetivo: - Identificar el impacto que tienen las actividades de aprendizaje de tipo tradicional y las elaboradas bajo la metodología de Aprendizaje Basado en Problemas y Estudio de Casos, en el aprendizaje de los alumnos. Materiales y Métodos: a) Análisis de las actividades de aprendizaje del primero y segundo año de la carrera de Abogacía, bajo lamodalidad a Distancia. b) Entrevistas tanto a docentes contenidistas como así también a los tutores. c) Encuestas y entrevistas a los alumnos. Resultados esperados: Se pretende confirmar que las actividades de aprendizaje, diseñadas bajo la metodología del Aprendizaje Basado en Problemas y el Estudio de Casos, promueven aprendizajes significativos en los alumnos. Importancia del proyecto y pertinencia: La relevancia del presente proyecto se podría identificar a través de dos grandes variables vinculadas entre sí: la relacionada con el dispositivo didáctico (estrategias implementadas por los alumnos) y la referida a lo institucional (carácter innovador de la propuesta de enseñanza y posibilidad de extenderla a otras cátedras). El presente proyecto pretende implementar mejoras en el diseño de las actividades de aprendizaje, a fin de promover en los alumnos la generación de ideas y soluciones responsables y el desarrollo de su capacidad analítica y reflexiva.
Resumo:
En nuestro proyecto anterior aproximamos el cálculo de una integral definida con integrandos de grandes variaciones funcionales. Nuestra aproximación paraleliza el algoritmo de cómputo de un método adaptivo de cuadratura, basado en reglas de Newton-Cote. Los primeros resultados obtenidos fueron comunicados en distintos congresos nacionales e internacionales; ellos nos permintieron comenzar con una tipificación de las reglas de cuadratura existentes y una clasificación de algunas funciones utilizadas como funciones de prueba. Estas tareas de clasificación y tipificación no las hemos finalizado, por lo que pretendemos darle continuidad a fin de poder informar sobre la conveniencia o no de utilizar nuestra técnica. Para llevar adelante esta tarea se buscará una base de funciones de prueba y se ampliará el espectro de reglas de cuadraturas a utilizar. Además, nos proponemos re-estructurar el cálculo de algunas rutinas que intervienen en el cómputo de la mínima energía de una molécula. Este programa ya existe en su versión secuencial y está modelizado utilizando la aproximación LCAO. El mismo obtiene resultados exitosos en cuanto a precisión, comparado con otras publicaciones internacionales similares, pero requiere de un tiempo de cálculo significativamente alto. Nuestra propuesta es paralelizar el algoritmo mencionado abordándolo al menos en dos niveles: 1- decidir si conviene distribuir el cálculo de una integral entre varios procesadores o si será mejor distribuir distintas integrales entre diferentes procesadores. Debemos recordar que en los entornos de arquitecturas paralelas basadas en redes (típicamente redes de área local, LAN) el tiempo que ocupa el envío de mensajes entre los procesadores es muy significativo medido en cantidad de operaciones de cálculo que un procesador puede completar. 2- de ser necesario, paralelizar el cálculo de integrales dobles y/o triples. Para el desarrollo de nuestra propuesta se desarrollarán heurísticas para verificar y construir modelos en los casos mencionados tendientes a mejorar las rutinas de cálculo ya conocidas. A la vez que se testearán los algoritmos con casos de prueba. La metodología a utilizar es la habitual en Cálculo Numérico. Con cada propuesta se requiere: a) Implementar un algoritmo de cálculo tratando de lograr versiones superadoras de las ya existentes. b) Realizar los ejercicios de comparación con las rutinas existentes para confirmar o desechar una mejor perfomance numérica. c) Realizar estudios teóricos de error vinculados al método y a la implementación. Se conformó un equipo interdisciplinario integrado por investigadores tanto de Ciencias de la Computación como de Matemática. Metas a alcanzar Se espera obtener una caracterización de las reglas de cuadratura según su efectividad, con funciones de comportamiento oscilatorio y con decaimiento exponencial, y desarrollar implementaciones computacionales adecuadas, optimizadas y basadas en arquitecturas paralelas.
Resumo:
El avance en la potencia de cómputo en nuestros días viene dado por la paralelización del procesamiento, dadas las características que disponen las nuevas arquitecturas de hardware. Utilizar convenientemente este hardware impacta en la aceleración de los algoritmos en ejecución (programas). Sin embargo, convertir de forma adecuada el algoritmo en su forma paralela es complejo, y a su vez, esta forma, es específica para cada tipo de hardware paralelo. En la actualidad los procesadores de uso general más comunes son los multicore, procesadores paralelos, también denominados Symmetric Multi-Processors (SMP). Hoy en día es difícil hallar un procesador para computadoras de escritorio que no tengan algún tipo de paralelismo del caracterizado por los SMP, siendo la tendencia de desarrollo, que cada día nos encontremos con procesadores con mayor numero de cores disponibles. Por otro lado, los dispositivos de procesamiento de video (Graphics Processor Units - GPU), a su vez, han ido desarrollando su potencia de cómputo por medio de disponer de múltiples unidades de procesamiento dentro de su composición electrónica, a tal punto que en la actualidad no es difícil encontrar placas de GPU con capacidad de 200 a 400 hilos de procesamiento paralelo. Estos procesadores son muy veloces y específicos para la tarea que fueron desarrollados, principalmente el procesamiento de video. Sin embargo, como este tipo de procesadores tiene muchos puntos en común con el procesamiento científico, estos dispositivos han ido reorientándose con el nombre de General Processing Graphics Processor Unit (GPGPU). A diferencia de los procesadores SMP señalados anteriormente, las GPGPU no son de propósito general y tienen sus complicaciones para uso general debido al límite en la cantidad de memoria que cada placa puede disponer y al tipo de procesamiento paralelo que debe realizar para poder ser productiva su utilización. Los dispositivos de lógica programable, FPGA, son dispositivos capaces de realizar grandes cantidades de operaciones en paralelo, por lo que pueden ser usados para la implementación de algoritmos específicos, aprovechando el paralelismo que estas ofrecen. Su inconveniente viene derivado de la complejidad para la programación y el testing del algoritmo instanciado en el dispositivo. Ante esta diversidad de procesadores paralelos, el objetivo de nuestro trabajo está enfocado en analizar las características especificas que cada uno de estos tienen, y su impacto en la estructura de los algoritmos para que su utilización pueda obtener rendimientos de procesamiento acordes al número de recursos utilizados y combinarlos de forma tal que su complementación sea benéfica. Específicamente, partiendo desde las características del hardware, determinar las propiedades que el algoritmo paralelo debe tener para poder ser acelerado. Las características de los algoritmos paralelos determinará a su vez cuál de estos nuevos tipos de hardware son los mas adecuados para su instanciación. En particular serán tenidos en cuenta el nivel de dependencia de datos, la necesidad de realizar sincronizaciones durante el procesamiento paralelo, el tamaño de datos a procesar y la complejidad de la programación paralela en cada tipo de hardware. Today´s advances in high-performance computing are driven by parallel processing capabilities of available hardware architectures. These architectures enable the acceleration of algorithms when thes ealgorithms are properly parallelized and exploit the specific processing power of the underneath architecture. Most current processors are targeted for general pruposes and integrate several processor cores on a single chip, resulting in what is known as a Symmetric Multiprocessing (SMP) unit. Nowadays even desktop computers make use of multicore processors. Meanwhile, the industry trend is to increase the number of integrated rocessor cores as technology matures. On the other hand, Graphics Processor Units (GPU), originally designed to handle only video processing, have emerged as interesting alternatives to implement algorithm acceleration. Current available GPUs are able to implement from 200 to 400 threads for parallel processing. Scientific computing can be implemented in these hardware thanks to the programability of new GPUs that have been denoted as General Processing Graphics Processor Units (GPGPU).However, GPGPU offer little memory with respect to that available for general-prupose processors; thus, the implementation of algorithms need to be addressed carefully. Finally, Field Programmable Gate Arrays (FPGA) are programmable devices which can implement hardware logic with low latency, high parallelism and deep pipelines. Thes devices can be used to implement specific algorithms that need to run at very high speeds. However, their programmability is harder that software approaches and debugging is typically time-consuming. In this context where several alternatives for speeding up algorithms are available, our work aims at determining the main features of thes architectures and developing the required know-how to accelerate algorithm execution on them. We look at identifying those algorithms that may fit better on a given architecture as well as compleme
Resumo:
¿Qué es la metodología Kaizen y para que se utiliza? Kaizen, En japonés significa "mejora", o "cambio para la mejora" se refiere a la filosofía o las prácticas que se centran en la mejora continua de los procesos de fabricación, ingeniería y administración de empresas. La herramienta se implementó por primera vez en la industria japonesa después de la Segunda Guerra Mundial, logrando resultados destacables en el conjunto de industrias niponas. Desde sus inicios, la metodología se ha aplicado en múltiples proyectos industriales, de medicina, de estados de gobiernos, de empresas de servicios bancarios y otras industrias con excelentes resultados. Sin embargo no se han encontrado ejemplos directos en empresas de tipo agropecuario. Mediante la mejora de las operaciones y los procesos estandarizados, Kaizen tiene como objetivo eliminar todas aquellas operaciones o acciones que no contribuyen con las metas de la organización. En la actualidad la metodología Kaizen se ha extendido por todo el mundo y se está aplicando en diversos tipos de organizaciones. Distintas empresas adoptan la metodología y la modifican para darle las características particulares que se adapten al tipo de organización. ¿Por qué aplicar la metodología Kaizen en la producción en feedlot? Feedlot es un término inglés, de uso cada vez más frecuente en Argentina, para designar la versión contemporánea de lo que antaño eran los corrales de engorde de ganado. Está técnica está muy difundida entre los productores agropecuarios locales. Si bien es una técnica que ofrece muchas ventajas competitivas la misma ocasiona algunos problemas productivos recurrentes tales como enfermedades, maltrato animal, y otros inconvenientes relacionados con el medio ambiente. Durante la presente investigación se propone analizar las características de la producción en feedlot y adaptar e implementar el uso de la metodología Kaizen en la resolución de los problemas recurrentes que se dan en este tipo de prácticas agropecuarias.