742 resultados para APLICACIÓN DEL ENFOQUE DE SISTEMAS


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tesis considera dos tipos de aplicaciones del diseño óptico: óptica formadora de imagen por un lado, y óptica anidólica (nonimaging) o no formadora de imagen, por otro. Las ópticas formadoras de imagen tienen como objetivo la obtención de imágenes de puntos del objeto en el plano de la imagen. Por su parte, la óptica anidólica, surgida del desarrollo de aplicaciones de concentración e iluminación, se centra en la transferencia de energía en forma de luz de forma eficiente. En general, son preferibles los diseños ópticos que den como resultado sistemas compactos, para ambos tipos de ópticas (formadora de imagen y anidólica). En el caso de los sistemas anidólicos, una óptica compacta permite tener costes de producción reducidos. Hay dos razones: (1) una óptica compacta presenta volúmenes reducidos, lo que significa que se necesita menos material para la producción en masa; (2) una óptica compacta es pequeña y ligera, lo que ahorra costes en el transporte. Para los sistemas ópticos de formación de imagen, además de las ventajas anteriores, una óptica compacta aumenta la portabilidad de los dispositivos, que es una gran ventaja en tecnologías de visualización portátiles, tales como cascos de realidad virtual (HMD del inglés Head Mounted Display). Esta tesis se centra por tanto en nuevos enfoques de diseño de sistemas ópticos compactos para aplicaciones tanto de formación de imagen, como anidólicas. Los colimadores son uno de los diseños clásicos dentro la óptica anidólica, y se pueden utilizar en aplicaciones fotovoltaicas y de iluminación. Hay varios enfoques a la hora de diseñar estos colimadores. Los diseños convencionales tienen una relación de aspecto mayor que 0.5. Con el fin de reducir la altura del colimador manteniendo el área de iluminación, esta tesis presenta un diseño de un colimador multicanal. En óptica formadora de imagen, las superficies asféricas y las superficies sin simetría de revolución (o freeform) son de gran utilidad de cara al control de las aberraciones de la imagen y para reducir el número y tamaño de los elementos ópticos. Debido al rápido desarrollo de sistemas de computación digital, los trazados de rayos se pueden realizar de forma rápida y sencilla para evaluar el rendimiento del sistema óptico analizado. Esto ha llevado a los diseños ópticos modernos a ser generados mediante el uso de diferentes técnicas de optimización multi-paramétricas. Estas técnicas requieren un buen diseño inicial como punto de partida para el diseño final, que será obtenido tras un proceso de optimización. Este proceso precisa un método de diseño directo para superficies asféricas y freeform que den como resultado un diseño cercano al óptimo. Un método de diseño basado en ecuaciones diferenciales se presenta en esta tesis para obtener un diseño óptico formado por una superficie freeform y dos superficies asféricas. Esta tesis consta de cinco capítulos. En Capítulo 1, se presentan los conceptos básicos de la óptica formadora de imagen y de la óptica anidólica, y se introducen las técnicas clásicas del diseño de las mismas. El Capítulo 2 describe el diseño de un colimador ultra-compacto. La relación de aspecto ultra-baja de este colimador se logra mediante el uso de una estructura multicanal. Se presentará su procedimiento de diseño, así como un prototipo fabricado y la caracterización del mismo. El Capítulo 3 describe los conceptos principales de la optimización de los sistemas ópticos: función de mérito y método de mínimos cuadrados amortiguados. La importancia de un buen punto de partida se demuestra mediante la presentación de un mismo ejemplo visto a través de diferentes enfoques de diseño. El método de las ecuaciones diferenciales se presenta como una herramienta ideal para obtener un buen punto de partida para la solución final. Además, diferentes técnicas de interpolación y representación de superficies asféricas y freeform se presentan para el procedimiento de optimización. El Capítulo 4 describe la aplicación del método de las ecuaciones diferenciales para un diseño de un sistema óptico de una sola superficie freeform. Algunos conceptos básicos de geometría diferencial son presentados para una mejor comprensión de la derivación de las ecuaciones diferenciales parciales. También se presenta un procedimiento de solución numérica. La condición inicial está elegida como un grado de libertad adicional para controlar la superficie donde se forma la imagen. Basado en este enfoque, un diseño anastigmático se puede obtener fácilmente y se utiliza como punto de partida para un ejemplo de diseño de un HMD con una única superficie reflectante. Después de la optimización, dicho diseño muestra mejor rendimiento. El Capítulo 5 describe el método de las ecuaciones diferenciales ampliado para diseños de dos superficies asféricas. Para diseños ópticos de una superficie, ni la superficie de imagen ni la correspondencia entre puntos del objeto y la imagen pueden ser prescritas. Con esta superficie adicional, la superficie de la imagen se puede prescribir. Esto conduce a un conjunto de tres ecuaciones diferenciales ordinarias implícitas. La solución numérica se puede obtener a través de cualquier software de cálculo numérico. Dicho procedimiento también se explica en este capítulo. Este método de diseño da como resultado una lente anastigmática, que se comparará con una lente aplanática. El diseño anastigmático converge mucho más rápido en la optimización y la solución final muestra un mejor rendimiento. ABSTRACT We will consider optical design from two points of view: imaging optics and nonimaging optics. Imaging optics focuses on the imaging of the points of the object. Nonimaging optics arose from the development of concentrators and illuminators, focuses on the transfer of light energy, and has wide applications in illumination and concentration photovoltaics. In general, compact optical systems are necessary for both imaging and nonimaging designs. For nonimaging optical systems, compact optics use to be important for reducing cost. The reasons are twofold: (1) compact optics is small in volume, which means less material is needed for mass-production; (2) compact optics is small in size and light in weight, which saves cost in transportation. For imaging optical systems, in addition to the above advantages, compact optics increases portability of devices as well, which contributes a lot to wearable display technologies such as Head Mounted Displays (HMD). This thesis presents novel design approaches of compact optical systems for both imaging and nonimaging applications. Collimator is a typical application of nonimaging optics in illumination, and can be used in concentration photovoltaics as well due to the reciprocity of light. There are several approaches for collimator designs. In general, all of these approaches have an aperture diameter to collimator height not greater than 2. In order to reduce the height of the collimator while maintaining the illumination area, a multichannel design is presented in this thesis. In imaging optics, aspheric and freeform surfaces are useful in controlling image aberrations and reducing the number and size of optical elements. Due to the rapid development of digital computing systems, ray tracing can be easily performed to evaluate the performance of optical system. This has led to the modern optical designs created by using different multi-parametric optimization techniques. These techniques require a good initial design to be a starting point so that the final design after optimization procedure can reach the optimum solution. This requires a direct design method for aspheric and freeform surface close to the optimum. A differential equation based design method is presented in this thesis to obtain single freeform and double aspheric surfaces. The thesis comprises of five chapters. In Chapter 1, basic concepts of imaging and nonimaging optics are presented and typical design techniques are introduced. Readers can obtain an understanding for the following chapters. Chapter 2 describes the design of ultra-compact collimator. The ultra-low aspect ratio of this collimator is achieved by using a multichannel structure. Its design procedure is presented together with a prototype and its evaluation. The ultra-compactness of the device has been approved. Chapter 3 describes the main concepts of optimizing optical systems: merit function and Damped Least-Squares method. The importance of a good starting point is demonstrated by presenting an example through different design approaches. The differential equation method is introduced as an ideal tool to obtain a good starting point for the final solution. Additionally, different interpolation and representation techniques for aspheric and freeform surface are presented for optimization procedure. Chapter 4 describes the application of differential equation method in the design of single freeform surface optical system. Basic concepts of differential geometry are presented for understanding the derivation of partial differential equations. A numerical solution procedure is also presented. The initial condition is chosen as an additional freedom to control the image surface. Based on this approach, anastigmatic designs can be readily obtained and is used as starting point for a single reflective surface HMD design example. After optimization, the evaluation shows better MTF. Chapter 5 describes the differential equation method extended to double aspheric surface designs. For single optical surface designs, neither image surface nor the mapping from object to image can be prescribed. With one more surface added, the image surface can be prescribed. This leads to a set of three implicit ordinary differential equations. Numerical solution can be obtained by MATLAB and its procedure is also explained. An anastigmatic lens is derived from this design method and compared with an aplanatic lens. The anastigmatic design converges much faster in optimization and the final solution shows better performance.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La metodología Integrated Safety Analysis (ISA), desarrollada en el área de Modelación y Simulación (MOSI) del Consejo de Seguridad Nuclear (CSN), es un método de Análisis Integrado de Seguridad que está siendo evaluado y analizado mediante diversas aplicaciones impulsadas por el CSN; el análisis integrado de seguridad, combina las técnicas evolucionadas de los análisis de seguridad al uso: deterministas y probabilistas. Se considera adecuado para sustentar la Regulación Informada por el Riesgo (RIR), actual enfoque dado a la seguridad nuclear y que está siendo desarrollado y aplicado en todo el mundo. En este contexto se enmarcan, los proyectos Safety Margin Action Plan (SMAP) y Safety Margin Assessment Application (SM2A), impulsados por el Comité para la Seguridad de las Instalaciones Nucleares (CSNI) de la Agencia de la Energía Nuclear (NEA) de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) en el desarrollo del enfoque adecuado para el uso de las metodologías integradas en la evaluación del cambio en los márgenes de seguridad debidos a cambios en las condiciones de las centrales nucleares. El comité constituye un foro para el intercambio de información técnica y de colaboración entre las organizaciones miembro, que aportan sus propias ideas en investigación, desarrollo e ingeniería. La propuesta del CSN es la aplicación de la metodología ISA, especialmente adecuada para el análisis según el enfoque desarrollado en el proyecto SMAP que pretende obtener los valores best-estimate con incertidumbre de las variables de seguridad que son comparadas con los límites de seguridad, para obtener la frecuencia con la que éstos límites son superados. La ventaja que ofrece la ISA es que permite el análisis selectivo y discreto de los rangos de los parámetros inciertos que tienen mayor influencia en la superación de los límites de seguridad, o frecuencia de excedencia del límite, permitiendo así evaluar los cambios producidos por variaciones en el diseño u operación de la central que serían imperceptibles o complicados de cuantificar con otro tipo de metodologías. La ISA se engloba dentro de las metodologías de APS dinámico discreto que utilizan la generación de árboles de sucesos dinámicos (DET) y se basa en la Theory of Stimulated Dynamics (TSD), teoría de fiabilidad dinámica simplificada que permite la cuantificación del riesgo de cada una de las secuencias. Con la ISA se modelan y simulan todas las interacciones relevantes en una central: diseño, condiciones de operación, mantenimiento, actuaciones de los operadores, eventos estocásticos, etc. Por ello requiere la integración de códigos de: simulación termohidráulica y procedimientos de operación; delineación de árboles de sucesos; cuantificación de árboles de fallos y sucesos; tratamiento de incertidumbres e integración del riesgo. La tesis contiene la aplicación de la metodología ISA al análisis integrado del suceso iniciador de la pérdida del sistema de refrigeración de componentes (CCWS) que genera secuencias de pérdida de refrigerante del reactor a través de los sellos de las bombas principales del circuito de refrigerante del reactor (SLOCA). Se utiliza para probar el cambio en los márgenes, con respecto al límite de la máxima temperatura de pico de vaina (1477 K), que sería posible en virtud de un potencial aumento de potencia del 10 % en el reactor de agua a presión de la C.N. Zion. El trabajo realizado para la consecución de la tesis, fruto de la colaboración de la Escuela Técnica Superior de Ingenieros de Minas y Energía y la empresa de soluciones tecnológicas Ekergy Software S.L. (NFQ Solutions) con el área MOSI del CSN, ha sido la base para la contribución del CSN en el ejercicio SM2A. Este ejercicio ha sido utilizado como evaluación del desarrollo de algunas de las ideas, sugerencias, y los algoritmos detrás de la metodología ISA. Como resultado se ha obtenido un ligero aumento de la frecuencia de excedencia del daño (DEF) provocado por el aumento de potencia. Este resultado demuestra la viabilidad de la metodología ISA para obtener medidas de las variaciones en los márgenes de seguridad que han sido provocadas por modificaciones en la planta. También se ha mostrado que es especialmente adecuada en escenarios donde los eventos estocásticos o las actuaciones de recuperación o mitigación de los operadores pueden tener un papel relevante en el riesgo. Los resultados obtenidos no tienen validez más allá de la de mostrar la viabilidad de la metodología ISA. La central nuclear en la que se aplica el estudio está clausurada y la información relativa a sus análisis de seguridad es deficiente, por lo que han sido necesarias asunciones sin comprobación o aproximaciones basadas en estudios genéricos o de otras plantas. Se han establecido tres fases en el proceso de análisis: primero, obtención del árbol de sucesos dinámico de referencia; segundo, análisis de incertidumbres y obtención de los dominios de daño; y tercero, cuantificación del riesgo. Se han mostrado diversas aplicaciones de la metodología y ventajas que presenta frente al APS clásico. También se ha contribuido al desarrollo del prototipo de herramienta para la aplicación de la metodología ISA (SCAIS). ABSTRACT The Integrated Safety Analysis methodology (ISA), developed by the Consejo de Seguridad Nuclear (CSN), is being assessed in various applications encouraged by CSN. An Integrated Safety Analysis merges the evolved techniques of the usually applied safety analysis methodologies; deterministic and probabilistic. It is considered as a suitable tool for assessing risk in a Risk Informed Regulation framework, the approach under development that is being adopted on Nuclear Safety around the world. In this policy framework, the projects Safety Margin Action Plan (SMAP) and Safety Margin Assessment Application (SM2A), set up by the Committee on the Safety of Nuclear Installations (CSNI) of the Nuclear Energy Agency within the Organization for Economic Co-operation and Development (OECD), were aimed to obtain a methodology and its application for the integration of risk and safety margins in the assessment of the changes to the overall safety as a result of changes in the nuclear plant condition. The committee provides a forum for the exchange of technical information and cooperation among member organizations which contribute their respective approaches in research, development and engineering. The ISA methodology, proposed by CSN, specially fits with the SMAP approach that aims at obtaining Best Estimate Plus Uncertainty values of the safety variables to be compared with the safety limits. This makes it possible to obtain the exceedance frequencies of the safety limit. The ISA has the advantage over other methods of allowing the specific and discrete evaluation of the most influential uncertain parameters in the limit exceedance frequency. In this way the changes due to design or operation variation, imperceptibles or complicated to by quantified by other methods, are correctly evaluated. The ISA methodology is one of the discrete methodologies of the Dynamic PSA framework that uses the generation of dynamic event trees (DET). It is based on the Theory of Stimulated Dynamics (TSD), a simplified version of the theory of Probabilistic Dynamics that allows the risk quantification. The ISA models and simulates all the important interactions in a Nuclear Power Plant; design, operating conditions, maintenance, human actuations, stochastic events, etc. In order to that, it requires the integration of codes to obtain: Thermohydraulic and human actuations; Even trees delineation; Fault Trees and Event Trees quantification; Uncertainty analysis and risk assessment. This written dissertation narrates the application of the ISA methodology to the initiating event of the Loss of the Component Cooling System (CCWS) generating sequences of loss of reactor coolant through the seals of the reactor coolant pump (SLOCA). It is used to test the change in margins with respect to the maximum clad temperature limit (1477 K) that would be possible under a potential 10 % power up-rate effected in the pressurized water reactor of Zion NPP. The work done to achieve the thesis, fruit of the collaborative agreement of the School of Mining and Energy Engineering and the company of technological solutions Ekergy Software S.L. (NFQ Solutions) with de specialized modeling and simulation branch of the CSN, has been the basis for the contribution of the CSN in the exercise SM2A. This exercise has been used as an assessment of the development of some of the ideas, suggestions, and algorithms behind the ISA methodology. It has been obtained a slight increase in the Damage Exceedance Frequency (DEF) caused by the power up-rate. This result shows that ISA methodology allows quantifying the safety margin change when design modifications are performed in a NPP and is specially suitable for scenarios where stochastic events or human responses have an important role to prevent or mitigate the accidental consequences and the total risk. The results do not have any validity out of showing the viability of the methodology ISA. Zion NPP was retired and information of its safety analysis is scarce, so assumptions without verification or approximations based on generic studies have been required. Three phases are established in the analysis process: first, obtaining the reference dynamic event tree; second, uncertainty analysis and obtaining the damage domains; third, risk quantification. There have been shown various applications of the methodology and advantages over the classical PSA. It has also contributed to the development of the prototype tool for the implementation of the ISA methodology (SCAIS).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

IDENTIFICACIÓN DEL PROBLEMA DE ESTUDIO. Las sustancias orgánicas solubles en agua no biodegradables tales como ciertos herbicidas, colorantes industriales y metabolitos de fármacos de uso masivo son una de las principales fuentes de contaminación en aguas subterráneas de zonas agrícolas y en efluentes industriales y domésticos. Las reacciones fotocatalizadas por irradiación UV-visible y sensitizadores orgánicos e inorgánicos son uno de los métodos más económicos y convenientes para la descomposición de contaminantes en subproductos inocuos y/o biodegradables. En muchas aplicaciones es deseable un alto grado de especificidad, efectividad y velocidad de degradación de un dado agente contaminante que se encuentra presente en una mezcla compleja de sustancias orgánicas en solución. En particular son altamente deseables sistemas nano/micro -particulados que formen suspensiones acuosas estables debido a que estas permiten una fácil aplicación y una eficaz acción descontaminante en grandes volúmenes de fluidos. HIPÓTESIS Y PLANTEO DE LOS OBJETIVOS. El objetivo general de este proyecto es desarrollar sistemas nano/micro particulados formados por polímeros de impresión molecular (PIMs) y foto-sensibilizadores (FS). Un PIMs es un polímero especialmente sintetizado para que sea capaz de reconocer específicamente un analito (molécula plantilla) determinado. La actividad de unión específica de los PIMs en conjunto con la capacidad fotocatalizadora de los sensibilizadores pueden ser usadas para lograr la fotodescomposición específica de moléculas “plantilla” (en este caso un dado contaminante) en soluciones conteniendo mezclas complejas de sustancias orgánicas. MATERIALES Y MÉTODOS A UTILIZAR. Se utilizaran técnicas de polimerización en mini-emulsión para sintetizar los sistemas nano/micro PIM-FS para buscar la degradación de ciertos compuestos de interés. Para caracterizar eficiencias, mecanismos y especificidad de foto-degradación en dichos sistemas se utilizan diversas técnicas espectroscópicas (estacionarias y resueltas en el tiempo) y de cromatografía (HPLC y GC). Así mismo, para medir directamente distribuciones de afinidades de unión y eficiencia de foto-degradación se utilizaran técnicas de fluorescencia de molécula/partícula individual. Estas determinaciones permitirán obtener resultados importantes al momento de analizar los factores que afectan la eficiencia de foto-degradación (nano/micro escala), tales como cantidad y ubicación de foto- sensibilizadores en las matrices poliméricas y eficiencia de unión de la plantilla y los productos de degradación al PIM. RESULTADOS ESPERADOS. Los estudios propuestos apuntan a un mejor entendimiento de procesos foto-iniciados en entornos nano/micro-particulados para aplicar dichos conocimientos al diseño de sistemas optimizados para la foto-destrucción selectiva de contaminantes acuosos de relevancia social; tales como herbicidas, residuos industriales, metabolitos de fármacos de uso masivo, etc. IMPORTANCIA DEL PROYECTO. Los sistemas nano/micro-particulados PIM-FS que se propone desarrollar en este proyecto se presentan como candidatos ideales para tratamientos específicos de efluentes industriales y domésticos en los cuales se desea lograr la degradación selectiva de compuestos orgánicos. Los conocimientos adquiridos serán indispensables para construir una plataforma versátil de sistemas foto-catalíticos específicos para la degradación de diversos contaminantes orgánicos de interés social. En lo referente a la formación de recursos humanos, el proyecto propuesto contribuirá en forma directa a la formación de 3 estudiantes de postgrado y 2 estudiantes de grado. En las capacidades institucionales se contribuirá al acondicionamiento del Laboratorio para Microscopía Óptica Avanzada (LMOA) en el Dpto. de Química de la UNRC y al montaje de un sistema de microscopio de fluorescencia que permitirá la aplicación de técnicas avanzadas de espectroscopia de fluorescencia de molecula individual.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La higiene de los alimentos para el consumo humano es un derecho que tienen todas las personas, pues esto les evita daños a la salud. La incidencia de las enfermedades por transmisión alimentaria ha ido en aumento, y pueden llevar en muchos casos incluso hasta la muerte. Asimismo, hay efectos negativos en el deterioro de los alimentos, significan costos y pérdidas económicas para los países. Estas son razones por las que se deben tener sistemas que aseguren la higiene de los alimentos. Los riesgos alimentarios pueden ser de tipo microbiológico, residuos de plaguicidas, utilización inadecuada de los aditivos alimentarios, contaminantes químicos, incluidas las toxinas biológicas, adulteraciones. Así también se pueden incluir organismos genéticamente modificados, alérgenos, residuos de medicamentos veterinarios y hormonas. Por estas razones, es necesario un control eficaz de la higiene para evitar las enfermedades y por el daño en alimentos a la economía de un país. Cada vez que un consumidor paga por un alimento, bien sea para consumo inmediato o para un proceso de cocción y luego ser ingerido, espera que lo puede consumir sin ningún peligro, ya que confía en que las autoridades sanitarias encargadas en cada uno de los eslabones de la cadena alimenticia (Finca, Planta, Expendio, Comercio, Transporte) han desarrollado actividades que le den la garantía al consumidor de pagar por el producto e ingerirlo sin pensar en que afectará su salud. Hoy en día, se observa, como sigue en aumento los índices de Enfermedades Transmitidas por Alimentos (ETA´s), mientras que, los esfuerzos por disminuir e identificar las fallas en el aseguramiento de la inocuidad de los alimentos en todo el proceso son insuficientes. El Gobierno de Nicaragua, ha tomado conciencia y se está preparando para los próximos desafíos que presentará el comercio mundial en cuanto a garantizar productos de alta calidad e inocuidad. Por lo tanto, el MAG para mejorar y asegurar la inocuidad de los productos de origen animal y vegetal se ha basado en la implementación del sistema HACCP cuyo enfoque principal es la seguridad alimentaria y nutricional, en conjunto con la implementación de los programas prerrequisitos como son las Buenas Prácticas Agrícolas (BPA), Buenas Prácticas de manufactura (BPM), Programas de Operación y Sanitización (SOP's).(Picado, 2002).El objetivo del presente estudio de caso fue: Contrastar la aplicación de las normas Sistemas de Análisis de Peligro y Puntos Críticos de Control (HACCP) en el periodo 2014 – 2015, en el MATADERO NICA BEEF PACKERS S.A, que funciona en el municipio de Condega, Departamento de Estelí, Nicaragua. Para alcanzar el objetivo se aplicó una metodología comparativa entre un estudio anterior y las nuevas realidades generadas en la empresa, apoyándonos para tal efecto de técnicas e instrumentos aplicados por la ciencia como son: la entrevista, la observación, el análisis documental, y programas de aplicación Microsoft Word y Excel 2010, las que fueron utilizadas pertinentemente en su momento, permitiendo el procesamiento de datos y su posterior análisis. El punto de partida de este proceso investigativo fue la búsqueda de información relacionada al objeto de estudio, determinándose los tres puntos críticos de control y las variables que influyen en el fenómeno estudiado.. Las variables tomadas en cuenta fueron: Buenas prácticas de manufacturación, Procedimientos operativos estandarizados de Higiene, Análisis de riesgos, identificación y control de puntos críticos (HACCP). En lo concerniente a la primer variable las buenas prácticas de manufactura que realiza el personal de la empresa, se cumplen en un 91 % en ambos estudios, destacándose en forma ascendente las condiciones de edificio con el 94% y el personal con 93%; la segunda variable referida a los Procedimientos Operacionales Estándares (POE), se cumplen en un 88.65 %, ubicándose en un lugar privilegiado la salud de los trabajadores al tener 99% de cumplimiento. En promedio estos prerrequisitos generales se cumplen en un 89.82 %. La tercera variable las acciones correctivas de los PCC del sistema HACCP presentaron un 95.22% de cumplimiento, mostrando así que los equipos de trabajo de la empresa tienen un alto grado de conocimiento y la práctica requerida para las labores que realizan; en esta última sobresale el PCC N°2 que en cuanto a intervención antimicrobiano tuvo el 100% de cumplimiento, y un rango aceptable en la concentración de la solución de ácido orgánico de 1.5 a 2% y pH entre 3 y 4.4 unidades después del rociado,. En el PCC N°3 relacionada a la etapa de enfriamiento, se está cumpliendo con las normas establecidas en el reglamento HACCP, manteniendo temperatura de canales ≤ 8.33333 Grados Celsius, y 24 horas de refrigeración, impidiendo todas estas aplicaciones el desarrollo de bacterias patógenas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La economía salvadoreña está inmersa en un proceso de acomodamiento, tanto por la crisis mundial como nacional. El cambio de gobierno a partir del uno de junio de 2009 presenta nuevas perspectivas para la mediana empresa, ya que durante los veinte años del gobierno de ARENA, este sector quedó marginado de muchos beneficios que fueron otorgados a la gran empresa. La industria de muebles está obligada a innovar los mercados nacionales y tratar de penetrar los mercados internacionales. Dentro de esta panorámica la asignación de costos es fundamental y los sistemas tradicionales que se aplican actualmente no dan respuestas optimas a la realidad actual, es por ello que se propone en este trabajo la aplicación del sistema de Costos Basado en Actividades (ABC, por sus siglas en ingles), como una respuesta a la problemática de la asignación de los costos; sobre todo los costos indirectos de producción. En la investigación se estudió una muestra de 18 empresas que elaboran muebles, ubicados dentro de la Zona Metropolitana de San Salvador y por varios parámetros aplicados por FUSADES están clasificadas como medianas empresas. Según esta investigación, las empresas que se dedican a la elaboración de muebles, están inconformes con los resultados actuales en cuanto a la asignación de costos, ya que aplican sistemas de costeo que no muestran con precisión los costos reales; los métodos tradicionales que actualmente utilizan, se basan en los volúmenes, por lo tanto no proporcionan una base razonable, para la determinación de los costos. Es evidente que la mayoría de empresas encuestadas están expandiendo su mercado y exigen tomar decisiones eficaces sobre bases sólidas que les permita ser competitivas en el mediano y largo plazo. El desarrollo de la aplicación de costos ABC, para la mediana industria de muebles, se presenta a través de un caso práctico realizado sobre bases reales ya que la Empresa DIESA, S. A. de C. V., facilitó la información necesaria para su elaboración. Lo que permite representar una base teórica y práctica para todo tipo de negocio, puesto que los costos ABC, tienen aplicación dentro de cualquier sector económico, sea comercial, industrial o de servicio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ante la problemática observada sobre el poco volumen y la baja calidad de inventarios, necesarios para poder cubrir las demandas requeridas y como respuesta a la necesidad de determinar una alternativa, por medio de la identificación de variables que intervienen negativamente en el mismo. Se efectuó esta investigación que tiene por finalidad realizar un análisis de proyecto de inversión el cual permita crear los insumos y productos que posibilite un fortalecimiento, crecimiento y expansión de la compañía. En tal sentido se planteó como objetivo primordial la determinación de viabilidad en la implementación de un plan a largo plazo; el estudio se desarrolló bajo el enfoque analítico descriptivo, que mediante técnicas e instrumentos como el cuestionario, muestreo y la sistematización bibliográfica permitió determinar las valoraciones y conclusiones siguientes: Casi todas las empresas en estudio utilizan indicadores financieros, tales como rotación de efectivo, cuentas por cobrar, cuentas por pagar, entre otros para realizar su gestión empresarial de una manera eficiente y eficaz, no obstante, la aplicación de los mismo no les ha generado un crecimiento en ventas generalizados, así como tampoco la suficiente liquidez para auto financiarse. Además, se puede apreciar la aceptación de la idea en la implementación de un proyecto, que permitiría ampliar sus horizontes de mercado, bajar los costos y mejorar la calidad de sus productos. También a través del estudio de razones e indicadores financieros así como el análisis vertical y horizontal, fue posible medir la capacidad financiera de la compañía dando un resultado positivo para la aplicación del plan de inversión de tal envergadura, la cual cambiaría el rumbo en la ampliación de la actividad económica generando con ello rentabilidades esperadas. Partiendo de esto se recomienda: que la compañía debe evaluar el resultado del análisis de factibilidad con el objeto de determinar la conveniencia en la implementación del programa en el año 2011, esperando la recuperación económica proyectada por FUSADES para 2010. Se espera que la información contenida en esta investigación sea de mucha ayuda para aquellas empresas dedicadas a comercializar sistemas de manejo de agua, que deseen utilizar una guía al momento de elaborar estudio de viabilidad en la implementación de un programa generando un valor agregado en la toma de decisiones.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Una guía para la evaluación de los sistemas de control interno bajo la perspectiva de un enfoque COSO, en las Instituciones Financieras no Bancarias en el área de cartera de préstamos, consiste; en hacer posible que la unidad de auditoria interna de estas entidades, exprese una opinión sobre si la ejecución de auditoria está enfocada respecto a todo lo sustancial, de acuerdo a un marco de referencia para reportes emitidos como criterio básico, para la evaluación de controles internos implementados por la administración dentro de esa área, cuyo fin es optimizar dicho examen, mejorando de manera notable su calidad reflejada en los resultados. La investigación se enfocó bajo el objetivo de desarrollar técnicas y procedimientos de Auditoría de Interna que ayuden a mejorar la calidad con que se confeccionan los programas de auditoria y planificación de esta, generando así mecanismos para determinar si los resultados alcanzados por los programas han generado el impacto esperado. En el Capítulo I, Marco Teórico evidencian las simientes que dan pauta a la investigación. Se establecen los antecedentes históricos de la Auditoría como profesión y su posterior desarrollo desde su nacimiento hasta el día de hoy; además de, la historia y evolución del enfoque COSO. De igual manera se detallan diferentes definiciones de la Actividad. Dado el área de investigación, la temática se centra en la Auditoría Interna basada en un enfoque COSO para controles internos; haciendo referencia a los tipos de control existentes y base legal para su ejecución, principios generales de Auditoría y procedimientos de Auditoría. El Capítulo II describe la Metodología de la Investigación y sus diferentes etapas. El estudio se llevó a cabo en las Instituciones Financiera no Bancarias. De acuerdo con lo anterior, la población analizada está formada por siete instituciones de este tipo, analizando específicamente las Unidades de Auditoría Interna. La recolección de datos se estableció mediante la consulta bibliográfica en relación al tema. El Análisis y Presentación de los Resultados Obtenidos se representa en el diagnóstico de los resultados, este se realizó considerando las acciones concretas realizadas por las entidades investigadas en torno al área de cartera de préstamos, presentando los resultados obtenidos de acuerdo a una auditoria interna basada en un enfoque COSO. En el Capítulo III se desarrolla la Propuesta de una guía para la evaluación de los sistemas de control interno bajo la perspectiva de un enfoque COSO en las Instituciones Financieras no Bancarias en el área de cartera de préstamos. La propuesta persigue coadyuvar en el desempeño del trabajo de las Unidades de Auditoria Interna y sus principales necesidades, y con ésta se busca proporcionar una herramienta para facilitar los exámenes en el área del desempeño de las carteras de préstamos. Se pretende llenar las necesidades de control expresadas en la investigación, organizando el trabajo de Auditoría de acuerdo a las necesidades reales y emergentes de las Instituciones Financieras no Bancarias. En el Capítulo IV se concluye que debido a la centralización de los diseños de control por parte de la administración no se ejecutan de acuerdo lo planificado, pues las evaluaciones se enfocan hacia la ejecución financiero-presupuestaria y no hacia aspectos de calidad.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El origen del presente trabajo titulado “GUIA BASICA PARA EVALUAR EL CONTROL INTERNO BAJO UN ENFOQUE INTEGRAL FUNDAMENTADO EN EL INFORME DEL COMITÉ DE LA ORGANIZACIÓN DE PATROCINIO DE LA COMISION DE MARCAS (COSO)”, se fundamenta en el crecimiento de la actividad económica mundial; es así como, la globalización ha generado que las empresas formen alianzas estratégicas para ser más competitivas en el mercado, esto conlleva a que sus operaciones se incrementen generándose la necesidad de sistematizarlas para alcanzar sus objetivos de una manera más ágil y eficientes. Para el desarrollo de la investigación se utilizó el estudio analítico con el fin de comprender la problemática identificada, para lo cual se consideró como unidad de observación las personas jurídicas que prestan servicios de auditoría externa, de los cuales se seleccionó una muestra para obtener información acerca del conocimiento y aplicación del informe de COSO, en tal sentido se diseñó un cuestionario para recabar información al respecto y este fue dirigido a los profesionales en contaduría pública. Los resultados obtenidos se analizaron e interpretaron por medio de una tabulación cruzada, esta consistió en la combinación de dos preguntas con sus respectivas respuestas, que guardan relación entre sí. La información recopilada reveló que la evaluación del control interno de acuerdo al informe de COSO no está siendo aplicada como tal. Por lo cual los profesionales en contaduría pública expresaron sus inquietudes acerca de la elaboración de una guía diseñada de acuerdo a los criterios del COSO para realizar la mencionada evaluación. En función a lo anterior se propuso una guía bajo este enfoque.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Actualmente encontramos una fuerte presión en las organizaciones por adaptarse a un mundo competitivo con un descenso en las utilidades y una incertidumbre constante en su flujo de caja. Estas circunstancias obligan a las organizaciones al mejoramiento continuo buscando nuevas formas de gestionar sus procesos y sus recursos. Para las organizaciones de prestación de servicios en el sector de telecomunicaciones una de las ventajas competitivas más importantes de obtener es la productividad debido a que sus ganancias dependen directamente del número de actividades que puedan ejecutar cada empleado. El reto es hacer más con menos y con mejor calidad. Para lograrlo, la necesidad de gestionar efectivamente los recursos humanos aparece, y aquí es donde los sistemas de compensación toman un rol importante. El objetivo en este trabajo es diseñar y aplicar un modelo de remuneración variable para una empresa de prestación de servicios profesionales en el sector de las telecomunicaciones y con esto aportar al estudio de la gestión del desempeño y del talento humano en Colombia. Su realización permitió la documentación del diseño y aplicación del modelo de remuneración variable en un proyecto del sector de telecomunicaciones en Colombia. Su diseño utilizó las tendencias de programas remunerativos y teorías de gestión de desempeño para lograr un modelo integral que permita el crecimiento sostenido en el largo plazo y la motivación al recurso más importante de la organización que es el talento humano. Su aplicación permitió también la documentación de problemas y aciertos en la implementación de estos modelos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente Estudio de Caso tiene por objetivo determinar el alcance que tiene el Enfoque de Género de ACNUR, en la garantía de los derechos fundamentales de las mujeres y las niñas en el Campamento de Refugiados de Dadaab entre 1998 y 2010. La implementación del Enfoque resulta insuficiente en el proceso de defensa de los derechos de la población femenina, pues los problemas que enfrentan han aumentado a pesar de la ayuda humanitaria brindada por organizaciones internacionales. La iniciativa de ACNUR de mejorar las condiciones de las mujeres refugiadas, se materializa en el Enfoque de Género, no obstante los resultados de su aplicación no son los esperados. El carácter correlacional y analítico de la investigación responde al enfoque cualitativo utilizado, con el propósito de entender los retos que representa Dadaab en la aplicación de un proyecto internacional.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Se presenta metodología general del enfoque de riesgo a través de la tecnología de los Sistemas de Información Geográfcos, la evolución de los conceptos del enfoque integral de riesgo como apoyo a la Gestión de las Cuencas Hidrográfcas y su evolución. Mediante ejemplos de proyectos realizados con base en una metodología integradora en la variable de riesgo, que es útil, para realizar un ordenamiento integral de los recursos ambientales (biofísicos, socioeconómico-culturales) a nivel de la Cuenca Hidrográfca.El grado de riesgo se determina, partiendo de que el riesgo se entiende como una evaluación cognoscitiva de las pérdidas que pueden ocurrirle a un elemento expuesto, de acuerdo con sus características, su situación y un contexto particular de tiempo y de espacio, el análisis, cuantifca espacialmente el grado de riesgo, utilizando la tecnología SIG.El modelo general de ordenamiento territorial con énfasis en prevención en el que se considere el riesgo como una función de la amenaza y de la vulnerabilidad, esto es, r = f(A,V) Finalmente, se  introduce  la evolución de  los conceptos con el aporte de  los escenarios de amenazas y el manejo de la vulnerabilidad socioeconómica que permite aplicar el enfoque de riesgo integral, por medio de la tecnología SIG.Palabras claves: Amenaza, vulnerabilidad, riesgo, manejo integrado de recursos naturales,ordenamiento territorial, Sistemas de Información Geográfcos.Abstract General methodology of focusing on risk is presented through the technology of the Geographic Information System (GIS), the evolution of the concepts of the integral focus of risk as a support to the management of Hydrographic Watershed and its evolution.Through  examples of  completed projects,  an  integrative methodology  is made of  the  risk variable that is useful to achieving an integral ordering of the environmental resources (biophysics, socioeconomic-cultural) at the Hydrographic Watershed level.The risk degree is determined, starting form the premise that the risk can be understood as a cognitive evaluation from the losses that can happen to an exposed element, according to their characteristics, situation and a particular context of time and space, the quantifed analysis, especially of the degree of risk, using GIS technology.The general model of territorial ordering, with emphasis on prevention and what is considered the risk as a function of the hazard and the vulnerability, that is: r = f(A, V).Finally, evolution of the concepts is introduced, with the contribution of the hazard scenarios and management of the socioeconomic vulnerability that allows application of the risk focus, by GIS technology.Key words: hazards, vulnerability, risk, integrated management of natural resources, territorial ordering, GIS, Geographic Information Systems.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El ensayo se llevó a cabo en la Estación Experimental La Compañía, Cerezo. Se estudió el efecto de tres niveles de nitrógeno (0, 50 y 100 kg/ha), dos fraccionamientos (25-75 % y 50-50%) y dos momentos de aplicación del nitrógeno (0-16 y 0-22 días después de la siembra) sobre el crecimiento. desarrollo y rendimiento del maíz (Zea mays L.), variedad NB-12, se estableció el experimento utilizando el diseño trifactorial modificado en bloques completos al azar con cinco repeticiones, realizado en época de postrera del 25 de Agosto al 13 de Diciembre de 1989. En los resultados obtenidos indican que hubo relaten positiva del factor nitrógeno sobre el crecimiento vegetativo de cultivo, siendo la mejor con el nivel de 100 kg/ha. Presentando un similar comportamiento los fraccionamientos y los momentos de aplicación. Los análisis realizados demuestran diferencias significativas para los diferentes niveles de nitrógeno sobre el rendimiento y sus componentes principales, obteniéndole el mayor rendimiento Con 100 kg/ha de nitrógeno, no así para el fraccionamiento y momentos de aplicación que no presentaran diferencias significativas. Entre las diferentes interacciones no hubieron diferencias significativas sobre el rendimiento y sus componentes principales, sin embargo se produjo la mejor respuesta con la combinación de 100 kg/ha de nitrógeno, fraccionándolo en 50-50 Y. aplicado a la siembra y 16 días después.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Durante la época de primera (junio a septiembre de 1995) se llevó a cabo el presente experimento en la finca experimental La Compañía, localizada en el municipio de San Mareos, Carazo. Los objetivos perseguidos fueron evaluar la influencia de dos sistemas de labranza y tres métodos de control de malezas sobre el comportamiento de la malezas y el crecimiento y rendimiento del cultivo de maíz. (Zea mays L.), así como analizar desde el punto de vista económico la factibilidad de los tratamientos evaluados. Los factores incluidos en el experimento fueron establecidos en diseño de parcelas divididas con distribución en bloques completos al azar, con cuatro repeticiones, constituyéndose en la parcela principal , la labranza del suelo (cero y mínima) y los controles de malezas en las sub-parcelas, estos fueron: paraquat más chapia(pre-emergente y control mecánico a los 28 dias después de la siembra), paraquat (pro-emergente) y paraquat más paraquat (pre-emergente y post-emergente). Los resultados obtenidos muestran que el sistema de labranza cero presentó la mayor abundancia, cobertura y biomasa de malezas. El método de control de malezas que reflejó el mejor efecto sobre las malezas fue el control a base de pre más post-emergente, el cual obtuvo los menores valores en abundancia, diversidad, cobertura y biomasa de malezas. Los mejores resultados en cuanto a rendimiento se obtuvieron con labranza cero y control a base de pre-emergente más chapia. En lo que respecta a variables de crecimiento del cultivo, los sistemas de labranzas y controles de malezas no manifestaron diferencias significativas sobre las variables en estudio. El sistema de labranza que ofrece mayores beneficios netos y mejores rendimientos fue labranza cero. En cuanto a los controles de malezas, el mejor rendimiento y mejor rentabilidad se obtuvo con el control a base de pre-emergente más chapia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Resumen: En la región semiárida central, las gramíneas perennes megatérmicas contribuyen a disminuir los riesgos de erosión, a incrementar la receptividad en los sistemas de producción basados en pastizales naturales y a disminuir los costos de producción. Una de las especies de mayor difusión es pasto llorón (Eragrostis curvula). La resistencia a las bajas temperaturas invernales (-17°C), alta producción primaria y resistencia al pastoreo son algunas de las virtudes de esta especie. No obstante, durante el semestre frío y seco (otoño-invierno) el valor nutritivo del forraje diferido es muy bajo. La suplementación con concentrados energéticos –proteicos soluciona este problema, aunque incrementa los costos y complica el manejo. La identificación y evaluación de otras especies con características semejantes a pasto llorón, pero de mayor valor nutritivo sobre todo durante el invierno, fue una línea de trabajo importante en el INTA San Luis. De éste trabajo, surgieron dos especies actualmente en difusión en los sistemas de producción, a saber: Digitaria (Digitaria eriantha) y Mijo perenne (Panicum coloratum). Si bien la adopción de esta tecnología es importante, podría ser aún más elevada. Las dificultades de implantación es una causa relevante, sobre todo en potreros que han sido cultivados con especies anuales durante muchos años. En estos sitios, existe un importante banco de semilla de malezas gramíneas, que dificultan el control sin afectar la digitaria. El desarrollo de herbicidas preemergentes con gran poder residual, como así de compuestos químicos que funcionan como antídotos para proteger las especies que son afectadas por estos herbicidas, podrían resultar valiosos. Se dispone en el mercado de herbicidas de presiembra o preemergentes residuales formulados en base a acetamidas, a saber: i) S-metolaclor y ii) Acetoclor que controlan un amplio espectro de malezas incluidas las malezas problemas mencionadas. También se dispone de una sustancia química que funciona como antídoto-protector (fluxofenin) con el nombre comercial de Concep II y es utilizado para sembrar exitosamente el cultivo de sorgo. Se desconoce si éste compuesto podría proteger a las plántulas de digitaria y panicum. Se hipotetiza que la aplicación en el suelo de los herbicidas mencionados y la posterior siembra de semillas de digitaria y panicum protegidas con antídoto, no afectaría la germinación ni el desarrollo normal de plántulas de ambas especies. El objetivo de éste trabajo fue evaluar el efecto del antídoto, de los herbicidas y de la combinación de ambos sobre la germinación, crecimiento y sobrevivencia de plántulas de digitaria y panicum. El trabajo se desarrolló en el Laboratorio de semillas de la EEA San Luis del INTA, próxima a la ciudad de Villa Mercedes (Pcia. de San Luis). Se diseñaron 12 tratamientos con cuatro repeticiones para evaluar el efecto de cuatro dosis de antídoto (0; 20; 40 y 60 cc cada 100 kg de semilla) sin la aplicación de herbicidas (Sin), y la combinación de cada dosis de antídoto con dos herbicidas: SM (S-metolaclor) y A (Acetoclor) con la dosis recomendada comercialmente. Los tratamientos fueron: T1= (0:Sin); T2=(20:Sin); T3=(40:Sin); T4=(60:Sin); T5=(20:SM); T6=(40:SM); T7= (60:SM); T8=(20:A); T9=(40:A); T10=(60:A); T11=(0:SM); T12=(0:A). Se utilizaron 48 bandejas de plástico por especie forrajera de 15x10x3,5 cm, con 150 Se realizó la siembra al voleo con 0,5 gr de semilla en cada bandeja. Se compactó en forma semejante y cada bandeja se colocó en una bolsa de nylon para evitar la deshidratación. Luego se llevaron las 96 bandejas (2 especies forrajeras por 12 tratamientos por 4 repeticiones) a la cámara de cultivo con 30°C con 8 hs de luz y 20 °C con 16 hs de oscuridad. El ensayo tuvo una duración de 57 días. Se hicieron 14 mediciones de altura y n° de plantas. La unidad experimental fue la bandeja. Las variables respuesta (altura de hoja (mm) y el número de plantas) fueron sometidos a análisis de varianza y las medias comparadas utilizando el test de LSD. El nivel de significación utilizado en el trabajo es del 5%. Los resultados obtenidos: En Digitaria (Digitaria eriantha): I) El desarrollo y número de plantas fue mayor sin antídoto y sin herbicida, (p≤0,05) II) El tratamiento 6 (40:SM) resultó la mejor combinación para obtener un adecuado crecimiento y número de plántulas, aunque inferior al testigo (p≤0,05). III) Se logra efecto protector para el herbicida S-metolaclor con una dosis de antídoto entre 20cc y 40cc. IV) El antídoto es fitotóxico para la Digitaria Eriantha en dosis de 60cc (p≤0,05). V) El antídoto no protege a la Digitaria Eriantha en ninguna de sus dosis del herbicida Acetoclor En Mijo perenne (Panicum coloratum).: I) La aplicación de antídoto en la menor dosis (20 cc) no afectó el crecimiento ni el número de las plantas. En esta última variable, aún las dosis mayores del antídoto (40 y 60 cc) no tuvieron efectos negativos respecto al testigo (p≤0,05), II) La combinación del herbicida s-metolaclor (SM) con las dosis intermedias (20 y 40cc) de antídoto tuvo un ligero efecto negativo sobre el crecimiento y número de plantas respecto al testigo, aunque con diferencias significativas (p≤0,05) III) La aplicación del herbicida Acetoclor con todas las dosis del antídoto afectó significativamente el crecimiento y el número de plantas (p≤0,05). Se concluye que el tratamiento con antídoto en dosis bajas (20cc) no afecta el desarrollo ni el número de plantas de digitaria y panicum. Esta última especie es menos afectada que digitaria aún con mayores dosis. La mejor combinación de antídoto y herbicida SM, es de 20 cc para digitaria y 60 cc para panicum. El herbicida Acetoclor tuvo efectos negativos en ambas especies. Se recomienda realizar nuevos ensayos en condiciones reales de producción.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En los meses de Diciembre (2003) y Enero (2004) se realizó en los departamentos de Masaya y Carazo, en la Zona del Pacífico de Nicaragua una caracterización de sistemas agroforestales con café, bajo diferentes niveles tecnológicos, cafetal con sombra de árboles leguminosos + moderado insumo químico, cafetal con sombra de árboles leguminosos + moderado insumo orgánico, cafetal con sombra de árboles leguminosos + bajo insumo orgánico, cafetal con árboles de sombra no leguminosos + moderado insumo químico, cafetal con árboles de sombra no leguminosos + moderado insumo orgánico, cafetal con árboles de sombra no leguminosos + bajo insumo orgánico y pleno sol. Se seleccionó un área de 40 a 45 m2 para realizar la caracterización física de suelo la cual se realizó en el centro de esta, recolección de hojarasca en cinco puntos de 0.25 m2 cada uno en calle e hilera, caracterización química de suelo la cual se llevó a cabo en los mismos cinco puntos donde se recolectó la hojarasca a profundidades de 0-5, 5-15 y 15-30 cm, la caracterización de los árboles de sombra se realizó proyectando la misma área del cafetal 5m sobre el surco y 5m en posición vertical a este obteniendo un área mayor a los 225 m2. Los cafetales del sistema pleno sol y un cafetal con sombra leguminoso + moderado químico presentaron la producción más alta de café en los últimos cinco años (1998-2003) mayor a los 900 kg ha-1, la diversidad de los árboles de sombra en esta zona es de 1 a 3 especies diferentes predominando la especie Gliricidia sepium Jacq., con un 47 % del total. Los sistemas con sombra leguminoso + moderado orgánico y no leguminoso + moderado químico presentaron densidades mayores a los 6000 plantas ha-1, mientras pleno sol fue el de menor densidad con 3480 plantas ha-1, el sistema con sombra leguminoso + moderado orgánico presentó mayor porcentaje de sombra 76.96 % y densidad de árboles 395 plantas ha-1. Por lo general los sistemas presentaron textura franca a franco limoso (FL), con colores que van de pardo (10YR 4/3) a pardo oscuro (10 YR3/3) y profundidades que van de 33 a mayores de 100 cm, con presencia de talpetate y grava fina. El sistema con sombra no leguminoso + moderado orgánico presentó las mayores cantidades de los elementos N, P, K en las hojas y cantidad de materia seca de hojarasca. Estos suelos son ricos en materia orgánica mayores a 9.5 % con altos porcentajes de carbono 5 %, con contenido medio a altos de Nitrógeno de 0.08 a 0.46 %, con buena disponibilidad de Fósforo mayores a 13 ppm, con pH que van de ácidos a ligeramente ácidos y con buena capacidad de intercambio catiónico de 35 a 50 meq / 100g de suelo.