788 resultados para ANALISIS DE VALORES (CONTROL DE COSTOS)
Resumo:
Este proyecto fin de carrera trata de mejorar los sistemas actuales de control en la visualización de diapositivas. La solución adoptada constará de un sistema con modelo cliente-servidor. El servidor formado por un mini ordenador, en este caso una Raspberry Pi, que estará conectado al proyector de video. Este servidor se mantendrá a la espera de recibir una conexión entrante vía Bluetooth. Una vez se realice la conexión interpretará los comandos mandados por el cliente a través de una API con formato JSON y realizará las acciones indicadas para el control de la presentación. El cliente será una aplicación móvil para dispositivos Android. A través de ella el profesor accederá al servidor escaneando un código QR que será proyectado y una vez conectado enviará los comandos de control de la presentación, tales como abrir una presentación, avanzar y retroceder diapositiva, etc. La solución final deberá ser eficiente, sencilla de utilizar y con un bajo coste para resultar atractiva y ser así útil en el mundo real. Para ello se contará con valores añadidos como el poder iniciar la presentación desde el dispositivo móvil, el mostrar las notas de la diapositiva actual o contar con un temporizador para permitir un mejor control sobre el tiempo disponible para la presentación. ABSTRACT. This final project pursues the improvement of the current presentation control systems. The solution it provides is based on a server-client architecture. The server will be a mini PC, a Raspberry Pi model in this case, that will be connected to a video projector or a screen monitor. This server will remain idle waiting for an incoming Bluetooth connection. Once the connection is accepted the server will parse the commands sent by the client through a JSON API and will execute them accordingly to control the system. The client we decided to develop is an Android application. The speaker will be able to connect with the server by scanning a QR code that will be generated and displayed into the projector or screen monitor. Once the connection is accepted the client will sent the commands to control the slides, such as opening a presentation, move forward and backwards, etc. The adopted solution must be efficient, easy to use and with low cost to be appealing and useful to the real world. To accomplish the task this project will count with improvements over the current systems, such as the possibility to open a presentation from the smartphone, the visualization of the current slide notes from the mobile phone and a countdown timer to have a better control over the available time for the presentation.
Resumo:
El uso de aritmética de punto fijo es una opción de diseño muy extendida en sistemas con fuertes restricciones de área, consumo o rendimiento. Para producir implementaciones donde los costes se minimicen sin impactar negativamente en la precisión de los resultados debemos llevar a cabo una asignación cuidadosa de anchuras de palabra. Encontrar la combinación óptima de anchuras de palabra en coma fija para un sistema dado es un problema combinatorio NP-hard al que los diseñadores dedican entre el 25 y el 50 % del ciclo de diseño. Las plataformas hardware reconfigurables, como son las FPGAs, también se benefician de las ventajas que ofrece la aritmética de coma fija, ya que éstas compensan las frecuencias de reloj más bajas y el uso más ineficiente del hardware que hacen estas plataformas respecto a los ASICs. A medida que las FPGAs se popularizan para su uso en computación científica los diseños aumentan de tamaño y complejidad hasta llegar al punto en que no pueden ser manejados eficientemente por las técnicas actuales de modelado de señal y ruido de cuantificación y de optimización de anchura de palabra. En esta Tesis Doctoral exploramos distintos aspectos del problema de la cuantificación y presentamos nuevas metodologías para cada uno de ellos: Las técnicas basadas en extensiones de intervalos han permitido obtener modelos de propagación de señal y ruido de cuantificación muy precisos en sistemas con operaciones no lineales. Nosotros llevamos esta aproximación un paso más allá introduciendo elementos de Multi-Element Generalized Polynomial Chaos (ME-gPC) y combinándolos con una técnica moderna basada en Modified Affine Arithmetic (MAA) estadístico para así modelar sistemas que contienen estructuras de control de flujo. Nuestra metodología genera los distintos caminos de ejecución automáticamente, determina las regiones del dominio de entrada que ejercitarán cada uno de ellos y extrae los momentos estadísticos del sistema a partir de dichas soluciones parciales. Utilizamos esta técnica para estimar tanto el rango dinámico como el ruido de redondeo en sistemas con las ya mencionadas estructuras de control de flujo y mostramos la precisión de nuestra aproximación, que en determinados casos de uso con operadores no lineales llega a tener tan solo una desviación del 0.04% con respecto a los valores de referencia obtenidos mediante simulación. Un inconveniente conocido de las técnicas basadas en extensiones de intervalos es la explosión combinacional de términos a medida que el tamaño de los sistemas a estudiar crece, lo cual conlleva problemas de escalabilidad. Para afrontar este problema presen tamos una técnica de inyección de ruidos agrupados que hace grupos con las señales del sistema, introduce las fuentes de ruido para cada uno de los grupos por separado y finalmente combina los resultados de cada uno de ellos. De esta forma, el número de fuentes de ruido queda controlado en cada momento y, debido a ello, la explosión combinatoria se minimiza. También presentamos un algoritmo de particionado multi-vía destinado a minimizar la desviación de los resultados a causa de la pérdida de correlación entre términos de ruido con el objetivo de mantener los resultados tan precisos como sea posible. La presente Tesis Doctoral también aborda el desarrollo de metodologías de optimización de anchura de palabra basadas en simulaciones de Monte-Cario que se ejecuten en tiempos razonables. Para ello presentamos dos nuevas técnicas que exploran la reducción del tiempo de ejecución desde distintos ángulos: En primer lugar, el método interpolativo aplica un interpolador sencillo pero preciso para estimar la sensibilidad de cada señal, y que es usado después durante la etapa de optimización. En segundo lugar, el método incremental gira en torno al hecho de que, aunque es estrictamente necesario mantener un intervalo de confianza dado para los resultados finales de nuestra búsqueda, podemos emplear niveles de confianza más relajados, lo cual deriva en un menor número de pruebas por simulación, en las etapas iniciales de la búsqueda, cuando todavía estamos lejos de las soluciones optimizadas. Mediante estas dos aproximaciones demostramos que podemos acelerar el tiempo de ejecución de los algoritmos clásicos de búsqueda voraz en factores de hasta x240 para problemas de tamaño pequeño/mediano. Finalmente, este libro presenta HOPLITE, una infraestructura de cuantificación automatizada, flexible y modular que incluye la implementación de las técnicas anteriores y se proporciona de forma pública. Su objetivo es ofrecer a desabolladores e investigadores un entorno común para prototipar y verificar nuevas metodologías de cuantificación de forma sencilla. Describimos el flujo de trabajo, justificamos las decisiones de diseño tomadas, explicamos su API pública y hacemos una demostración paso a paso de su funcionamiento. Además mostramos, a través de un ejemplo sencillo, la forma en que conectar nuevas extensiones a la herramienta con las interfaces ya existentes para poder así expandir y mejorar las capacidades de HOPLITE. ABSTRACT Using fixed-point arithmetic is one of the most common design choices for systems where area, power or throughput are heavily constrained. In order to produce implementations where the cost is minimized without negatively impacting the accuracy of the results, a careful assignment of word-lengths is required. The problem of finding the optimal combination of fixed-point word-lengths for a given system is a combinatorial NP-hard problem to which developers devote between 25 and 50% of the design-cycle time. Reconfigurable hardware platforms such as FPGAs also benefit of the advantages of fixed-point arithmetic, as it compensates for the slower clock frequencies and less efficient area utilization of the hardware platform with respect to ASICs. As FPGAs become commonly used for scientific computation, designs constantly grow larger and more complex, up to the point where they cannot be handled efficiently by current signal and quantization noise modelling and word-length optimization methodologies. In this Ph.D. Thesis we explore different aspects of the quantization problem and we present new methodologies for each of them: The techniques based on extensions of intervals have allowed to obtain accurate models of the signal and quantization noise propagation in systems with non-linear operations. We take this approach a step further by introducing elements of MultiElement Generalized Polynomial Chaos (ME-gPC) and combining them with an stateof- the-art Statistical Modified Affine Arithmetic (MAA) based methodology in order to model systems that contain control-flow structures. Our methodology produces the different execution paths automatically, determines the regions of the input domain that will exercise them, and extracts the system statistical moments from the partial results. We use this technique to estimate both the dynamic range and the round-off noise in systems with the aforementioned control-flow structures. We show the good accuracy of our approach, which in some case studies with non-linear operators shows a 0.04 % deviation respect to the simulation-based reference values. A known drawback of the techniques based on extensions of intervals is the combinatorial explosion of terms as the size of the targeted systems grows, which leads to scalability problems. To address this issue we present a clustered noise injection technique that groups the signals in the system, introduces the noise terms in each group independently and then combines the results at the end. In this way, the number of noise sources in the system at a given time is controlled and, because of this, the combinato rial explosion is minimized. We also present a multi-way partitioning algorithm aimed at minimizing the deviation of the results due to the loss of correlation between noise terms, in order to keep the results as accurate as possible. This Ph.D. Thesis also covers the development of methodologies for word-length optimization based on Monte-Carlo simulations in reasonable times. We do so by presenting two novel techniques that explore the reduction of the execution times approaching the problem in two different ways: First, the interpolative method applies a simple but precise interpolator to estimate the sensitivity of each signal, which is later used to guide the optimization effort. Second, the incremental method revolves on the fact that, although we strictly need to guarantee a certain confidence level in the simulations for the final results of the optimization process, we can do it with more relaxed levels, which in turn implies using a considerably smaller amount of samples, in the initial stages of the process, when we are still far from the optimized solution. Through these two approaches we demonstrate that the execution time of classical greedy techniques can be accelerated by factors of up to ×240 for small/medium sized problems. Finally, this book introduces HOPLITE, an automated, flexible and modular framework for quantization that includes the implementation of the previous techniques and is provided for public access. The aim is to offer a common ground for developers and researches for prototyping and verifying new techniques for system modelling and word-length optimization easily. We describe its work flow, justifying the taken design decisions, explain its public API and we do a step-by-step demonstration of its execution. We also show, through an example, the way new extensions to the flow should be connected to the existing interfaces in order to expand and improve the capabilities of HOPLITE.
Resumo:
La investigación se desarrolló en áreas de producción de la Empresa Azucarera Majibacoa de la provincia Las Tunas, para la evaluación de la efectividad de mezclas de herbicidas en el control de arvenses en plantaciones de caña de azúcar, variedad C 86-503, en caña planta de primavera, en aplicaciones pre-post-emergentes, en tres tipos de suelos: Fersialítico pardo rojizo, Pardo mullido y Vertisol crómico gléyco. En el área experimental se trazaron parcelas, según un diseño de bloques al azar con cuatro réplicas, la aplicación de las mezclas se realizó con asperjadora manual Super Agro-16 (MATABI), 20 días después de la plantación, cuando las yemas de las estacas de caña de azúcar habían brotado, con presencia de algunas arvenses. Se determinaron las especies de arvenses presentes en el área y las que aparecieron después de las aplicaciones, el porcentaje de cobertura de las mismas y la fitotoxicidad provocada por la mezcla de herbicidas, así como sus costos y la cantidad de días que se mantuvo limpio el campo. Se evaluaron seis mezclas: Ametrina + Diurón; Ametrina + 2,4-D y cuatro dosis Merlin + Ametrina + 2,4-D. Las mayores dosis de Merlin (Isoxaflutole): 0,150; 0,200 y 0,250 kg ha-1 resultaron las más efectivas en el control de arvenses, provocando una ligera fitotoxicidad en forma de pequeños puntos de color blanco en las hojas de la caña, los suelos más arcillosos (Vertisol y Pardo) requirieron las mayores dosis. Con estas dosis de Merlin se obtienen las mezclas más costosas; sin embargo, ellas mantuvieron un mayor período de tiempo limpio el campo de caña, lo que provocó que el costo por día limpio fuera menor
Resumo:
Esta dissertação trata da importância da Governança Corporativa e da Gestão de Risco para as empresas brasileiras que tem suas ações negociadas nas Bolsas de Valores de Nova York e de São Paulo. Tem como principais objetivos: a avaliação do atual estágio de adequação dessas empresas brasileiras às normas da Lei Sarbanes & Oxley, a confirmação da importância do gerenciamento de risco para a Governança Corporativa, buscando fazer uma associação da ocorrência de perdas patrimoniais com as ferramentas da gestão de risco e das fraudes com a fragilidade de normas de controle interno e com as normas emanadas dos órgãos externos regulatórios. O trabalho acadêmico, um estudo exploratório, teve como ponto de partida uma pesquisa bibliográfica de livros e artigos técnicos versando sobre Governança Corporativa com foco na gestão de riscos. A pesquisa foi feita através da leitura dos relatórios de administração das empresas selecionadas e a aplicabilidade das normas da Lei Sarbanes Oxley. Como conclusão foi possível confirmar com razoável certeza que as grandes perdas, que levaram empresas internacionais a quebra, ocorreram pela falta de uma eficaz gestão de risco ou por um deficiente sistema de controle interno associada a falta de ações preventivas. Por outro lado, apesar dos esforços das empresas brasileiras em se adequar às novas exigências para poder atuar no mercado financeiro do Brasil e dos Estados Unidos da América, parte das empresas pesquisadas ainda se encontra em fase de implementação dos Comitês de Auditoria, de Normas e Procedimentos de Controle Interno e das demais práticas de Gestão Corporativa. Novas pesquisas sobre o tema central deste estudo poderão ensejar no aprofundamento da questão da relação custo x benefício da implantação das práticas de Governança Corporativa e na questão da eficácia dos sistemas corporativos de gerenciamento e controle considerando os custos incorridos em sua implantação e manutenção e os benefícios obtidos. Propõe-se ainda um estudo que busque a revisão das responsabilidades das autoridades reguladoras no que tange ao controle ante e pós-fato. Um dilema a ser resolvido e que deve instigar futuros pesquisadores.(AU)
Resumo:
Esta dissertação trata da importância da Governança Corporativa e da Gestão de Risco para as empresas brasileiras que tem suas ações negociadas nas Bolsas de Valores de Nova York e de São Paulo. Tem como principais objetivos: a avaliação do atual estágio de adequação dessas empresas brasileiras às normas da Lei Sarbanes & Oxley, a confirmação da importância do gerenciamento de risco para a Governança Corporativa, buscando fazer uma associação da ocorrência de perdas patrimoniais com as ferramentas da gestão de risco e das fraudes com a fragilidade de normas de controle interno e com as normas emanadas dos órgãos externos regulatórios. O trabalho acadêmico, um estudo exploratório, teve como ponto de partida uma pesquisa bibliográfica de livros e artigos técnicos versando sobre Governança Corporativa com foco na gestão de riscos. A pesquisa foi feita através da leitura dos relatórios de administração das empresas selecionadas e a aplicabilidade das normas da Lei Sarbanes Oxley. Como conclusão foi possível confirmar com razoável certeza que as grandes perdas, que levaram empresas internacionais a quebra, ocorreram pela falta de uma eficaz gestão de risco ou por um deficiente sistema de controle interno associada a falta de ações preventivas. Por outro lado, apesar dos esforços das empresas brasileiras em se adequar às novas exigências para poder atuar no mercado financeiro do Brasil e dos Estados Unidos da América, parte das empresas pesquisadas ainda se encontra em fase de implementação dos Comitês de Auditoria, de Normas e Procedimentos de Controle Interno e das demais práticas de Gestão Corporativa. Novas pesquisas sobre o tema central deste estudo poderão ensejar no aprofundamento da questão da relação custo x benefício da implantação das práticas de Governança Corporativa e na questão da eficácia dos sistemas corporativos de gerenciamento e controle considerando os custos incorridos em sua implantação e manutenção e os benefícios obtidos. Propõe-se ainda um estudo que busque a revisão das responsabilidades das autoridades reguladoras no que tange ao controle ante e pós-fato. Um dilema a ser resolvido e que deve instigar futuros pesquisadores.(AU)
Resumo:
Introducción: En la actualidad disponemos de un amplio abanico de captores del fósforo (CF), pero sabemos poco acerca de las preferencias de los pacientes y de su repercusión sobre el cumplimiento del tratamiento y el control de los niveles de fósforo. Objetivo: Estudiar las preferencias y creencias de los pacientes respecto a los CF, y su influencia sobre el cumplimiento del tratamiento y el control de los niveles de fósforo. Pacientes y métodos: Estudio observacional transversal. Se incluyeron 121 pacientes que respondieron un cuestionario genérico de cumplimiento del tratamiento (SMAQ) y a un cuestionario específico sobre cumplimiento del tratamiento con CF, tipo de CF preferido y razones de dicha preferencia. Todos los pacientes entrevistados habían probado dos o tres CF. Las consecuencias de la falta de cumplimiento del tratamiento con CF se estimaron indirectamente analizando los valores promedio de fósforo sérico. Resultados: El 40% de los pacientes era incumplidor según el cuestionario SMAQ; se encontró una asociación estadísticamente significativa entre la falta de cumplimiento en general y no alcanzar el objetivo de fósforo sérico promedio <5,5 mg/dl (OR = 4,8; IC 95%, 1,0-6,6; p = 0,02). El 21,4% de los pacientes reconocía un incumplimiento específico para los CF; estos pacientes presentaban una mayor probabilidad de tener cifras medias de fósforo >5,5 mg/dl (OR = 4,7; IC 95%, 1,1-6,5; p = 0,03). Un 43,8% de los pacientes no refirió tener preferencias entre los diferentes tipos de CF; para el resto de pacientes, el CF preferido fue Royen®, seguido de Fosrenol®, Renagel® y Pepsamar®. Las razones expresadas para el desagrado con el Renagel® fueron las siguientes: incomodidad en la toma por su gran tamaño (28,8%), necesidad de tomar muchos comprimidos y gran consumo de agua (57,7%) e intolerancia gástrica (13,3%). En el caso del Fosrenol®: incómodo de tomar (72,7%) e intolerancia gástrica (27,2%); para el Pepsamar®: mal sabor (54,5%) e intolerancia gástrica (45,4%). Sólo al 9,4% no le gustaba el Royen®. Al analizar los conocimientos de los pacientes respecto a la utilidad de los CF, un 42% sabía que servían para controlar el fósforo; un 52% no lo sabía y un 6% tenía ideas equivocadas. En cuanto a su importancia: un 47% no conocía por qué son importantes; un 2% tenía ideas erróneas; un 9% creía que era beneficioso para la salud; un 11% creía que era bueno «porque lo dice el medico»; un 26% porque controla el fósforo y un 5% lo relacionaba con el hueso. Ningún paciente relacionó los CF con la enfermedad cardiovascular. Un 24,4% no se llevaba los CF cuando salía fuera de casa o estaba con los amigos; eran pacientes más jóvenes a quienes se les habían prescrito un mayor número de comprimidos de CF y que presentaban un mayor riesgo de no cumplir el objetivo de fósforo (OR = 10,5; IC 95%, —1,8 a —16,4; p <0,001). El porcentaje de pacientes a quienes no les gustaba el CF prescrito fue del 54,5%; dichos pacientes presentaban un mayor riesgo de tener niveles séricos de fósforo >5,5 mg/dl (OR = 13.3; IC 95%, 1,1-1,5; p = 0,0001). Paradójicamente, los pacientes que no cumplían con el tratamiento demostraban un mejor conocimiento de su uso (OR = 17,3; IC 95%, 2,2-10,1; p <0.0001) e importancia (OR = 10,4; IC 95%, 1,5-6,6; p = 0,001). Conclusión: Los pacientes a los que se les habían prescrito CF que no les gustaban tenían un peor control de los niveles de fósforo sérico y se les habían recomendado dosis más altas de los fármacos. El conocimiento de las preferencias de los pacientes acerca de las medicaciones que se les prescriben puede ser un factor esencial para conseguir un mayor cumplimiento del tratamiento y, por ende, lograr mejores resultados en la consecución de los objetivos terapéuticos.
Resumo:
El presente estudio tiene como objeto analizar la abundancia y distribución de la urraca en función de las diferentes matrices de usos del suelo y gradientes ambientales. Este trabajo se ha centrado en la Comarca de la Marina Baja (Alicante), una región con 578,8 Km² de superficie. La zona cuenta con una vegetación climática de carrascal de termotipo mesomediterráneo y ombrotipo seco y subhúmedo. Se han realizado un total de 396 transectos para estimar la abundancia de la urraca durante los años 2006-2008, en diferentes matrices del paisaje: natural, abandono, regadío y secano. Las abundancias relativas, la evolución de la especie, el efecto sobre otras especies de caza y el efecto que tiene el control poblacional de las urracas se ha obtenido de 21 encuestas realizadas a los gestores de los terrenos cinegéticos. El análisis de los resultados, muestra una mayor abundancia de los individuos en zonas de cultivo de secano (IKA=0.76 aves/km) y cultivos abandonados (IKA=0.73 aves/km), siendo los valores medios anuales cada vez mayores desde el inicio del muestreo. El análisis múltiple de regresión lineal de la abundancia de urraca con la matriz de usos del suelo muestra una relación significativa y positiva con el abandono antiguo (p<0.01), el frutal de secano y las zonas húmedas (p<0.05), mientras que no hay relación significativa (p>0.05) con los índices del paisaje. El análisis ANOVA muestra que las variables significativas influyentes sobre el número de urracas son: matriz de usos del suelo, latitud/ombroclima, continentalidad y la interacción usos del suelo:continentalidad (p<0.05). La urraca ha experimentado un aumento en sus poblaciones desde principios de la primera década del actual siglo. Los cotos que realizan un control sobre la población de urracas tienen un efecto positivo que se ve reflejado en la menor afección sobre otras especies cinegéticas.
Resumo:
Esta dissertação trata da importância da Governança Corporativa e da Gestão de Risco para as empresas brasileiras que tem suas ações negociadas nas Bolsas de Valores de Nova York e de São Paulo. Tem como principais objetivos: a avaliação do atual estágio de adequação dessas empresas brasileiras às normas da Lei Sarbanes & Oxley, a confirmação da importância do gerenciamento de risco para a Governança Corporativa, buscando fazer uma associação da ocorrência de perdas patrimoniais com as ferramentas da gestão de risco e das fraudes com a fragilidade de normas de controle interno e com as normas emanadas dos órgãos externos regulatórios. O trabalho acadêmico, um estudo exploratório, teve como ponto de partida uma pesquisa bibliográfica de livros e artigos técnicos versando sobre Governança Corporativa com foco na gestão de riscos. A pesquisa foi feita através da leitura dos relatórios de administração das empresas selecionadas e a aplicabilidade das normas da Lei Sarbanes Oxley. Como conclusão foi possível confirmar com razoável certeza que as grandes perdas, que levaram empresas internacionais a quebra, ocorreram pela falta de uma eficaz gestão de risco ou por um deficiente sistema de controle interno associada a falta de ações preventivas. Por outro lado, apesar dos esforços das empresas brasileiras em se adequar às novas exigências para poder atuar no mercado financeiro do Brasil e dos Estados Unidos da América, parte das empresas pesquisadas ainda se encontra em fase de implementação dos Comitês de Auditoria, de Normas e Procedimentos de Controle Interno e das demais práticas de Gestão Corporativa. Novas pesquisas sobre o tema central deste estudo poderão ensejar no aprofundamento da questão da relação custo x benefício da implantação das práticas de Governança Corporativa e na questão da eficácia dos sistemas corporativos de gerenciamento e controle considerando os custos incorridos em sua implantação e manutenção e os benefícios obtidos. Propõe-se ainda um estudo que busque a revisão das responsabilidades das autoridades reguladoras no que tange ao controle ante e pós-fato. Um dilema a ser resolvido e que deve instigar futuros pesquisadores.(AU)
Resumo:
Neste estudo o objetivo foi determinar a variável dos valores cefalométricos angulares entre linhas intracranianas com relação à linha de referência M, por meio de telerradiografias em norma lateral realizadas com o PF paralelo ao solo, em indivíduos com má oclusão de Classe I, Classe II (divisão 1 e 2) e Classe III de Angle, e estimar os valores obtidos em telerradiografia lateral com a cabeça na posição natural (PNC). A amostra consistiu de 240 telerradiografias em norma lateral direita, sendo 120 de indivíduos do sexo masculino e 120 do feminino, classificadas em três faixas etárias: 12 à 15 anos; 15 anos e um mês à 17 anos e 11 meses; 18 anos à 21 anos e 11 meses; e um grupo controle com 61 telerradiografias em norma lateral direita em PNC sendo 24 indivíduos do sexo masculino e 37 do sexo feminino, na faixa etária entre 12 anos e 5 meses à 21 anos e 5 meses e portadores de oclusão normal natural. Em todas as telerradiografias foram traçadas as linhas intracranianas Sela-Násio (SN), Básio-Násio (BaN), Pório-Orbitário (PoOr) e Linha M, para que estes ângulos tivessem os seus valores estimados em PNC. As variáveis idade e sexo foram correlacionadas com os ângulos, reais e estimados, nos grupos experimentais. Após a análise estatística dos resultados pode-se concluir que: 1) Os valores cefalométricos angulares médios, reais e estimados obtidos nos quatro grupos experimentais foram: Grupo I Reais: M.SN =102,58°; M.BaN = 121,39°; M.PoOr = 94,08°. Estimados: HV.SN = 8,24° (sexo feminino) e 3,44° (sexo masculino); HV.BaN = 24,65°; HV.PoOr = -2,47°. Grupo II Reais: M.SN = 102,59°; M.BaN = 121,29°; M.PoOr = 93,13°. Estimados: HV.SN = 5,86°; HV.BaN = 24,55°; HV.PoOr = -3,43°. Grupo III Reais: M.SN = 104,38°; M.BaN = 122,25°; M.PoOr = 95,99°. Estimados: HV.SN = 7,65°; HV.BaN = 25,51°; HV.PoOr = -0,56°. Grupo IV Reais: M.SN = 104,63°; M.BaN = 123,63°; M.PoOr = 94,80°. Estimados: HV.SN = 10,14° (sexo feminino) e 5,66° (sexo masculino); HV.BaN = 26,88°; HV.PoOr = - 1,75°. 2) Não houve relação estatisticamente significante entre os valores angulares cefalométricos com relação à faixa etária; 3) Em relação ao sexo, somente o ângulo HV.SN apresentou diferenças estatisticamente significantes, nos Grupos I e IV, sendo para o Grupo I: 8,24° para o sexo feminino e 3,44° para o masculino; e Grupo IV: 10,14° para o sexo feminino e 5,66° para o masculino).
Resumo:
Mineral and chemical composition of alluvial Upper-Pleistocene deposits from the Alto Guadalquivir Basin (SE Spain) were studied as a tool to identify sedimentary and geomorphological processes controlling its formation. Sediments located upstream, in the north-eastern sector of the basin, are rich in dolomite, illite, MgO and KB2BO. Downstream, sediments at the sequence base are enriched in calcite, smectite and CaO, whereas the upper sediments have similar features to those from upstream. Elevated rare-earth elements (REE) values can be related to low carbonate content in the sediments and the increase of silicate material produced and concentrated during soil formation processes in the neighbouring source areas. Two mineralogical and geochemical signatures related to different sediment source areas were identified. Basal levels were deposited during a predominantly erosive initial stage, and are mainly composed of calcite and smectite materials enriched in REE coming from Neogene marls and limestones. Then the deposition of the upper levels of the alluvial sequences, made of dolomite and illitic materials depleted in REE coming from the surrounding Sierra de Cazorla area took place during a less erosive later stage of the fluvial system. Such modification was responsible of the change in the mineralogical and geochemical composition of the alluvial sediments.
Resumo:
En el presente trabajo de monografía se realizó un estudio enfocado a identificar técnicas de colocación de concreto fundamentadas en las normas vigentes en nuestro país. Se identifican estas técnicas de colocación realizando una revisión de la bibliografía existente para profundizar en los conceptos fundamentales y proporcionar los procedimientos o herramientas necesarios para una adecuada selección y colocación del concreto, optimizando las propiedades de lo materiales, equipos disponibles en la obra. Se desarrollaron unos formatos con un listado de chequeo rápido, estos formatos permiten verificar que todos los equipos, materiales, personal y demás recursos cumplan los requerimientos descritos en la norma para lograr un concreto con las especificaciones de resistencia y durabilidad, y demostrar que un buen control de calidad nos ayuda a disminuir los costos tanto en la etapa de la construcción como en el mantenimiento de una estructura, y de esta manera alcanzar los objetivos propuestos en el trabajo de grado.
Resumo:
La higiene de los alimentos para el consumo humano es un derecho que tienen todas las personas, pues esto les evita daños a la salud. La incidencia de las enfermedades por transmisión alimentaria ha ido en aumento, y pueden llevar en muchos casos incluso hasta la muerte. Asimismo, hay efectos negativos en el deterioro de los alimentos, significan costos y pérdidas económicas para los países. Estas son razones por las que se deben tener sistemas que aseguren la higiene de los alimentos. Los riesgos alimentarios pueden ser de tipo microbiológico, residuos de plaguicidas, utilización inadecuada de los aditivos alimentarios, contaminantes químicos, incluidas las toxinas biológicas, adulteraciones. Así también se pueden incluir organismos genéticamente modificados, alérgenos, residuos de medicamentos veterinarios y hormonas. Por estas razones, es necesario un control eficaz de la higiene para evitar las enfermedades y por el daño en alimentos a la economía de un país. Cada vez que un consumidor paga por un alimento, bien sea para consumo inmediato o para un proceso de cocción y luego ser ingerido, espera que lo puede consumir sin ningún peligro, ya que confía en que las autoridades sanitarias encargadas en cada uno de los eslabones de la cadena alimenticia (Finca, Planta, Expendio, Comercio, Transporte) han desarrollado actividades que le den la garantía al consumidor de pagar por el producto e ingerirlo sin pensar en que afectará su salud. Hoy en día, se observa, como sigue en aumento los índices de Enfermedades Transmitidas por Alimentos (ETA´s), mientras que, los esfuerzos por disminuir e identificar las fallas en el aseguramiento de la inocuidad de los alimentos en todo el proceso son insuficientes. El Gobierno de Nicaragua, ha tomado conciencia y se está preparando para los próximos desafíos que presentará el comercio mundial en cuanto a garantizar productos de alta calidad e inocuidad. Por lo tanto, el MAG para mejorar y asegurar la inocuidad de los productos de origen animal y vegetal se ha basado en la implementación del sistema HACCP cuyo enfoque principal es la seguridad alimentaria y nutricional, en conjunto con la implementación de los programas prerrequisitos como son las Buenas Prácticas Agrícolas (BPA), Buenas Prácticas de manufactura (BPM), Programas de Operación y Sanitización (SOP's).(Picado, 2002).El objetivo del presente estudio de caso fue: Contrastar la aplicación de las normas Sistemas de Análisis de Peligro y Puntos Críticos de Control (HACCP) en el periodo 2014 – 2015, en el MATADERO NICA BEEF PACKERS S.A, que funciona en el municipio de Condega, Departamento de Estelí, Nicaragua. Para alcanzar el objetivo se aplicó una metodología comparativa entre un estudio anterior y las nuevas realidades generadas en la empresa, apoyándonos para tal efecto de técnicas e instrumentos aplicados por la ciencia como son: la entrevista, la observación, el análisis documental, y programas de aplicación Microsoft Word y Excel 2010, las que fueron utilizadas pertinentemente en su momento, permitiendo el procesamiento de datos y su posterior análisis. El punto de partida de este proceso investigativo fue la búsqueda de información relacionada al objeto de estudio, determinándose los tres puntos críticos de control y las variables que influyen en el fenómeno estudiado.. Las variables tomadas en cuenta fueron: Buenas prácticas de manufacturación, Procedimientos operativos estandarizados de Higiene, Análisis de riesgos, identificación y control de puntos críticos (HACCP). En lo concerniente a la primer variable las buenas prácticas de manufactura que realiza el personal de la empresa, se cumplen en un 91 % en ambos estudios, destacándose en forma ascendente las condiciones de edificio con el 94% y el personal con 93%; la segunda variable referida a los Procedimientos Operacionales Estándares (POE), se cumplen en un 88.65 %, ubicándose en un lugar privilegiado la salud de los trabajadores al tener 99% de cumplimiento. En promedio estos prerrequisitos generales se cumplen en un 89.82 %. La tercera variable las acciones correctivas de los PCC del sistema HACCP presentaron un 95.22% de cumplimiento, mostrando así que los equipos de trabajo de la empresa tienen un alto grado de conocimiento y la práctica requerida para las labores que realizan; en esta última sobresale el PCC N°2 que en cuanto a intervención antimicrobiano tuvo el 100% de cumplimiento, y un rango aceptable en la concentración de la solución de ácido orgánico de 1.5 a 2% y pH entre 3 y 4.4 unidades después del rociado,. En el PCC N°3 relacionada a la etapa de enfriamiento, se está cumpliendo con las normas establecidas en el reglamento HACCP, manteniendo temperatura de canales ≤ 8.33333 Grados Celsius, y 24 horas de refrigeración, impidiendo todas estas aplicaciones el desarrollo de bacterias patógenas.
Resumo:
En el estudio que originó este artículo se elaboró una propuesta de mejora del sistema de inventarios para una comercializadora de alimentos en la ciudad de Santa Marta, a fin de lograr una reducción en los costos de inventario y un incremento en el beneficio económico de la organización, mediante la planificación y control de las compras y ventas de los productos. El proceso aplicado consiste en la clasificación de los productos manejados por la empresa con el método ABC, de acuerdo con la importancia de cada producto en el total de ventas de la distribuidora; posteriormente se aplicó el modelo de Cantidad Económica de Pedido –EOQ–, con el fin de sistematizar los conteos periódicos en los productos guardados en bodega, establecer los registros de las ventas realizadas, determinar la cantidad óptima de pedidos y el momento justo en el cual se debe pedir mercancía a los proveedores y las cantidades mínimas de reorden.
Resumo:
Se ha realizado el modelado orientado a objetos del sistema de control cardiovascular en situaciones de diálisis aplicando una analogía eléctrica en el que se emplean componentes conectados mediante interconexiones. En este modelado se representan las ecuaciones diferenciales del sistema cardiovascular y del sistema de control barorreceptor así como las ecuaciones dinámicas del intercambio de fluidos y solutos del sistema hemodializador. A partir de este modelo se ha realizado experiencias de simulación en condiciones normales y situaciones de hemorragias, transfusiones de sangre y de ultrafiltración e infusión de fluido durante tratamiento de hemodiálisis. Los resultados obtenidos muestran en primer lugar la efectividad del sistema barorreceptor para compensar la hipotensión arterial inducida por los episodios de hemorragia y transfusión de sangre. En segundo lugar se muestra la respuesta del sistema de control ante diferentes tasas de ultrafiltración durante la hemodiálisis y se sugieren valores óptimos para la adecuada operación.
Resumo:
La Hemoglobina Glicosilada (HbA1c) es el mejor método de control de la Diabetes Mellitus tipo I y II, ya que brinda un buen estimado glucémico de los tres meses anteriores a la prueba, revelando así el éxito o fracaso del tratamiento así como también la discontinuidad del mismo o de la dieta y medicación mandada a seguir por el médico. El objetivo de ésta investigación fue realizar la prueba de Hemoglobina Glicosilada como método para el control de diabetes en pacientes atendidos por la Asociación Salvadoreña de Diabetes en el Hospital Nacional San Pedro, departamento de Usulután. La Metodología empleada en el estudio fue de tipo Descriptivo, Prospectivo, Transversal y de Laboratorio, con una población de 50 pacientes diabéticos. Además se utilizó la guía de entrevista para identificar los factores que favorecen el buen control de la diabetes. Se les realizó la prueba de Glucosa en ayunas y Hemoglobina Glicosilada simultáneamente. Resultados obtenidos: el 82% de los pacientes diabéticos obtuvieron valores de Hemoglobina Glicosilada entre normal y controlado, dentro de los cuales el 72% son del sexo femenino y el 10% del sexo masculino. El 68% de la población tenia Glucosa en ayunas normal. Entre los factores más significativos que favorecen el buen control de la diabetes, está que el 84% cumple con el tratamiento prescrito por el médico, el 72% cumplen con el ejercicio. Conclusión: estadísticamente se comprobó que el 82% de los pacientes estaban realizando un buen control de la diabetes ya que sus valores estaban entre lo normal y controlado, el 18% de los pacientes que obtuvieron valores aumentados de Hemoglobina Glicosilada y el 32% de pacientes con valores aumentados de glucosa basal existiendo un 14% de diferencia entre los valores aumentados de glucosa basal y la Hemoglobina Glicosilada; esto se debe a que cuando se toma la muestra de glucosa basal se ve influenciada, cuando el paciente no toma las recomendaciones adecuadas y no por descuido permanente por su parte.