1000 resultados para Mecánica aplicada-Manuales
Resumo:
Revisión de las características técnicas de las principales máquinas vendimiadoras del mercado
Resumo:
En el ámbito de la robótica de servicio, actualmente no existe una solución automatizada para la inspección ultrasónica de las partes de material compuesto de una aeronave durante las operaciones de mantenimiento que realiza la aerolínea. El desarrollo de las nuevas técnicas de acoplamiento acústico en seco en el método de inspección no destructiva por ultrasonidos, está conduciendo a posibilitar su uso con soluciones de menor coste respecto a las técnicas tradicionales, sin perder eficacia para detectar las deficiencias en las estructuras de material compuesto. Aunque existen aplicaciones de esta técnica con soluciones manuales, utilizadas en las fases de desarrollo y fabricación del material compuesto, o con soluciones por control remoto en sectores diferentes al aeronáutico para componentes metálicos, sin embargo, no existen con soluciones automatizadas para la inspección no destructiva por ultrasonidos de las zonas del avión fabricadas en material compuesto una vez la aeronave ha sido entregada a la aerolínea. El objetivo de este trabajo fin de master es evaluar el sistema de localización, basado en visión por ordenador, de una solución robotizada aplicada la inspección ultrasónica estructural de aeronaves en servicio por parte de las propias aerolíneas, utilizando las nuevas técnicas de acoplamiento acústico en seco, buscando la ventaja de reducir los tiempos y los costes en las operaciones de mantenimiento. Se propone como solución un robot móvil autónomo de pequeño tamaño, con control de posición global basado en técnicas de SLAM Visual Monocular, utilizando marcadores visuales externos para delimitar el área de inspección. Se ha supuesto la inspección de elementos de la aeronave cuya superficie se pueda considerar plana y horizontal, como son las superficies del estabilizador horizontal o del ala. Este supuesto es completamente aceptable en zonas acotadas de estos componentes, y de cara al objetivo del proyecto, no le resta generalidad. El robot móvil propuesto es un vehículo terrestre triciclo, de dos grados de libertad, con un sistema de visión monocular completo embarcado, incluyendo el hardware de procesamiento de visión y control de trayectoria. Las dos ruedas delanteras son motrices y la tercera rueda, loca, sirve únicamente de apoyo. La dirección, de tipo diferencial, permite al robot girar sin necesidad de desplazamiento, al conseguirse por diferencia de velocidad entre la rueda motriz derecha e izquierda. El sistema de inspección ultrasónica embarcado está compuesto por el hardware de procesamiento y registro de señal, y una rueda-sensor situada coaxialmente al eje de las ruedas motrices, y centrada entre estas, de modo que la medida de inspección se realiza en el centro de rotación del robot. El control visual propuesto se realiza mediante una estrategia “ver y mover” basada en posición, ejecutándose de forma secuencial la extracción de características visuales de la imagen, el cálculo de la localización global del robot mediante SLAM visual y el movimiento de éste mediante un algoritmo de control de posición-orientación respecto a referencias de paso de la trayectoria. La trayectoria se planifica a partir del mapa de marcas visuales que delimitan el área de inspección, proporcionado también por SLAM visual. Para validar la solución propuesta se ha optado por desarrollar un prototipo físico tanto del robot como de los marcadores visuales externos, a los que se someterán a una prueba de validación como alternativa a utilizar un entorno simulado por software, consistente en el reconocimiento del área de trabajo, planeamiento de la trayectoria y recorrido de la misma, de forma autónoma, registrando el posicionamiento real del robot móvil junto con el posicionamiento proporcionado por el sistema de localización SLAM. El motivo de optar por un prototipo es validar la solución ante efectos físicos que son muy complicados de modelar en un entorno de simulación, derivados de las limitaciones constructivas de los sistemas de visión, como distorsiones ópticas o saturación de los sensores, y de las limitaciones constructivas de la mecánica del robot móvil que afectan al modelo cinemático, como son el deslizamiento de las ruedas o la fluctuación de potencia de los motores eléctricos. El prototipo de marcador visual externo utilizado para la prueba de validación, ha sido un símbolo plano vertical, en blanco y negro, que consta de un borde negro rectangular dentro del cual se incluye una serie de marcas cuadradas de color negro, cuya disposición es diferente para cada marcador, lo que permite su identificación. El prototipo de robot móvil utilizado para la prueba de validación, ha sido denominado VINDUSTOR: “VIsual controlled Non-Destructive UltraSonic inspecTOR”. Su estructura mecánica ha sido desarrollada a partir de la plataforma comercial de robótica educacional LEGO© MINDSTORMS NXT 2.0, que incluye los dos servomotores utilizados para accionar las dos ruedas motrices, su controlador, las ruedas delanteras y la rueda loca trasera. La estructura mecánica ha sido especialmente diseñada con piezas LEGO© para embarcar un ordenador PC portátil de tamaño pequeño, utilizado para el procesamiento visual y el control de movimiento, y el sistema de captación visual compuesto por dos cámaras web de bajo coste, colocadas una en posición delantera y otra en posición trasera, con el fin de aumentar el ángulo de visión. El peso total del prototipo no alcanza los 2 Kg, siendo sus dimensiones máximas 20 cm de largo, 25 cm de ancho y 26 cm de alto. El prototipo de robot móvil dispone de un control de tipo visual. La estrategia de control es de tipo “ver y mover” dinámico, en la que se realiza un bucle externo, de forma secuencial, la extracción de características en la imagen, la estimación de la localización del robot y el cálculo del control, y en un bucle interno, el control de los servomotores. La estrategia de adquisición de imágenes está basada en un sistema monocular de cámaras embarcadas. La estrategia de interpretación de imágenes está basada en posición tridimensional, en la que los objetivos de control se definen en el espacio de trabajo y no en la imagen. La ley de control está basada en postura, relacionando la velocidad del robot con el error en la posición respecto a las referencias de paso de una trayectoria. La trayectoria es generada a partir del mapa de marcadores visuales externo. En todo momento, la localización del robot respecto a un sistema de referencia externo y el mapa de marcadores, es realizado mediante técnicas de SLAM visual. La auto-localización de un robot móvil dentro de un entorno desconocido a priori constituye uno de los desafíos más importantes en la robótica, habiéndose conseguido su solución en las últimas décadas, con una formulación como un problema numérico y con implementaciones en casos que van desde robots aéreos a robots en entornos cerrados, existiendo numerosos estudios y publicaciones al respecto. La primera técnica de localización y mapeo simultáneo SLAM fue desarrollada en 1989, más como un concepto que como un algoritmo único, ya que su objetivo es gestionar un mapa del entorno constituido por posiciones de puntos de interés, obtenidos únicamente a partir de los datos de localización recogidos por los sensores, y obtener la pose del robot respecto al entorno, en un proceso limitado por el ruido de los sensores, tanto en la detección del entorno como en la odometría del robot, empleándose técnicas probabilísticas aumentar la precisión en la estimación. Atendiendo al algoritmo probabilístico utilizado, las técnicas SLAM pueden clasificarse en las basadas en Filtros de Kalman, en Filtros de Partículas y en su combinación. Los Filtros de Kalman consideran distribuciones de probabilidad gaussiana tanto en las medidas de los sensores como en las medidas indirectas obtenidas a partir de ellos, de modo que utilizan un conjunto de ecuaciones para estimar el estado de un proceso, minimizando la media del error cuadrático, incluso cuando el modelo del sistema no se conoce con precisión, siendo el más utilizado el Filtro de Kalman Extendido a modelos nolineales. Los Filtros de Partículas consideran distribuciones de probabilidad en las medidas de los sensores sin modelo, representándose mediante un conjunto de muestras aleatorias o partículas, de modo que utilizan el método Montecarlo secuencial para estimar la pose del robot y el mapa a partir de ellas de forma iterativa, siendo el más utilizado el Rao-Backwell, que permite obtener un estimador optimizado mediante el criterio del error cuadrático medio. Entre las técnicas que combinan ambos tipos de filtros probabilísticos destaca el FastSLAM, un algoritmo que estima la localización del robot con un Filtro de Partículas y la posición de los puntos de interés mediante el Filtro de Kalman Extendido. Las técnicas SLAM puede utilizar cualquier tipo de sensor que proporcionen información de localización, como Laser, Sonar, Ultrasonidos o Visión. Los sensores basados en visión pueden obtener las medidas de distancia mediante técnicas de visión estereoscópica o mediante técnica de visión monocular. La utilización de sensores basados en visión tiene como ventajas, proporcionar información global a través de las imágenes, no sólo medida de distancia, sino también información adicional como texturas o patrones, y la asequibilidad del hardware frente a otros sensores. Sin embargo, su principal inconveniente es el alto coste computacional necesario para los complejos algoritmos de detección, descripción, correspondencia y reconstrucción tridimensional, requeridos para la obtención de la medida de distancia a los múltiples puntos de interés procesados. Los principales inconvenientes del SLAM son el alto coste computacional, cuando se utiliza un número elevado de características visuales, y su consistencia ante errores, derivados del ruido en los sensores, del modelado y del tratamiento de las distribuciones de probabilidad, que pueden producir el fallo del filtro. Dado que el SLAM basado en el Filtro de Kalman Extendido es una las técnicas más utilizadas, se ha seleccionado en primer lugar cómo solución para el sistema de localización del robot, realizando una implementación en la que las medidas de los sensores y el movimiento del robot son simulados por software, antes de materializarla en el prototipo. La simulación se ha realizado considerando una disposición de ocho marcadores visuales que en todo momento proporcionan ocho medidas de distancia con ruido aleatorio equivalente al error del sensor visual real, y un modelo cinemático del robot que considera deslizamiento de las ruedas mediante ruido aleatorio. Durante la simulación, los resultados han mostrado que la localización estimada por el algoritmo SLAM-EKF presenta tendencia a corregir la localización obtenida mediante la odometría, pero no en suficiente cuantía para dar un resultado aceptable, sin conseguir una convergencia a una solución suficientemente cercana a la localización simulada del robot y los marcadores. La conclusión obtenida tras la simulación ha sido que el algoritmo SLAMEKF proporciona inadecuada convergencia de precisión, debido a la alta incertidumbre en la odometría y a la alta incertidumbre en las medidas de posición de los marcadores proporcionadas por el sensor visual. Tras estos resultados, se ha buscado una solución alternativa. Partiendo de la idea subyacente en los Filtros de Partículas, se ha planteado sustituir las distribuciones de probabilidad gaussianas consideradas por el Filtro de Kalman Extendido, por distribuciones equi-probables que derivan en funciones binarias que representan intervalos de probabilidad no-nula. La aplicación de Filtro supone la superposición de todas las funciones de probabilidad no-nula disponibles, de modo que el resultado es el intervalo donde existe alguna probabilidad de la medida. Cómo la efectividad de este filtro aumenta con el número disponible de medidas, se ha propuesto obtener una medida de la localización del robot a partir de cada pareja de medidas disponibles de posición de los marcadores, haciendo uso de la Trilateración. SLAM mediante Trilateración Estadística (SLAM-ST) es como se ha denominado a esta solución propuesta en este trabajo fin de master. Al igual que con el algoritmo SLAM-EKF, ha sido realizada una implementación del algoritmo SLAM-ST en la que las medidas de los sensores y el movimiento del robot son simulados, antes de materializarla en el prototipo. La simulación se ha realizado en las mismas condiciones y con las mismas consideraciones, para comparar con los resultados obtenidos con el algoritmo SLAM-EKF. Durante la simulación, los resultados han mostrado que la localización estimada por el algoritmo SLAM-ST presenta mayor tendencia que el algoritmo SLAM-EKF a corregir la localización obtenida mediante la odometría, de modo que se alcanza una convergencia a una solución suficientemente cercana a la localización simulada del robot y los marcadores. Las conclusiones obtenidas tras la simulación han sido que, en condiciones de alta incertidumbre en la odometría y en la medida de posición de los marcadores respecto al robot, el algoritmo SLAM-ST proporciona mejores resultado que el algoritmo SLAM-EKF, y que la precisión conseguida sugiere la viabilidad de la implementación en el prototipo. La implementación del algoritmo SLAM-ST en el prototipo ha sido realizada en conjunción con la implementación del Sensor Visual Monocular, el Modelo de Odometría y el Control de Trayectoria. El Sensor Visual Monocular es el elemento del sistema SLAM encargado de proporcionar la posición con respecto al robot de los marcadores visuales externos, a partir de las imágenes obtenidas por las cámaras, mediante técnicas de procesamiento de imagen que permiten detectar e identificar los marcadores visuales que se hallen presentes en la imagen capturada, así como obtener las características visuales a partir de las cuales inferir la posición del marcador visual respecto a la cámara, mediante reconstrucción tridimensional monocular, basada en el conocimiento a-priori del tamaño real del mismo. Para tal fin, se ha utilizado el modelo matemático de cámara pin-hole, y se ha considerado las distorsiones de la cámara real mediante la calibración del sensor, en vez de utilizar la calibración de la imagen, tras comprobar el alto coste computacional que requiere la corrección de la imagen capturada, de modo que la corrección se realiza sobre las características visuales extraídas y no sobre la imagen completa. El Modelo de Odometría es el elemento del sistema SLAM encargado de proporcionar la estimación de movimiento incremental del robot en base a la información proporcionada por los sensores de odometría, típicamente los encoders de las ruedas. Por la tipología del robot utilizado en el prototipo, se ha utilizado un modelo cinemático de un robot tipo uniciclo y un modelo de odometría de un robot móvil de dos ruedas tipo diferencial, en el que la traslación y la rotación se determinan por la diferencia de velocidad de las ruedas motrices, considerando que no existe deslizamiento entre la rueda y el suelo. Sin embargo, el deslizamiento en las ruedas aparece como consecuencia de causas externas que se producen de manera inconstante durante el movimiento del robot que provocan insuficiente contacto de la rueda con el suelo por efectos dinámicos. Para mantener la validez del modelo de odometría en todas estas situaciones que producen deslizamiento, se ha considerado un modelo de incertidumbre basado en un ensayo representativo de las situaciones más habituales de deslizamiento. El Control de Trayectoria es el elemento encargado de proporcionar las órdenes de movimiento al robot móvil. El control implementado en el prototipo está basado en postura, utilizando como entrada la desviación en la posición y orientación respecto a una referencia de paso de la trayectoria. La localización del robot utilizada es siempre de la estimación proporcionada por el sistema SLAM y la trayectoria es planeada a partir del conocimiento del mapa de marcas visuales que limitan el espacio de trabajo, mapa proporcionado por el sistema SLAM. Las limitaciones del sensor visual embarcado en la velocidad de estabilización de la imagen capturada han conducido a que el control se haya implementado con la estrategia “mirar parado”, en la que la captación de imágenes se realiza en posición estática. Para evaluar el sistema de localización basado en visión del prototipo, se ha diseñado una prueba de validación que obtenga una medida cuantitativa de su comportamiento. La prueba consiste en la realización de forma completamente autónoma de la detección del espacio de trabajo, la planificación de una trayectoria de inspección que lo transite completamente, y la ejecución del recorrido de la misma, registrando simultáneamente la localización real del robot móvil junto con la localización proporcionada por el sistema SLAM Visual Monocular. Se han realizado varias ejecuciones de prueba de validación, siempre en las mismas condiciones iniciales de posición de marcadores visuales y localización del robot móvil, comprobando la repetitividad del ensayo. Los resultados presentados corresponden a la consideración de las medidas más pesimistas obtenidas tras el procesamiento del conjunto de medidas de todos los ensayos. Los resultados revelan que, considerando todo el espacio de trabajo, el error de posición, diferencia entre los valores de proporcionados por el sistema SLAM y los valores medidos de posición real, se encuentra en el entorno de la veintena de centímetros. Además, los valores de incertidumbre proporcionados por el sistema SLAM son, en todos los casos, superiores a este error. Estos resultados conducen a concluir que el sistema de localización basado en SLAM Visual, mediante un algoritmo de Trilateración Estadística, usando un sensor visual monocular y marcadores visuales externos, funciona, proporcionando la localización del robot móvil con respecto al sistema de referencia global inicial y un mapa de su situación de los marcadores visuales, con precisión limitada, pero con incertidumbre conservativa, al estar en todo momento el error real de localización por debajo del error estimado. Sin embargo, los resultados de precisión del sistema de localización no son suficientemente altos para cumplir con los requerimientos como solución robotizada aplicada a la inspección ultrasónica estructural de aeronaves en servicio. En este sentido, los resultados sugieren que la posible continuación de este trabajo en el futuro debe centrarse en la mejora de la precisión de localización del robot móvil, con líneas de trabajo encaminadas a mejorar el comportamiento dinámico del prototipo, en mejorar la precisión de las medidas de posición proporcionadas por el sensor visual y en optimizar el resultado del algoritmo SLAM. Algunas de estas líneas futuras podrían ser la utilización de plataformas robóticas de desarrollo alternativas, la exploración de técnicas de visión por computador complementarias, como la odometría visual, la visión omnidireccional, la visión estereoscópica o las técnicas de reconstrucción tridimensional densa a partir de captura monocular, y el análisis de algoritmos SLAM alternativos condicionado a disponer de una sustancial mejora de precisión en el modelo de odometría y en las medidas de posición de los marcadores.
Resumo:
El padre Vicente tosca, arquitecto, filósofo, matemático, y astrónomo, Y comienza su Tratado de Arquitectura (que forma parte de su Compendio matemático, 9 vols. 1701-1715) abordando el tema de la traza o proyecto de bóvedas: Lo más sutil y primoroso de la Arquitectura... es la construcción de todo género de arcos y bóvedas, cortando sus piedras, y ajustándolas con tal artificio, que la misma gravedad y peso que las había de precipitar hácia la tierra, las mantenga constantes en el ayre, sustentándose las unas á las otras en virtud de la mutua complicación que las enlaza, con lo que cierran por arriba las fábricas con toda seguridad y firmeza. El equilibrio se alcanza a través de la geometría y, de este modo es posible la construcción de edificios de fábrica seguros. Las antiguas reglas tradicionales para el proyecto de bóvedas y estribos de fábrica tienen un carácter geométrico, ya que establecen ciertas relaciones entre las dimensiones de los elementos estructurales. Regulan, por ejemplo, que el grosor de un estribo debe ser una cierta fracción entera de la luz de las bóvedas. De hecho en la afirmación del padre Tosca encontramos la esencia misma del proyecto de estructuras de fábrica (Huerta 2004). Sin embargo para nosotros, arquitectos e ingenieros del siglo XXI, todo esto nos parece demasiado ingenuo, la demostración de la ignorancia de los antiguos maestros; de hecho, hasta el siglo XVIII no se desarrolló una teoría científica de las estructuras, basada en la Resistencia de Materiales y las leyes de la Mecánica (Huerta 1996). De cualquier forma estos *ignorantes+ maestros constructores levantaron el Pantheon de Roma, Santa Sofía y las catedrales góticas. Por tanto, puede que, después de todo, el enfoque geométrico tradicional no esté demasiado equivocado. Es posible que los antiguos maestros tuvieran una teoría, distinta de nuestra teoría científica, pero basada en un profundo conocimiento de la naturaleza y comportamiento de las estructuras de fábrica. Si fuera así, sería interesante conocer algo sobre esta teoría, la cual, si juzgamos por los resultados, era extraordinaria. Sin embargo, aunque podemos ampliar nuestros conocimientos, no podemos sustraernos a los que ya tenemos. Estamos forzados a abordar el tema del análisis de arcos y bóvedas desde un enfoque científico, dentro del marco de la teoría de estructuras actual. Antes de proseguir se deben hacer dos observaciones. La primera se refiere al objetivo de la Teoría de Estructuras. El objetivo de la teoría estructural es el proyecto de construcciones seguras o el análisis de la seguridad de las que ya existen. Es una ciencia aplicada no una ciencia pura. Como Rankine (1858) señaló, si la pregunta que se hace el científico es *qué quiero saber+, la del arquitecto o ingeniero es *qué quiero hacer+. Todas las consideraciones teóricas están condicionadas por la necesidad de una respuesta a un problema sin demora. La segunda observación hace referencia a nuestra propia ignorancia respecto al tema. Ya no se construyen bóvedas y toda la tradición de la construcción en fábrica se ha perdido en el mundo occidental. Esta parte de la arquitectura, que fue considerada *lo más sutil y primoroso+, nos es ajena. La mayor parte de los arquitectos e ingenieros nunca han visto construir una sencilla bóveda. Carecemos del oficio y experiencia del antiguo constructor, que seleccionaba la piedra, dibujaba las plantillas para cortarla, trazaba la cimbra, dirigía el proceso de construcción y, finalmente, supervisaba el descimbrado. Rodrigo Gil de Hontañón (Tratado de arquitectura, ca. 1540, copiado en García, 1681) después de describir la construcción de una bóveda gótica de crucería advierte que: . . . estas cosas, podran ser difiçiles de comprehender faltando en quien las procura la experiencia, la practi¬ca, la profesion de la canteria, y la execuçion, o el aberse allado presente a algunos çierres de cruçeria, para haçerse capaz en el asiento de ella. Esta es precisamente la situación de cualquier arquitecto o ingeniero de la actualidad. A partir de aquí trataremos de mostrar que los enfoques tradicional y moderno del cálculo de estructuras de fábrica llevan a la misma conclusión fundamental: la absoluta importancia de la geometría. Se demostrará que la moderna teoría del Análisis Límite de las estructuras de Fábrica, que ha sido desarrollada por el profesor Heyman, es la herramienta más apropiada para comprender y analizar las construcciones de fábrica. Esta teoría conduce al *enfoque del equilibrio+; el calculista necesita sólo estudiar posible estados de equilibrio con la fábrica trabajando a compresión. La existencia de estos posibles estados de equilibrio depende de la geometría. Una construcción segura es una construcción en equilibrio: la teoría moderna conduce a las mismas disposiciones geométricas que la tradicional. No podía ser de otro modo, los espectaculares logros de los antiguos arquitectos no pudieron ser fruto de la casualidad. Se harán numerosas referencias históricas con la intención de dejar claro que existe una antigua tradición en el cálculo científico de las estructuras de fábrica según el enfoque del equilibrio. Tenemos mucho que aprender de los arquitectos e ingenieros de la antigüedad. Pudieron no tener una profunda comprensión de la teoría, pero poseían los conocimientos esenciales, ésos que proporciona la reflexión sobre la práctica. Ars sine scientia nihil est, la práctica no es nada sin la teoría, pero la teoría sin la práctica es simplemente peligrosa. La experiencia, en nuestro caso, debemos buscarla en los edificios construidos y en lo que podemos extraer de la lectura crítica de los antiguos tratados de arquitectura e ingeniería.
Resumo:
Na fase inicial desta Dissertação foi realizada uma revisão abordando as operações por corte de arranque de apara mais comuns, considerando-se que estas seriam o torneamento, a furação mecânica e a fresagem, sendo esta última operação abordada de uma forma mais detalhada, uma vez que esta operação será o tema central de estudo neste trabalho. Realizou-se também um estudo mais elaborado sobre alguns fundamentos de fresagem como a maquinagem concordante e discordante, fatores que influenciam no acabamento final da maquinagem, diâmetro efetivo de corte para uma ferramenta de topo esférico, flexão da ferramenta, entre outros. Temas como o CAD-CAM, CNC e Engenharia Inversa foram também particularizados neste trabalho, pois o conhecimento destes assuntos por parte do leitor seriam importantes para a compreensão do trabalho posteriormente desenvolvido. Na parte seguinte deste trabalho foi realizada uma parte experimental. Um primeiro trabalho foi desenvolvido com base numa geometria a duas dimensões, onde foi necessária a realização das geometrias no software AUTOCAD® e posterior utilização do MASTERCAM® para criar os ciclos de maquinagem e, para um segundo trabalho, desta vez com base numa geometria a três dimensões, utilizou-se o SOLID-WORKS® para extração da Bucha e Cavidade e o MASTERCAM® para criar os ciclos de maquinagem. Ambos os trabalhos foram produzidos no Centro de maquinagem existente no Departamento de Engenharia Mecânica do Instituto Superior de Engenharia de Coimbra.
Resumo:
The Monte Carlo method is accurate and is relatively simple to implement for the solution of problems involving complex geometries and anisotropic scattering of radiation as compared with other numerical techniques. In addition, differently of what happens for most of numerical techniques, for which the associated simulations computational time tends to increase exponentially with the complexity of the problems, in the Monte Carlo the increase of the computational time tends to be linear. Nevertheless, the Monte Carlo solution is highly computer time consuming for most of the interest problems. The Multispectral Energy Bundle model allows the reduction of the computational time associated to the Monte Carlo solution. The referred model is here analyzed for applications in media constituted for nonparticipating species and water vapor, which is an important emitting species formed during the combustion of hydrocarbon fuels. Aspects related to computer time optimization are investigated the model solutions are compared with benchmark line-by-line solutions
Resumo:
El presente trabajo de investigación el cual consiste en una Auditoría de Recursos Humanos aplicada a la Administración del personal operativo de los Restaurantes “Pollo Campestre”, con la finalidad de perfeccionar u orientar nuevas políticas de los recursos humanos que sean capaces de sensibilizar en los trabajadores altos niveles de satisfacción y motivación laboral y lograr posicionar a la organización a través de comparación con patrones de competencias fijados en el entorno laboral. En cuanto al procedimiento metodológico, es mediante un estudio de campo a nivel descriptivo de donde se obtiene los datos a través de un cuestionario y entrevistas informales para constatar la necesidad de una auditoría a los procesos que integran el Sistema de Administración de Recursos Humanos, donde mediante la aplicación de cada una de las fases de la auditoría que da como resultado la entrega del informe, los encargados de la gestión humana comparen que las funciones que se estén desempeñando estén acorde con los objetivos y políticas definidos por la entidad aplicando así las recomendaciones establecidas. En donde se determinaran desviaciones importantes en la evaluación del recurso humano y establecer acciones correctivas; determinar que los manuales y políticas del Área de Recursos Humanos estén orientados al cumplimiento de los objetivos de la entidad; y verificar la existencia de procedimientos y métodos para evaluar la efectividad de los empleados al realizar sus actividades y determinar que los métodos existentes son funcionales y se adecuan a las necesidades y expectativas de la empresa
Resumo:
Free fatty acids are a measure of evaluating fats and oils, submitted to abusive conditions, besides being a quality characteristic of edible vegetable oils. The official method of determination (AOCS Ca 5a-40, 2004) is based on titration, using phenolphthalein as an indicator. For crude and degummed oils, the titration end point is difficult to be observed due to the high level of pigments, resulting in dark solutions. In this case and others, such as self-life studies, in which sample quantities are limited, potentiometric titration may be a very good alternative.
Resumo:
Thermosensitive hydrogels were synthesized using alginate-Ca2+ in association with a thermosensitive polymer, such as PNIPAAm. The mechanical properties of the hydrogels were determined measuring the maximum tension of deformation. With the increase of the temperature by 25 to 40 ºC above the LCST the chains of PNIPAAm collapsed, dragging the alginate net and diminishing the size of the pores. The decrease in the size of the pores of the hydrogel was followed by an increase in the mechanicals resistance of the material.
Resumo:
Ten common doubts of chemistry students and professionals about their statistical applications are discussed. The use of the N-1 denominator instead of N is described for the standard deviation. The statistical meaning of the denominators of the root mean square error of calibration (RMSEC) and root mean square error of validation (RMSEV) are given for researchers using multivariate calibration methods. The reason why scientists and engineers use the average instead of the median is explained. Several problematic aspects about regression and correlation are treated. The popular use of triplicate experiments in teaching and research laboratories is seen to have its origin in statistical confidence intervals. Nonparametric statistics and bootstrapping methods round out the discussion.
Resumo:
Sugarcane holds an important place in the Brazilian economy. Grate part of the sugarcane harvested still accomplished largely manually. Sugarcane harvesters available in Brazil use the technology to chop the cane into 200 to 300 mm billets to allow on the go cane transferring to transport, contradicting the traditional method of whole stalk sugarcane harvesting system. In order to make whole stalk mechanical harvesting system possible, one of the barriers to be expired is the mechanical removal of the straw. The design of a mechanism that accomplishes this operation depends directly on the knowledge of the mechanical properties of the sugarcane related to its resistance to compression and the forces necessary to remove the leaves from the stalk. Compression tests were conducted using the universal testing machine. For leaves removal test by friction, a special apparatus was designed to allow the registration of the normal and traction force. The sugarcane stalk can resist up to 4.9 MPa. With a normal pressure of 0.8 MPa, which correspond to a friction force of 315 N, it is possible to remove the leaves, independent of its location in the sugarcane stalk.
Resumo:
A trial was carried out to evaluate the chemical composition in the aerial part of lettuce, cv. 'Elisa', irrigated with wastewater treated with constructed wetland and source deposit water, grown on a Rhodic Hapludox Soil, using the irrigation systems sprinkle, subsurface drip and surface drip irrigation. The experiment was carried out from August 17th to October 3rd of 2001 and the chemical analyses of the lettuce were accomplished to 47 days after transplanting of the seedling. The aerial part of the lettuce was analyzed as for the levels of total nitrogen, nitrate, phosphorus, potassium, calcium, magnesium, sulfur, iron, manganese, copper, zinc, sodium, boron, cobalt and molybdenum. The sodium and the sulfur presented higher levels than the maximum suitable in the aerial part of the lettuce and the smallest level of magnesium, while other chemical elements analyzed were normal and appropriate considering the standard for well-nourished plants, not being influenced by the water type. The sodium was the chemical element that presented the highest levels in the aerial part of the lettuce in the treatments irrigated with wastewater, presenting significant difference in relationship to the treatments irrigated with source deposit water in the three irrigation systems. The use of the different irrigation systems by the application of wastewater treated with constructed wetland did not interfere in the levels of nutrients in the aerial part of the lettuce.
Resumo:
Rice husk, employed as an energy source at milling industries in Brazil generates, after burning, a dark ash. This residue is not yet conveniently disposed, being currently dumped on large areas, causing environmental problems. This research intended to evaluate the applications of residual rice husk ashes (RHA) as a partial replacement of cement for mortar production. Rice husk ash was chemically characterized through X-ray fluorescence, determination of carbon content, X-ray diffraction, and laser granulometric analysis. Mortar specimens were submitted to two different exposure conditions: internal and external environments at a maximum period of five months. Physical-mechanical testing were compressive strength and ultrasonic pulse velocity (UPV). Although presenting good mechanical performance, the mortar based on ash (RHA) did not present pozolanicity but it can be employed in cement matrices as inert material (filler).
Resumo:
Twenty-two Triceps brachii muscle obtained from 11 cows aged 3 and 4 years , killed in an experimental slaughter plant, were submitted to mechanical tenderization, injection with acetic acid 0,1M and lactic acid 0,2M, ageing for 9 and 14 days and electrical stimulation (250v - 60Hz - 90s), some of them were reserved as a control group, without treatment. The 14 days ageing time presented 21% of increase in subjective tenderness and 12% of reduction in shear force, these values were similar to the electrical stimulated meat. However the injection with acids and the ageing time 9 days did not present significant effect in the texture. Although the shear force values of mechanical tenderized meat was the shortest among all treatments, suspect of superestimation because of the fractures plan created by this process. Another analyses were carried out: pH reduction curve, R value; colour analysis; weight losses by cooking and by treatment; and microbiological analysis.
Resumo:
The aim of this research was to optimize osmotic dehydration of pineapple, according to two criteria: maximize water loss and minimize solid gain. The process was made as an application to Combined Methods Technology, in which three preservation factors were combined: water activity, pH and chemical preservatives, all being applied at low levels, in order to get a product resembling non-processed fruit. The experiment was divided into three treatments, being: non-coated pineapple pieces (A), pieces coated with alginate (B) and coated with low-methoxyl pectin (C). Process involved the following main steps: enzymatic inactivation of fruit pieces; in treatments B and C, incorporation of their respective coatings; and osmotic dehydration, in sucrose syrup containing potassium sorbate and citric acid. Optimum conditions, determined from Response Surface Methodology, were the following: dehydration of fruit pieces coated by alginate, at 42-47° C, in sucrose syrup at 66-69° Brix, for 220 to 270 minutes. Results indicated that both coatings significantly affected the mass transfers of the process, reducing solid incorporation and increasing water loss; therefore, increasing weight loss and performance ratio (water loss: solid incorporation) took place. Water activity was not significantly affected by the coatings. The product obtained under optimum conditions was submitted to sensorial evaluation, and presented a good general acceptance. Moulds and yeasts countings indicated good microbiological stability of the product for at least 60 days at 30ºC.