875 resultados para Detección de defectos
Resumo:
En nuestro país no está desarrollada una técnica sensible y precisa que permita confirmar la presencia de la bacteria Agrobacterium vitis; por lo tanto es muy importante contar con herramientas analíticas que permitan identificar la bacteria en vides y/o suelos para controlar la diseminación y propagación de la misma, permitiendo así a las empresas, mejorar la competitividad de sus productos en el mercado y garantizar la seguridad y calidad de la materia prima principal de la industria vitivinícola. El objetivo de este estudio es poner a punto una metodología de detección de Agrobacterium vitis sensible y de bajo costo basada en la técnica de PCR (Reacción en cadena de la polimerasa). El desarrollo de esta metodología pretende ser una herramienta importante para la industria vitivinícola al permitir detectar la presencia o ausencia de la bacteria en programas de monitoreo, tomar decisiones a tiempo y así proteger la calidad y sanidad de las vides. En el presente trabajo se empleó la metodología propuesta por Eastwell y colaboradores en 1995. La misma consistió en el aislamiento de la bacteria en medio selectivo RS, en la extracción/purificación de ADN bacteriano, amplificación por PCR, separación del producto amplificado por electroforesis y revelado por tinción, pudiéndose observar que el 100% del material con sintomatología que se utilizó presentó desarrollo de colonias características de Agrobacterium vitis. Al hacer la amplificación de los ADN y posterior revelado se observó, en primera instancia, que la amplificación no fue óptima, pero cuando se realizaron las distintas adaptaciones de la técnica se vieron diferentes resultados encontrándose que podría tratarse de: A. vitis virulento, no virulento o A. tumefaciens. Para ello fue necesario adecuar la técnica y estudiar algunos aspectos tales como las temperaturas de incubación de los medios de cultivos, evaluación de la concentración de ADN para determinar si existía una concentración mínima del mismo para su posterior amplificación. También se trabajó con diferentes concentraciones del gel de agarosa y se modificaron los volúmenes de siembra y los tiempos de corrida del gel en la cuba de electroforesis. Fue posible adaptar la metodología para la identificación de cepas de Agrobacterium vitis. Los mejores resultados se evidenciaron trabajando con una temperatura de incubación de las colonias de 28 °C, con una concentración del gel de agarosa del 2 % tal como lo indicaba la técnica original, volúmenes de siembra de electroforesis de 10 μl de PCR producto y un tiempo de corrida del gel en la cuba de electroforesis de 70 min a 90 Voltios. Además observamos que concentraciones de ADN superiores a 49 ng/μl registraron bandas visibles siendo las de 116 ng/μl o superiores las concentraciones más adecuadas y optimas para la obtención de bandas bien definidas y nítidas.
Resumo:
Los estudios de asociación genómica (GWAS) llevan consigo un algo costo monetario, y a su vez requieren algoritmos complejos de análisis de información que consumen tiempo y memoria computacional. En este sentido, el objetivo principal de esta tesis es presentar un esquema de genotipado apropiado para poblaciones cruza, junto con un algoritmo eficiente para GWAS de caracteres complejos productivos. Inicialmente, se presenta un esquema de genotipado que maximiza la exactitud de imputación de genotipos en alta densidad (HD) a partir de paneles de baja densidad (LowD), reduciendo el costo de genotipificación. Posteriormete, se propone un algoritmo que facilita identificar regiones genómicas que explican parte de la variabilidad de un carácter, reduciendo la tasa de falsos positivos, el tiempo de cálculo y el requerimiento de memoria RAM. De igual manera, el algoritmo evalúa segmentos candidatos a partir de las posiciones detectadas significativas y calcula la fracción de la varianza aditiva total explicada por cada segmento. Finalmete se presentan estudios de asociación para características de crecimiento y deposición de grasa, empleando el algoritmo propuesto junto con genotipos imputados en HD. La implementación de dicho algoritmo permite identificar regiones significativas relevantes y genes candidatos que explican parte de la variación de los caracteres evaluados. En conclusión, la tesis propone un enfoque estructurado, práctico y eficiente para la realización de GWAS de caracteres complejos aplicado en poblaciones experimentales con fines productivos.
Resumo:
El presente trabajo se propone detectar (a través de una evaluación diagnóstica, diseñada a partir de analogías, y de los resultados obtenidos en la materia Química del curso de ingreso que se dicta para las carreras de Ingeniería Agronómica y Forestal de la UNLP) a aquellos alumnos con dificultades para poder incluirlos en el Programa Institucional de Tutores que ofrece la Facultad de Ciencias Agrarias y Forestales de la Universidad Nacional de La Plata. Se comparó por un lado, el desempeño alcanzado en las evaluaciones diagnósticas con los resultados obtenidos en el primer parcial de Química General e Inorgánica y por otro lado el resultado obtenido en el examen de Ingreso de la materia Química con los resultados obtenidos en el primer parcial. Ambas herramientas resultaron fundamentales para la detección de aquellos alumnos con más dificultades que deberían ser incluidos tempranamente en el sistema de tutorías. Dado que los principales problemas detectados en los alumnos se relacionan con la interpretación de resultados, la interpretación de consignas y gráficos, la expresión de definiciones y conceptos de manera escrita, la resolución de problemas sencillos, se proponen una serie de actividades a desarrollarse en dicho programa tendientes a mejorar el desempeño académico de estos alumnos
Resumo:
Fil: Fotia, José Antonio. Universidad Nacional de La Plata. Facultad de Humanidades y Ciencias de la Educación; Argentina.
Resumo:
Fil: Fotia, José Antonio. Universidad Nacional de La Plata. Facultad de Humanidades y Ciencias de la Educación; Argentina.
Resumo:
En este trabajo nos enfocamos en el problema del punto de cambio aplicado al control de calidad del proceso enseñanza-aprendizaje. Para ello se tomo en cuenta la evolución temporal de la proporción de alumnos promocionados, por cuatrimestre, de la asignatura Estadística de la Facultad de Ingeniería de la UNLP, desde el año 2001 al 2008. El objetivo es analizar la posible aparición de cambios en dicha proporción no detectados por las cartas de control convencionales. Se trata de establecer las posibles causas de esos cambios en el marco de las transformaciones ocurridas a partir de la acreditación de las carreras de Ingeniería de la UNLP, usando estas herramientas de estudio. El análisis de punto de cambio es una novedosa herramienta utilizada con el fin de determinar la existencia o no de cambios en procesos de diferente índole. Para su aplicación se emplea un test de hipótesis y la metodología Bootstrap.
Resumo:
El presente trabajo se propone detectar (a través de una evaluación diagnóstica, diseñada a partir de analogías, y de los resultados obtenidos en la materia Química del curso de ingreso que se dicta para las carreras de Ingeniería Agronómica y Forestal de la UNLP) a aquellos alumnos con dificultades para poder incluirlos en el Programa Institucional de Tutores que ofrece la Facultad de Ciencias Agrarias y Forestales de la Universidad Nacional de La Plata. Se comparó por un lado, el desempeño alcanzado en las evaluaciones diagnósticas con los resultados obtenidos en el primer parcial de Química General e Inorgánica y por otro lado el resultado obtenido en el examen de Ingreso de la materia Química con los resultados obtenidos en el primer parcial. Ambas herramientas resultaron fundamentales para la detección de aquellos alumnos con más dificultades que deberían ser incluidos tempranamente en el sistema de tutorías. Dado que los principales problemas detectados en los alumnos se relacionan con la interpretación de resultados, la interpretación de consignas y gráficos, la expresión de definiciones y conceptos de manera escrita, la resolución de problemas sencillos, se proponen una serie de actividades a desarrollarse en dicho programa tendientes a mejorar el desempeño académico de estos alumnos
Resumo:
El presente trabajo se propone detectar (a través de una evaluación diagnóstica, diseñada a partir de analogías, y de los resultados obtenidos en la materia Química del curso de ingreso que se dicta para las carreras de Ingeniería Agronómica y Forestal de la UNLP) a aquellos alumnos con dificultades para poder incluirlos en el Programa Institucional de Tutores que ofrece la Facultad de Ciencias Agrarias y Forestales de la Universidad Nacional de La Plata. Se comparó por un lado, el desempeño alcanzado en las evaluaciones diagnósticas con los resultados obtenidos en el primer parcial de Química General e Inorgánica y por otro lado el resultado obtenido en el examen de Ingreso de la materia Química con los resultados obtenidos en el primer parcial. Ambas herramientas resultaron fundamentales para la detección de aquellos alumnos con más dificultades que deberían ser incluidos tempranamente en el sistema de tutorías. Dado que los principales problemas detectados en los alumnos se relacionan con la interpretación de resultados, la interpretación de consignas y gráficos, la expresión de definiciones y conceptos de manera escrita, la resolución de problemas sencillos, se proponen una serie de actividades a desarrollarse en dicho programa tendientes a mejorar el desempeño académico de estos alumnos
Resumo:
Fil: Fotia, José Antonio. Universidad Nacional de La Plata. Facultad de Humanidades y Ciencias de la Educación; Argentina.
Resumo:
En este trabajo nos enfocamos en el problema del punto de cambio aplicado al control de calidad del proceso enseñanza-aprendizaje. Para ello se tomo en cuenta la evolución temporal de la proporción de alumnos promocionados, por cuatrimestre, de la asignatura Estadística de la Facultad de Ingeniería de la UNLP, desde el año 2001 al 2008. El objetivo es analizar la posible aparición de cambios en dicha proporción no detectados por las cartas de control convencionales. Se trata de establecer las posibles causas de esos cambios en el marco de las transformaciones ocurridas a partir de la acreditación de las carreras de Ingeniería de la UNLP, usando estas herramientas de estudio. El análisis de punto de cambio es una novedosa herramienta utilizada con el fin de determinar la existencia o no de cambios en procesos de diferente índole. Para su aplicación se emplea un test de hipótesis y la metodología Bootstrap.
Resumo:
The important technological advances experienced along the last years have resulted in an important demand for new and efficient computer vision applications. On the one hand, the increasing use of video editing software has given rise to a necessity for faster and more efficient editing tools that, in a first step, perform a temporal segmentation in shots. On the other hand, the number of electronic devices with integrated cameras has grown enormously. These devices require new, fast, and efficient computer vision applications that include moving object detection strategies. In this dissertation, we propose a temporal segmentation strategy and several moving object detection strategies, which are suitable for the last generation of computer vision applications requiring both low computational cost and high quality results. First, a novel real-time high-quality shot detection strategy is proposed. While abrupt transitions are detected through a very fast pixel-based analysis, gradual transitions are obtained from an efficient edge-based analysis. Both analyses are reinforced with a motion analysis that allows to detect and discard false detections. This analysis is carried out exclusively over a reduced amount of candidate transitions, thus maintaining the computational requirements. On the other hand, a moving object detection strategy, which is based on the popular Mixture of Gaussians method, is proposed. This strategy, taking into account the recent history of each image pixel, adapts dynamically the amount of Gaussians that are required to model its variations. As a result, we improve significantly the computational efficiency with respect to other similar methods and, additionally, we reduce the influence of the used parameters in the results. Alternatively, in order to improve the quality of the results in complex scenarios containing dynamic backgrounds, we propose different non-parametric based moving object detection strategies that model both background and foreground. To obtain high quality results regardless of the characteristics of the analyzed sequence we dynamically estimate the most adequate bandwidth matrices for the kernels that are used in the background and foreground modeling. Moreover, the application of a particle filter allows to update the spatial information and provides a priori knowledge about the areas to analyze in the following images, enabling an important reduction in the computational requirements and improving the segmentation results. Additionally, we propose the use of an innovative combination of chromaticity and gradients that allows to reduce the influence of shadows and reflects in the detections.
Resumo:
Este trabajo de Tesis ha abordado el objetivo de dar robustez y mejorar la Detección de Actividad de Voz en entornos acústicos adversos con el fin de favorecer el comportamiento de muchas aplicaciones vocales, por ejemplo aplicaciones de telefonía basadas en reconocimiento automático de voz, aplicaciones en sistemas de transcripción automática, aplicaciones en sistemas multicanal, etc. En especial, aunque se han tenido en cuenta todos los tipos de ruido, se muestra especial interés en el estudio de las voces de fondo, principal fuente de error de la mayoría de los Detectores de Actividad en la actualidad. Las tareas llevadas a cabo poseen como punto de partida un Detector de Actividad basado en Modelos Ocultos de Markov, cuyo vector de características contiene dos componentes: la energía normalizada y la variación de la energía. Las aportaciones fundamentales de esta Tesis son las siguientes: 1) ampliación del vector de características de partida dotándole así de información espectral, 2) ajuste de los Modelos Ocultos de Markov al entorno y estudio de diferentes topologías y, finalmente, 3) estudio e inclusión de nuevas características, distintas de las del punto 1, para filtrar los pulsos de pronunciaciones que proceden de las voces de fondo. Los resultados de detección, teniendo en cuenta los tres puntos anteriores, muestran con creces los avances realizados y son significativamente mejores que los resultados obtenidos, bajo las mismas condiciones, con otros detectores de actividad de referencia. This work has been focused on improving the robustness at Voice Activity Detection in adverse acoustic environments in order to enhance the behavior of many vocal applications, for example telephony applications based on automatic speech recognition, automatic transcription applications, multichannel systems applications, and so on. In particular, though all types of noise have taken into account, this research has special interest in the study of pronunciations coming from far-field speakers, the main error source of most activity detectors today. The tasks carried out have, as starting point, a Hidden Markov Models Voice Activity Detector which a feature vector containing two components: normalized energy and delta energy. The key points of this Thesis are the following: 1) feature vector extension providing spectral information, 2) Hidden Markov Models adjustment to environment and study of different Hidden Markov Model topologies and, finally, 3) study and inclusion of new features, different from point 1, to reject the pronunciations coming from far-field speakers. Detection results, taking into account the above three points, show the advantages of using this method and are significantly better than the results obtained under the same conditions by other well-known voice activity detectors.
Resumo:
El tema central de investigación en esta Tesis es el estudio del comportamientodinámico de una estructura mediante modelos que describen la distribución deenergía entre los componentes de la misma y la aplicación de estos modelos parala detección de daños incipientes.Los ensayos dinámicos son un modo de extraer información sobre las propiedadesde una estructura. Si tenemos un modelo de la estructura se podría ajustar éstepara que, con determinado grado de precisión, tenga la misma respuesta que elsistema real ensayado. Después de que se produjese un daño en la estructura,la respuesta al mismo ensayo variará en cierta medida; actualizando el modelo alas nuevas condiciones podemos detectar cambios en la configuración del modeloestructural que nos condujeran a la conclusión de que en la estructura se haproducido un daño.De este modo, la detección de un daño incipiente es posible si somos capacesde distinguir una pequeña variación en los parámetros que definen el modelo. Unrégimen muy apropiado para realizar este tipo de detección es a altas frecuencias,ya que la respuesta es muy dependiente de los pequeños detalles geométricos,dado que el tamaño característico en la estructura asociado a la respuesta esdirectamente proporcional a la velocidad de propagación de las ondas acústicas enel sólido, que para una estructura dada es inalterable, e inversamente proporcionala la frecuencia de la excitación. Al mismo tiempo, esta característica de la respuestaa altas frecuencias hace que un modelo de Elementos Finitos no sea aplicable enla práctica, debido al alto coste computacional.Un modelo ampliamente utilizado en el cálculo de la respuesta de estructurasa altas frecuencias en ingeniería es el SEA (Statistical Energy Analysis). El SEAaplica el balance energético a cada componente estructural, relacionando la energíade vibración de estos con la potencia disipada por cada uno de ellos y la potenciatransmitida entre ellos, cuya suma debe ser igual a la potencia inyectada a cadacomponente estructural. Esta relación es lineal y viene caracterizada por los factoresde pérdidas. Las magnitudes que intervienen en la respuesta se consideranpromediadas en la geometría, la frecuencia y el tiempo.Actualizar el modelo SEA a datos de ensayo es, por lo tanto, calcular losfactores de pérdidas que reproduzcan la respuesta obtenida en éste. Esta actualización,si se hace de manera directa, supone la resolución de un problema inversoque tiene la característica de estar mal condicionado. En la Tesis se propone actualizarel modelo SEA, no en término de los factores de pérdidas, sino en términos deparámetros estructurales que tienen sentido físico cuando se trata de la respuestaa altas frecuencias, como son los factores de disipación de cada componente, susdensidades modales y las rigideces características de los elementos de acoplamiento.Los factores de pérdidas se calculan como función de estos parámetros. Estaformulación es desarrollada de manera original en esta Tesis y principalmente sefunda en la hipótesis de alta densidad modal, es decir, que en la respuesta participanun gran número de modos de cada componente estructural.La teoría general del método SEA, establece que el modelo es válido bajounas hipótesis sobre la naturaleza de las excitaciones externas muy restrictivas,como que éstas deben ser de tipo ruido blanco local. Este tipo de carga es difícil dereproducir en condiciones de ensayo. En la Tesis mostramos con casos prácticos queesta restricción se puede relajar y, en particular, los resultados son suficientementebuenos cuando la estructura se somete a una carga armónica en escalón.Bajo estas aproximaciones se desarrolla un algoritmo de optimización por pasosque permite actualizar un modelo SEA a un ensayo transitorio cuando la carga esde tipo armónica en escalón. Este algoritmo actualiza el modelo no solamente parauna banda de frecuencia en particular sino para diversas bandas de frecuencia demanera simultánea, con el objetivo de plantear un problema mejor condicionado.Por último, se define un índice de daño que mide el cambio en la matriz depérdidas cuando se produce un daño estructural en una localización concreta deun componente. Se simula numéricamente la respuesta de una estructura formadapor vigas donde producimos un daño en la sección de una de ellas; como se tratade un cálculo a altas frecuencias, la simulación se hace mediante el Método delos Elementos Espectrales para lo que ha sido necesario desarrollar dentro de laTesis un elemento espectral de tipo viga dañada en una sección determinada. Losresultados obtenidos permiten localizar el componente estructural en que se haproducido el daño y la sección en que éste se encuentra con determinado grado deconfianza.AbstractThe main subject under research in this Thesis is the study of the dynamic behaviourof a structure using models that describe the energy distribution betweenthe components of the structure and the applicability of these models to incipientdamage detection.Dynamic tests are a way to extract information about the properties of astructure. If we have a model of the structure, it can be updated in order toreproduce the same response as in experimental tests, within a certain degree ofaccuracy. After damage occurs, the response will change to some extent; modelupdating to the new test conditions can help to detect changes in the structuralmodel leading to the conclusión that damage has occurred.In this way incipient damage detection is possible if we are able to detect srnallvariations in the model parameters. It turns out that the high frequency regimeis highly relevant for incipient damage detection, because the response is verysensitive to small structural geometric details. The characteristic length associatedwith the response is proportional to the propagation speed of acoustic waves insidethe solid, but inversely proportional to the excitation frequency. At the same time,this fact makes the application of a Finite Element Method impractical due to thehigh computational cost.A widely used model in engineering when dealing with the high frequencyresponse is SEA (Statistical Energy Analysis). SEA applies the energy balance toeach structural component, relating their vibrational energy with the dissipatedpower and the transmitted power between the different components; their summust be equal to the input power to each of them. This relationship is linear andcharacterized by loss factors. The magnitudes considered in the response shouldbe averaged in geometry, frequency and time.SEA model updating to test data is equivalent to calculating the loss factorsthat provide a better fit to the experimental response. This is formulated as an illconditionedinverse problem. In this Thesis a new updating algorithm is proposedfor the study of the high frequency response regime in terms of parameters withphysical meaning such as the internal dissipation factors, modal densities andcharacteristic coupling stiffness. The loss factors are then calculated from theseparameters. The approach is developed entirely in this Thesis and is mainlybased on a high modal density asumption, that is to say, a large number of modescontributes to the response.General SEA theory establishes the validity of the model under the asumptionof very restrictive external excitations. These should behave as a local white noise.This kind of excitation is difficult to reproduce in an experimental environment.In this Thesis we show that in practical cases this assumption can be relaxed, inparticular, results are good enough when the structure is excited with a harmonicstep function.Under these assumptions an optimization algorithm is developed for SEAmodel updating to a transient test when external loads are harmonic step functions.This algorithm considers the response not only in a single frequency band,but also for several of them simultaneously.A damage index is defined that measures the change in the loss factor matrixwhen a damage has occurred at a certain location in the structure. The structuresconsidered in this study are built with damaged beam elements; as we are dealingwith the high frequency response, the numerical simulation is implemented witha Spectral Element Method. It has therefore been necessary to develop a spectralbeam damaged element as well. The reported results show that damage detectionis possible with this algorithm, moreover, damage location is also possible withina certain degree of accuracy.
Resumo:
Las técnicas de rehabilitación permiten la recuperación y mejora de las funciones dañadas o deterioradas y ayuda al paciente con DCA a adaptarse a su nueva situación. El avance tecnológico que se ha producido en las últimas décadas, ha impulsado la investigación en el diseño y desarrollo de nuevos modelos de rehabilitación. La tecnología de vídeo interactivo se convierte en un elemento de apoyo en estos nuevos modelos rehabilitadores. Se hace necesario desarrollar nuevos algoritmos de segmentación y seguimiento que permitan dotar de información adicional a los vídeos. En este trabajo se han implementado y evaluado dos métodos que permiten realizar la detección y el seguimiento de objetos de interés.
Resumo:
Uno de los pilares fundamentales que defienden el grupo de Normas ISO 9000 para garantizar la eficacia y eficiencia de los Sistemas de Gestión de la Calidad es la Mejora Continua. Para llevar a cabo el proceso de Mejora Continua es preciso empezar detectando y analizando donde estamos fallando y qué podemos mejorar. Organizaciones como PMI® asignan a esta actividad un proceso propio, que llaman también Lecciones Aprendidas y debe estar presente siempre, en todos los proyectos, ya que sólo conociendo nuestros fallos y analizando sus causas podemos tomar acciones preventivas que eviten que vuelvan a repetirse. Desafortunadamente, la experiencia práctica nos dice que, en la mayoría de los casos, esta actividad o no se ejecuta, o no se realiza de forma eficaz. La primera actividad que debería llevarse a cabo para detectar y analizar donde estamos fallando es la inspección del producto, en nuestro caso el edificio de viviendas, y realizar un listado de los defectos encontrados. Esta tarea, que debería realizarla la empresa constructora y ser supervisada por la Dirección de Ejecución de Obra, generalmente, no se realiza con el rigor suficiente que permita entregar al usuario su vivienda sin defectos aparentes. Se consideran repasos de postventa, dejando en el usuario final la responsabilidad de verificar el correcto acabado del producto que acaba de adquirir y que en la mayoría de los casos será la compra de mayor importe que realice en su vida. Cuando adquirimos cualquier objeto, un coche, un televisor, un teléfono móvil, etc., el fabricante es el responsable de verificar que el producto que está entregando al cliente o al suministrador no tiene daños o defectos aparentes. Sin embargo, cuando compramos una vivienda es el comprador o usuario final el que realiza, en la mayoría de los casos, esta verificación.