1000 resultados para Detección de fallos


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Fil: Fotia, José Antonio. Universidad Nacional de La Plata. Facultad de Humanidades y Ciencias de la Educación; Argentina.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En esta comunicación, expondremos, dentro de una perspectiva gramatical, ciertos objetivos de investigación acerca de la adquisición / aprendizaje de las categorías funcionales en adolescentes sordos y en un joven con diagnóstico de Trastorno Generalizado del Desarrollo (TGD). Comenzaremos por la cuestión de la concordancia entre sujeto y predicado, y la identificación de la referencia manifestada en los pronombres. Partiremos de la hipótesis de que la jerarquía de instigadores naturales (Moure 2001) incide en la identificación exitosa de los referentes; y de la idea de que existe una relación proporcional entre la menor información codificada léxicamente y la menor proximidad sintáctica con el verbo con el que concuerda, por un lado, y el número de los fallos en la interpretación, por otro. En efecto, se observa que la dificultad en el procesamiento de la información gramatical (más abstracta que la de las clases léxicas y, además, expresada, a través de rasgos de baja sustancia fónica -como los de flexión-) resulta un indicio contundente del déficit morfosintáctico, el que sumado a otros marcadores psicolingüísticos, colabora en la detección del fracaso en el desarrollo lingüístico (Buiza Navarrete et al 2004)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tradicionalmente, las gramáticas han destacado la sutileza, diversidad y complejidad de los significados comunicados a través de las construcciones condicionales y, en particular, de los enunciados condicionales contrafactuales. Más recientemente, además, han enfatizado que tales significados exceden los alcances de la semántica veritativa y la gramática "normativa", proponiendo un abordaje pragmático y cognitivo de las emisiones condicionales contrafácticas para dar cuenta de dicha complejidad. En efecto, uno de los programas de investigación que ha aportado un marco teórico y metodológico más desarrollado para el estudio de estas construcciones, en el ámbito de la lingüística cognitiva, es el que iniciaran Turner y Fauconnier a mediados de los ochenta en torno al concepto de "fusión o integración conceptual". El presente trabajo consiste en una exploración de las emisiones condicionales contrafácticas en textos de especialidad propios del derecho -ámbito discursivo considerado por numerosos autores como una variedad profesional del lenguaje- adoptando dicha perspectiva teórica. En la construcción del corpus, hemos tenido en cuenta que los fallos de la Corte Suprema de Justicia de la Nación Argentina representan "la última palabra" en los procesos judiciales iniciados en el territorio nacional, y que, por lo tanto, se caracterizan por un proceso de revisión, negociación y reelaboración -hasta su versión definitiva- que deja un margen sumamente estrecho para el "discurso no planificado". Siguiendo la perspectiva cognitiva que encuentra en los enunciados contrafácticos determinados "mundos posibles" que se construyen a través del discurso, proponemos un análisis en torno a (1) los actores del proceso judicial, (2) las acciones, (3) las relaciones de implicación y (4) los "espacios mentales" que los enunciadores de los fallos proyectan en dichos mundos alternativos. En la medida que este trabajo constituye el primer avance de nuestro proyecto de tesis doctoral, nos posicionamos en un nivel de investigación exploratorio descriptivo y, en consecuencia, adoptamos una estrategia metodológica de tipo cualitativo

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En este trabajo nos enfocamos en el problema del punto de cambio aplicado al control de calidad del proceso enseñanza-aprendizaje. Para ello se tomo en cuenta la evolución temporal de la proporción de alumnos promocionados, por cuatrimestre, de la asignatura Estadística de la Facultad de Ingeniería de la UNLP, desde el año 2001 al 2008. El objetivo es analizar la posible aparición de cambios en dicha proporción no detectados por las cartas de control convencionales. Se trata de establecer las posibles causas de esos cambios en el marco de las transformaciones ocurridas a partir de la acreditación de las carreras de Ingeniería de la UNLP, usando estas herramientas de estudio. El análisis de punto de cambio es una novedosa herramienta utilizada con el fin de determinar la existencia o no de cambios en procesos de diferente índole. Para su aplicación se emplea un test de hipótesis y la metodología Bootstrap.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El presente trabajo se propone detectar (a través de una evaluación diagnóstica, diseñada a partir de analogías, y de los resultados obtenidos en la materia Química del curso de ingreso que se dicta para las carreras de Ingeniería Agronómica y Forestal de la UNLP) a aquellos alumnos con dificultades para poder incluirlos en el Programa Institucional de Tutores que ofrece la Facultad de Ciencias Agrarias y Forestales de la Universidad Nacional de La Plata. Se comparó por un lado, el desempeño alcanzado en las evaluaciones diagnósticas con los resultados obtenidos en el primer parcial de Química General e Inorgánica y por otro lado el resultado obtenido en el examen de Ingreso de la materia Química con los resultados obtenidos en el primer parcial. Ambas herramientas resultaron fundamentales para la detección de aquellos alumnos con más dificultades que deberían ser incluidos tempranamente en el sistema de tutorías. Dado que los principales problemas detectados en los alumnos se relacionan con la interpretación de resultados, la interpretación de consignas y gráficos, la expresión de definiciones y conceptos de manera escrita, la resolución de problemas sencillos, se proponen una serie de actividades a desarrollarse en dicho programa tendientes a mejorar el desempeño académico de estos alumnos

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En esta comunicación, expondremos, dentro de una perspectiva gramatical, ciertos objetivos de investigación acerca de la adquisición / aprendizaje de las categorías funcionales en adolescentes sordos y en un joven con diagnóstico de Trastorno Generalizado del Desarrollo (TGD). Comenzaremos por la cuestión de la concordancia entre sujeto y predicado, y la identificación de la referencia manifestada en los pronombres. Partiremos de la hipótesis de que la jerarquía de instigadores naturales (Moure 2001) incide en la identificación exitosa de los referentes; y de la idea de que existe una relación proporcional entre la menor información codificada léxicamente y la menor proximidad sintáctica con el verbo con el que concuerda, por un lado, y el número de los fallos en la interpretación, por otro. En efecto, se observa que la dificultad en el procesamiento de la información gramatical (más abstracta que la de las clases léxicas y, además, expresada, a través de rasgos de baja sustancia fónica -como los de flexión-) resulta un indicio contundente del déficit morfosintáctico, el que sumado a otros marcadores psicolingüísticos, colabora en la detección del fracaso en el desarrollo lingüístico (Buiza Navarrete et al 2004)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tradicionalmente, las gramáticas han destacado la sutileza, diversidad y complejidad de los significados comunicados a través de las construcciones condicionales y, en particular, de los enunciados condicionales contrafactuales. Más recientemente, además, han enfatizado que tales significados exceden los alcances de la semántica veritativa y la gramática "normativa", proponiendo un abordaje pragmático y cognitivo de las emisiones condicionales contrafácticas para dar cuenta de dicha complejidad. En efecto, uno de los programas de investigación que ha aportado un marco teórico y metodológico más desarrollado para el estudio de estas construcciones, en el ámbito de la lingüística cognitiva, es el que iniciaran Turner y Fauconnier a mediados de los ochenta en torno al concepto de "fusión o integración conceptual". El presente trabajo consiste en una exploración de las emisiones condicionales contrafácticas en textos de especialidad propios del derecho -ámbito discursivo considerado por numerosos autores como una variedad profesional del lenguaje- adoptando dicha perspectiva teórica. En la construcción del corpus, hemos tenido en cuenta que los fallos de la Corte Suprema de Justicia de la Nación Argentina representan "la última palabra" en los procesos judiciales iniciados en el territorio nacional, y que, por lo tanto, se caracterizan por un proceso de revisión, negociación y reelaboración -hasta su versión definitiva- que deja un margen sumamente estrecho para el "discurso no planificado". Siguiendo la perspectiva cognitiva que encuentra en los enunciados contrafácticos determinados "mundos posibles" que se construyen a través del discurso, proponemos un análisis en torno a (1) los actores del proceso judicial, (2) las acciones, (3) las relaciones de implicación y (4) los "espacios mentales" que los enunciadores de los fallos proyectan en dichos mundos alternativos. En la medida que este trabajo constituye el primer avance de nuestro proyecto de tesis doctoral, nos posicionamos en un nivel de investigación exploratorio descriptivo y, en consecuencia, adoptamos una estrategia metodológica de tipo cualitativo

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El presente trabajo se propone detectar (a través de una evaluación diagnóstica, diseñada a partir de analogías, y de los resultados obtenidos en la materia Química del curso de ingreso que se dicta para las carreras de Ingeniería Agronómica y Forestal de la UNLP) a aquellos alumnos con dificultades para poder incluirlos en el Programa Institucional de Tutores que ofrece la Facultad de Ciencias Agrarias y Forestales de la Universidad Nacional de La Plata. Se comparó por un lado, el desempeño alcanzado en las evaluaciones diagnósticas con los resultados obtenidos en el primer parcial de Química General e Inorgánica y por otro lado el resultado obtenido en el examen de Ingreso de la materia Química con los resultados obtenidos en el primer parcial. Ambas herramientas resultaron fundamentales para la detección de aquellos alumnos con más dificultades que deberían ser incluidos tempranamente en el sistema de tutorías. Dado que los principales problemas detectados en los alumnos se relacionan con la interpretación de resultados, la interpretación de consignas y gráficos, la expresión de definiciones y conceptos de manera escrita, la resolución de problemas sencillos, se proponen una serie de actividades a desarrollarse en dicho programa tendientes a mejorar el desempeño académico de estos alumnos

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Fil: Fotia, José Antonio. Universidad Nacional de La Plata. Facultad de Humanidades y Ciencias de la Educación; Argentina.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En este trabajo nos enfocamos en el problema del punto de cambio aplicado al control de calidad del proceso enseñanza-aprendizaje. Para ello se tomo en cuenta la evolución temporal de la proporción de alumnos promocionados, por cuatrimestre, de la asignatura Estadística de la Facultad de Ingeniería de la UNLP, desde el año 2001 al 2008. El objetivo es analizar la posible aparición de cambios en dicha proporción no detectados por las cartas de control convencionales. Se trata de establecer las posibles causas de esos cambios en el marco de las transformaciones ocurridas a partir de la acreditación de las carreras de Ingeniería de la UNLP, usando estas herramientas de estudio. El análisis de punto de cambio es una novedosa herramienta utilizada con el fin de determinar la existencia o no de cambios en procesos de diferente índole. Para su aplicación se emplea un test de hipótesis y la metodología Bootstrap.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En el campo de la Patología, es importante contar con referencias objetivas para establecer un diagnóstico preciso, y la normativa de construcción es, sin lugar a dudas, la mejor referencia, especialmente cuando la patología entra en el campo pericial. El CTE ha supuesto un cambio importante en el enfoque de la normativa española de la construcción, pues parte de un planteamiento “prestacional” que culmina provisionalmente el camino emprendido por las ISO 6240:1980 e ISO 6241:1984, la Directiva Europea de Productos de Construcción 89/106/CEE (en España RD 1630/1992), y su definitivo reconocimiento en la LOE de 1999. Este camino arranca en los tres aspectos básicos que debe cubrir cualquier edificio: funcionalidad, seguridad y habitabilidad, que se desarrollan progresivamente mediante requisitos, exigencias y prestaciones. El incumplimiento de estas configura los “fallos” que puede presentar un edificio, y siendo en éstos en los que radica la calificación y la justificación de los problemas patológicos, interesa poder identificarlos con la mayor precisión posible. Sin embargo, este recorrido, aunque conceptualmente claro, no es explícito en el CTE. Se presentan en esta comunicación algunas aclaraciones conceptuales del enfoque prestacional, útiles para la patología, y la forma de hacer una lectura “interesada” del CTE, destinada a la identificación de las prestaciones que el Código exige a la edificación para, mediante su transformación “negativa”, formular los posibles “fallosdel edificio. Se presentan, finalmente, la lista de fallos básicos y específicos que se deduce de la Parte I del CTE, y un ejemplo de los más específicos que contiene el DB HS1 relativos a la permeabilidad de la fachada al agua de precipitaciones atmosféricas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The important technological advances experienced along the last years have resulted in an important demand for new and efficient computer vision applications. On the one hand, the increasing use of video editing software has given rise to a necessity for faster and more efficient editing tools that, in a first step, perform a temporal segmentation in shots. On the other hand, the number of electronic devices with integrated cameras has grown enormously. These devices require new, fast, and efficient computer vision applications that include moving object detection strategies. In this dissertation, we propose a temporal segmentation strategy and several moving object detection strategies, which are suitable for the last generation of computer vision applications requiring both low computational cost and high quality results. First, a novel real-time high-quality shot detection strategy is proposed. While abrupt transitions are detected through a very fast pixel-based analysis, gradual transitions are obtained from an efficient edge-based analysis. Both analyses are reinforced with a motion analysis that allows to detect and discard false detections. This analysis is carried out exclusively over a reduced amount of candidate transitions, thus maintaining the computational requirements. On the other hand, a moving object detection strategy, which is based on the popular Mixture of Gaussians method, is proposed. This strategy, taking into account the recent history of each image pixel, adapts dynamically the amount of Gaussians that are required to model its variations. As a result, we improve significantly the computational efficiency with respect to other similar methods and, additionally, we reduce the influence of the used parameters in the results. Alternatively, in order to improve the quality of the results in complex scenarios containing dynamic backgrounds, we propose different non-parametric based moving object detection strategies that model both background and foreground. To obtain high quality results regardless of the characteristics of the analyzed sequence we dynamically estimate the most adequate bandwidth matrices for the kernels that are used in the background and foreground modeling. Moreover, the application of a particle filter allows to update the spatial information and provides a priori knowledge about the areas to analyze in the following images, enabling an important reduction in the computational requirements and improving the segmentation results. Additionally, we propose the use of an innovative combination of chromaticity and gradients that allows to reduce the influence of shadows and reflects in the detections.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabajo de Tesis ha abordado el objetivo de dar robustez y mejorar la Detección de Actividad de Voz en entornos acústicos adversos con el fin de favorecer el comportamiento de muchas aplicaciones vocales, por ejemplo aplicaciones de telefonía basadas en reconocimiento automático de voz, aplicaciones en sistemas de transcripción automática, aplicaciones en sistemas multicanal, etc. En especial, aunque se han tenido en cuenta todos los tipos de ruido, se muestra especial interés en el estudio de las voces de fondo, principal fuente de error de la mayoría de los Detectores de Actividad en la actualidad. Las tareas llevadas a cabo poseen como punto de partida un Detector de Actividad basado en Modelos Ocultos de Markov, cuyo vector de características contiene dos componentes: la energía normalizada y la variación de la energía. Las aportaciones fundamentales de esta Tesis son las siguientes: 1) ampliación del vector de características de partida dotándole así de información espectral, 2) ajuste de los Modelos Ocultos de Markov al entorno y estudio de diferentes topologías y, finalmente, 3) estudio e inclusión de nuevas características, distintas de las del punto 1, para filtrar los pulsos de pronunciaciones que proceden de las voces de fondo. Los resultados de detección, teniendo en cuenta los tres puntos anteriores, muestran con creces los avances realizados y son significativamente mejores que los resultados obtenidos, bajo las mismas condiciones, con otros detectores de actividad de referencia. This work has been focused on improving the robustness at Voice Activity Detection in adverse acoustic environments in order to enhance the behavior of many vocal applications, for example telephony applications based on automatic speech recognition, automatic transcription applications, multichannel systems applications, and so on. In particular, though all types of noise have taken into account, this research has special interest in the study of pronunciations coming from far-field speakers, the main error source of most activity detectors today. The tasks carried out have, as starting point, a Hidden Markov Models Voice Activity Detector which a feature vector containing two components: normalized energy and delta energy. The key points of this Thesis are the following: 1) feature vector extension providing spectral information, 2) Hidden Markov Models adjustment to environment and study of different Hidden Markov Model topologies and, finally, 3) study and inclusion of new features, different from point 1, to reject the pronunciations coming from far-field speakers. Detection results, taking into account the above three points, show the advantages of using this method and are significantly better than the results obtained under the same conditions by other well-known voice activity detectors.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El tema central de investigación en esta Tesis es el estudio del comportamientodinámico de una estructura mediante modelos que describen la distribución deenergía entre los componentes de la misma y la aplicación de estos modelos parala detección de daños incipientes.Los ensayos dinámicos son un modo de extraer información sobre las propiedadesde una estructura. Si tenemos un modelo de la estructura se podría ajustar éstepara que, con determinado grado de precisión, tenga la misma respuesta que elsistema real ensayado. Después de que se produjese un daño en la estructura,la respuesta al mismo ensayo variará en cierta medida; actualizando el modelo alas nuevas condiciones podemos detectar cambios en la configuración del modeloestructural que nos condujeran a la conclusión de que en la estructura se haproducido un daño.De este modo, la detección de un daño incipiente es posible si somos capacesde distinguir una pequeña variación en los parámetros que definen el modelo. Unrégimen muy apropiado para realizar este tipo de detección es a altas frecuencias,ya que la respuesta es muy dependiente de los pequeños detalles geométricos,dado que el tamaño característico en la estructura asociado a la respuesta esdirectamente proporcional a la velocidad de propagación de las ondas acústicas enel sólido, que para una estructura dada es inalterable, e inversamente proporcionala la frecuencia de la excitación. Al mismo tiempo, esta característica de la respuestaa altas frecuencias hace que un modelo de Elementos Finitos no sea aplicable enla práctica, debido al alto coste computacional.Un modelo ampliamente utilizado en el cálculo de la respuesta de estructurasa altas frecuencias en ingeniería es el SEA (Statistical Energy Analysis). El SEAaplica el balance energético a cada componente estructural, relacionando la energíade vibración de estos con la potencia disipada por cada uno de ellos y la potenciatransmitida entre ellos, cuya suma debe ser igual a la potencia inyectada a cadacomponente estructural. Esta relación es lineal y viene caracterizada por los factoresde pérdidas. Las magnitudes que intervienen en la respuesta se consideranpromediadas en la geometría, la frecuencia y el tiempo.Actualizar el modelo SEA a datos de ensayo es, por lo tanto, calcular losfactores de pérdidas que reproduzcan la respuesta obtenida en éste. Esta actualización,si se hace de manera directa, supone la resolución de un problema inversoque tiene la característica de estar mal condicionado. En la Tesis se propone actualizarel modelo SEA, no en término de los factores de pérdidas, sino en términos deparámetros estructurales que tienen sentido físico cuando se trata de la respuestaa altas frecuencias, como son los factores de disipación de cada componente, susdensidades modales y las rigideces características de los elementos de acoplamiento.Los factores de pérdidas se calculan como función de estos parámetros. Estaformulación es desarrollada de manera original en esta Tesis y principalmente sefunda en la hipótesis de alta densidad modal, es decir, que en la respuesta participanun gran número de modos de cada componente estructural.La teoría general del método SEA, establece que el modelo es válido bajounas hipótesis sobre la naturaleza de las excitaciones externas muy restrictivas,como que éstas deben ser de tipo ruido blanco local. Este tipo de carga es difícil dereproducir en condiciones de ensayo. En la Tesis mostramos con casos prácticos queesta restricción se puede relajar y, en particular, los resultados son suficientementebuenos cuando la estructura se somete a una carga armónica en escalón.Bajo estas aproximaciones se desarrolla un algoritmo de optimización por pasosque permite actualizar un modelo SEA a un ensayo transitorio cuando la carga esde tipo armónica en escalón. Este algoritmo actualiza el modelo no solamente parauna banda de frecuencia en particular sino para diversas bandas de frecuencia demanera simultánea, con el objetivo de plantear un problema mejor condicionado.Por último, se define un índice de daño que mide el cambio en la matriz depérdidas cuando se produce un daño estructural en una localización concreta deun componente. Se simula numéricamente la respuesta de una estructura formadapor vigas donde producimos un daño en la sección de una de ellas; como se tratade un cálculo a altas frecuencias, la simulación se hace mediante el Método delos Elementos Espectrales para lo que ha sido necesario desarrollar dentro de laTesis un elemento espectral de tipo viga dañada en una sección determinada. Losresultados obtenidos permiten localizar el componente estructural en que se haproducido el daño y la sección en que éste se encuentra con determinado grado deconfianza.AbstractThe main subject under research in this Thesis is the study of the dynamic behaviourof a structure using models that describe the energy distribution betweenthe components of the structure and the applicability of these models to incipientdamage detection.Dynamic tests are a way to extract information about the properties of astructure. If we have a model of the structure, it can be updated in order toreproduce the same response as in experimental tests, within a certain degree ofaccuracy. After damage occurs, the response will change to some extent; modelupdating to the new test conditions can help to detect changes in the structuralmodel leading to the conclusión that damage has occurred.In this way incipient damage detection is possible if we are able to detect srnallvariations in the model parameters. It turns out that the high frequency regimeis highly relevant for incipient damage detection, because the response is verysensitive to small structural geometric details. The characteristic length associatedwith the response is proportional to the propagation speed of acoustic waves insidethe solid, but inversely proportional to the excitation frequency. At the same time,this fact makes the application of a Finite Element Method impractical due to thehigh computational cost.A widely used model in engineering when dealing with the high frequencyresponse is SEA (Statistical Energy Analysis). SEA applies the energy balance toeach structural component, relating their vibrational energy with the dissipatedpower and the transmitted power between the different components; their summust be equal to the input power to each of them. This relationship is linear andcharacterized by loss factors. The magnitudes considered in the response shouldbe averaged in geometry, frequency and time.SEA model updating to test data is equivalent to calculating the loss factorsthat provide a better fit to the experimental response. This is formulated as an illconditionedinverse problem. In this Thesis a new updating algorithm is proposedfor the study of the high frequency response regime in terms of parameters withphysical meaning such as the internal dissipation factors, modal densities andcharacteristic coupling stiffness. The loss factors are then calculated from theseparameters. The approach is developed entirely in this Thesis and is mainlybased on a high modal density asumption, that is to say, a large number of modescontributes to the response.General SEA theory establishes the validity of the model under the asumptionof very restrictive external excitations. These should behave as a local white noise.This kind of excitation is difficult to reproduce in an experimental environment.In this Thesis we show that in practical cases this assumption can be relaxed, inparticular, results are good enough when the structure is excited with a harmonicstep function.Under these assumptions an optimization algorithm is developed for SEAmodel updating to a transient test when external loads are harmonic step functions.This algorithm considers the response not only in a single frequency band,but also for several of them simultaneously.A damage index is defined that measures the change in the loss factor matrixwhen a damage has occurred at a certain location in the structure. The structuresconsidered in this study are built with damaged beam elements; as we are dealingwith the high frequency response, the numerical simulation is implemented witha Spectral Element Method. It has therefore been necessary to develop a spectralbeam damaged element as well. The reported results show that damage detectionis possible with this algorithm, moreover, damage location is also possible withina certain degree of accuracy.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las técnicas de rehabilitación permiten la recuperación y mejora de las funciones dañadas o deterioradas y ayuda al paciente con DCA a adaptarse a su nueva situación. El avance tecnológico que se ha producido en las últimas décadas, ha impulsado la investigación en el diseño y desarrollo de nuevos modelos de rehabilitación. La tecnología dedeo interactivo se convierte en un elemento de apoyo en estos nuevos modelos rehabilitadores. Se hace necesario desarrollar nuevos algoritmos de segmentación y seguimiento que permitan dotar de información adicional a los vídeos. En este trabajo se han implementado y evaluado dos métodos que permiten realizar la detección y el seguimiento de objetos de interés.