920 resultados para simulación y certificación
Resumo:
Se analiza un conjunto representativo, no exhaustivo, de temas básicos de la tecnología de la información estrechamente ligados al problema bibliotecológico, en los que es necesario alguna capacidad de aplicación de la matemática a la resolución de problemas documentales, con el objetivo de mostrar que, con sólo una pequeña parte de los temas incluidos en los programas de matemática de la escuela media, varios de ellos en las etapas iniciales, basta para comprender la literatura y aplicar técnicas y métodos basados en trabajos fundacionales de la era pre-computacional, como los de Lotka, Zipf, Bradford y Price, y sus correlatos en la era computacional, como son los de Cleverdon, La ncaster, Brookes y otros. Se enumera el conjunto de temas matemáticos citados y su vinculación con la bibliotecología a partir de su presencia en los trabajos fundacionales, se discute el grado de profundidad y formalización necesario para adquirir las capacidades de aplicación citadas más arriba, se los ubica en los paquetes de software más difundidos y se analizan las posibles dificultades y soluciones, todo ello en el marco de las estrategias propuestas por L. Santaló. Finalmente se mencionan algunas experiencias en nuestro país e Iberoamérica, sólo como certificación de factibilidad en nuestro medio
Las ciencias duras en la Escuela Media : Una experiencia particular mediante el uso de la simulación
Resumo:
Fil: Grigera, José Raúl. Universidad Nacional de La Plata. Facultad de Humanidades y Ciencias de la Educación; Argentina.
Resumo:
La preocupación por la evaluación de la calidad en la educación superior surge inicialmente, en la Argentina, a comienzos de los años 90 en forma paralela a los desarrollos Iberoamericanos. Es entonces cuando, en el universo de las políticas de la calidad, se introduce la selección y denominación de componentes dentro de los lineamientos, guías o modelos de evaluación. Es así como aparecen los conceptos de evaluación, acreditación, certificación, etc. vinculados también con los principales modelos de gestión de la calidad. El presente trabajo tiene dos objetivos, el primero es exponer una de las conclusiones de la investigación realizada sobre la evaluación del componente biblioteca en el contexto de la evaluación externa de las universidades argentinas llevada a cabo por la Comisión Nacional de Evaluación y Acreditación Universitaria (CONEAU) en cumplimiento de la política de calidad determinada por la Ley de Educación Superior (LES). Esta conclusión está relacionada con la importancia de la consistencia y uniformidad en la denominación de componentes en los modelos de evaluación. Con el segundo, se trata de clarificar la terminología vinculada con los procesos de evaluación y gestión de la calidad. La metodología utilizada para el cumplimiento del primer objetivo se basó en el análisis de los 42 informes que la CONEAU publicó entre 1998-2006. Respecto del segundo la recolección de datos se apoyó en el análisis de diferentes fuentes documentales, lo cual facilitó la estructuración del contenido del trabajo. Se concluye que es esencial mantener la claridad en las definiciones, la consistencia terminológica y evitar la alternancia de términos.
Resumo:
Los métodos gráficos son populares para chequear modelos, un gráfico cuantil- cuantil (qq-plot) permite observar cuan cerca está la distribución de un conjunto de datos a alguna distribución ideal o comparar la distribución de dos conjuntos de datos. La forma del gráfico debería ser idealmente una línea recta específica. Si interesa comparar con la distribución Gaussiana se llama gráfico de probabilidad Normal. El objetivo del presente trabajo es testear normalidad de una muestra en especial para el caso de tamaños muestrales pequeños para los cuales el comportamiento de estos gráficos suele ser errático y conducir a falsas interpretaciones, mostraremos además que no suele ser así con tamaños muestrales más grandes. Proponemos, también establecer una banda de probabilidad o banda envolvente basada en un método empírico, específicamente mediante el método de Monte Carlo, dicha banda nos establecerá un marco de referencia probabilístico para evitar falsas interpretaciones. Se presenta un código computacional, de fácil implementación, empleado por los alumnos para la aplicación de esta metodología de análisis de normalidad, el cual es utilizado para la enseñanza de la temática en cuestión
Resumo:
El simpatizante de fútbol que concurre a un espectáculo deportivo es más que un mero espectador, es el protagonista central de un espectáculo más amplio que aquí denomino el aliento. Esta práctica colectiva tiene como características centrales el uso del canto colectivo para la celebración del 'nosotros', el hostigamiento de los simpatizantes rivales y la demanda de la victoria a través de la arenga. Pero además de ser un tipo de performance cultural, esta práctica es expresión de una auto-organización social que ejemplifica un proceso complejo de difusión y sincronización. En esta ponencia explicaré la dinámica de este proceso a través de un sencillo modelo de simulación (Bundio, 2011b), similar a otros desarrollados para estudiar fenómenos colectivos que implican auto-organización, como la dinámica del aplauso (Néda, Ravasz, Brechet, Vicsek, Barabasi, 2000) y la 'ola mexicana' (Farkas, Helbing, Vicsek, 2002). Puesto que el canto colectivo es un emergente de las actuaciones individuales es posible diseñar mecanismos de interferencia como el delayed auditory feedback (Van Wijngaarden; Van Balken, 2007). Estos mecanismos pueden complementar las posibles medidas destinadas a evitar la emergencia y/o impedir la difusión de cantos ofensivos y discriminatorios durante el transcurso de un espectáculo deportivo
Resumo:
Se analiza un conjunto representativo, no exhaustivo, de temas básicos de la tecnología de la información estrechamente ligados al problema bibliotecológico, en los que es necesario alguna capacidad de aplicación de la matemática a la resolución de problemas documentales, con el objetivo de mostrar que, con sólo una pequeña parte de los temas incluidos en los programas de matemática de la escuela media, varios de ellos en las etapas iniciales, basta para comprender la literatura y aplicar técnicas y métodos basados en trabajos fundacionales de la era pre-computacional, como los de Lotka, Zipf, Bradford y Price, y sus correlatos en la era computacional, como son los de Cleverdon, La ncaster, Brookes y otros. Se enumera el conjunto de temas matemáticos citados y su vinculación con la bibliotecología a partir de su presencia en los trabajos fundacionales, se discute el grado de profundidad y formalización necesario para adquirir las capacidades de aplicación citadas más arriba, se los ubica en los paquetes de software más difundidos y se analizan las posibles dificultades y soluciones, todo ello en el marco de las estrategias propuestas por L. Santaló. Finalmente se mencionan algunas experiencias en nuestro país e Iberoamérica, sólo como certificación de factibilidad en nuestro medio
Resumo:
El simpatizante de fútbol que concurre a un espectáculo deportivo es más que un mero espectador, es el protagonista central de un espectáculo más amplio que aquí denomino el aliento. Esta práctica colectiva tiene como características centrales el uso del canto colectivo para la celebración del 'nosotros', el hostigamiento de los simpatizantes rivales y la demanda de la victoria a través de la arenga. Pero además de ser un tipo de performance cultural, esta práctica es expresión de una auto-organización social que ejemplifica un proceso complejo de difusión y sincronización. En esta ponencia explicaré la dinámica de este proceso a través de un sencillo modelo de simulación (Bundio, 2011b), similar a otros desarrollados para estudiar fenómenos colectivos que implican auto-organización, como la dinámica del aplauso (Néda, Ravasz, Brechet, Vicsek, Barabasi, 2000) y la 'ola mexicana' (Farkas, Helbing, Vicsek, 2002). Puesto que el canto colectivo es un emergente de las actuaciones individuales es posible diseñar mecanismos de interferencia como el delayed auditory feedback (Van Wijngaarden; Van Balken, 2007). Estos mecanismos pueden complementar las posibles medidas destinadas a evitar la emergencia y/o impedir la difusión de cantos ofensivos y discriminatorios durante el transcurso de un espectáculo deportivo
Resumo:
La preocupación por la evaluación de la calidad en la educación superior surge inicialmente, en la Argentina, a comienzos de los años 90 en forma paralela a los desarrollos Iberoamericanos. Es entonces cuando, en el universo de las políticas de la calidad, se introduce la selección y denominación de componentes dentro de los lineamientos, guías o modelos de evaluación. Es así como aparecen los conceptos de evaluación, acreditación, certificación, etc. vinculados también con los principales modelos de gestión de la calidad. El presente trabajo tiene dos objetivos, el primero es exponer una de las conclusiones de la investigación realizada sobre la evaluación del componente biblioteca en el contexto de la evaluación externa de las universidades argentinas llevada a cabo por la Comisión Nacional de Evaluación y Acreditación Universitaria (CONEAU) en cumplimiento de la política de calidad determinada por la Ley de Educación Superior (LES). Esta conclusión está relacionada con la importancia de la consistencia y uniformidad en la denominación de componentes en los modelos de evaluación. Con el segundo, se trata de clarificar la terminología vinculada con los procesos de evaluación y gestión de la calidad. La metodología utilizada para el cumplimiento del primer objetivo se basó en el análisis de los 42 informes que la CONEAU publicó entre 1998-2006. Respecto del segundo la recolección de datos se apoyó en el análisis de diferentes fuentes documentales, lo cual facilitó la estructuración del contenido del trabajo. Se concluye que es esencial mantener la claridad en las definiciones, la consistencia terminológica y evitar la alternancia de términos.
Resumo:
Los métodos gráficos son populares para chequear modelos, un gráfico cuantil- cuantil (qq-plot) permite observar cuan cerca está la distribución de un conjunto de datos a alguna distribución ideal o comparar la distribución de dos conjuntos de datos. La forma del gráfico debería ser idealmente una línea recta específica. Si interesa comparar con la distribución Gaussiana se llama gráfico de probabilidad Normal. El objetivo del presente trabajo es testear normalidad de una muestra en especial para el caso de tamaños muestrales pequeños para los cuales el comportamiento de estos gráficos suele ser errático y conducir a falsas interpretaciones, mostraremos además que no suele ser así con tamaños muestrales más grandes. Proponemos, también establecer una banda de probabilidad o banda envolvente basada en un método empírico, específicamente mediante el método de Monte Carlo, dicha banda nos establecerá un marco de referencia probabilístico para evitar falsas interpretaciones. Se presenta un código computacional, de fácil implementación, empleado por los alumnos para la aplicación de esta metodología de análisis de normalidad, el cual es utilizado para la enseñanza de la temática en cuestión
Resumo:
Se presentan resultados obtenidos mediante la aplicación del MétododePartículasyElementosFinitos (PFEM) en la simulación dedeslizamientosdeladeraenembalses. Es un fenómeno complejo, por la interacción entre el material deslizado, la masa de agua del embalse, yel conjunto formado por el vaso y la presa. PFEM es un esquema numérico original con el que se ha afrontado con éxito la resolución de problemas de interacción fluido-estructura. Combina un enfoque Lagrangiano con la resolución de las ecuaciones deelementosfinitosmediante la generación de una malla, que se actualiza en cada paso de tiempo. Se presentan resultados de casos de validación en los que se han reproducido ensayos en laboratorio existentes en la bibliografía técnica. Se muestran también otros cálculos más complejos, sobre la cartografía a escala real de un embalse, donde se aprecia el fenómeno de generación de la ola, su propagación por el embalse y la afección a la presa. Por último, se ha modelado el deslizamiento ocurrido en 1958 en la bahía de Lituya (Alaska), enel que la caída de 90 millones de toneladas de roca produjo una ola que alcanzó una sobreelevación máxima de 524 m en la ladera opuesta. Los resultados permiten afirmar que PFEM puede ser una herramienta útil enel análisis de riesgos frente a este tipo de fenómenos, ofreciendo una buena aproximación de las afecciones potenciales
Resumo:
El tema central de investigación en esta Tesis es el estudio del comportamientodinámico de una estructura mediante modelos que describen la distribución deenergía entre los componentes de la misma y la aplicación de estos modelos parala detección de daños incipientes.Los ensayos dinámicos son un modo de extraer información sobre las propiedadesde una estructura. Si tenemos un modelo de la estructura se podría ajustar éstepara que, con determinado grado de precisión, tenga la misma respuesta que elsistema real ensayado. Después de que se produjese un daño en la estructura,la respuesta al mismo ensayo variará en cierta medida; actualizando el modelo alas nuevas condiciones podemos detectar cambios en la configuración del modeloestructural que nos condujeran a la conclusión de que en la estructura se haproducido un daño.De este modo, la detección de un daño incipiente es posible si somos capacesde distinguir una pequeña variación en los parámetros que definen el modelo. Unrégimen muy apropiado para realizar este tipo de detección es a altas frecuencias,ya que la respuesta es muy dependiente de los pequeños detalles geométricos,dado que el tamaño característico en la estructura asociado a la respuesta esdirectamente proporcional a la velocidad de propagación de las ondas acústicas enel sólido, que para una estructura dada es inalterable, e inversamente proporcionala la frecuencia de la excitación. Al mismo tiempo, esta característica de la respuestaa altas frecuencias hace que un modelo de Elementos Finitos no sea aplicable enla práctica, debido al alto coste computacional.Un modelo ampliamente utilizado en el cálculo de la respuesta de estructurasa altas frecuencias en ingeniería es el SEA (Statistical Energy Analysis). El SEAaplica el balance energético a cada componente estructural, relacionando la energíade vibración de estos con la potencia disipada por cada uno de ellos y la potenciatransmitida entre ellos, cuya suma debe ser igual a la potencia inyectada a cadacomponente estructural. Esta relación es lineal y viene caracterizada por los factoresde pérdidas. Las magnitudes que intervienen en la respuesta se consideranpromediadas en la geometría, la frecuencia y el tiempo.Actualizar el modelo SEA a datos de ensayo es, por lo tanto, calcular losfactores de pérdidas que reproduzcan la respuesta obtenida en éste. Esta actualización,si se hace de manera directa, supone la resolución de un problema inversoque tiene la característica de estar mal condicionado. En la Tesis se propone actualizarel modelo SEA, no en término de los factores de pérdidas, sino en términos deparámetros estructurales que tienen sentido físico cuando se trata de la respuestaa altas frecuencias, como son los factores de disipación de cada componente, susdensidades modales y las rigideces características de los elementos de acoplamiento.Los factores de pérdidas se calculan como función de estos parámetros. Estaformulación es desarrollada de manera original en esta Tesis y principalmente sefunda en la hipótesis de alta densidad modal, es decir, que en la respuesta participanun gran número de modos de cada componente estructural.La teoría general del método SEA, establece que el modelo es válido bajounas hipótesis sobre la naturaleza de las excitaciones externas muy restrictivas,como que éstas deben ser de tipo ruido blanco local. Este tipo de carga es difícil dereproducir en condiciones de ensayo. En la Tesis mostramos con casos prácticos queesta restricción se puede relajar y, en particular, los resultados son suficientementebuenos cuando la estructura se somete a una carga armónica en escalón.Bajo estas aproximaciones se desarrolla un algoritmo de optimización por pasosque permite actualizar un modelo SEA a un ensayo transitorio cuando la carga esde tipo armónica en escalón. Este algoritmo actualiza el modelo no solamente parauna banda de frecuencia en particular sino para diversas bandas de frecuencia demanera simultánea, con el objetivo de plantear un problema mejor condicionado.Por último, se define un índice de daño que mide el cambio en la matriz depérdidas cuando se produce un daño estructural en una localización concreta deun componente. Se simula numéricamente la respuesta de una estructura formadapor vigas donde producimos un daño en la sección de una de ellas; como se tratade un cálculo a altas frecuencias, la simulación se hace mediante el Método delos Elementos Espectrales para lo que ha sido necesario desarrollar dentro de laTesis un elemento espectral de tipo viga dañada en una sección determinada. Losresultados obtenidos permiten localizar el componente estructural en que se haproducido el daño y la sección en que éste se encuentra con determinado grado deconfianza.AbstractThe main subject under research in this Thesis is the study of the dynamic behaviourof a structure using models that describe the energy distribution betweenthe components of the structure and the applicability of these models to incipientdamage detection.Dynamic tests are a way to extract information about the properties of astructure. If we have a model of the structure, it can be updated in order toreproduce the same response as in experimental tests, within a certain degree ofaccuracy. After damage occurs, the response will change to some extent; modelupdating to the new test conditions can help to detect changes in the structuralmodel leading to the conclusión that damage has occurred.In this way incipient damage detection is possible if we are able to detect srnallvariations in the model parameters. It turns out that the high frequency regimeis highly relevant for incipient damage detection, because the response is verysensitive to small structural geometric details. The characteristic length associatedwith the response is proportional to the propagation speed of acoustic waves insidethe solid, but inversely proportional to the excitation frequency. At the same time,this fact makes the application of a Finite Element Method impractical due to thehigh computational cost.A widely used model in engineering when dealing with the high frequencyresponse is SEA (Statistical Energy Analysis). SEA applies the energy balance toeach structural component, relating their vibrational energy with the dissipatedpower and the transmitted power between the different components; their summust be equal to the input power to each of them. This relationship is linear andcharacterized by loss factors. The magnitudes considered in the response shouldbe averaged in geometry, frequency and time.SEA model updating to test data is equivalent to calculating the loss factorsthat provide a better fit to the experimental response. This is formulated as an illconditionedinverse problem. In this Thesis a new updating algorithm is proposedfor the study of the high frequency response regime in terms of parameters withphysical meaning such as the internal dissipation factors, modal densities andcharacteristic coupling stiffness. The loss factors are then calculated from theseparameters. The approach is developed entirely in this Thesis and is mainlybased on a high modal density asumption, that is to say, a large number of modescontributes to the response.General SEA theory establishes the validity of the model under the asumptionof very restrictive external excitations. These should behave as a local white noise.This kind of excitation is difficult to reproduce in an experimental environment.In this Thesis we show that in practical cases this assumption can be relaxed, inparticular, results are good enough when the structure is excited with a harmonicstep function.Under these assumptions an optimization algorithm is developed for SEAmodel updating to a transient test when external loads are harmonic step functions.This algorithm considers the response not only in a single frequency band,but also for several of them simultaneously.A damage index is defined that measures the change in the loss factor matrixwhen a damage has occurred at a certain location in the structure. The structuresconsidered in this study are built with damaged beam elements; as we are dealingwith the high frequency response, the numerical simulation is implemented witha Spectral Element Method. It has therefore been necessary to develop a spectralbeam damaged element as well. The reported results show that damage detectionis possible with this algorithm, moreover, damage location is also possible withina certain degree of accuracy.
Resumo:
La simulación de la física del núcleo de los reactores nucleares por su complejidad requiere del uso de computadores y del software adecuado, y su evolución es ir hacía métodos y modelos de los llamados best-estimate, con el objeto de aumentar la disponibilidad de la central manteniendo los márgenes de seguridad. Para ello el Departamento de Ingeniería Nuclear (UPM), ha desarrollado el Sistema SEANAP en uso en varias centrales nucleares españolas, que realiza la simulación en 3D y con detalle de barrita combustible del quemado nominal y real del núcleo del reactor, hace el seguimiento en línea de la operación, y ayuda a la planificación óptima de las maniobras operacionales
Resumo:
Debido a la existencia de recomendaciones europeas que establecen valores por defecto ante la ausencia de datos en el proceso de realización de un mapa de ruido [1], se ha evaluado la influencia de aplicar dichos valores en un caso concreto como es el mapa estratégico de ruido de Palma de Mallorca. Se compararon los resultados de la simulación tras aplicar dichos valores por defecto con niveles de ruido obtenidos mediante medidas experimentales y se analizaron las desviaciones para determinar la calidad del modelo. Después de obtener un primer resultado de calidad inaceptable, se ha cuantificado la mejora de los resultados tras la utilización de datos de entrada de mayor calidad al modelo acústico. Este análisis demuestra que el uso de datos por defecto, en ausencia de datos de entrada de mayor calidad, genera unos resultados con desviaciones superiores a los 9 dB. Consecuentemente, se obtuvieron nuevos datos de entrada al modelo con mayor calidad, analizando su efecto en la reducción de la incertidumbre del resultado final del mapa de ruido. El proceso de obtención de dichos datos consistió en el desarrollo de una actualización de los datos de tráfico con mayor número de datos de flujo; la implementación de una nueva categorización viaria; y la utilización de técnicas novedosas para la adquisición de composición y velocidad de tráfico
Resumo:
Los modelos de acreditación en el contexto internacional evalúan principalmente resultados de aprendizaje y la capacidad de los programas de maestría en ingeniería de proyectos para lograr los objetivos educativos que declaran en su misión. Sin embargo, no se garantiza que esos objetivos y por tanto los resultados, satisfagan necesidades reales del entorno nacional o regional, un aspecto esencial en los países en vías de desarrollo. El objetivo de la presente comunicación es sustentar la importancia de la evaluación de la pertinencia de estos programas y hacer un análisis de los principales modelos de garantía de la calidad y organismos de acreditación para conocer la forma en que se evalúa o no la pertinencia de los programas. Se encontró que, en un contexto económico de libre mercado, de internacionalización de la educación y movilidad, la acreditación de las maestrías sigue un modelo de acreditación internacional y no se cuenta en la mayoría de los casos con criterios e indicadores para evaluar la pertinencia. Sin embargo existen, dos modelos de acreditación o certificación que garantizan que un programa de maestría en ingeniería de proyectos sea pertinente localmente: el proyecto REG de AEIPRO y el proyecto europeo EUR-ACE.
Resumo:
En este trabajo se presentan las líneas de investigación, y resultados, de Materiales Amorfos, Tratamiento y Caracterización de materiales y Simulación de Procesos del Grupo de Sensores y Actuadores. Estas líneas de investigación están orientadas al desarrollo y aplicación de tecnologías, dentro del ámbito de la edificación, enfocadas a la mejora de la eficiencia energética. Se llevan a cabo, principalmente, en la Escuela Universitaria de Arquitectura técnica, y para ello se dispone de los medios asociados al Grupo de Sensores y Actuadores y situados en el laboratorio de Automatismos de la Escuela Universitaria de Arquitectura técnica.