803 resultados para El error gay


Relevância:

90.00% 90.00%

Publicador:

Resumo:

El tema central y alcance de la presente tesis de maestría está circunscrito al actual recurso de casación penal, contenido en los artículos 656 y 657 del Código Orgánico Integral Penal. La perspectiva teórico-metodológica utilizada ha sido de tipo documental y dogmática, recurriendo primariamente a textos legales, doctrina y jurisprudencia actualizada. El concepto principal que sigue esta tesis es que actualmente se ha disuelto la pretensión original del fin político de la casación, pues no se puede seguir pensando en términos de una teórica justicia absoluta abstracta, sino más bien en ir hacia una justicia razonable del caso concreto. Por tanto la idea que debe guiarnos es que la protección del sistema jurídico se ha ampliado a la efectiva protección de los derechos y garantías fundamentales, lo cual termina contorneando la casación penal de una manera muy diferente a la originalmente diseñada para su funcionamiento. En el capítulo primero se realiza un análisis histórico de la casación, con su "fin político o Ius constitutionis", esto es las funciones nomofiláctica y la uniformadora, y la creciente importancia del "fin procesal o Ius litigatoris" esto es la función dikelógica. Se analiza las características y principios de la casación penal. Y la llegada y desenvolvimiento de dicha institución procesal penal en nuestro país. En el capítulo segundo, se realiza un análisis de la correcta conceptualización de los conceptos de error in procedendo y error in iudicando, y dentro de éste último el error de derecho (in jure) y el error de hecho (in facto). Se resalta el tema del error de juicio in iudicando in factum, esto es la problemática del segundo inciso del Art. 656 del COIP, que bien puede ser la parte más importante de esta tesis. En el capítulo tercero se analiza la técnica de casación penal; y se hace un análisis de los titulares del recurso, de su admisión, de la audiencia pública de fundamentación; así como de la sentencia de casación.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En realización del Proyecto de Investigación Interdisciplinaria que dirigí en 20032005, integrado por docentes-investigadores de Comunicación, Letras y Educación, junto a maestros de la zona, hemos constatado la existencia de contradicción entre la heterogeneidad de la población escolar tanto en lo que se refiere a primeras lenguas o variedades de la lengua mayoritaria como así también a las culturas de origen por un lado, y las representaciones docentes sobre el Lenguaje, por el otro. Esta contradicción, a menudo no felizmente resuelta, generaba retrasos en el aprendizaje, discriminación, violencia, exclusión, del niño y su familia, así como también frustración y fracaso en el maestro. Entendimos como una causa importante el rechazo a las variedades y variaciones no canónicas detectables en el lenguaje de quienes no tenían el Español o determinada variedad de Español como L1, situación frecuente en el caso de inmigrantes (se trataba de hablantes de Quechuaymará o Guaraní como L1), con la producción de hechos de 'contacto de lenguas' no reconocidos positivamente por la comunidad receptora. Siendo en esos casos el maestro el principal actor social, decidimos interactuar con el mismo, aportando fundamento teórico y análisis de casos, valorizando y tratando de resignificar su experiencia. A partir de la premisa: 'educación es diálogo' (Paulo Freire) y del poder explicativo de las Ciencias del Lenguaje (especialmente Sociolingüística, Etnopragmática, Estudios del Discurso, siguiendo lingüistas como Halliday, Lavandera, Arnoux, Martínez), que permiten un reconocimiento positivo de variedades y variaciones, así como de las miradas pedagógicas que valorizan el `error' (Castorina, Camilloni, Lenzi), concretamos 2 Proyectos de Extensión avalidos por la UNLP y por el ISFDyT Nº9 de La Plata, que se tradujeron en Jornadas, Cursos de Capacitación a docentes de distintos niveles (2008) y Talleres de Capacitación en las carreras docentes del Instituto (2009), a relatar en esta ponencia

Relevância:

90.00% 90.00%

Publicador:

Resumo:

No resulta fácil desentrañar el pensamiento de un escéptico acerca de temas sobre los que prefiere abstenerse de formular juicios. Es el caso de David Hume y la religión.El filósofo escocés nacido en 1711 dejó varios escritos aludiendo al fenómeno, es decir, a la religión tal como existe de hecho, y manifestó su opinión crítica acerca de las distintas posturas intelectuales de su tiempo en torno a cuestiones religiosas. Pero siempre fue ambiguo e irónico cuando le tocó dejar asentado su propio juicio con respecto a este tema. La dificultad principal reside en que, para Hume, a quien podríamos considerar un ?escéptico mitigado?, los juicios correctos son aquellos que se ajustan a la estrecha capacidad del entendimiento humano, que no va más allá de los límites de la experiencia de la vida cotidiana. Muchos aspectos vinculados a la religión ?tales como la posibilidad de conocer de la esencia y los atributos divinos- exceden nuestras limitadas facultades y, si nos aventuramos a argumentar en ese ámbito, corremos el riesgo de caer en el error y la irracionalidad. Nuestra propuesta consiste en examinar cuál es la postura de Hume sobre los distintos problemas que presentan el conocimiento y la práctica vinculados con la religión. Respecto del conocimiento, las dificultades se plantean a la hora de determinar qué estatuto otorgarle a las creencias religiosas, cuál es el origen en nuestra mente de la religiosidad y cómo justificar por medio de argumentos la existencia y atributos de la divinidad. En cuanto a la práctica, Hume formula una serie de críticas a las actitudes e instituciones religiosas tal como se han dado históricamente a partir del análisis de las consecuencias que observa en la sociedad, de las que surge una contradicción entre un conjunto de principios respetables y un sinnúmero de acciones deplorables. Para examinar estas cuestiones es necesario tener en cuenta el punto de vista desde el que efectúa su análisis, que se vincula, como acabamos de mencionar, con el escepticismo mitigado. Finalmente, evaluaremos si es posible proponer alguna forma de religión que tenga el visto bueno de Hume y, en ese caso, qué características debería revestir. Para lograrlo, deberemos abrirnos paso entre su inteligente ironía y su excesiva prudencia.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

No resulta fácil desentrañar el pensamiento de un escéptico acerca de temas sobre los que prefiere abstenerse de formular juicios. Es el caso de David Hume y la religión.El filósofo escocés nacido en 1711 dejó varios escritos aludiendo al fenómeno, es decir, a la religión tal como existe de hecho, y manifestó su opinión crítica acerca de las distintas posturas intelectuales de su tiempo en torno a cuestiones religiosas. Pero siempre fue ambiguo e irónico cuando le tocó dejar asentado su propio juicio con respecto a este tema. La dificultad principal reside en que, para Hume, a quien podríamos considerar un ?escéptico mitigado?, los juicios correctos son aquellos que se ajustan a la estrecha capacidad del entendimiento humano, que no va más allá de los límites de la experiencia de la vida cotidiana. Muchos aspectos vinculados a la religión ?tales como la posibilidad de conocer de la esencia y los atributos divinos- exceden nuestras limitadas facultades y, si nos aventuramos a argumentar en ese ámbito, corremos el riesgo de caer en el error y la irracionalidad. Nuestra propuesta consiste en examinar cuál es la postura de Hume sobre los distintos problemas que presentan el conocimiento y la práctica vinculados con la religión. Respecto del conocimiento, las dificultades se plantean a la hora de determinar qué estatuto otorgarle a las creencias religiosas, cuál es el origen en nuestra mente de la religiosidad y cómo justificar por medio de argumentos la existencia y atributos de la divinidad. En cuanto a la práctica, Hume formula una serie de críticas a las actitudes e instituciones religiosas tal como se han dado históricamente a partir del análisis de las consecuencias que observa en la sociedad, de las que surge una contradicción entre un conjunto de principios respetables y un sinnúmero de acciones deplorables. Para examinar estas cuestiones es necesario tener en cuenta el punto de vista desde el que efectúa su análisis, que se vincula, como acabamos de mencionar, con el escepticismo mitigado. Finalmente, evaluaremos si es posible proponer alguna forma de religión que tenga el visto bueno de Hume y, en ese caso, qué características debería revestir. Para lograrlo, deberemos abrirnos paso entre su inteligente ironía y su excesiva prudencia.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En realización del Proyecto de Investigación Interdisciplinaria que dirigí en 20032005, integrado por docentes-investigadores de Comunicación, Letras y Educación, junto a maestros de la zona, hemos constatado la existencia de contradicción entre la heterogeneidad de la población escolar tanto en lo que se refiere a primeras lenguas o variedades de la lengua mayoritaria como así también a las culturas de origen por un lado, y las representaciones docentes sobre el Lenguaje, por el otro. Esta contradicción, a menudo no felizmente resuelta, generaba retrasos en el aprendizaje, discriminación, violencia, exclusión, del niño y su familia, así como también frustración y fracaso en el maestro. Entendimos como una causa importante el rechazo a las variedades y variaciones no canónicas detectables en el lenguaje de quienes no tenían el Español o determinada variedad de Español como L1, situación frecuente en el caso de inmigrantes (se trataba de hablantes de Quechuaymará o Guaraní como L1), con la producción de hechos de 'contacto de lenguas' no reconocidos positivamente por la comunidad receptora. Siendo en esos casos el maestro el principal actor social, decidimos interactuar con el mismo, aportando fundamento teórico y análisis de casos, valorizando y tratando de resignificar su experiencia. A partir de la premisa: 'educación es diálogo' (Paulo Freire) y del poder explicativo de las Ciencias del Lenguaje (especialmente Sociolingüística, Etnopragmática, Estudios del Discurso, siguiendo lingüistas como Halliday, Lavandera, Arnoux, Martínez), que permiten un reconocimiento positivo de variedades y variaciones, así como de las miradas pedagógicas que valorizan el `error' (Castorina, Camilloni, Lenzi), concretamos 2 Proyectos de Extensión avalidos por la UNLP y por el ISFDyT Nº9 de La Plata, que se tradujeron en Jornadas, Cursos de Capacitación a docentes de distintos niveles (2008) y Talleres de Capacitación en las carreras docentes del Instituto (2009), a relatar en esta ponencia

Relevância:

90.00% 90.00%

Publicador:

Resumo:

No resulta fácil desentrañar el pensamiento de un escéptico acerca de temas sobre los que prefiere abstenerse de formular juicios. Es el caso de David Hume y la religión.El filósofo escocés nacido en 1711 dejó varios escritos aludiendo al fenómeno, es decir, a la religión tal como existe de hecho, y manifestó su opinión crítica acerca de las distintas posturas intelectuales de su tiempo en torno a cuestiones religiosas. Pero siempre fue ambiguo e irónico cuando le tocó dejar asentado su propio juicio con respecto a este tema. La dificultad principal reside en que, para Hume, a quien podríamos considerar un ?escéptico mitigado?, los juicios correctos son aquellos que se ajustan a la estrecha capacidad del entendimiento humano, que no va más allá de los límites de la experiencia de la vida cotidiana. Muchos aspectos vinculados a la religión ?tales como la posibilidad de conocer de la esencia y los atributos divinos- exceden nuestras limitadas facultades y, si nos aventuramos a argumentar en ese ámbito, corremos el riesgo de caer en el error y la irracionalidad. Nuestra propuesta consiste en examinar cuál es la postura de Hume sobre los distintos problemas que presentan el conocimiento y la práctica vinculados con la religión. Respecto del conocimiento, las dificultades se plantean a la hora de determinar qué estatuto otorgarle a las creencias religiosas, cuál es el origen en nuestra mente de la religiosidad y cómo justificar por medio de argumentos la existencia y atributos de la divinidad. En cuanto a la práctica, Hume formula una serie de críticas a las actitudes e instituciones religiosas tal como se han dado históricamente a partir del análisis de las consecuencias que observa en la sociedad, de las que surge una contradicción entre un conjunto de principios respetables y un sinnúmero de acciones deplorables. Para examinar estas cuestiones es necesario tener en cuenta el punto de vista desde el que efectúa su análisis, que se vincula, como acabamos de mencionar, con el escepticismo mitigado. Finalmente, evaluaremos si es posible proponer alguna forma de religión que tenga el visto bueno de Hume y, en ese caso, qué características debería revestir. Para lograrlo, deberemos abrirnos paso entre su inteligente ironía y su excesiva prudencia.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En realización del Proyecto de Investigación Interdisciplinaria que dirigí en 20032005, integrado por docentes-investigadores de Comunicación, Letras y Educación, junto a maestros de la zona, hemos constatado la existencia de contradicción entre la heterogeneidad de la población escolar tanto en lo que se refiere a primeras lenguas o variedades de la lengua mayoritaria como así también a las culturas de origen por un lado, y las representaciones docentes sobre el Lenguaje, por el otro. Esta contradicción, a menudo no felizmente resuelta, generaba retrasos en el aprendizaje, discriminación, violencia, exclusión, del niño y su familia, así como también frustración y fracaso en el maestro. Entendimos como una causa importante el rechazo a las variedades y variaciones no canónicas detectables en el lenguaje de quienes no tenían el Español o determinada variedad de Español como L1, situación frecuente en el caso de inmigrantes (se trataba de hablantes de Quechuaymará o Guaraní como L1), con la producción de hechos de 'contacto de lenguas' no reconocidos positivamente por la comunidad receptora. Siendo en esos casos el maestro el principal actor social, decidimos interactuar con el mismo, aportando fundamento teórico y análisis de casos, valorizando y tratando de resignificar su experiencia. A partir de la premisa: 'educación es diálogo' (Paulo Freire) y del poder explicativo de las Ciencias del Lenguaje (especialmente Sociolingüística, Etnopragmática, Estudios del Discurso, siguiendo lingüistas como Halliday, Lavandera, Arnoux, Martínez), que permiten un reconocimiento positivo de variedades y variaciones, así como de las miradas pedagógicas que valorizan el `error' (Castorina, Camilloni, Lenzi), concretamos 2 Proyectos de Extensión avalidos por la UNLP y por el ISFDyT Nº9 de La Plata, que se tradujeron en Jornadas, Cursos de Capacitación a docentes de distintos niveles (2008) y Talleres de Capacitación en las carreras docentes del Instituto (2009), a relatar en esta ponencia

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Nowadays, Computational Fluid Dynamics (CFD) solvers are widely used within the industry to model fluid flow phenomenons. Several fluid flow model equations have been employed in the last decades to simulate and predict forces acting, for example, on different aircraft configurations. Computational time and accuracy are strongly dependent on the fluid flow model equation and the spatial dimension of the problem considered. While simple models based on perfect flows, like panel methods or potential flow models can be very fast to solve, they usually suffer from a poor accuracy in order to simulate real flows (transonic, viscous). On the other hand, more complex models such as the full Navier- Stokes equations provide high fidelity predictions but at a much higher computational cost. Thus, a good compromise between accuracy and computational time has to be fixed for engineering applications. A discretisation technique widely used within the industry is the so-called Finite Volume approach on unstructured meshes. This technique spatially discretises the flow motion equations onto a set of elements which form a mesh, a discrete representation of the continuous domain. Using this approach, for a given flow model equation, the accuracy and computational time mainly depend on the distribution of nodes forming the mesh. Therefore, a good compromise between accuracy and computational time might be obtained by carefully defining the mesh. However, defining an optimal mesh for complex flows and geometries requires a very high level expertize in fluid mechanics and numerical analysis, and in most cases a simple guess of regions of the computational domain which might affect the most the accuracy is impossible. Thus, it is desirable to have an automatized remeshing tool, which is more flexible with unstructured meshes than its structured counterpart. However, adaptive methods currently in use still have an opened question: how to efficiently drive the adaptation ? Pioneering sensors based on flow features generally suffer from a lack of reliability, so in the last decade more effort has been made in developing numerical error-based sensors, like for instance the adjoint-based adaptation sensors. While very efficient at adapting meshes for a given functional output, the latter method is very expensive as it requires to solve a dual set of equations and computes the sensor on an embedded mesh. Therefore, it would be desirable to develop a more affordable numerical error estimation method. The current work aims at estimating the truncation error, which arises when discretising a partial differential equation. These are the higher order terms neglected in the construction of the numerical scheme. The truncation error provides very useful information as it is strongly related to the flow model equation and its discretisation. On one hand, it is a very reliable measure of the quality of the mesh, therefore very useful in order to drive a mesh adaptation procedure. On the other hand, it is strongly linked to the flow model equation, so that a careful estimation actually gives information on how well a given equation is solved, which may be useful in the context of _ -extrapolation or zonal modelling. The following work is organized as follows: Chap. 1 contains a short review of mesh adaptation techniques as well as numerical error prediction. In the first section, Sec. 1.1, the basic refinement strategies are reviewed and the main contribution to structured and unstructured mesh adaptation are presented. Sec. 1.2 introduces the definitions of errors encountered when solving Computational Fluid Dynamics problems and reviews the most common approaches to predict them. Chap. 2 is devoted to the mathematical formulation of truncation error estimation in the context of finite volume methodology, as well as a complete verification procedure. Several features are studied, such as the influence of grid non-uniformities, non-linearity, boundary conditions and non-converged numerical solutions. This verification part has been submitted and accepted for publication in the Journal of Computational Physics. Chap. 3 presents a mesh adaptation algorithm based on truncation error estimates and compares the results to a feature-based and an adjoint-based sensor (in collaboration with Jorge Ponsín, INTA). Two- and three-dimensional cases relevant for validation in the aeronautical industry are considered. This part has been submitted and accepted in the AIAA Journal. An extension to Reynolds Averaged Navier- Stokes equations is also included, where _ -estimation-based mesh adaptation and _ -extrapolation are applied to viscous wing profiles. The latter has been submitted in the Proceedings of the Institution of Mechanical Engineers, Part G: Journal of Aerospace Engineering. Keywords: mesh adaptation, numerical error prediction, finite volume Hoy en día, la Dinámica de Fluidos Computacional (CFD) es ampliamente utilizada dentro de la industria para obtener información sobre fenómenos fluidos. La Dinámica de Fluidos Computacional considera distintas modelizaciones de las ecuaciones fluidas (Potencial, Euler, Navier-Stokes, etc) para simular y predecir las fuerzas que actúan, por ejemplo, sobre una configuración de aeronave. El tiempo de cálculo y la precisión en la solución depende en gran medida de los modelos utilizados, así como de la dimensión espacial del problema considerado. Mientras que modelos simples basados en flujos perfectos, como modelos de flujos potenciales, se pueden resolver rápidamente, por lo general aducen de una baja precisión a la hora de simular flujos reales (viscosos, transónicos, etc). Por otro lado, modelos más complejos tales como el conjunto de ecuaciones de Navier-Stokes proporcionan predicciones de alta fidelidad, a expensas de un coste computacional mucho más elevado. Por lo tanto, en términos de aplicaciones de ingeniería se debe fijar un buen compromiso entre precisión y tiempo de cálculo. Una técnica de discretización ampliamente utilizada en la industria es el método de los Volúmenes Finitos en mallas no estructuradas. Esta técnica discretiza espacialmente las ecuaciones del movimiento del flujo sobre un conjunto de elementos que forman una malla, una representación discreta del dominio continuo. Utilizando este enfoque, para una ecuación de flujo dado, la precisión y el tiempo computacional dependen principalmente de la distribución de los nodos que forman la malla. Por consiguiente, un buen compromiso entre precisión y tiempo de cálculo se podría obtener definiendo cuidadosamente la malla, concentrando sus elementos en aquellas zonas donde sea estrictamente necesario. Sin embargo, la definición de una malla óptima para corrientes y geometrías complejas requiere un nivel muy alto de experiencia en la mecánica de fluidos y el análisis numérico, así como un conocimiento previo de la solución. Aspecto que en la mayoría de los casos no está disponible. Por tanto, es deseable tener una herramienta que permita adaptar los elementos de malla de forma automática, acorde a la solución fluida (remallado). Esta herramienta es generalmente más flexible en mallas no estructuradas que con su homóloga estructurada. No obstante, los métodos de adaptación actualmente en uso todavía dejan una pregunta abierta: cómo conducir de manera eficiente la adaptación. Sensores pioneros basados en las características del flujo en general, adolecen de una falta de fiabilidad, por lo que en la última década se han realizado grandes esfuerzos en el desarrollo numérico de sensores basados en el error, como por ejemplo los sensores basados en el adjunto. A pesar de ser muy eficientes en la adaptación de mallas para un determinado funcional, este último método resulta muy costoso, pues requiere resolver un doble conjunto de ecuaciones: la solución y su adjunta. Por tanto, es deseable desarrollar un método numérico de estimación de error más asequible. El presente trabajo tiene como objetivo estimar el error local de truncación, que aparece cuando se discretiza una ecuación en derivadas parciales. Estos son los términos de orden superior olvidados en la construcción del esquema numérico. El error de truncación proporciona una información muy útil sobre la solución: es una medida muy fiable de la calidad de la malla, obteniendo información que permite llevar a cabo un procedimiento de adaptación de malla. Está fuertemente relacionado al modelo matemático fluido, de modo que una estimación precisa garantiza la idoneidad de dicho modelo en un campo fluido, lo que puede ser útil en el contexto de modelado zonal. Por último, permite mejorar la precisión de la solución resolviendo un nuevo sistema donde el error local actúa como término fuente (_ -extrapolación). El presenta trabajo se organiza de la siguiente manera: Cap. 1 contiene una breve reseña de las técnicas de adaptación de malla, así como de los métodos de predicción de los errores numéricos. En la primera sección, Sec. 1.1, se examinan las estrategias básicas de refinamiento y se presenta la principal contribución a la adaptación de malla estructurada y no estructurada. Sec 1.2 introduce las definiciones de los errores encontrados en la resolución de problemas de Dinámica Computacional de Fluidos y se examinan los enfoques más comunes para predecirlos. Cap. 2 está dedicado a la formulación matemática de la estimación del error de truncación en el contexto de la metodología de Volúmenes Finitos, así como a un procedimiento de verificación completo. Se estudian varias características que influyen en su estimación: la influencia de la falta de uniformidad de la malla, el efecto de las no linealidades del modelo matemático, diferentes condiciones de contorno y soluciones numéricas no convergidas. Esta parte de verificación ha sido presentada y aceptada para su publicación en el Journal of Computational Physics. Cap. 3 presenta un algoritmo de adaptación de malla basado en la estimación del error de truncación y compara los resultados con sensores de featured-based y adjointbased (en colaboración con Jorge Ponsín del INTA). Se consideran casos en dos y tres dimensiones, relevantes para la validación en la industria aeronáutica. Este trabajo ha sido presentado y aceptado en el AIAA Journal. También se incluye una extensión de estos métodos a las ecuaciones RANS (Reynolds Average Navier- Stokes), en donde adaptación de malla basada en _ y _ -extrapolación son aplicados a perfiles con viscosidad de alas. Este último trabajo se ha presentado en los Actas de la Institución de Ingenieros Mecánicos, Parte G: Journal of Aerospace Engineering. Palabras clave: adaptación de malla, predicción del error numérico, volúmenes finitos

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La evaluación de la seguridad de estructuras antiguas de fábrica es un problema abierto.El material es heterogéneo y anisótropo, el estado previo de tensiones difícil de conocer y las condiciones de contorno inciertas. A comienzos de los años 50 se demostró que el análisis límite era aplicable a este tipo de estructuras, considerándose desde entonces como una herramienta adecuada. En los casos en los que no se produce deslizamiento la aplicación de los teoremas del análisis límite estándar constituye una herramienta formidable por su simplicidad y robustez. No es necesario conocer el estado real de tensiones. Basta con encontrar cualquier solución de equilibrio, y que satisfaga las condiciones de límite del material, en la seguridad de que su carga será igual o inferior a la carga real de inicio de colapso. Además esta carga de inicio de colapso es única (teorema de la unicidad) y se puede obtener como el óptimo de uno cualquiera entre un par de programas matemáticos convexos duales. Sin embargo, cuando puedan existir mecanismos de inicio de colapso que impliquen deslizamientos, cualquier solución debe satisfacer tanto las restricciones estáticas como las cinemáticas, así como un tipo especial de restricciones disyuntivas que ligan las anteriores y que pueden plantearse como de complementariedad. En este último caso no está asegurada la existencia de una solución única, por lo que es necesaria la búsqueda de otros métodos para tratar la incertidumbre asociada a su multiplicidad. En los últimos años, la investigación se ha centrado en la búsqueda de un mínimo absoluto por debajo del cual el colapso sea imposible. Este método es fácil de plantear desde el punto de vista matemático, pero intratable computacionalmente, debido a las restricciones de complementariedad 0 y z 0 que no son ni convexas ni suaves. El problema de decisión resultante es de complejidad computacional No determinista Polinomial (NP)- completo y el problema de optimización global NP-difícil. A pesar de ello, obtener una solución (sin garantía de exito) es un problema asequible. La presente tesis propone resolver el problema mediante Programación Lineal Secuencial, aprovechando las especiales características de las restricciones de complementariedad, que escritas en forma bilineal son del tipo y z = 0; y 0; z 0 , y aprovechando que el error de complementariedad (en forma bilineal) es una función de penalización exacta. Pero cuando se trata de encontrar la peor solución, el problema de optimización global equivalente es intratable (NP-difícil). Además, en tanto no se demuestre la existencia de un principio de máximo o mínimo, existe la duda de que el esfuerzo empleado en aproximar este mínimo esté justificado. En el capítulo 5, se propone hallar la distribución de frecuencias del factor de carga, para todas las soluciones de inicio de colapso posibles, sobre un sencillo ejemplo. Para ello, se realiza un muestreo de soluciones mediante el método de Monte Carlo, utilizando como contraste un método exacto de computación de politopos. El objetivo final es plantear hasta que punto está justificada la busqueda del mínimo absoluto y proponer un método alternativo de evaluación de la seguridad basado en probabilidades. Las distribuciones de frecuencias, de los factores de carga correspondientes a las soluciones de inicio de colapso obtenidas para el caso estudiado, muestran que tanto el valor máximo como el mínimo de los factores de carga son muy infrecuentes, y tanto más, cuanto más perfecto y contínuo es el contacto. Los resultados obtenidos confirman el interés de desarrollar nuevos métodos probabilistas. En el capítulo 6, se propone un método de este tipo basado en la obtención de múltiples soluciones, desde puntos de partida aleatorios y calificando los resultados mediante la Estadística de Orden. El propósito es determinar la probabilidad de inicio de colapso para cada solución.El método se aplica (de acuerdo a la reducción de expectativas propuesta por la Optimización Ordinal) para obtener una solución que se encuentre en un porcentaje determinado de las peores. Finalmente, en el capítulo 7, se proponen métodos híbridos, incorporando metaheurísticas, para los casos en que la búsqueda del mínimo global esté justificada. Abstract Safety assessment of the historic masonry structures is an open problem. The material is heterogeneous and anisotropic, the previous state of stress is hard to know and the boundary conditions are uncertain. In the early 50's it was proven that limit analysis was applicable to this kind of structures, being considered a suitable tool since then. In cases where no slip occurs, the application of the standard limit analysis theorems constitutes an excellent tool due to its simplicity and robustness. It is enough find any equilibrium solution which satisfy the limit constraints of the material. As we are certain that this load will be equal to or less than the actual load of the onset of collapse, it is not necessary to know the actual stresses state. Furthermore this load for the onset of collapse is unique (uniqueness theorem), and it can be obtained as the optimal from any of two mathematical convex duals programs However, if the mechanisms of the onset of collapse involve sliding, any solution must satisfy both static and kinematic constraints, and also a special kind of disjunctive constraints linking the previous ones, which can be formulated as complementarity constraints. In the latter case, it is not guaranted the existence of a single solution, so it is necessary to look for other ways to treat the uncertainty associated with its multiplicity. In recent years, research has been focused on finding an absolute minimum below which collapse is impossible. This method is easy to set from a mathematical point of view, but computationally intractable. This is due to the complementarity constraints 0 y z 0 , which are neither convex nor smooth. The computational complexity of the resulting decision problem is "Not-deterministic Polynomialcomplete" (NP-complete), and the corresponding global optimization problem is NP-hard. However, obtaining a solution (success is not guaranteed) is an affordable problem. This thesis proposes solve that problem through Successive Linear Programming: taking advantage of the special characteristics of complementarity constraints, which written in bilinear form are y z = 0; y 0; z 0 ; and taking advantage of the fact that the complementarity error (bilinear form) is an exact penalty function. But when it comes to finding the worst solution, the (equivalent) global optimization problem is intractable (NP-hard). Furthermore, until a minimum or maximum principle is not demonstrated, it is questionable that the effort expended in approximating this minimum is justified. XIV In chapter 5, it is proposed find the frequency distribution of the load factor, for all possible solutions of the onset of collapse, on a simple example. For this purpose, a Monte Carlo sampling of solutions is performed using a contrast method "exact computation of polytopes". The ultimate goal is to determine to which extent the search of the global minimum is justified, and to propose an alternative approach to safety assessment based on probabilities. The frequency distributions for the case study show that both the maximum and the minimum load factors are very infrequent, especially when the contact gets more perfect and more continuous. The results indicates the interest of developing new probabilistic methods. In Chapter 6, is proposed a method based on multiple solutions obtained from random starting points, and qualifying the results through Order Statistics. The purpose is to determine the probability for each solution of the onset of collapse. The method is applied (according to expectations reduction given by the Ordinal Optimization) to obtain a solution that is in a certain percentage of the worst. Finally, in Chapter 7, hybrid methods incorporating metaheuristics are proposed for cases in which the search for the global minimum is justified.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El catastro es el inventario de la riqueza de un país, los primeros avances en este sentido fueron identificar las poblaciones existentes y su ubicación geográfica. En este trabajo se analiza el trabajo del cartógrafo Tomás López, primero enmarcando su vida y obra, y posteriormente se analiza Atlas Geográfico de España (AGE) de Tomás López en su edición de 1804 y en concreto la hoja n.º 64 correspondiente al Reyno de Jaén y cuya elaboración data de 1787. Para ello se propone una metodología de análisis sistemático mediante Sistemas de Información Geográfica, basada en digitalizar todos los núcleos de población del AGE y compararlos con los actuales. Se aprecia por otro lado una falta de homogeneidad en la escala del plano siendo más preciso en la zona central, aumentando el error de forma radial. Este trabajo a la vez que aporta nueva información, también sirve para revalorizar el meritorio trabajo del maestro López y abre nuevas ventanas a la investigación de la cartografía histórica y al conocimiento de la realidad de cada territorio. Desde el punto de vista catastral, destaca que alrededor de la mitad de las poblaciones de la época o han desaparecido o han cambiado de nombre, pudiendo ser objeto de una investigación detallada de topónimos. Esto también puede ser indicativo a su vez del gran despoblamiento rural que ha existido en dos siglos, donde se han perdido la mitad de las poblaciones.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Los códigos de difusión en multigrupos para an álisis tridimensional de núcleos PWR emplean como datos de entrada librerías de parámetros equivalentes homogeneizados y condensados (secciones eficaces y factores de discontinuidad), que dependen de las variables de estado como temperaturas o densidades. Típicamente, esos pará metros se pre-generan para cada tipo de celda o elemento combustible con un código de transporte determinista, dependiendo en gran medida la precisión de los cálculos neutrónicos acoplados con la termohidráulica de la calidad de la librería generada. Las librerías tabuladas son la forma más extendida de compilar las secciones eficaces pre-generadas. Durante el cálculo de núcleo, el código de difusión simplemente obtiene las secciones eficaces por interpolación de los valores en los puntos de la malla. Como los errores de interpolación dependen de la distancia entre esos puntos, se requiere un considerable refinamiento de la malla –con todas las posibles combinaciones de las variables de estado– para conseguir una precisión adecuada, lo que conduce a requisitos elevados de almacenamiento y un gran número de cálculos de transporte para su generación. Para evitar este inconveniente, se ha desarrollado un procedimiento de optimización de librerías tabuladas que permite seleccionar el menor número de puntos de malla para cada variable de estado independiente, manteniendo un error objetivo en la constante de multiplicación k-efectiva. El procedimiento consiste en determinar, aplicando teoría de perturbaciones, los coeficientes de sensibilidad de la k-efectiva con las secciones eficaces. Ello permite evaluar la influencia de los errores de interpolación de cada sección eficaz en la constante de multiplicación para cualquier combinación de las variables de estado. La medida de esta influencia o sensibilidad permite establecer una distancia óptima entre puntos de interpolación dado un error objetivo sobre la constante de multiplicación. Distintos números de grupos de energía, composiciones del elemento combustible y escalas de homogeneización, han sido estudia dos para conocer su efecto sobre la optimización. Asimismo se ha comprobado la influencia de variar el error objetivo o el grado del polinomio de interpolación entre puntos. Finalmente, se realiza un cálculo con la librería optimizada, y se verifica que el error en la k-efectiva está limitado. Se reduce así el tamaño de la librería sin comprometer su grado de precisión en todo el rango de interés.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En el presente trabajo se propone un método para la medida y la estimación del error de la misma en la caracterización del factor de ensanchamiento de línea (parámetro α) de los láseres de semiconductor. La técnica propuesta se basa en el cálculo del parámetro α a partir de la medida de la intensidad y de la frecuencia instantánea de los pulsos generados por un laser de semiconductor conmutado en ganancia. El error de medida se estima mediante la comparación entre el espectro medido y el reconstruido utilizando los perfiles temporales de amplitud y fase de los pulsos generados. El método se ha aplicado a un laser DFB, obteniendo un error de medida menor del 5 %.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En nuestra cultura, asumimos el error como algo vergonzoso, como un resultado ajeno a nuestra consciente autoría. Normalmente queremos desentendernos de él, pues se suele asociar a que ha sido el resultado de un accidente involuntario. Sin embargo, también es cierto que se suele usar como un mecanismo que despierta nuestro humor, la curiosidad, el extrañamiento y la sorpresa. El error en nuestra cultura se esconde en inverosímiles mensajes que nos rodean. Si se toma como ejemplo los errores que se encierran en la serie humorística de dibujos animados "El-coyote-y-el-correcaminos"1, se puede descubrir las numerosas consecuencias y actitudes encriptadas donde el error participa. A modo resumen estos son cinco de los mensajes capturados donde los errores participan. 1- El Coyote, siempre hambriento, y con ganas de atrapar al Correcaminos, tiene una gran variedad de modos acercamiento y decisiones de caza. Las tácticas parecen perfectas pero siempre tienen un error que, aunque hacen que no lleguen a su fin, cada vez son más divertidas y locas. El Coyote se enfrenta continuamente al cómo hacerlo con una creatividad, tan abierta como errada. 2- El Correcaminos en cambio, inconscientemente es capaz de usar las trampas que construye el Coyote sin que estás funcionen. Sin saber que pueden atraparle, las usa como si supiera que el no va a errar. El Coyote en cambio es incapaz de hacer esto, y las trampas siempre se vuelven contra él. 3- El Coyote en ocasiones se ve inmiscuido en un proceso de construcción de trampas laborioso. Este proceso, a su vez, también suele estar cargado de errores. A pesar de que por ensayo y error termina haciendo las cosas como preveía, todo acaba saltando por los aires y no funciona. 4- Más allá de los fallos constructivos de las trampas de caza, el Coyote erra a menudo cuando piensa que es “normal”, es decir se da cuenta que no puede hacer unas series de cosas y finalmente no las hace. Por ejemplo, unas veces en medio del aire cae porque piensa que le afecta la gravedad, otras, justo cuando va a atrapar el Correcaminos se extraña por ser más rápido y al final no lo consigue. 5- Por último, el Coyote cansado de artilugios, recurre a la estrategia. Asume que el Correcaminos es más rápido que él y por ello le dibuja en una pared un túnel con una carretera. El Correcaminos entonces, utiliza el túnel o la carretera como uno ya existente se tratara. Mientras, el Coyote sorprendido intenta seguirlo pero no puede, se choca con la pared, cae en su propia trampa. De estos lugares que se encuentran en la cultura y donde campa el error, se sirve la tesis para localizar su correspondencia con la arquitectura. Por lo que se plantean estos contextos de estudio: 1- La historia de la arquitectura está llena de diferentes modos de hacer y tomar decisiones, de proyecto. Existen diversos planteamientos para enfrentarse a una teoría y una práctica. Todos parecen seguros y certeros, en cambio se tiene la convicción de que no es así. La historia de la arquitectura siempre ha sido tan caótica, divertida y llena de errores como son los autores que la construyen. De ahí que se plantee la búsqueda de los errores en el estudio de la teoría de los conocimientos y procesos lógicos que han guiado a la ciencia hasta donde estamos hoy, la búsqueda del error en la arquitectura a través del error en la epistemología. 2- En la cotidianidad de la arquitectura se "juntan" dibujos hechos en planta con los hechos en sección, se viaja por los planos buscando referencias de secciones, se buscan entradas o salidas, se llevan parcialidades de una planta a otra, se leen pies de plano para interpretar lo que ocurre, se dialoga sobre un proyecto buscando un concepto, se montan volúmenes de documentos que te lo dan en planta, se intentan comprender situaciones volumétricas de dibujos en hechos en "2d" o se intenta comprender un montaje gravitatorio. Situaciones donde somos conscientes y otras no, donde se pone en marcha un ejercicio mental de acoplamiento estructural de todas las partes que se “juntan”, a pesar de que estas entre sí no estén realmente relacionadas y sí llenas de errores. Aprovechándose de la confianza del intercambio de información, los errores se cuelan hasta el final y no llegamos a reconocerlos. 3- En la arquitectura uno de los modos más habituales de enfrentarse al proyecto es a través del método de ensayo y error, a través del cual se hacen continuos dibujos o maquetas, una y otra vez. En arquitectura es común necesitar de la insistencia para localizar algo, reiterar la búsqueda de un deseo. Cada una de ellas con modificaciones de la anterior, con nuevas posibilidades y tanteos. Afrontar este proceso más allá de lo que es enfrentarse a un error, encierra actitudes, voluntades, potencialidades y afecciones diferentes entre sí. A la vez, este ejercicio, suele ser personal, por lo que cada acción de ensayo y error es difícil que se deba a un sólo nivel de funcionamiento, hay factores que se escapan del control o de la previsibilidad. Aunque a priori parece que el proceso por ensayo y error en el hacer arquitectónico intenta eliminar el error, hay ocasiones donde éste desvela nuevas posibilidades. 4- Las fichas de patologías de los edificios en arquitectura suelen ser documentos técnicos que aluden a los problemas constructivos de manera directa; humedades, grietas, fisuras, desprendimientos. Errores constructivos que sin embargo se olvidan de lo que pueden ser “errores arquitectónicos”. Es decir, el proceso de construcción, la espacialidad, el programa, el contexto o la iluminación se pueden trabar erróneamente, pero no necesariamente con fallos constructivos. Errores arquitectónicos que no se suelen registrar como tal. Se cree que hay un mundo de arquitectura patológica que va más allá de la situación de la normalidad edificatoria que se suele tratar. Errores integrados en el hacer arquitectónico que han terminado por generar una arquitectura singular pero no excéntrica, anormal y difícilmente genérica. Arquitecturas creadas bajo un “error de vida”, las cuales demuestran que se pueden alcanzar equilibrios ajenos a los que la razón habitual impone en el hacer. 5- Es también común en la arquitectura, la capacidad de proyectar futuro a través de los diferentes campos de oportunidad que se generan. Las oportunidades unas veces las ofrecen las normativas, pero otras son los errores que estas tienen las que se convierten en resquicios para construir realidades que se escapan a sus rigideces. Alturas máximas, edificaciones límites, espacios libres, alineaciones de fachada, programa permitido…, normalmente leyes de control que se imponen en la ciudad y que a veces se convierten en un modo de dominación. Reglas que antes de su puesta en funcionamiento se creen cerradas y lógicas e infranqueables, pero en su puesta en uso, empiezan a errar. Los resultados no salen como debían, y las palabras son interpretadas de forma diferente, por lo que el usuario empieza a aprovecharse de estos errores como vía de escape sobre ellas. Una vez planteados estos cinco lugares vinculados a sistemas arquitectónicos y que a la vez encierran de alguna forma la mirada positiva que en ocasiones la cultura ofrece, cabría ser más específicos y plantearse la pregunta: .Como el error ha sido y puede ser productivo en la arquitectura? Para responder en estos cinco contextos descritos y habituales en el hacer arquitectónico, se crean cinco “planos secuencia” como respuesta. Que usados como técnica de planificación de un pensamiento, permiten responder sin cortes y durante un tiempo prolongado reflexiones concatenadas entre sí. De este modo, los cinco planos secuencias son respuestas a la pregunta pero desde distintos ámbitos. Respuestas donde los resultados del error no avergüenzan a la arquitectura, sino que animan a usarlo, a experimentar con ello. Los planos secuencias son una cantera que contiene las marcas de los errores, tanto de un pasado como de un futuro inmanente. Un modo de ordenar la información, donde el tiempo no es una marca de linealidad cronológica, sino la búsqueda hacia delante y hacia atrás de la maduración de un concepto.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El objetivo de este proyecto se basa en comprobar si es posible encontrar métodos de ajuste con los que poder corregir observaciones altimétricas con errores groseros, que pueden ser causados por el operador al realizar la observación o por otras circunstancias. El ajuste por el método clásico de mínimos cuadrados tiende a repartir los errores cometidos entre todas las observaciones, lo que da como resultado residuos muy elevados cuando se realiza el ajuste de una red cuyas observaciones poseen un error grosero o varios. Habitualmente, siempre y cuando haya redundancia en la toma de datos, se procederá a quitar la observación con mayor residuo y se realizará de nuevo el ajuste sin tener en cuenta dicha observación. También se estudiará el Test de Baarda y su comportamiento según sea el error cometido y el número de errores groseros que aparezcan en el ajuste. Pero el objetivo real es llevar a cabo un estudio en el que demostrar que el método de ajuste por técnicas de estimación robusta tiene una capacidad infinitamente superior a los mínimos cuadrados en la detección de errores groseros en observaciones, permitiendo de esta forma corregir dicho error e incluir esa observación en el ajuste. Este método de ajuste (estimación robusta) comenzó a emplearse en el campo de la fotogrametría. Es por ello que esta investigación irá encaminada al empleo de los estimadores robustos en aplicaciones topográficas. Se decidió iniciar este estudio porque era un proyecto innovador que nunca había sido realizado en altimetría y me inspiró un proyecto realizado anteriormente bastante similar a este pero centrándose en planimetría, con conclusiones muy favorables, lo que me animó a continuarlo centrándome en la altimetría.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En esta tesis, el método de estimación de error de truncación conocido como restimation ha sido extendido de esquemas de bajo orden a esquemas de alto orden. La mayoría de los trabajos en la bibliografía utilizan soluciones convergidas en mallas de distinto refinamiento para realizar la estimación. En este trabajo se utiliza una solución en una única malla con distintos órdenes polinómicos. Además, no se requiere que esta solución esté completamente convergida, resultando en el método conocido como quasi-a priori T-estimation. La aproximación quasi-a priori estima el error mientras el residuo del método iterativo no es despreciable. En este trabajo se demuestra que algunas de las hipótesis fundamentales sobre el comportamiento del error, establecidas para métodos de bajo orden, dejan de ser válidas en esquemas de alto orden, haciendo necesaria una revisión completa del comportamiento del error antes de redefinir el algoritmo. Para facilitar esta tarea, en una primera etapa se considera el método conocido como Chebyshev Collocation, limitando la aplicación a geometrías simples. La extensión al método Discontinuouos Galerkin Spectral Element Method presenta dificultades adicionales para la definición precisa y la estimación del error, debidos a la formulación débil, la discretización multidominio y la formulación discontinua. En primer lugar, el análisis se enfoca en leyes de conservación escalares para examinar la precisión de la estimación del error de truncación. Después, la validez del análisis se demuestra para las ecuaciones incompresibles y compresibles de Euler y Navier Stokes. El método de aproximación quasi-a priori r-estimation permite desacoplar las contribuciones superficiales y volumétricas del error de truncación, proveyendo información sobre la anisotropía de las soluciones así como su ratio de convergencia con el orden polinómico. Se demuestra que esta aproximación quasi-a priori produce estimaciones del error de truncación con precisión espectral. ABSTRACT In this thesis, the τ-estimation method to estimate the truncation error is extended from low order to spectral methods. While most works in the literature rely on fully time-converged solutions on grids with different spacing to perform the estimation, only one grid with different polynomial orders is used in this work. Furthermore, a non timeconverged solution is used resulting in the quasi-a priori τ-estimation method. The quasi-a priori approach estimates the error when the residual of the time-iterative method is not negligible. It is shown in this work that some of the fundamental assumptions about error tendency, well established for low order methods, are no longer valid in high order schemes, making necessary a complete revision of the error behavior before redefining the algorithm. To facilitate this task, the Chebyshev Collocation Method is considered as a first step, limiting their application to simple geometries. The extension to the Discontinuous Galerkin Spectral Element Method introduces additional features to the accurate definition and estimation of the error due to the weak formulation, multidomain discretization and the discontinuous formulation. First, the analysis focuses on scalar conservation laws to examine the accuracy of the estimation of the truncation error. Then, the validity of the analysis is shown for the incompressible and compressible Euler and Navier Stokes equations. The developed quasi-a priori τ-estimation method permits one to decouple the interfacial and the interior contributions of the truncation error in the Discontinuous Galerkin Spectral Element Method, and provides information about the anisotropy of the solution, as well as its rate of convergence in polynomial order. It is demonstrated here that this quasi-a priori approach yields a spectrally accurate estimate of the truncation error.