925 resultados para Differential and integral calculus


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Por el éxito y trascendencia de sus eventos anteriores, el Instituto CIFOT siente la obligación de hacer conocer las principales conclusiones del II Seminario de Ordenamiento Territorial, el que comienza a marcar pautas a partir de las preocupaciones comunes, enfoques teórico-metodológicos prevalecientes en el Ordenamiento Territorial, la planificación Estratégica y Ambiental, como también sobre las prácticas de gestión de la información territorial. Se sintetiza la idea central de las conferencias Magistrales: - Dr. Juan Gastó- Pontificia Universidad Católica de Chile- presenta “ La Ordenación Territorial como eje del Desarrollo Rural", cuyo punto central es la imposibilidad de separar la problemática territorial urbana de la rural. - Dr. Eduardo Salinas- Universidad de La Habana , Cuba- en “El Ordenamiento Territorial como instrumento de la Planificación y Gestión Ambiental" establece la necesidad de una planificación sustentable ambientalmente, con una concepción sistémica y holística de los problemas. -Dra. Elsa Laurelli -Universidad de La Plata , Argentina- en “Nuevas Tendencias del Ordenamiento Territorial en una Economía de Mercado. Limitaciones y posibilidades" plantea coexistencia de áreas receptoras de IDE vs espacios degradados y con problemáticas sociales y reflexiona sobre el rol del Estado para atenuar los efectos del mercado en el territorio y la sociedad. - Dr. Pablo Ciccolella -UBA-, Argentina. En “ Desafíos y opciones en la Gestión Urbana bajo el Capitalismo Global: Planificación Estratégica y Desarrollo Económico-Territorial" alerta sobre la planificación llave en mano que genera un desarrollo elitista, banal y efímero. - Dr. Mariano Zamorano -Universidad Nacional de Cuyo, Mendoza- presenta “ Una propuesta de Regionalización de la Provincia de Mendoza sobre la base de la Lógica Territorial " destinada a optimizar la gestión municipal y provincial. Al II Seminario de Ordenamiento Territorial concurren alrededor de 140 personas y se exponen 43 trabajos en las siguientes áreas temáticas : - 1 Nuevas tendencias en el Ordenamiento territorial . - 2 Ambiente y Ordenamiento Territorial. - 3 El Ordenamiento Territorial en el ámbito urbano. - 4 El Ordenamiento Territorial en el ámbito rural. - 5 La gestión de la información en el Ordenamiento Territorial. - 6 El rol de las Instituciones en el Ordenamiento Territorial. Conclusiones De l rico debate e intercambio de ideas realizado durante el II Seminario, se extraen tres grandes temas: - La necesidad de una visión general y holística del territorio, evitando la fragmentación disciplinar. - La interdisciplina, como campo de convergencia de problemáticas complejas. La planificación estratégica como instancia participativa y visión integral del territorio. - La metodología para el Ordenamiento Territorial debe ser verdaderamente aplicada. No se puede seguir planificando con una racionalidad limitada en busca de una imagen objetivo rígida mientras el territorio, conformado por sistemas complejos y abiertos, está en constante cambio por exigencias propias de lo global. - Un Estado en retirada no contiene la estructura necesaria ni el consenso para imponerse en sociedades democráticas con dominio absoluto de tipo capitalista.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta investigación, orientada bajo un enfoque cualitativo-interpretativo, describe las concepciones de un grupo de setenta y ocho profesores de inglés de los niveles de Educación Media General y Educación Universitaria de la ciudad de San Cristóbal, Venezuela, sobre la expansión, uso y enseñanza del inglés como idioma internacional. Desde una perspectiva crítica y posestructuralista en la que se concibe al inglés como un fenómeno social cargado de ideologías y valores culturales, este estudio pretende dar cuenta de las conexiones existentes entre el inglés y las fuerzas económicas, políticas, sociales e ideológicas que subyacen detrás de su expansión, uso y enseñanza en el mundo (Holliday, 2005, 2006, 2013; Pennycook, 1994; Phillipson, 1992, 2010), y la forma en como estas conexiones son percibidas por los profesores de inglés de un contexto específico de la periferia (Canagarajah, 1999a). Para la exploración en profundidad del fenómeno se adopta en este estudio el método fenomenológico (Colás, 1998b) como propuesta metodológica para descubrir la forma en que los profesores de inglés de este contexto específico comprenden el fenómeno y conciben la expansión, uso y enseñanza del inglés como idioma internacional. Como instrumentos para la recolección de los datos se utilizan dos cuestionarios con preguntas abiertas y cerradas administrados por internet a los participantes, y entrevistas semi-estructuradas cara a cara en profundidad con nueve profesores seleccionados como informantes clave. Para el análisis de los datos se toma el proceso analítico de Strauss y Corbin (2002), proceso que apunta hacia la generación inductiva de teoría a través de la comparación constante de los datos para formar categorías. En este estudio, el análisis de los datos comprende un proceso integral y cíclico que toma en cuenta los datos provenientes de todos los participantes y de todos los instrumentos de recolección. También se hace uso técnico del software Atlas.ti versión 6.0 para el almacenamiento y xivmanipulación sistemática de las entrevistas semi-estructuradas en profundidad. Entre los hallazgos se devela una complejidad enmarcada en el estudio de las concepciones de los profesores de este contexto sociocultural específico que resultan ser fluidas y en oportunidades simultáneamente contradictorias entre sí sobre la expansión, uso y enseñanza del inglés como idioma internacional. En tal sentido, los resultados reflejan poca conciencia crítica de los participantes sobre la hegemonía del inglés en el mundo y su percepción del idioma como un asunto necesario y beneficioso para la comunicación internacional, de allí que consideren su enseñanza y aprendizaje como necesarios en todos los contextos del mundo. Este estudio también expresa una concientización de los participantes en algunos aspectos específicos como su sentido de propiedad del idioma y su percepción como hablantes y docentes competentes del inglés en un contexto específico. Asimismo, revela algunos asuntos sociopolíticos enmarcados en la dicotomía 'nativo' - 'no nativo' del inglés fundamentado en el concepto del 'native speakerism'. Al mismo tiempo, muestra la concepción de los participantes sobre la enseñanza del inglés como una actividad apolítica y neutral aunque simultáneamente refleja su inclinación hacia la promoción del pensamiento crítico y reflexivo de los estudiantes a través de sus clases de inglés

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Shedding of shallow carbonate material toward the deep slopes and basin floors is clearly tied to the position of the carbonate bank tops relative to the photic zone. The onset of bank shedding in periplatform sediments can record either the flooding of the bank tops within the photic zone during a rise in sea level following a period of exposure, referred to in the literature as the "highstand shedding" scenario, or the reentry of the bank tops into the photic zone during a lowering of sea level following a period of drowning, referred to as the "lowstand shedding" scenario. Results from Leg 133 post-cruise research on the Pliocene sequences, drilled in six sites within different slope settings of the Queensland Plateau, seem to point out that the latter "lowstand shedding" scenario can be applied to this particular carbonate system. At the Queensland Plateau sites, the early Pliocene (5.2-3.5 Ma) and the earliest part of the late Pliocene (3.5-2.9 Ma) age sequences were characterized, especially in the ôdeepö Sites 811 and 817, by pelagic sediments (foraminifers and coccoliths) and by typically pelagic sedimentation rates not exceeding 20 mm/k.y. The earliest part of the late Pliocene age section was characterized by well-developed hardgrounds in the "shallow" Sites 812 and 814 and by normal pelagic sediments mixed with reworked phosphatized planktonic foraminifers in Site 813. Finally, the early part of the late Pliocene (2.9-2.4 Ma) section was characterized by high sedimentation rates, related to the shedding and admixture into the pelagic sediments of bank-derived materials. These bank-derived materials consist of either diagenetically unaltered fine aragonite with traces of dolomite in Site 818 or micritic calcite resulting from seafloor and/or shallow burial alteration in the deepest Sites 817 and 811. The highest sedimentation rates (163 mm/k.y.) were recorded in Site 818, drilled nearest the modern carbonate bank of Tregrosse Reef. The sedimentation rates decrease with increasing distance from Tregrosse Reef - 120 mm/k.y. in Site 817 and 47.5 mm/k.y. in Site 811. The initial appearance of fine aragonite in Site 818, corresponding to the transition from pelagic to periplatform sedimentation rates, has been dated at 2.9 Ma. This Pliocene sediment pattern on the Queensland Plateau is different from the pattern observed in sediments from two earlier ODP legs (i.e., Leg 101 in the Bahamas and in Leg 115 in the Maldives), where aragonite-rich sediments, characterized by high periplatform sedimentation rates, were observed in the lower Pliocene section (5.2-3.5 Ma), whereas the upper Pliocene (3.5-1.6 Ma) sediments are more pelagic in nature and are characterized by low sedimentation rates or major hiatuses. These Pliocene periplatform sequences in the Bahamas and in the Maldives and late Quaternary age periplatform sequences worldwide have pointed out that "highstand shedding" was the typical response of carbonate platforms to fluctuations in sea level, just opposite to a "lowstand shedding" response to sea-level fluctuations, typical of siliciclastic shelves. Assuming that the envelope of Haq et al.'s (1987) sea-level curve, showing a well-defined lowering of sea level between 3.5 and 2.9 Ma, can also be applied to the southwest Pacific Ocean, based on a high-resolution Pliocene d18O record from the Ontong Java Plateau recently published by Jansen et al. (1993, doi:10.2973/odp.proc.sr.130.028.1993), the Pliocene periplatform sequences on the Queensland Plateau would have recorded the reentry of the bank tops into the photic zone during a general lowering of sea level, following an interval characterized by high sea level, during which the shallow carbonate system on the Queensland Plateau was drowned. The early Pliocene age (5.2-3.5 Ma) sediments deposited on the Queensland Plateau, an established interval of eustatic sea-level highstand, are typically pelagic in character. In addition, relatively cold surface temperatures (estimated to have ranged from 18° to 20°C by Isern et al. [this volume]) might have also stressed the reefs during early Pliocene time and contributed to the drowning of the Queensland Plateau carbonate system during the late Miocene and early Pliocene. Differential and relatively high subsidence rates, inferred by variations in paleodepth of water (based upon benthic foraminifer assemblages; Katz and Miller, this volume) may also have influenced the drowning of the carbonate bank tops on the Queensland Plateau during the late Miocene and early Pliocene. The sediments of early late Pliocene age (2.9-2.4 Ma), a well-established interval of lowering of sea level, are clearly periplatform and cyclic in nature. High-frequency (~40 k.y.) aragonite cycles, well-developed between 2.9 and 2.45 Ma, correlate with the planktonic high-resolution Pliocene d18O record from the Ontong Java Plateau, a good sea-level proxy (Jansen et al., in press). Contrary to late Quaternary age aragonite cycles from the Bahamas, the Nicaragua Rise, the Maldives, and the Queensland Plateau, the late Pliocene aragonite cycles in Hole 818B display high levels of aragonite during glacial stages and, therefore, lowstands of sea level. In addition, sediments deposited during the earliest part of the late Pliocene (3.5-2.9 Ma), transition between the early Pliocene highstand and the late Pliocene lowering in sea level, have recorded the first evidence of a fall in sea level, by (1) the occurrence of synchronous submarine hardgrounds in the two shallowest sites (Sites 812 and 814), (2) the deposition of reworked material from the shallower part of the slope into the intermediate Sites 813 and 818, and (3) the deposition of pelagic sediments in the deepest Sites 817 and 817. In summary, contrary to previous findings, the Pliocene periplatform sediments on the Queensland Plateau appear to have recorded a regional shedding of shallow carbonate bank tops during an interval of sea-level lowering, a good illustration of the "carbonate lowstand shedding" scenario, occurring during the reentry of previously drowned carbonate bank tops into the photic zone related to a decrease in sea level.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta investigación, orientada bajo un enfoque cualitativo-interpretativo, describe las concepciones de un grupo de setenta y ocho profesores de inglés de los niveles de Educación Media General y Educación Universitaria de la ciudad de San Cristóbal, Venezuela, sobre la expansión, uso y enseñanza del inglés como idioma internacional. Desde una perspectiva crítica y posestructuralista en la que se concibe al inglés como un fenómeno social cargado de ideologías y valores culturales, este estudio pretende dar cuenta de las conexiones existentes entre el inglés y las fuerzas económicas, políticas, sociales e ideológicas que subyacen detrás de su expansión, uso y enseñanza en el mundo (Holliday, 2005, 2006, 2013; Pennycook, 1994; Phillipson, 1992, 2010), y la forma en como estas conexiones son percibidas por los profesores de inglés de un contexto específico de la periferia (Canagarajah, 1999a). Para la exploración en profundidad del fenómeno se adopta en este estudio el método fenomenológico (Colás, 1998b) como propuesta metodológica para descubrir la forma en que los profesores de inglés de este contexto específico comprenden el fenómeno y conciben la expansión, uso y enseñanza del inglés como idioma internacional. Como instrumentos para la recolección de los datos se utilizan dos cuestionarios con preguntas abiertas y cerradas administrados por internet a los participantes, y entrevistas semi-estructuradas cara a cara en profundidad con nueve profesores seleccionados como informantes clave. Para el análisis de los datos se toma el proceso analítico de Strauss y Corbin (2002), proceso que apunta hacia la generación inductiva de teoría a través de la comparación constante de los datos para formar categorías. En este estudio, el análisis de los datos comprende un proceso integral y cíclico que toma en cuenta los datos provenientes de todos los participantes y de todos los instrumentos de recolección. También se hace uso técnico del software Atlas.ti versión 6.0 para el almacenamiento y xivmanipulación sistemática de las entrevistas semi-estructuradas en profundidad. Entre los hallazgos se devela una complejidad enmarcada en el estudio de las concepciones de los profesores de este contexto sociocultural específico que resultan ser fluidas y en oportunidades simultáneamente contradictorias entre sí sobre la expansión, uso y enseñanza del inglés como idioma internacional. En tal sentido, los resultados reflejan poca conciencia crítica de los participantes sobre la hegemonía del inglés en el mundo y su percepción del idioma como un asunto necesario y beneficioso para la comunicación internacional, de allí que consideren su enseñanza y aprendizaje como necesarios en todos los contextos del mundo. Este estudio también expresa una concientización de los participantes en algunos aspectos específicos como su sentido de propiedad del idioma y su percepción como hablantes y docentes competentes del inglés en un contexto específico. Asimismo, revela algunos asuntos sociopolíticos enmarcados en la dicotomía 'nativo' - 'no nativo' del inglés fundamentado en el concepto del 'native speakerism'. Al mismo tiempo, muestra la concepción de los participantes sobre la enseñanza del inglés como una actividad apolítica y neutral aunque simultáneamente refleja su inclinación hacia la promoción del pensamiento crítico y reflexivo de los estudiantes a través de sus clases de inglés

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta investigación, orientada bajo un enfoque cualitativo-interpretativo, describe las concepciones de un grupo de setenta y ocho profesores de inglés de los niveles de Educación Media General y Educación Universitaria de la ciudad de San Cristóbal, Venezuela, sobre la expansión, uso y enseñanza del inglés como idioma internacional. Desde una perspectiva crítica y posestructuralista en la que se concibe al inglés como un fenómeno social cargado de ideologías y valores culturales, este estudio pretende dar cuenta de las conexiones existentes entre el inglés y las fuerzas económicas, políticas, sociales e ideológicas que subyacen detrás de su expansión, uso y enseñanza en el mundo (Holliday, 2005, 2006, 2013; Pennycook, 1994; Phillipson, 1992, 2010), y la forma en como estas conexiones son percibidas por los profesores de inglés de un contexto específico de la periferia (Canagarajah, 1999a). Para la exploración en profundidad del fenómeno se adopta en este estudio el método fenomenológico (Colás, 1998b) como propuesta metodológica para descubrir la forma en que los profesores de inglés de este contexto específico comprenden el fenómeno y conciben la expansión, uso y enseñanza del inglés como idioma internacional. Como instrumentos para la recolección de los datos se utilizan dos cuestionarios con preguntas abiertas y cerradas administrados por internet a los participantes, y entrevistas semi-estructuradas cara a cara en profundidad con nueve profesores seleccionados como informantes clave. Para el análisis de los datos se toma el proceso analítico de Strauss y Corbin (2002), proceso que apunta hacia la generación inductiva de teoría a través de la comparación constante de los datos para formar categorías. En este estudio, el análisis de los datos comprende un proceso integral y cíclico que toma en cuenta los datos provenientes de todos los participantes y de todos los instrumentos de recolección. También se hace uso técnico del software Atlas.ti versión 6.0 para el almacenamiento y xivmanipulación sistemática de las entrevistas semi-estructuradas en profundidad. Entre los hallazgos se devela una complejidad enmarcada en el estudio de las concepciones de los profesores de este contexto sociocultural específico que resultan ser fluidas y en oportunidades simultáneamente contradictorias entre sí sobre la expansión, uso y enseñanza del inglés como idioma internacional. En tal sentido, los resultados reflejan poca conciencia crítica de los participantes sobre la hegemonía del inglés en el mundo y su percepción del idioma como un asunto necesario y beneficioso para la comunicación internacional, de allí que consideren su enseñanza y aprendizaje como necesarios en todos los contextos del mundo. Este estudio también expresa una concientización de los participantes en algunos aspectos específicos como su sentido de propiedad del idioma y su percepción como hablantes y docentes competentes del inglés en un contexto específico. Asimismo, revela algunos asuntos sociopolíticos enmarcados en la dicotomía 'nativo' - 'no nativo' del inglés fundamentado en el concepto del 'native speakerism'. Al mismo tiempo, muestra la concepción de los participantes sobre la enseñanza del inglés como una actividad apolítica y neutral aunque simultáneamente refleja su inclinación hacia la promoción del pensamiento crítico y reflexivo de los estudiantes a través de sus clases de inglés

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this article we present a didactic experience developed by the GIE (Group of Educational Innovation) “Pensamiento Matemático” of the Polytechnics University of Madrid (UPM), in order to bring secondary students and university students closer to Mathematics. It deals with the development of a virtual board game called Mate-trivial. The mechanics of the game is to win points by going around the board which consists of four types of squares identified by colours: “Statistics and Probability”, “Calculus and Analysis”, “Algebra and Geometry” and “Arithmetic and Number Theory ”. When landing on a square, a question of its category is set out: a correct answer wins 200 points, if wrong it loses 100 points, and not answering causes no effect on the points, but all the same, two minutes out of the 20 minutes that each game lasts are lost. For the game to be over it is necessary, before those 20 minutes run out, to reach the central square and succeed in the final task: four chained questions, one of each type, which must be all answered correctly. It is possible to choose between two levels to play: Level 1, for pre-university students and Level 2 for university students. A prototype of the game is available at the website “Aula de Pensamiento Matemático” developed by the GIE: http://innovacioneducativa.upm.es/pensamientomatematico/. This activity lies within a set of didactic actions which the GIE is developing in the framework of the project “Collaborative Strategies between University and Secondary School Education for the teaching and learning of Mathematics: An Application to solve problems while playing”, a transversal project financed by the UPM.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En los diseños y desarrollos de ingeniería, antes de comenzar la construcción e implementación de los objetivos de un proyecto, es necesario realizar una serie de análisis previos y simulaciones que corroboren las expectativas de la hipótesis inicial, con el fin de obtener una referencia empírica que satisfaga las condiciones de trabajo o funcionamiento de los objetivos de dicho proyecto. A menudo, los resultados que satisfacen las características deseadas se obtienen mediante la iteración de métodos de ensayo y error. Generalmente, éstos métodos utilizan el mismo procedimiento de análisis con la variación de una serie de parámetros que permiten adaptar una tecnología a la finalidad deseada. Hoy en día se dispone de computadoras potentes, así como algoritmos de resolución matemática que permiten resolver de forma veloz y eficiente diferentes tipos de problemas de cálculo. Resulta interesante el desarrollo de aplicaciones que permiten la resolución de éstos problemas de forma rápida y precisa en el análisis y síntesis de soluciones de ingeniería, especialmente cuando se tratan expresiones similares con variaciones de constantes, dado que se pueden desarrollar instrucciones de resolución con la capacidad de inserción de parámetros que definan el problema. Además, mediante la implementación de un código de acuerdo a la base teórica de una tecnología, se puede lograr un código válido para el estudio de cualquier problema relacionado con dicha tecnología. El desarrollo del presente proyecto pretende implementar la primera fase del simulador de dispositivos ópticos Slabsim, en cual se puede representar la distribución de la energía de una onda electromagnética en frecuencias ópticas guiada a través de una una guía dieléctrica plana, también conocida como slab. Este simulador esta constituido por una interfaz gráfica generada con el entorno de desarrollo de interfaces gráficas de usuario Matlab GUIDE, propiedad de Mathworks©, de forma que su manejo resulte sencillo e intuitivo para la ejecución de simulaciones con un bajo conocimiento de la base teórica de este tipo de estructuras por parte del usuario. De este modo se logra que el ingeniero requiera menor intervalo de tiempo para encontrar una solución que satisfaga los requisitos de un proyecto relacionado con las guías dieléctricas planas, e incluso utilizarlo para una amplia diversidad de objetivos basados en esta tecnología. Uno de los principales objetivos de este proyecto es la resolución de la base teórica de las guías slab a partir de métodos numéricos computacionales, cuyos procedimientos son extrapolables a otros problemas matemáticos y ofrecen al autor una contundente base conceptual de los mismos. Por este motivo, las resoluciones de las ecuaciones diferenciales y características que constituyen los problemas de este tipo de estructuras se realizan por estos medios de cálculo en el núcleo de la aplicación, dado que en algunos casos, no existe la alternativa de uso de expresiones analíticas útiles. ABSTRACT. The first step in engineering design and development is an analysis and simulation process which will successfully corroborate the initial hypothesis that was made and find solutions for a particular. In this way, it is possible to obtain empirical evidence which suitably substantiate the purposes of the project. Commonly, the characteristics to reach a particular target are found through iterative trial and error methods. These kinds of methods are based on the same theoretical analysis but with a variation of some parameters, with the objective to adapt the results for a particular aim. At present, powerful computers and mathematical algorithms are available to solve different kinds of calculation problems in a fast and efficient way. Computing application development is useful as it gives a high level of accurate results for engineering analysis and synthesis in short periods of time. This is more notable in cases where the mathematical expressions on a theoretical base are similar but with small variations of constant values. This is due to the ease of adaptation of the computer programming code into a parameter request system that defines a particular solution on each execution. Additionally, it is possible to code an application suitable to simulate any issue related to the studied technology. The aim of the present project consists of the construction of the first stage of an optoelectronics simulator named Slabsim. Slabism is capable of representing the energetic distribution of a light wave guided in the volume of a slab waveguide. The mentioned simulator is made through the graphic user interface development environment Matlab GUIDE, property of Mathworks©. It is designed for an easy and intuitive management by the user to execute simulations with a low knowledge of the technology theoretical bases. With this software it is possible to achieve several aims related to the slab waveguides by the user in low interval of time. One of the main purposes of this project is the mathematical solving of theoretical bases of slab structures through computing numerical analysis. This is due to the capability of adapting its criterion to other mathematical issues and provides a strong knowledge of its process. Based on these advantages, numerical solving methods are used in the core of the simulator to obtain differential and characteristic equations results that become represented on it.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The classical Kramer sampling theorem provides a method for obtaining orthogonal sampling formulas. Besides, it has been the cornerstone for a significant mathematical literature on the topic of sampling theorems associated with differential and difference problems. In this work we provide, in an unified way, new and old generalizations of this result corresponding to various different settings; all these generalizations are illustrated with examples. All the different situations along the paper share a basic approach: the functions to be sampled are obtaining by duality in a separable Hilbert space H through an H -valued kernel K defined on an appropriate domain.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

An AH (affine hypersurface) structure is a pair comprising a projective equivalence class of torsion-free connections and a conformal structure satisfying a compatibility condition which is automatic in two dimensions. They generalize Weyl structures, and a pair of AH structures is induced on a co-oriented non-degenerate immersed hypersurface in flat affine space. The author has defined for AH structures Einstein equations, which specialize on the one hand to the usual Einstein Weyl equations and, on the other hand, to the equations for affine hyperspheres. Here these equations are solved for Riemannian signature AH structures on compact orientable surfaces, the deformation spaces of solutions are described, and some aspects of the geometry of these structures are related. Every such structure is either Einstein Weyl (in the sense defined for surfaces by Calderbank) or is determined by a pair comprising a conformal structure and a cubic holomorphic differential, and so by a convex flat real projective structure. In the latter case it can be identified with a solution of the Abelian vortex equations on an appropriate power of the canonical bundle. On the cone over a surface of genus at least two carrying an Einstein AH structure there are Monge-Amp`ere metrics of Lorentzian and Riemannian signature and a Riemannian Einstein K"ahler affine metric. A mean curvature zero spacelike immersed Lagrangian submanifold of a para-K"ahler four-manifold with constant para-holomorphic sectional curvature inherits an Einstein AH structure, and this is used to deduce some restrictions on such immersions.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente investigación se inicia planteando el objetivo de identificar los parámetros geométricos que son exclusivos del proceso de generación de la Forma y relacionarlos con los invariantes relacionados con la Fabricación digital aplicada a la Arquitectura. Con ello se pretende recuperar la geometría como herramienta principal del proceso de Proyecto ampliando su ámbito de actuación al encontrar una relación con los procesos de fabricación digital. El primer capítulo describe los antecedentes y contexto histórico centrándose especialmente en la influencia de la capacidad de definir geometrías complejas digitalmente mediante la aplicación de algoritmos. En los primeros ejemplos la aproximación del Arquitecto a proyectos con geometrías complejas no euclídeas aún se emplea sin precisión en la comunicación de la geometría ideada para su puesta en obra. Las técnicas constructivas obligan a asumir una tolerancia de desviación entre proyecto y obra y la previsión del comportamiento de esa geometría no permite asegurar su comportamiento final. No será hasta la introducción de herramientas CAD en el proceso de ideación arquitectónica cuando el Arquitecto se capacite para generar geometrías no representables de forma analógica. Sin embargo, la imposibilidad de trasladar la geometría proyectada a la praxis constructiva impedirá la plasmación de un proceso completo, salvo en las contadas ocasiones que se recogen en este texto. “El análisis cronológico de las referencias establece como aspecto esencial para la construcción de geometrías complejas la capacidad primero para definir y comunicar de forma precisa e inequívoca la geometría y después la capacidad de analizar el desempeño prestacional de dicha propuesta geométrica”. La presente investigación se inicia planteando el objetivo de identificar los parámetros geométricos que son exclusivos del proceso de generación de la Forma y relacionarlos con los invariantes relacionados con la Fabricación digital aplicada a la Arquitectura. Con ello se pretende recuperar la geometría como herramienta principal del proceso de Proyecto ampliando su ámbito de actuación al encontrar una relación con los procesos de fabricación digital. El primer capítulo describe los antecedentes y contexto histórico centrándose especialmente en la influencia de la capacidad de definir geometrías complejas digitalmente mediante la aplicación de algoritmos. En los primeros ejemplos la aproximación del Arquitecto a proyectos con geometrías complejas no euclídeas aún se emplea sin precisión en la comunicación de la geometría ideada para su puesta en obra. Las técnicas constructivas obligan a asumir una tolerancia de desviación entre proyecto y obra y la previsión del comportamiento de esa geometría no permite asegurar su comportamiento final. No será hasta la introducción de herramientas CAD en el proceso de ideación arquitectónica cuando el Arquitecto se capacite para generar geometrías no representables de forma analógica. Sin embargo, la imposibilidad de trasladar la geometría proyectada a la praxis constructiva impedirá la plasmación de un proceso completo, salvo en las contadas ocasiones que se recogen en este texto. “El análisis cronológico de las referencias establece como aspecto esencial para la construcción de geometrías complejas la capacidad primero para definir y comunicar de forma precisa e inequívoca la geometría y después la capacidad de analizar el desempeño prestacional de dicha propuesta geométrica”. Establecida la primera conclusión, el capítulo de contexto histórico continúa enfocándose sobre la aplicación de las técnicas digitales en el Proceso de proyecto primero, y en la puesta en obra después. Los casos de estudio identifican claramente como un punto de inflexión para la generación de formas complejas mediante un software CAD el Museo Guggenheim de Bilbao en 1992. El motivo esencial para elegir este proyecto como el primer proyecto digital es el uso de la herramienta de definición digital de la geometría para su reproducción inequívoca en obra. “La revolución digital ha aportado al Arquitecto la posibilidad de abandonar las tipologías arquitectónicas basados en restricciones geométricas-constructivas. La aplicación de técnicas de fabricación digital ha permitido la capacidad de diseñar con independencia del sistema constructivo y libertad formal. En este nuevo contexto las prestaciones suponen los nuevos límites conceptuales, ya que el acceso y disposición de la información del comportamiento de las alternativas que cada geometría conlleva demanda del Arquitecto la jerarquización de los objetivos y la formulación en un conjunto coherente de parámetros”. Los proyectos que emplean herramientas digitales para la resolución de las distintas etapas del proceso proyectual se verán incrementados de forma exponencial desde 1992 hasta nuestros días. A pesar del importante auge de las técnicas de diseño asistido por ordenador el principal desafío sigue siendo la vinculación de las geometrías y materiales propuestos con las capacidades de las técnicas de manufactura y puesta en obra. El proceso de diseño para fabricación en un entorno digital es una tecnología madura en otras industrias como la aeroespacial o la automovilística, incluso la de productos de consumo y decoración, sin embargo en el sector de Construcción es un sistema inmaduro e inconexo. Las particularidades de la industria de la construcción aún no han sido abordadas en su totalidad y las propuestas de investigación realizadas en este ámbito se han centrado hasta 2015 en partes del proceso y no en el proceso total. “El principal obstáculo para la estandarización e implantación globalizada de un proceso digital desde el origen de la forma hasta la construcción es la inexistencia de un protocolo integrado que integre las limitaciones de fabricación, económicas y de puesta en obra junto a la evaluación de desempeño prestacional durante la fases iniciales de proyecto”. En el capítulo número 3 se estudian los distintos procesos de generación de la forma. Se propone una definición específica para el ámbito de la investigación de “forma” en el entendemos que se incluye la envolvente exterior y el conjunto organizativo de espacios interiores conectados. Por lo tanto no es excluyente del interior. El objetivo de este estudio es analizar y clasificar los procesos para la generación digital de formas en los distintos proyectos seleccionados como emblemáticos de cada tipología. Se concluye que la aproximación a este proceso es muy variada y compleja, con aplicación segregada y descoordinada entre los distintos agentes que han intervenir. En un proceso de generación formal analógico los parámetros que intervienen son en parte conscientes y en parte inconscientes o aprendidos. El Arquitecto sólo tiene control sobre la parte consciente de los parámetros a integrar en el diseño, de acuerdo a sus conocimientos y capacidades será capaz de manejar un número limitado de parámetros. La parte aprendida permanece en el inconsciente y dirige el proceso analógico, aportando prejuicios estéticos incorporados durante el proceso formativo y propio del entorno cultural. “El empleo de herramientas digitales basadas en la evaluación prestacional durante el proceso de selección formal permite al Arquitecto conocer “en tiempo real” el desempeño en el conjunto de prestaciones evaluadoras del conjunto de alternativas geométricas a la propuesta previamente definida por la intuición arquitectónica. El proceso definido no persigue identificar una solución óptima sino asistir al Arquitecto en el proceso de generación de la forma mediante la evaluación continua de los vectores direccionales más idóneos que el procedimiento generativo plantea”. La definición de complejidad en generación y producción de formas en relación con el proceso de diseño digital paramétrico global o integrado, es esencial para establecer un protocolo que optimice su gestión. “Se propone como definición de complejidad como factor resultante de multiplicar el número de agentes intervinientes por el número de parámetros e interacciones comunes que intervienen en el proceso de generación de la forma, dividido por la complejidad de intercambio de información digital desde el origen hasta la fase de fabricación y construcción”. Una vez analizados los procesos de generación digital de Arquitectura se propone identificar los parámetros geométricos que definen el proceso de Diseño digital, entendiendose por Diseño el proceso que engloba desde la proposición de una forma inicial basada en la intuición del Arquitecto, la generación y evaluación de variantes y posterior definición digital para producción, tanto de un objeto, un sistema o de la totalidad del Proyecto. En la actualidad el proceso de Diseño es discontinuo y lineal organizandose los parámetros por disciplinas en las que está estructurada las atribuciones profesionales en la industria de la construcción. Para simplificar la identificación y listado se han agrupado siguiendo estos grupos de conocimiento. Entendemos parametros invariables aquellos que son independientes de Tipologías arquitectónicas o que dependen del mismo proceso de generación de la Forma. “El listado de los parámetros que intervienen en un proceso de generación formal es una abstracción de una realidad compleja. La parametrización de las decisiones que intervienen en la selección de una forma determinada mediante “well defined problems” es imposible. El proceso que esta tesis describe entiende esta condición como un elemento que pone en valor el propio procedimiento generativo por la riqueza que la subjetividad que el equipo de diseño aporta”. La segunda parte esencial de esta investigación pretende extraer las restricciones propias del estado del arte de la fabricación digital para posteriormente incorporarlos en los procesos digitales de definición de la Forma arquitectónica. “La integración de las restricciones derivadas de las técnicas de fabricación y construcción digitales en el proceso de generación de formas desde el ámbito de la Arquitectura debe referirse a los condicionantes geométricos asociados a cada sistema constructivo, material y técnica de fabricación. La geometría es además el vínculo que permite asociar el conjunto de parámetros prestacionales seleccionados para un Proyecto con los sistemas de fabricación digital”. A estos condicionantes geométricos obtenidos del análisis de cada sistema de fabricación digital se les ha denominado “invariantes geométricos”. Bajo este término se engloban tanto límites dimensionales de fabricación, como materiales compatibles, tolerancias de manufactura e instalación y cualidades prestacionales asociadas. El objetivo de esta propuesta es emplear la geometría, herramienta fundamental y propia del Arquitecto, como nexo de unión entre el conjunto complejo y heterogéneo de parámetros previamente listados y analizados. Para ello se han simplificado en tablas específicas para cada parámetro prestacional los condicionantes geométricos que se derivan de los Sistemas de fabricación digital compatibles (ver apéndice 1). El estudio y evaluación de las capacidades y objetivos de las distintas plataformas de software disponibles y de las experiencias profesionales evaluadas en los proyectos presentados, permiten concluir que la propuesta de plataforma digital de diseño integral multi-paramétrico de formas arquitectónicas requiere de un protocolo de interoperatibilidad específico aún no universalmente establecido. Actualmente el enfoque de la estrategia para normalizar y universalizar el contexto normativo para regular la interoperatibilidad se centra en figura del gestor denominado “BIM manager”. Las atribuciones y roles de esta figura se enfocan a la gestión del continente y no del contenido (Definición de los formatos de intercambio, niveles de desarrollo (LOD) de los componentes o conjuntos constructivos, detección de interferencias y documentación del propio modelo). Siendo este ámbito un desarrollo necesario para la propuesta de universalización del sistema de diseño para fabricación digital integrado, la presente investigación aporta un organigrama y protocolo asociado. El protocolo: 1. Establece la responsabilidad de identificar y definir la Información que debe determinar el proceso de generación y desarrollo de la forma arquitectónica. 2. Define la forma digital apropiada para generar la geometría del Proyecto, incluyendo la precisión necesaria para cada componente y el nivel de detalle necesario para su exportación inequívoca al proceso de fabricación. 3. Define el tempo de cada etapa de diseño identificando un nivel de detalle acorde. 4. Acopla este organigrama dentro de las estructuras nuevas que se proponen en un entorno BIM para asegurar que no se producen solapes o vacíos con las atribuciones que se identifican para el BIM Manager. “El Arquitecto debe dirigir el protocolo de generación coordinada con los sistemas de producción digital para conseguir que la integración completa. El protocolo debe asistir al proceso de generación de forma mediante la evaluación del desempeño prestacional de cada variante en tiempo real. La comunicación entre herramientas digitales es esencial para permitir una ágil transmisión de información. Es necesario establecer un protocolo adaptado a los objetivos y las necesidades operativas de cada proyecto ya que la estandarización de un protocolo único no es posible”. Una decisión estratégica a la hora de planificar una plataforma de diseño digital común es establecer si vamos a optar por un Modelo digital único o diversos Modelos digitales federados. Cada uno de los modos de trabajo tiene fortalezas y debilidades, no obstante en el ámbito de investigación se ha concluido que un proceso integrado de Diseño que incorpore la evaluación prestacional y conceptual definida en el Capítulo 3, requiere necesariamente de varios modelos de software distintos que han de relacionarse entre sí mediante un protocolo de comunicación automatizado. Una plataforma basada en un modelo federado consiste en establecer un protocolo de comunicación entre los programas informáticos empleados por cada disciplina. En este modelo de operación cada equipo de diseño debe establecer las bases de comunicación en función del número y tipo de programas y procesos digitales a emplear. En esta investigación se propone un protocolo basado en los estándares de intercambio de información que estructura cualquier proceso de generación de forma paramétrico “La investigación establece el empleo de algoritmos evolutivos como el sistema actual óptimo para desarrollar un proceso de generación de formas basadas en la integración y coordinación de invariantes geométricos derivados de un conjunto de objetivos prestacionales y constructivos. No obstante, para la aplicación en el caso práctico realizado se ha podido verificar que la evaluación del desempeño aún no puede realizarse en una única herramienta y por lo tanto el proceso de selección de las variantes genéticas óptimas ha de ejecutarse de forma manual y acumulativa. El proceso debe realizarse de manera federada para la selección evolutiva de los invariantes geométricos dimensionales”. La evaluación del protocolo de integración y los condicionantes geométricos obtenidos como parámetros geométricos que controlan las posibles formas compatibles se realiza mediante su aplicación en un caso práctico. El ejercicio simula la colaboración multidisciplinar con modelos federados de plataformas distintas. La elección del tamaño y complejidad constructiva del proyecto se ha modulado para poder alcanzar un desarrollo completo de cada uno de los parámetros prestacionales seleccionados. Continuando con el mismo objetivo propuesto para los parámetros prestacionales, la tipología constructiva-estructural seleccionada para el ejercicio permite la aplicación la totalidad de invariantes geométricos asociados. El objetivo de este caso práctico es evaluar la capacidad alterar la forma inicialmente propuesta mediante la evaluación del desempeño prestacional de conjunto de variantes geométricas generadas a partir de un parámetro dimensional determinado. Para que este proceso tenga sentido, cada una de las variantes debe ser previamente validada conforme a las limitaciones geométricas propias de cada sistema de fabricación y montaje previstos. El interés de las conclusiones obtenidas es la identificación de una variante geométrica distante a la solución simétrica inicialmente como la solución óptima para el conjunto de parámetros seleccionados. Al tiempo se ha comprobado como la participación de un conjunto de parámetros multi-disciplinares que representan la realidad compleja de los objetivos arquitectónicos favorecen la aparición de variaciones genéticas con prestaciones mejoradas a la intuición inicial. “La herencias tipológicas suponen un límite para la imaginación de variantes formales al proceso de ideación arquitectónica. El ejercicio realizado demuestra que incluso en casos donde aparentemente la solución óptima aparenta ser obvia una variante aleatoria puede mejorar su desempeño global. La posibilidad de conocer las condiciones geométricas de las técnicas de fabricación digital compatibles con el conjunto de parámetros seleccionados por el Arquitecto para dirigir el proceso asegura que los resultados del algoritmo evolutivo empleado sean constructivamente viables. La mejora de imaginación humana con la aportación de geometrías realmente construibles supone el objetivo último de esta tesis”. ABSTRACT Architectural form generation process is shifting from analogical to digital. Digital technology has changed the way we design empowering Architects and Engineers to precisely define any complex geometry envisioned. At the same time, the construction industry, following aeronautical and automotive industries, is implementing digital manufacturing techniques to improve efficiency and quality. Consequently construction complexity will no longer be related to geometry complexity and it is associated to coordination with digital manufacturing capacities. Unfortunately it is agreed that non-standard geometries, even when proposed with performance optimization criteria, are only suitable for projects with non-restricted budgets. Furthemore, the lack of coordinated exportation protocol and geometry management between design and construction is avoiding the globalization of emergence process in built projects Present research first objective is to identify exclusive form-generation parameters related to digital manufacturing geometrical restraints. The intention was to use geometry as the form-generation tool and integrate the digital manufacturing capacities at first stages of the project. The first chapter of this text describes the investigation historical context focusing on the influence between accurate geometry definition at non-standard forms and its construction. At first examples of non-Euclidean geometries built the communication between design and construction were based on analogical partial and imprecise documentation. Deficient communication leads to geometry adaptation on site leaving the final form uncontrolled by the Architect. Computer Aided Design enable Architects to define univocally complex geometries that previously where impossible to communicate. “The univocally definition of the Form, and communication between design and construction is essential for complex geometry Projects”. The second chapter is focused on digital technologies application in form finding process and site construction. The case studies selected identifies a clear inflexion node at 1992 with the Guggenheim Museum in Bilbao. The singularity of this project was the use of Aeronautics software to define digitally the external envelope complex geometry to enable the contractor to build it. “The digital revolution has given the Architect the capacity to design buildings beyond the architectural archetypes driven by geometric-constructive limitations. The application of digital manufacturing techniques has enabled a free-form construction without geometrical limitations. In this new context performance shall be the responsible to set new conceptual boundaries, since the behavior of each possible geometry can be compare and analyze beforehand. The role of the Architect is to prioritize the performance and architectural objectives of each project in a complete and coherent set of parameters”. Projects using digital tools for solving various stages of the design process were increased exponentially since 1992 until today. Despite the significant rise of the techniques of computer-aided design the main challenge remains linking geometries and materials proposed at each design with the capabilities of digital manufacturing techniques. Design for manufacturing in a digital environment is a mature technology in other industries such as aerospace and automotive, including consumer products and decoration, but in the construction sector is an immature and disjointed system. The peculiarities of the construction industry have not yet been addressed in its entirety and research proposals made in this area until 2015 have focused in separate parts of the process and not the total process. “The main obstacle to global standardization and implementation of a complete digital process from the form-finding to construction site is the lack of an integrated protocol that integrates manufacturing, economic and commissioning limitations, together with the performance evaluation of each possible form”. The different form generation processes are studied at chapter number 3. At the introduction of this chapter there is a specific definition of "form" for the research field. Form is identified with the outer envelope geometry, including the organizational set of connected indoor spaces connected to it. Therefore it is not exclusive of the interior. The aim of this study is to analyze and classify the main digital form generation processes using different selected projects as emblematic of each type. The approach to this process is complex, with segregated and uncoordinated different actors have to intervene application. In an analogical form-generation process parameters involved are partly conscious and partly unconscious or learned. The architect has control only over limited part of the parameters to be integrated into the design, according to their knowledge and. There is also a learned aesthetical prejudice that leads the form generation process to a specific geometry leaving the performance and optimization criteria apart from the decision making process. “Using performance evaluation digital tools during form finding process provides real-time comparative information to the Architect enabling geometry selection based on its performance. The generative form generation process described at this document does not ambition to identify the optimum geometry for each set of parameters. The objective is to provide quick information at each generation of what direction is most favorable for the performance parameters selected”. Manufacturing complexity definition in relation to a global and integral process of digital design for manufacture is essential for establishing an efficient managing protocol. “The definition of complexity associated to design for production in Architecture is proposed as the factor between number of different agents involved in the process by the number of interactions required between them, divided by the percentage of the interchange of information that is standardized and proof of information loss”. Design in architecture is a multi-objective process by definition. Therefore, addressing generation process linked to a set of non-coherent parameters requires the selection of adequate generative algorithm and the interaction of the architect. During the second half of the twentieth century and early twenty-first century it have been developed various mathematical algorithms for multi-parametric digital design. Heuristic algorithms are the most adequate algorithms for architectural projects due to its nature. The advantage of such algorithms is the ability to efficiently handle large scale optimization cases where a large number of design objectives and variables are involved. These generative processes do not pursue the optimum solution, in fact it will be impossible to proof with such algorithm. This is not a problem in architectural design where the final goal is to guide the form finding process towards a better performance within the initial direction provided by the architect. This research has focused on genetic algorithms due to its capacity to generate geometric alternatives in multiple directions and evaluate the fitness against a set of parameters specified in a single process. "Any protocol seeks to achieve standardization. The design to manufacturing protocol aims to provide a coordinated and coherent form generation process between a set of design parameters and the geometrical requirements of manufacturing technique. The protocol also provides an information exchange environment where there is a communication path and the level of information is ensured. The research is focused on the process because it is considered that each project will have its own singularities and parameters but the process will stay the same. Again the development of a specific tool is not a goal for the research, the intention is to provide an open source protocol that is valid for any set of tools”. Once the digital generation processes are being analized and classified, the next step is to identify the geometric parameters that define the digital design process. The definition of design process is including from the initial shape proposal based on the intuition of the architect to the generation, evaluation, selection and production of alternatives, both of an object , system or of the entire project . The current design process in Architecture is discontinuous and linear, dividing the process in disciplines in which the construction industry is structured. The proposal is to unify all relevant parameters in one process. The parameters are listed in groups of knowledge for internal classification but the matrix used for parameter relationship determination are combined. “A multi-parameter determination of the form-finding process is the integration all the measurable decisions laying behind Architect intuition. It is not possible to formulate and solve with an algorithm the design in Architecture. It is not the intention to do so with the proposal of this research. The process aims to integrate in one open protocol a selection of parameters by using geometry as common language. There is no optimum solution for any step of the process, the outcome is an evaluation of performance of all the form variations to assist the Architect for the selection of the preferable solution for the project”. The research follows with the geometrical restrictions of today Digital manufacturing techniques. Once determined it has been integrated in the form-finding process. “Digital manufacturing techniques are integrated in the form-finding process using geometry as common language. Geometric restraints define the boundary for performance parametric form-finding process. Geometrical limitations are classified by material and constructive system”. Choose between one digital model or several federate models is a strategic decision at planning a digital design for manufacturing protocol. Each one of the working models have strengths and weakens, nevertheless for the research purposes federated models are required to manage the different performance evaluation software platforms. A protocol based on federated models shall establish a communication process between software platforms and consultants. The manager shall integrate each discipline requirements defining the communication basis. The proposed protocol is based on standards on information exchange with singularities of the digital manufacturing industry. “The research concludes evolutionary algorithms as current best system to develop a generative form finding process based on the integration and coordination of a set of performance and constructive objectives. However, for application in professional practice and standardize it, the performance evaluation cannot be done in only one tool and therefore the selection of optimal genetic variants must be run in several iterations with a cumulative result. Consequently, the evaluation process within the geometrical restraints shall be carried out with federated models coordinated following the information exchange protocol”. The integration protocol and geometric constraints evaluation is done by applying in a practical case study. The exercise simulates multidisciplinary collaboration across software platforms with federated models. The choice of size and construction complexity of the project has been modulated to achieve the full development of each of the parameters selected. Continuing with the same objective proposed for the performance parameters the constructive and structural type selected for the exercise allows the application all geometric invariants associated to the set of parameters selected. The main goal of the case study is to proof the capacity of the manufacturing integrated form finding process to generate geometric alternatives to initial form with performance improved and following the restrictions determined by the compatible digital manufacturing technologies. The process is to be divided in consecutive analysis each one limited by the geometrical conditions and integrated in a overall evaluation. The interest of this process is the result of a non-intuitive form that performs better than a double symmetrical form. The second conclusion is that one parameter evaluation alone will not justify the exploration of complex geometry variations, but when there is a set of parameters with multidisciplinary approach then the less obvious solution emerge as the better performing form. “Architectural typologies impose limitation for Architects capacity to imagine formal variations. The case study and the research conclusions proof that even in situations where the intuitive solution apparently is the optimum solution, random variations can perform better when integrating all parameters evaluation. The capacity of foreseing the geometrical properties linking each design parameter with compatible manufacturing technologies ensure the result of the form-finding process to be constructively viable. Finally, the propose of a complete process where the geometry alternatives are generated beyond the Architect intuition and performance evaluated by a set of parameters previously selected and coordinated with the manufacturing requirements is the final objective of the Thesis”.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Membrane and secretory proteins fold in the endoplasmic reticulum (ER), and misfolded proteins may be retained and targeted for ER-associated protein degradation (ERAD). To elucidate the mechanism by which an integral membrane protein in the ER is degraded, we studied the fate of the cystic fibrosis transmembrane conductance regulator (CFTR) in the yeast Saccharomyces cerevisiae. Our data indicate that CFTR resides in the ER and is stabilized in strains defective for proteasome activity or deleted for the ubiquitin-conjugating enzymes Ubc6p and Ubc7p, thus demonstrating that CFTR is a bona fide ERAD substrate in yeast. We also found that heat shock protein 70 (Hsp70), although not required for the degradation of soluble lumenal ERAD substrates, is required to facilitate CFTR turnover. Conversely, calnexin and binding protein (BiP), which are required for the proteolysis of ER lumenal proteins in both yeast and mammals, are dispensable for the degradation of CFTR, suggesting unique mechanisms for the disposal of at least some soluble and integral membrane ERAD substrates in yeast.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Com o atual desenvolvimento industrial e tecnológico da sociedade, a presença de substâncias inflamáveis e/ou tóxicas aumentou significativamente em um grande número de atividades. A possível dispersão de gases perigosos em instalações de armazenamento ou em operações de transporte representam uma grande ameaça à saúde e ao meio ambiente. Portanto, a caracterização de uma nuvem inflamável e/ou tóxica é um ponto crítico na análise quantitativa de riscos. O objetivo principal desta tese foi fornecer novas perspectivas que pudessem auxiliar analistas de risco envolvidos na análise de dispersões em cenários complexos, por exemplo, cenários com barreiras ou semi-confinados. A revisão bibliográfica mostrou que, tradicionalmente, modelos empíricos e integrais são usados na análise de dispersão de substâncias tóxicas / inflamáveis, fornecendo estimativas rápidas e geralmente confiáveis ao descrever cenários simples (por exemplo, dispersão em ambientes sem obstruções sobre terreno plano). No entanto, recentemente, o uso de ferramentas de CFD para simular dispersões aumentou de forma significativa. Estas ferramentas permitem modelar cenários mais complexos, como os que ocorrem em espaços semi-confinados ou com a presença de barreiras físicas. Entre todas as ferramentas CFD disponíveis, consta na bibliografia que o software FLACS® tem bom desempenho na simulação destes cenários. Porém, como outras ferramentas similares, ainda precisa ser totalmente validado. Após a revisão bibliográfica sobre testes de campo já executados ao longo dos anos, alguns testes foram selecionados para realização de um exame preliminar de desempenho da ferramenta CFD utilizado neste estudo. Foram investigadas as possíveis fontes de incertezas em termos de capacidade de reprodutibilidade, de dependência de malha e análise de sensibilidade das variáveis de entrada e parâmetros de simulação. Os principais resultados desta fase foram moldados como princípios práticos a serem utilizados por analistas de risco ao realizar análise de dispersão com a presença de barreiras utilizando ferramentas CFD. Embora a revisão bibliográfica tenha mostrado alguns dados experimentais disponíveis na literatura, nenhuma das fontes encontradas incluem estudos detalhados sobre como realizar simulações de CFD precisas nem fornecem indicadores precisos de desempenho. Portanto, novos testes de campo foram realizados a fim de oferecer novos dados para estudos de validação mais abrangentes. Testes de campo de dispersão de nuvem de propano (com e sem a presença de barreiras obstruindo o fluxo) foram realizados no campo de treinamento da empresa Can Padró Segurança e Proteção (em Barcelona). Quatro testes foram realizados, consistindo em liberações de propano com vazões de até 0,5 kg/s, com duração de 40 segundos em uma área de descarga de 700 m2. Os testes de campo contribuíram para a reavaliação dos pontos críticos mapeados durante as primeiras fases deste estudo e forneceram dados experimentais para serem utilizados pela comunidade internacional no estudo de dispersão e validação de modelos. Simulações feitas utilizando-se a ferramenta CFD foram comparadas com os dados experimentais obtidos nos testes de campo. Em termos gerais, o simulador mostrou bom desempenho em relação às taxas de concentração da nuvem. O simulador reproduziu com sucesso a geometria complexa e seus efeitos sobre a dispersão da nuvem, mostrando claramente o efeito da barreira na distribuição das concentrações. No entanto, as simulações não foram capazes de representar toda a dinâmica da dispersão no que concerne aos efeitos da variação do vento, uma vez que as nuvens simuladas diluíram mais rapidamente do que nuvens experimentais.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The adaptation of the Spanish University to the European Higher Education Area (EEES in Spanish) demands the integration of new tools and skills that would make the teaching- learning process easier. This adaptation involves a change in the evaluation methods, which goes from a system where the student was evaluated with a final exam, to a new system where we include a continuous evaluation in which the final exam may represent at most 50% in the vast majority of the Universities. Devising a new and fair continuous evaluation system is not an easy task to do. That would mean a student’s’ learning process follow-up by the teachers, and as a consequence an additional workload on existing staff resources. Traditionally, the continuous evaluation is associated with the daily work of the student and a collection of the different marks partly or entirely based on the work they do during the academic year. Now, small groups of students and an attendance control are important aspects to take into account in order to get an adequate assessment of the students. However, most of the university degrees have groups with more than 70 students, and the attendance control is a complicated task to perform, mostly because it consumes significant amounts of staff time. Another problem found is that the attendance control would encourage not-interested students to be present at class, which might cause some troubles to their classmates. After a two year experience in the development of a continuous assessment in Statistics subjects in Social Science degrees, we think that individual and periodical tasks are the best way to assess results. These tasks or examinations must be done in classroom during regular lessons, so we need an efficient system to put together different and personal questions in order to prevent students from cheating. In this paper we provide an efficient and effective way to elaborate random examination papers by using Sweave, a tool that generates data, graphics and statistical calculus from the software R and shows results in PDF documents created by Latex. In this way, we will be able to design an exam template which could be compiled in order to generate as many PDF documents as it is required, and at the same time, solutions are provided to easily correct them.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

There are very few studies in Spain that treat underachievement rigorously, and those that do are typically related to gifted students. The present study examined the proportion of underachieving students using the Rasch measurement model. A sample of 643 first-year high school students (mean age = 12.09; SD = 0.47) from 8 schools in the province of Alicante (Spain) completed the Battery of Differential and General Skills (Badyg), and these students' General Points Average (GPAs) were recovered by teachers. Dichotomous and Partial credit Rasch models were performed. After adjusting the measurement instruments, the individual underachievement index provided a total sample of 181 underachieving students, or 28.14% of the total sample across the ability levels. This study confirms that the Rasch measurement model can accurately estimate the construct validity of both the intelligence test and the academic grades for the calculation of underachieving students. Furthermore, the present study constitutes a pioneer framework for the estimation of the prevalence of underachievement in Spain.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Connection establishment is a fundamental function for any connection-oriented network protocol and the efficiency of this function defines the flexibility and responsiveness of the protocol. This process initializes data transmission and performs transmission parameters negotiation, what makes it mandatory process and integral part of entire transmission. Thus, the duration of the connection establishment will affect the transmission process duration. This paper describes an implementation of a handshake algorithm, designed for connection with multiple peers, that is used in Reliable Multi-Destination Transport(RMDT) protocol, its optimization and testing.