982 resultados para Deriva litorânea


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La premisa inicial de la tesis examina cómo las secuelas de Segunda Guerra mundial motivaron una revisión general de la Ciencia y procuraron una nueva relación entre el hombre y su entorno. Matemáticas, Física y Biología gestaron las Ciencias de la Computación como disciplina de convergencia. En un momento de re-definición del objeto científico, una serie de arquitectos vislumbraron la oportunidad para transformar ciertas convenciones disciplinares. Mediante la incorporación de ontologías y procedimientos de cibernética y computación, trazaron un nuevo espacio arquitectónico. Legitimados por un despegue tecnológico incuestionable, desafían los límites de la profesión explorando campos abiertos a nuevos programas y acciones; amplían el dominio natural de la Arquitectura más allá del objeto(terminado) hacia el proceso(abierto). Se da inicio a la tesis describiendo los antecedentes que conducen a ese escenario de cambio. Se anotan aspectos de Teoría de Sistemas, Computación, Biología y de ciertos referentes de Arquitectura con relevancia para esa nuevo planteamiento. En esos antecedentes residen los argumentos para orientar la disciplina hacia el trabajo con procesos. La linea argumental central del texto aborda la obra de Christopher Alexander, Nicholas Negroponte y Cedric Price a través de una producción teórica y práctica transformada por la computación, y examina la contribución conceptual de cada autor. El análisis comparado de sus modelos se dispone mediante la disección de tres conceptos convergentes: Sistema, Código y Proceso. La discusión crítica se articula por una triangulación entre los autores, donde se identifican comparando por pares las coincidencias y controversias entre ellos. Sirve este procedimiento al propósito de tender un puente conceptual con el escenario arquitectónico actual estimando el impacto de sus propuestas. Se valora su contribución en la deriva del programa cerrado a la especulación , de lo formal a lo informal, de lo único a lo múltiple; del estudio de arquitectura al laboratorio de investigación. Para guiar ese recorrido por la significación de cada autor en el desarrollo digital de la disciplina, se incorporan a la escena dos predicados esenciales; expertos en computación que trabajaron de enlace entre los autores, matizando el significado de sus modelos. El trabajo de Gordon Pask y John Frazer constituye el vehículo de transmisión de los hallazgos de aquellos años, prolonga los caminos iniciados entonces, en la arquitectura de hoy y la que ya se está diseñando para mañana. ABSTRACT The initial premise of the thesis examines how the aftermath of second world war motivated a general revision of science and procure the basis of a new relation between mankind and its environment. Mathematics, Physics, and Biology gave birth to the Computer Sciences as a blend of different knowledge and procedures. In a time when the object of major sciences was being redefined, a few architects saw a promising opportunity for transforming the Architectural convention. By implementing the concepts, ontology and procedures of Cybernetics, Artificial Intelligence and Information Technology, they envisioned a new space for their discipline. In the verge of transgression three prescient architects proposed complete architectural systems through their writings and projects; New systems that challenged the profession exploring open fields through program and action, questioning the culture of conservatism; They shifted architectural endeavor from object to process. The thesis starts describing the scientific and architectural background that lead to that opportunity, annotating aspects of Systems Theory, Computing, Biology and previous Architecture form the process perspective. It then focuses on the Works of Christopher Alexander, Nicholas Negroponte and Cedric Price through their work, and examines each authors conceptual contribution. It proceeds to a critical analysis of their proposals on three key converging aspects: system, architectural encoding and process. Finally, the thesis provides a comparative discussion between the three authors, and unfolds the impact of their work in todays architectural scenario. Their contribution to shift from service to speculation, from formal to informal , from unitary to multiple; from orthodox architecture studio to open laboratories of praxis through research. In order to conclude that triangle of concepts, other contributions come into scene to provide relevant predicates and complete those models. A reference to Gordon Pask and John Frazer is then provided with particular interest in their role as link between those pioneers and todays perspective, pushing the boundaries of both what architecture was and what it could become.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Alison Margaret Gill y Peter Denham Smithson son, o eran, ambos murieron hace ya algunos años, dos arquitectos. Así dicho, esto suena a obviedad. Sin embargo no lo es, porque siempre han sido compactados en una unidad proyectual, bien bajo las siglas Alison y Peter Smithson, o bien, más puntualmente todavía, como los Smithson. Cuando Leibniz en 1696 le dice a la princesa electora Sofía que en algo tan puntual y homogéneo aparentemente como una gota de agua, vista al microscopio, resulta haber más de un millón de animales vivos, se puede empezar a vislumbrar el resultado de la Tesis. El resultado de este trabajo no se contempla un millón de partículas pero sí dos. La obra de Alison y Peter Smithson esta conformada desde su inicio probablemente por la particularidad de que en ella intervienen tanto Gill como Smithson, aunque cada uno sea en mayor o menor medida la o el responsable de un proyecto. Puesto al microscopio el proyecto del que se ocupa la Tesis, el concurso de 1953 para la ampliación de la Universidad de Sheffield, se estima que está compuesto de dos partes diferentes y que como Los Smithson o como una gota de agua, su unidad es una mera convención, una forma de designarlo y tratarlo, que falsea en algo su apreciación, aunque, como se verá, es lo que provoca el extraño efecto que como imagen ejerce. El Capítulo I descubre la duplicidad. Reyner Banham fijó en 1955, en el artículo The New Brutalism, el modo de encarar el proyecto de Sheffield cuando proyectó sobre él lo más novedoso que en el campo de la pintura ocurría en ese momento, el Art Autre. Michel Tapié ve en el informalismo presente en las obras que él engloba como un <> rasgos que puede presentar a la luz de conceptos que extrae de Riemann, matemático del s. XIX, introductor de una nueva geometría. La Tesis remonta por tanto hasta Riemann, a la búsqueda del concepto del que penden tanto Tapié como Banham. El concepto es la variedad continua; un conjunto, cuyos elementos pueden recorrer la extensión de la variedad mediante una deformación continua, como si dijéramos, diluyéndose unos en otros sin cortes entre sí. Los ejemplos del informalismo serían, por tanto, los puntos de la variedad, formas inestables o detenciones aleatorias en este transitar continuo de un mismo objeto. La visión de cuerpos en cortes aleatorios a la evolución otorga a sus formas cualesquiera la condición de extrañeza o perturbación, produciendo un impacto en la mente que lo graba instintivamente en la materia de la memoria. Así, es la memorabilidad, dada precisamente por el impacto que supone ver cuerpos en estado evolutivo, sin una forma precisa, la propiedad que gobierna a los objetos que caen bajo el Art Autre, y es la memorabilidad el rasgo distintivo de Sheffield para Banham. Este sentido evolutivo que se puede asociar a los elementos de una variedad entra en consonancia con una variedad de estados en evolución en el marco de las especies orgánicas. No sólo como individuo sino también como especie. La coincidencia no sólo es formal, también es temporal entre el descubrimiento de Riemann de la variedad continua y el de Darwin de la evolución de las especies. Ve Darwin que algunos ejemplares presentan en su cuerpo conformaciones normales de especies diferentes, que puede entenderse como una anormalidad o defecto evolutivo, lo que él llama <>. Un ejemplar monstruoso no es capaz de abrir una escisión de la variedad y en este sentido rompe su cadena evolutiva. Es un elemento, por tanto extraño a la variedad. Lo peculiar que expone Darwin, es que la monstruosidad puede ser provocada artificialmente por motivos estéticos, como ocurre en determinados animales o plantas ornamentales. Bien, esto es exactamente lo que descubre la Tesis en el proyecto de Sheffield. La unión en un solo proyecto de dos conformaciones de naturaleza diferente. El Capítulo II indaga en la naturaleza dual de Sheffield. Y la descubre en la aplicación de dos principios que tienen múltiples derivas, pero interesante en una en particular, referida al espacio. Uno es el Principio de Posición. Bajo él se contempla la situación del concurso dada en su globalidad, en una visión totalizadora que permite buscar y destacar posiciones singulares y tener un control preciso del proyecto desde el inicio. Se dice que es la opción normal en arquitectura comprender el espacio en su conjunto y que el trazado de ejes y el reparto del espacio obedecen a este principio. Son así vistos la propuesta ganadora del equipo GMW y fundamentalmente el trazado de ejes en la obra de Le Corbusier. Una parte de Sheffield es un producto típico de este modo de proceder. Hay un segundo principio que es el Principio de Transición Continua. En los términos expuestos para la variedad de Riemann, sería como si en lugar de ver cuerpos en estados concretos, por deformados que pudieran ser, nos introdujéramos dentro de la propia variedad acoplándonos al curso de la evolución misma, en un acto de unión interior con la marcha de la evolución. Para ejercer esta acción se toma como punto inicial el extremo del edificio universitario existente, el Firth Court, y se lleva cabo un estiramiento continuo. En esto radica lo que la Tesis distingue como la ampliación, el cuerpo que se enrosca paulatinamente. Para exponer este concepto, la Tesis se apoya en un ejercicio llevado a cabo por Raymond Unwin en Hampstead, el close, o estiramiento lateral del borde de un viario para hacer surgir el espacio útil residencial. A partir del concepto de close, se deriva en la urbanística americana de principios del s. XX el concepto de cluster, que pasa a ser uno de los argumentos principales de la teoría de Alison y de Peter Smithson en los años 50. El Capítulo III plantea la dificultad de mantener la dualidad de Sheffield a primeros de los 50, sometido el proyecto de arquitectura a la unicidad que impone el criterio hegemónico de Rudolf Wittkower desde “Los Fundamentos de la Arquitectura en la Edad del Humanismo”. Como en el Capítulo I, la obligación que se traza la Tesis es remontar los orígenes de las cosas que se tratan, y en este caso, entrar en las fuentes del principio proporcional. Se descubren así los fundamentos de la proporción aritmética y geométrica en el seno del pitagorismo, sus problemas y su evolución. La postura de los dos arquitectos frente a Wittkower es de admiración, pero también de libertad. Esta libertad suya es la que defiende la Tesis. Cotejando lo que da de sí la arquitectura basada en los principios proporcionales con otra arquitectura estancada en el paso del Renacimiento al Barroco como es la arquitectura perspectiva y proyectiva, la arquitectura oblicua, recuperada a la sazón por medio de la intervención en la Tesis de Panofsky, se dirimen aspectos colaterales pero fundamentales de una renovación de los planteamientos: hay planteamientos que se dicen esencialistas y objetivos y otros funcionales y que derivan en subjetivos y relacionales. Sobre estas dos marcos de categorías el propósito que persigue la Tesis es dar cuenta de los dos principios que rigen lo visto en el Capítulo II, el Principio de Posición y el Principio de Transición Continua, responsables ambos, al 50%, de la monstruosidad detectada en Sheffield, que no es negativa, sino, como decía Darwin, la combinación en un solo cuerpo de conformaciones normales en animales de especies diferentes, incluso con fines estéticos. En Sheffield existe, y esta dibujada, la figura de una cabeza escultural con un doble rostro. Todo el trabajo de la Tesis se encamina, en definitiva, a explicar, con toda la claridad y extensión que me ha sido posible, en qué consiste ese doble rostro. ABSTRACT Peter and Alison Smithson’s work is, is from its start, very influenced by both Alison Margaret Gill and Peter Denham Smithson. The matter of study of this Thesis, the 1953 competition for the expansion of the University of Sheffield, estimated after its exam, which is composed by two different parts, which, together produce a strange effect as an image. Reyner Banham in 1955 described the image in his article “The New Brutalism” as the key argument (most iconic) for the Sheffield’s project. The way his image powerfully influences sensitivity, by perturbation, makes this a singular and memorable image. This feature, only present in Sheffield, over any other building of the time, even from the same architects, allow Banham to associate the project to Art Autre, thought by Michel Tapié as a new artistic movement, to which Sheffield will belong, in the architecture part. Tapié sees in the informalism of works considered Art Autre some aspects that can bring concepts he extracts from Riemann, XIX Century mathematician, father of the new geometry. This Thesis discovers Riemann’s concept of continuous variety, a set whose elements are able to go through variety by a continuous deformation, diluting themselves without touching each other. Examples of informalism would be, points of that variety, unstable forms or random detentions in the continuous transit of the same object. Therefore, the condition of memorability comes precisely from the impact that seeing bodies in state of evolution creates. That evolutive sense that can be associated to elements of a variety, comes together with a variety of states of evolution in the world of organic species. Not only as an individual, but as well as a species. Coincidence between Riemann and Darwin’s discoveries is not only formal, but as well temporary. Darwin observes that some individuals of concrete species present on their bodies some features, typical of other species, which may be interpreted as evolutive failure. But the most peculiar part of what Darwin exposes is that monstrosity can indeed be artificially made for aesthetical purposes, like it happens in certain animals and plants. Well, this is what the Thesis discovers in Sheffield’s project. The union in a single project of two different nature forms, of which none on the parts is a deformation of the other, but they are both irreducible. Once both parts are collated, a new system which adapts well is discovered. It is a system created by Leibniz in the XVII Century, created to distinguish to principles that clear the difference between the equation methods and differential calculus. This principles are the Principle of Position and the Principle of Continuity. This two principles, translated to the spatial analysis field are key for the two parts of the project. On the one hand, the part developing in a lineal axis belongs to the Principle of Position. This means that that there is a global vision of space after which it is decided which operation to follow, which in this case consists of establishing an axis between two singular positions of the university area. The part which is being deformed while it goes is studied as a continuous action of stretching an existing building, the Firth Court, in which there is no previous spatial analysis. The only way to understand and to explain this action is by the Principle of Continuity. So, all in all, the Thesis changes the view of Sheffield from an Art Autre work to a “monstrosity”, without the negative meaning of it, just as a combination of two different nature formations, which, at the same time, justifies its power as iconic image. Finally, I would like to point out that in the Sheffield’s project there is (drawn and also physically) a sculptural head which has the feature of representing both, a man and a woman’s face. All the work of this Thesis leads to explaining the double nature of the project, taking this double expression head as inspiration.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El uso de aritmética de punto fijo es una opción de diseño muy extendida en sistemas con fuertes restricciones de área, consumo o rendimiento. Para producir implementaciones donde los costes se minimicen sin impactar negativamente en la precisión de los resultados debemos llevar a cabo una asignación cuidadosa de anchuras de palabra. Encontrar la combinación óptima de anchuras de palabra en coma fija para un sistema dado es un problema combinatorio NP-hard al que los diseñadores dedican entre el 25 y el 50 % del ciclo de diseño. Las plataformas hardware reconfigurables, como son las FPGAs, también se benefician de las ventajas que ofrece la aritmética de coma fija, ya que éstas compensan las frecuencias de reloj más bajas y el uso más ineficiente del hardware que hacen estas plataformas respecto a los ASICs. A medida que las FPGAs se popularizan para su uso en computación científica los diseños aumentan de tamaño y complejidad hasta llegar al punto en que no pueden ser manejados eficientemente por las técnicas actuales de modelado de señal y ruido de cuantificación y de optimización de anchura de palabra. En esta Tesis Doctoral exploramos distintos aspectos del problema de la cuantificación y presentamos nuevas metodologías para cada uno de ellos: Las técnicas basadas en extensiones de intervalos han permitido obtener modelos de propagación de señal y ruido de cuantificación muy precisos en sistemas con operaciones no lineales. Nosotros llevamos esta aproximación un paso más allá introduciendo elementos de Multi-Element Generalized Polynomial Chaos (ME-gPC) y combinándolos con una técnica moderna basada en Modified Affine Arithmetic (MAA) estadístico para así modelar sistemas que contienen estructuras de control de flujo. Nuestra metodología genera los distintos caminos de ejecución automáticamente, determina las regiones del dominio de entrada que ejercitarán cada uno de ellos y extrae los momentos estadísticos del sistema a partir de dichas soluciones parciales. Utilizamos esta técnica para estimar tanto el rango dinámico como el ruido de redondeo en sistemas con las ya mencionadas estructuras de control de flujo y mostramos la precisión de nuestra aproximación, que en determinados casos de uso con operadores no lineales llega a tener tan solo una desviación del 0.04% con respecto a los valores de referencia obtenidos mediante simulación. Un inconveniente conocido de las técnicas basadas en extensiones de intervalos es la explosión combinacional de términos a medida que el tamaño de los sistemas a estudiar crece, lo cual conlleva problemas de escalabilidad. Para afrontar este problema presen tamos una técnica de inyección de ruidos agrupados que hace grupos con las señales del sistema, introduce las fuentes de ruido para cada uno de los grupos por separado y finalmente combina los resultados de cada uno de ellos. De esta forma, el número de fuentes de ruido queda controlado en cada momento y, debido a ello, la explosión combinatoria se minimiza. También presentamos un algoritmo de particionado multi-vía destinado a minimizar la desviación de los resultados a causa de la pérdida de correlación entre términos de ruido con el objetivo de mantener los resultados tan precisos como sea posible. La presente Tesis Doctoral también aborda el desarrollo de metodologías de optimización de anchura de palabra basadas en simulaciones de Monte-Cario que se ejecuten en tiempos razonables. Para ello presentamos dos nuevas técnicas que exploran la reducción del tiempo de ejecución desde distintos ángulos: En primer lugar, el método interpolativo aplica un interpolador sencillo pero preciso para estimar la sensibilidad de cada señal, y que es usado después durante la etapa de optimización. En segundo lugar, el método incremental gira en torno al hecho de que, aunque es estrictamente necesario mantener un intervalo de confianza dado para los resultados finales de nuestra búsqueda, podemos emplear niveles de confianza más relajados, lo cual deriva en un menor número de pruebas por simulación, en las etapas iniciales de la búsqueda, cuando todavía estamos lejos de las soluciones optimizadas. Mediante estas dos aproximaciones demostramos que podemos acelerar el tiempo de ejecución de los algoritmos clásicos de búsqueda voraz en factores de hasta x240 para problemas de tamaño pequeño/mediano. Finalmente, este libro presenta HOPLITE, una infraestructura de cuantificación automatizada, flexible y modular que incluye la implementación de las técnicas anteriores y se proporciona de forma pública. Su objetivo es ofrecer a desabolladores e investigadores un entorno común para prototipar y verificar nuevas metodologías de cuantificación de forma sencilla. Describimos el flujo de trabajo, justificamos las decisiones de diseño tomadas, explicamos su API pública y hacemos una demostración paso a paso de su funcionamiento. Además mostramos, a través de un ejemplo sencillo, la forma en que conectar nuevas extensiones a la herramienta con las interfaces ya existentes para poder así expandir y mejorar las capacidades de HOPLITE. ABSTRACT Using fixed-point arithmetic is one of the most common design choices for systems where area, power or throughput are heavily constrained. In order to produce implementations where the cost is minimized without negatively impacting the accuracy of the results, a careful assignment of word-lengths is required. The problem of finding the optimal combination of fixed-point word-lengths for a given system is a combinatorial NP-hard problem to which developers devote between 25 and 50% of the design-cycle time. Reconfigurable hardware platforms such as FPGAs also benefit of the advantages of fixed-point arithmetic, as it compensates for the slower clock frequencies and less efficient area utilization of the hardware platform with respect to ASICs. As FPGAs become commonly used for scientific computation, designs constantly grow larger and more complex, up to the point where they cannot be handled efficiently by current signal and quantization noise modelling and word-length optimization methodologies. In this Ph.D. Thesis we explore different aspects of the quantization problem and we present new methodologies for each of them: The techniques based on extensions of intervals have allowed to obtain accurate models of the signal and quantization noise propagation in systems with non-linear operations. We take this approach a step further by introducing elements of MultiElement Generalized Polynomial Chaos (ME-gPC) and combining them with an stateof- the-art Statistical Modified Affine Arithmetic (MAA) based methodology in order to model systems that contain control-flow structures. Our methodology produces the different execution paths automatically, determines the regions of the input domain that will exercise them, and extracts the system statistical moments from the partial results. We use this technique to estimate both the dynamic range and the round-off noise in systems with the aforementioned control-flow structures. We show the good accuracy of our approach, which in some case studies with non-linear operators shows a 0.04 % deviation respect to the simulation-based reference values. A known drawback of the techniques based on extensions of intervals is the combinatorial explosion of terms as the size of the targeted systems grows, which leads to scalability problems. To address this issue we present a clustered noise injection technique that groups the signals in the system, introduces the noise terms in each group independently and then combines the results at the end. In this way, the number of noise sources in the system at a given time is controlled and, because of this, the combinato rial explosion is minimized. We also present a multi-way partitioning algorithm aimed at minimizing the deviation of the results due to the loss of correlation between noise terms, in order to keep the results as accurate as possible. This Ph.D. Thesis also covers the development of methodologies for word-length optimization based on Monte-Carlo simulations in reasonable times. We do so by presenting two novel techniques that explore the reduction of the execution times approaching the problem in two different ways: First, the interpolative method applies a simple but precise interpolator to estimate the sensitivity of each signal, which is later used to guide the optimization effort. Second, the incremental method revolves on the fact that, although we strictly need to guarantee a certain confidence level in the simulations for the final results of the optimization process, we can do it with more relaxed levels, which in turn implies using a considerably smaller amount of samples, in the initial stages of the process, when we are still far from the optimized solution. Through these two approaches we demonstrate that the execution time of classical greedy techniques can be accelerated by factors of up to ×240 for small/medium sized problems. Finally, this book introduces HOPLITE, an automated, flexible and modular framework for quantization that includes the implementation of the previous techniques and is provided for public access. The aim is to offer a common ground for developers and researches for prototyping and verifying new techniques for system modelling and word-length optimization easily. We describe its work flow, justifying the taken design decisions, explain its public API and we do a step-by-step demonstration of its execution. We also show, through an example, the way new extensions to the flow should be connected to the existing interfaces in order to expand and improve the capabilities of HOPLITE.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La observación del espacio social de las periferias construidas durante las últimas décadas en las ciudades occidentales muestra importantes diferencias entre éstos ámbitos y la ciudad tradicional en cuanto a la segregación social del territorio. Frente a unos tejidos donde convivían, incluso en los mismos edificios, población de muy diferente condición, las periferias actuales muestran una gran diferenciación entre las clases de barrios. Esta constatación nos indica que el desarrollo de los sistemas urbanos postfordistas contiene un proceso de segregación social del territorio de una dimensión sin precedentes. La cuestión no es nueva, desde el siglo XIX es comúnmente aceptado que las transformaciones urbanas han ido de la mano, generalmente, de una reordenación espacial de la población, pero la escala de este proceso en las últimas décadas si es algo destacable. Para abordar esta cuestión se plantea en este artículo que el fenómeno descrito tiene que ver con la natural deriva de las ciudades de un sistema capitalista que se desarrolla sobre el territorio a través de un modelo inmobiliario que, para poder funcionar, necesita reproducir la estructura social existente mediante una oferta muy jerarquizada y ordenada que debe ser percibida en estos términos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho comprova que o atual instrumento EIA-RIMA - Estudo de Impacto Ambiental e seu respectivo Relatório de Impacto Ambiental, é insuficiente enquanto busca de sustentabilidade urbana no Litoral Norte do Estado de São Paulo, especificamente no município de São Sebastião. O método de analise dos EIA-RIMA sempre enfatizam os ganhos econômicos e atenuam os impactos negativos, apesar das fragilidades naturais, estruturais e restrições legais incidentes. A tese comprova que os instrumentos utilizados no âmbito do processo de licenciamento ambiental dos empreendimentos, como a ampliação do porto comercial de São Sebastião, estão pouco comprometidos com o real desenvolvimento sustentável da cidade e região. As especificidades geográficas, sobretudo as facilidades de interface do território terrestre com o marítimo, proporcionadas pelas características naturais do Canal de São Sebastião, sempre ofereceram condições privilegiadas para o abrigo de embarcações, característica decisiva na escolha do lugar como cidade portuária, vinculada aos mais importantes ciclos econômicos do país. Agora, em 2015, está prestes a entrar em um novo ciclo, principalmente com a ampliação do porto comercial, duplicação da rodovia dos Tamoios e da SP-055 e a exploração da camada pré-sal na Bacia de Santos. A região já apresenta todos os problemas de uma ocupação acelerada em um território ambientalmente frágil, localizado em estreita faixa litorânea, composta de um lado pela Serra do Mar e do outro pelo Oceano Atlântico. Se não houver um planejamento urbano e regional que considere as características e capacidade de suporte deste território, a zona costeira entrará em colapso. Saber dosar o uso de suas potencialidades sem esgotá-las será o desafio de nossa geração. Os Estudos de Impactos Ambientais precisam ser aperfeiçoados para que ações mitigadoras alcancem muito mais do que o mínimo, alinhadas a investimentos, tecnologias inovadoras, infraestruturas necessárias e obrigatórias que sejam pensadas de maneira conjunta e cumulativa nas diversas esferas do poder, com efetiva participação pública, caso contrário, o crescente interesse econômico e político tenderá à destruição irreversível do patrimônio histórico e natural deste território. O EIA está se transformando em um poderoso instrumento político de ordenamento territorial que acaba por definir critérios e parâmetros de uso e ocupação, desempenhando uma função que não lhe compete, além de aprofundar o desencontro entre uma vida urbana de qualidade e um ambiente equilibrado em nome do desenvolvimento econômico e a serviço dos interesses privados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las sentencias del TJUE de 2015 y 2016 plantean, de nuevo, el alcance del derecho a la igualdad y no discriminación por razón da nacionalidad en el acceso a las prestaciones sociales, en especial, a las de subsistencia. La actual interpretación restrictiva del TJUE deriva de la concepción ambigua en el derecho de la Unión Europea sobre el estatuto de "Ciudadanía de la Unión"; posición que, al respecto, parece asumir el Consejo Europeo de febrero de 2016.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A seleção fenotípica é o método de seleção tradicional utilizado nos estágios iniciais de seleção na maioria dos programas de melhoramento genético de cana-de-açúcar após o desenvolvimento de uma população segregante. A maioria das variedades comerciais utilizadas atualmente deriva deste método. Recentemente tem sido propostas estratégias de seleção baseada na avaliação de famílias em gerações precoces em diversos programas de melhoramento de cana-de-açúcar ao redor do mundo, como o objetivo de melhora a resposta à seleção, bem como reduzir o tempo e custo necessários para o desenvolvimento de novas variedades. No presente estudo foram avaliadas 110 famílias de cana-de-açúcar em um delineamento em blocos ao acaso com duas repetições, no ano agrícola de 2012/2013, na Estação Experimentas da empresa CanaVialis, localizada em Conchal, SP. As parcelas consistiram de um sulco de 50 m, contendo 96 plantas (\"seedlings\"). Os seguintes caracteres foram avaliados no estágio de cana planta: diâmetro do colmo (DIA), altura do colmo (ALT) número de colmos por touceira (NCP), número de colmos por touceira na parcela total (NCT); teor de sólidos solúveis (BRIX), teor de açúcar no laboratório (POL) toneladas de cana por hectare (TCH) e toneladas de açúcar por hectare (TPH). Os resultados indicaram que a população tem grande variabilidade genética entre médias de famílias bem como dentro de famílias. Foram detectadas correlações genotípicas positivas entre TCH e os outros caracteres, bem como entre TPH e os outros caracteres. Com base nestes resultados discute-se uma estratégia de seleção com base na seleção para TPH aplicada nas médias de famílias, seguido da seleção fenotípica para ALT, DIA e NCP dentro das famílias selecionadas, priorizando NCP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este trabajo se analiza la específica sociología del tiempo que los durkheimianos propusieron. Se parte de un estudio de las propuestas de Durkheim en Les Formes Elementaires de la Vie Religieuse, para completarlas tomando en consideración lo que, sobre el tema, ya habían propuesto anteriormente los seguidores de Durkheim y especialmente H. Hubert. El trabajo concluye analizando las insuficiencias y límites del paradigma durkheimiano tal como se muestran en la tradición que se deriva de él.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os conceitos e métodos provindos das teorias de integração morfológica e de genética quantitativa formam o arcabouço teórico para o estudo da evolução de estruturas complexas, compostas de múltiplos caracteres que interagem entre si. Nesse trabalho, utilizamos o crânio como modelo de estrutura complexa e estudamos sua diversificação nas espécies de sapo do grupo Rhinella granulosa. As perguntas do trabalho foram: (1) A organização da (co)variação é similar entre as espécies?; (2) A organização da (co)variação é modular nas espécies, conforme expectativas baseadas em desenvolvimento ou função?; (3) Fatores externos, como filogenia e clima, estruturam a similaridade no padrão de covariação entre as espécies?; (4) A diversificação da morfologia média do crânio se deu por deriva ou seleção natural?; (5) A divergência na morfologia média do crânio está associada à variação climática entre as espécies?; e finalmente (6) Restrições evolutivas atuaram na divergência entre as espécies? Os espécimes foram escaneados e validamos o uso de imagens 3D para a mensuração de 21 distâncias lineares. Os crânios das espécies foram representados como matrizes fenotípicas (P) de covariância e de correlação entre as distâncias. A similaridade entre as P das espécies é alta. As P de todas as espécies se conformam a um padrão modular compatível com interações funcionais entre ossos. As diferenças entre as P concentram-se no rostro e são associadas a diferenças no clima entre as espécies. Detectamos sinal de seleção natural nos nós mais basais da filogenia e variação local no crânio está associada à variação na sazonalidade da chuva entre as espécies. Restrições evolutivas atuaram na diversificação do crânio das espécies, defletindo as respostas evolutivas para tamanho. Concluímos que tanto seleção estabilizadora e direcional, conectadas à variação climática, quanto restrições evolutivas atuaram na diversificação do crânio das espécies

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El proyecto de investigación que se presenta a continuación se centra en el estudio de los partidos y los movimientos islamistas, sobre todo, desde el ámbito jurídico. Lo que se pretende es una desconstrucción del discurso islamista para la evaluación y el análisis del uso que realiza el islamismo de las fuentes textuales religiosas, así como de la manipulación que hace de las mismas. Para lograr este objetivo, hemos precisado utilizar las mismas fuentes que dichas agrupaciones manejan. Otro de los aspectos a destacar en nuestra investigación es la politización actual que se hace del Islam por parte del islamismo, siendo así parte de una ideología moderna y desconocida a lo largo de la historia islámica. Pensamos que en muchos casos, y sobre todo en relación al islamismo más radical, no existe una comprensión adecuada de la doctrina islámica, por ello cuestionamos que la base ideológica de dichas formaciones tengan un verdadero respaldo jurídico, así como tampoco encontramos una justificación ideológica que legitime sus posiciones y su propia existencia. Ya que las premisas de las que parten son religiosas, pensamos, que es el ámbito científico de las disciplinas religioso-jurídicas el que hay que utilizar para combatir a las formaciones violentas. Es aquí donde nuestra investigación cobra relevancia, debido a la falta de estudios que existen desde esta perspectiva. Nuestro objetivo es deslegitimar la autoridad de dichas agrupaciones, sobre todo de las más radicales, a través de su propio discurso religioso-legal. De aquí se deriva que nos hagamos varias preguntas, ¿existe en el islam un modelo de estado islámico o califal como es representado por los movimientos islamistas radicales?, ¿el corpus de la charía justifica las fetuas de dichos grupos? ¿Utilizan dichos grupos la metodología de la jurisprudencia para derivar normativa legal, y si es así, que precedentes y material usan del hadiz o el Corán? ¿Tienen en cuenta el factor espacio-tiempo en el que fueron reveladas las suras y aleyas coránicas a la hora de entender el texto de manera literal? ¿Por qué la costumbre ha acabado imponiéndose al texto religioso? Estos movimientos hacen mención constante de su existencia en relación a los textos sagrados, pero ¿es qué hacen una relectura diferente a la de otros grupos de su misma comunidad religiosa?...

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O shopping center ainda é, sem dúvida nenhuma, um local atraente para os clientes realizarem suas compras. O mix de lojas presentes neste modal varejista, responsável pela oferta de serviços como estacionamento, entretenimento, alimentação, além de uma gama interminável de todo tipo de mercadoria que se possa imaginar, é o responsável por atrair, todos os dias, milhares de clientes para seu interior. Não obstante todas essas facilidades, os lojistas de shopping centers estão enfrentando uma forte concorrência de outros modais varejistas como as vendas diretas (por meio de demonstradores), as compras eletrônicas; a venda automática (por meio das máquinas de venda) e os serviços de compras (varejo sem loja que atende a clientes específicos). Em função disso, este trabalho propôs-se a discutir como as lojas poderiam atrair uma maior atenção de seus clientes por intermédio do valor percebido por eles. Este valor, sob a perspectiva do benefício, deriva da avaliação global do cliente quanto às vantagens que ele ganha ao ponderar os benefícios e os sacrifícios percebidos quando adquire produtos. Tais sacrifícios podem ser de ordem não monetária (custos de transação, pesquisa, negociação, tempo incorrido na aquisição do produto etc.). Também se estudou o impacto deste valor na fidelização do cliente a certa loja. Após extensa consulta bibliográfica sobre os conceitos apresentados, adotou-se a metodologia do Discurso do Sujeito Coletivo (DSC) para se analisar os resultados obtidos na coleta dos dados por meio de entrevista com clientes fiéis de lojas situadas em shoppings. O DSC apoia-se na teoria da representação social, de Jodelet, segundo a qual grupos sociais específicos compartilham ideias e valores comuns em um dado momento. Ele busca, portanto, estabelecer um caminho sistemático para descobrir estas representações sociais destes grupos específicos no que tange aos temas propostos. Os resultados apresentados revelaram que o ambiente da loja e sua imagem influenciaram, muito positivamente, a percepção dos clientes como atributos importantes para se gerar valor percebido, enquanto o prestígio e o local onde a loja está situada dentro do shopping foram avaliados por eles como características medianamente influenciadoras neste sentido. Além disso, verificou-se que o valor percebido pelo cliente influencia, positivamente, em sua decisão de se tornar fiel a determinada loja. No final, foram lembradas ações de marketing que poderiam ser desenvolvidas pelos gestores de loja a fim de alavancarem o valor de loja percebido pelo cliente, na perspectiva dos benefícios, vital à sua fidelização.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sin lugar a dudas, la entronización de Mohamed VI conllevó la profundización del impulso reformista iniciado a finales de los años noventa de la década anterior. Sin embargo, dichas reformas no han supuesto una transformación profunda del régimen majzeniano, heredero de una ancestral tradición política que con base en la legitimidad religiosa, y centrado en la figura del soberano, ha demostrado una gran capacidad de supervivencia, configurándose como un régimen singular en la órbita árabo-islámica, en cuanto goza de una excepcional doble legitimidad: la religiosa por la condición del Príncipe de los Creyentes que ostenta el Rey, y la política, que deriva de la continuidad de la dinastía alauí, respaldada por los tributos del constitucionalismo occidental. Si observamos el proceso de democratización en Marruecos, percibimos una serie de mensajes y decisiones contrapuestos, y notamos que a menudo la reforma va unida a la represión. Para comprender qué significan los cambios que se han producido y su real alcance, se deben traspasar los paradigmas de transición que hacen hincapié nada más que en la validez de los procesos electorales, y los que establecen una correlación entre el grado de desarrollo económico, medido en PIB per cápita y las probabilidades de desarrollo de una democracia efectiva, ya que aunque exista tal vínculo, no resulta del todo determinante, como lo es la ausencia de una sociedad civil vibrante. De ahí que el principal objetivo de la presente tesis es destacar la importancia del rol que juega la cultura cívica en los procesos de transición y consolidación democrática, con la finalidad de avanzar en la articulación de una explicación del problema de la democratización de Marruecos, que supere los apriorismos de atribuir al islam una esencia o naturaleza autoritaria, sin tacharlo de anti-democrático. Es decir, sabiendo distinguir entre los principios éticos del islam, y la suma de formulaciones y modelos producidos por los musulmanes en el curso de su historia, los cuales, sí resultan poco democráticos o no tan afines al ideal democrático. En efecto, nuestro análisis de los obstáculos para la democratización de Marruecos ha revelado la consolidación de una cultura paternalista, de sumisión y acatamiento que ha entorpecido a lo largo de los siglos la conformación de una sociedad civil instruida y participativa, abierta al cambio y capaz de llevar a cabo una tarea tan gigantesca, tal es construir entre todos, un Estado marroquí unido, fuerte y democrático.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho, deriva-se uma política de escolha ótima baseada na análise de média-variância para o Erro de Rastreamento no cenário Multi-período - ERM -. Referindo-se ao ERM como a diferença entre o capital acumulado pela carteira escolhida e o acumulado pela carteira de um benchmark. Assim, foi aplicada a metodologia abordada por Li-Ng em [24] para a solução analítica, obtendo-se dessa maneira uma generalização do caso uniperíodo introduzido por Roll em [38]. Em seguida, selecionou-se um portfólio do mercado de ações brasileiro baseado no fator de orrelação, e adotou-se como benchmark o índice da bolsa de valores do estado de São Paulo IBOVESPA, além da taxa básica de juros SELIC como ativo de renda fixa. Dois casos foram abordados: carteira composta somente de ativos de risco, caso I, e carteira com um ativo sem risco indexado à SELIC - e ativos do caso I (caso II).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A comercialização de energia elétrica de fontes renováveis, ordinariamente, constitui-se uma atividade em que as operações são estruturadas sob condições de incerteza, por exemplo, em relação ao preço \"spot\" no mercado de curto prazo e a geração de energia dos empreendimentos. Deriva desse fato a busca dos agentes pela formulação de estratégias e utilização de ferramentais para auxiliá-los em suas tomadas de decisão, visando não somente o retorno financeiro, mas também à mitigação dos riscos envolvidos. Análises de investimentos em fontes renováveis compartilham de desafios similares. Na literatura, o estudo da tomada de decisão considerada ótima sob condições de incerteza se dá por meio da aplicação de técnicas de programação estocástica, que viabiliza a modelagem de problemas com variáveis randômicas e a obtenção de soluções racionais, de interesse para o investidor. Esses modelos permitem a incorporação de métricas de risco, como por exemplo, o Conditional Value-at-Risk, a fim de se obter soluções ótimas que ponderem a expectativa de resultado financeiro e o risco associado da operação, onde a aversão ao risco do agente torna-se um condicionante fundamental. O objetivo principal da Tese - sob a ótica dos agentes geradores, consumidores e comercializadores - é: (i) desenvolver e implementar modelos de otimização em programação linear estocástica com métrica CVaR associada, customizados para cada um desses agentes; e (ii) aplicá-los na análise estratégica de operações como forma de apresentar alternativas factíveis à gestão das atividades desses agentes e contribuir com a proposição de um instrumento conceitualmente robusto e amigável ao usuário, para utilização por parte das empresas. Nesse contexto, como antes frisado, dá-se ênfase na análise do risco financeiro dessas operações por meio da aplicação do CVaR e com base na aversão ao risco do agente. Considera-se as fontes renováveis hídrica e eólica como opções de ativos de geração, de forma a estudar o efeito de complementaridade entre fontes distintas e entre sites distintos da mesma fonte, avaliando-se os rebatimentos nas operações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el marco de la investigación sobre riesgos naturales, se analiza, como estudio de caso, un espacio costero en el que la artificialización de ramblas deriva del reciente y espectacular proceso de crecimiento de la actividad turística y la consiguiente creación de un nuevo sistema de asentamientos urbanos, realizados sin la necesaria consideración del riesgo de inundaciones.