743 resultados para Inversão


Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la presente Tesis se ha llevado a cabo el contraste y desarrollo de metodologías que permitan mejorar el cálculo de las avenidas de proyecto y extrema empleadas en el cálculo de la seguridad hidrológica de las presas. En primer lugar se ha abordado el tema del cálculo de las leyes de frecuencia de caudales máximos y su extrapolación a altos periodos de retorno. Esta cuestión es de gran relevancia, ya que la adopción de estándares de seguridad hidrológica para las presas cada vez más exigentes, implica la utilización de periodos de retorno de diseño muy elevados cuya estimación conlleva una gran incertidumbre. Es importante, en consecuencia incorporar al cálculo de los caudales de diseño todas la técnicas disponibles para reducir dicha incertidumbre. Asimismo, es importante hacer una buena selección del modelo estadístico (función de distribución y procedimiento de ajuste) de tal forma que se garantice tanto su capacidad para describir el comportamiento de la muestra, como para predecir de manera robusta los cuantiles de alto periodo de retorno. De esta forma, se han realizado estudios a escala nacional con el objetivo de determinar el esquema de regionalización que ofrece mejores resultados para las características hidrológicas de las cuencas españolas, respecto a los caudales máximos anuales, teniendo en cuenta el numero de datos disponibles. La metodología utilizada parte de la identificación de regiones homogéneas, cuyos límites se han determinado teniendo en cuenta las características fisiográficas y climáticas de las cuencas, y la variabilidad de sus estadísticos, comprobando posteriormente su homogeneidad. A continuación, se ha seleccionado el modelo estadístico de caudales máximos anuales con un mejor comportamiento en las distintas zonas de la España peninsular, tanto para describir los datos de la muestra como para extrapolar a los periodos de retorno más altos. El proceso de selección se ha basado, entre otras cosas, en la generación sintética de series de datos mediante simulaciones de Monte Carlo, y el análisis estadístico del conjunto de resultados obtenido a partir del ajuste de funciones de distribución a estas series bajo distintas hipótesis. Posteriormente, se ha abordado el tema de la relación caudal-volumen y la definición de los hidrogramas de diseño en base a la misma, cuestión que puede ser de gran importancia en el caso de presas con grandes volúmenes de embalse. Sin embargo, los procedimientos de cálculo hidrológico aplicados habitualmente no tienen en cuenta la dependencia estadística entre ambas variables. En esta Tesis se ha desarrollado un procedimiento para caracterizar dicha dependencia estadística de una manera sencilla y robusta, representando la función de distribución conjunta del caudal punta y el volumen en base a la función de distribución marginal del caudal punta y la función de distribución condicionada del volumen respecto al caudal. Esta última se determina mediante una función de distribución log-normal, aplicando un procedimiento de ajuste regional. Se propone su aplicación práctica a través de un procedimiento de cálculo probabilístico basado en la generación estocástica de un número elevado de hidrogramas. La aplicación a la seguridad hidrológica de las presas de este procedimiento requiere interpretar correctamente el concepto de periodo de retorno aplicado a variables hidrológicas bivariadas. Para ello, se realiza una propuesta de interpretación de dicho concepto. El periodo de retorno se entiende como el inverso de la probabilidad de superar un determinado nivel de embalse. Al relacionar este periodo de retorno con las variables hidrológicas, el hidrograma de diseño de la presa deja de ser un único hidrograma para convertirse en una familia de hidrogramas que generan un mismo nivel máximo en el embalse, representados mediante una curva en el plano caudal volumen. Esta familia de hidrogramas de diseño depende de la propia presa a diseñar, variando las curvas caudal-volumen en función, por ejemplo, del volumen de embalse o la longitud del aliviadero. El procedimiento propuesto se ilustra mediante su aplicación a dos casos de estudio. Finalmente, se ha abordado el tema del cálculo de las avenidas estacionales, cuestión fundamental a la hora de establecer la explotación de la presa, y que puede serlo también para estudiar la seguridad hidrológica de presas existentes. Sin embargo, el cálculo de estas avenidas es complejo y no está del todo claro hoy en día, y los procedimientos de cálculo habitualmente utilizados pueden presentar ciertos problemas. El cálculo en base al método estadístico de series parciales, o de máximos sobre un umbral, puede ser una alternativa válida que permite resolver esos problemas en aquellos casos en que la generación de las avenidas en las distintas estaciones se deba a un mismo tipo de evento. Se ha realizado un estudio con objeto de verificar si es adecuada en España la hipótesis de homogeneidad estadística de los datos de caudal de avenida correspondientes a distintas estaciones del año. Asimismo, se han analizado los periodos estacionales para los que es más apropiado realizar el estudio, cuestión de gran relevancia para garantizar que los resultados sean correctos, y se ha desarrollado un procedimiento sencillo para determinar el umbral de selección de los datos de tal manera que se garantice su independencia, una de las principales dificultades en la aplicación práctica de la técnica de las series parciales. Por otra parte, la aplicación practica de las leyes de frecuencia estacionales requiere interpretar correctamente el concepto de periodo de retorno para el caso estacional. Se propone un criterio para determinar los periodos de retorno estacionales de forma coherente con el periodo de retorno anual y con una distribución adecuada de la probabilidad entre las distintas estaciones. Por último, se expone un procedimiento para el cálculo de los caudales estacionales, ilustrándolo mediante su aplicación a un caso de estudio. The compare and develop of a methodology in order to improve the extreme flow estimation for dam hydrologic security has been developed. First, the work has been focused on the adjustment of maximum peak flows distribution functions from which to extrapolate values for high return periods. This has become a major issue as the adoption of stricter standards on dam hydrologic security involves estimation of high design return periods which entails great uncertainty. Accordingly, it is important to incorporate all available techniques for the estimation of design peak flows in order to reduce this uncertainty. Selection of the statistical model (distribution function and adjustment method) is also important since its ability to describe the sample and to make solid predictions for high return periods quantiles must be guaranteed. In order to provide practical application of previous methodologies, studies have been developed on a national scale with the aim of determining a regionalization scheme which features best results in terms of annual maximum peak flows for hydrologic characteristics of Spanish basins taking into account the length of available data. Applied methodology starts with the delimitation of regions taking into account basin’s physiographic and climatic characteristics and the variability of their statistical properties, and continues with their homogeneity testing. Then, a statistical model for maximum annual peak flows is selected with the best behaviour for the different regions in peninsular Spain in terms of describing sample data and making solid predictions for high return periods. This selection has been based, among others, on synthetic data series generation using Monte Carlo simulations and statistical analysis of results from distribution functions adjustment following different hypothesis. Secondly, the work has been focused on the analysis of the relationship between peak flow and volume and how to define design flood hydrographs based on this relationship which can be highly important for large volume reservoirs. However, commonly used hydrologic procedures do not take statistical dependence between these variables into account. A simple and sound method for statistical dependence characterization has been developed by the representation of a joint distribution function of maximum peak flow and volume which is based on marginal distribution function of peak flow and conditional distribution function of volume for a given peak flow. The last one is determined by a regional adjustment procedure of a log-normal distribution function. Practical application is proposed by a probabilistic estimation procedure based on stochastic generation of a large number of hydrographs. The use of this procedure for dam hydrologic security requires a proper interpretation of the return period concept applied to bivariate hydrologic data. A standard is proposed in which it is understood as the inverse of the probability of exceeding a determined reservoir level. When relating return period and hydrological variables the only design flood hydrograph changes into a family of hydrographs which generate the same maximum reservoir level and that are represented by a curve in the peak flow-volume two-dimensional space. This family of design flood hydrographs depends on the dam characteristics as for example reservoir volume or spillway length. Two study cases illustrate the application of the developed methodology. Finally, the work has been focused on the calculation of seasonal floods which are essential when determining the reservoir operation and which can be also fundamental in terms of analysing the hydrologic security of existing reservoirs. However, seasonal flood calculation is complex and nowadays it is not totally clear. Calculation procedures commonly used may present certain problems. Statistical partial duration series, or peaks over threshold method, can be an alternative approach for their calculation that allow to solve problems encountered when the same type of event is responsible of floods in different seasons. A study has been developed to verify the hypothesis of statistical homogeneity of peak flows for different seasons in Spain. Appropriate seasonal periods have been analyzed which is highly relevant to guarantee correct results. In addition, a simple procedure has been defined to determine data selection threshold on a way that ensures its independency which is one of the main difficulties in practical application of partial series. Moreover, practical application of seasonal frequency laws requires a correct interpretation of the concept of seasonal return period. A standard is proposed in order to determine seasonal return periods coherently with the annual return period and with an adequate seasonal probability distribution. Finally a methodology is proposed to calculate seasonal peak flows. A study case illustrates the application of the proposed methodology.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este trabajo se presenta el desarrollo de una metodología para obtener un universo de funciones de Green y el algoritmo correspondiente, para estimar la altura de tsunamis a lo largo de la costa occidental de México en función del momento sísmico y de la extensión del área de ruptura de sismos interplaca localizados entre la costa y la Trinchera Mesoamericana. Tomando como caso de estudio el sismo ocurrido el 9 de octubre de 1995 en la costa de Jalisco-Colima, se estudiaron los efectos del tsunami originados en la hidrodinámica del Puerto de Manzanillo, México, con una propuesta metodológica que contempló lo siguiente: El primer paso de la metodología contempló la aplicación del método inverso de tsunamis para acotar los parámetros de la fuente sísmica mediante la confección de un universo de funciones de Green para la costa occidental de México. Tanto el momento sísmico como la localización y extensión del área de ruptura de sismos se prescribe en segmentos de planos de falla de 30 X 30 km. A cada uno de estos segmentos del plano de falla corresponde un conjunto de funciones de Green ubicadas en la isobata de 100 m, para 172 localidades a lo largo de la costa, separadas en promedio 12 km entre una y otra. El segundo paso de la metodología contempló el estudio de la hidrodinámica (velocidades de las corrientes y niveles del mar en el interior del puerto y el estudio del runup en la playa) originada por el tsunami, la cual se estudió en un modelo hidráulico de fondo fijo y en un modelo numérico, representando un tsunami sintético en la profundidad de 34 m como condición inicial, el cual se propagó a la costa con una señal de onda solitaria. Como resultado de la hidrodinámica del puerto de Manzanillo, se realizó un análisis de riesgo para la definición de las condiciones operativas del puerto en términos de las velocidades en el interior del mismo, y partiendo de las condiciones iniciales del terremoto de 1995, se definieron las condiciones límites de operación de los barcos en el interior y exterior del puerto. In this work is presented the development of a methodology in order to obtain a universe of Green's functions and the corresponding algorithm in order to estimate the tsunami wave height along the west coast of Mexico, in terms of seismic moment and the extent of the area of the rupture, in the interplate earthquakes located between the coast and the Middle America Trench. Taking as a case of study the earthquake occurred on October 9, 1995 on the coast of Jalisco-Colima, were studied the hydrodynamics effects of the tsunami caused in the Port of Manzanillo, Mexico, with a methodology that contemplated the following The first step of the methodology contemplated the implementation of the tsunami inverse method to narrow the parameters of the seismic source through the creation of a universe of Green's functions for the west coast of Mexico. Both the seismic moment as the location and extent of earthquake rupture area prescribed in segments fault planes of 30 X 30 km. Each of these segments of the fault plane corresponds a set of Green's functions located in the 100 m isobath, to 172 locations along the coast, separated on average 12 km from each other. The second step of the methodology contemplated the study of the hydrodynamics (speed and directions of currents and sea levels within the port and the study of the runup on the beach Las Brisas) caused by the tsunami, which was studied in a hydraulic model of fix bed and in a numerical model, representing a synthetic tsunami in the depth of 34 m as an initial condition which spread to the coast with a solitary wave signal. As a result of the hydrodynamics of the port of Manzanillo, a risk analysis to define the operating conditions of the port in terms of the velocities in the inner and outside of the port was made, taken in account the initial conditions of the earthquake and tsunami ocurred in Manzanillo port in 1995, were defined the limits conditions of operation of the ships inside and outside the port.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El documento presentado contiene una aproximación a algunos de los diversos problemas actuales existentes en el campo de la robótica paralela. Primeramente se hace una propuesta para el cálculo de los parámetros estructurales de los robots paralelos, mediante el desarrollo de una metodología que combina las herramientas del estudio de mecanismos con el álgebra lineal; en una segunda sección se propone la solución del problema geométrico directo a partir de la definición de ecuaciones de restricción y su respectiva solución usando métodos numéricos, así como la solución para el problema geométrico inverso; en la tercera parte se aborda el problema dinámico tanto directo como inverso y su solución a partir de una metodología basada en el método de Kane o de trabajos virtuales. Para las propuestas metodológicas expuestas se han desarrollado ejemplos de aplicación tanto teóricos como prácticos (simulaciones y pruebas físicas), donde se demuestra su alcance y desempeño, mediante su utilización en múltiples configuraciones para manipuladores paralelos, entre los que se destacan la plataforma Stewart Gough, y el 3-RRR. Todo con el objetivo de extender su aplicación en futuros trabajos de investigación en el área. ABSTRACT The document presented below provides an approach to some of the many current problems existing in the field of parallel robotics. First is maked a proposal for calculating the structural parameters of the parallel robots, through developing a methodology that combines tools to study mechanisms with the linear algebra; a second section contains a direct geometrical problem solution from the definition of constraint equations and their respective solution using numerical methods, as well as the solution to the inverse geometric problem; in the third part, both, direct and inverse dynamic problem and its solution based on methodology Kane or the method of virtual work are propossed. For each of the exposed methodological proposals they were developed examples of both theoretical and practical application (simulations and physical tests), where its scope and performance is demonstrated by its use in multiple configurations for parallel manipulators, among which stand out the platform Stewart Gough, and 3-RRR. All with the goal of extending its application in future research in the area.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis se centra en el análisis de dos aspectos complementarios de la ciberdelincuencia (es decir, el crimen perpetrado a través de la red para ganar dinero). Estos dos aspectos son las máquinas infectadas utilizadas para obtener beneficios económicos de la delincuencia a través de diferentes acciones (como por ejemplo, clickfraud, DDoS, correo no deseado) y la infraestructura de servidores utilizados para gestionar estas máquinas (por ejemplo, C & C, servidores explotadores, servidores de monetización, redirectores). En la primera parte se investiga la exposición a las amenazas de los ordenadores victimas. Para realizar este análisis hemos utilizado los metadatos contenidos en WINE-BR conjunto de datos de Symantec. Este conjunto de datos contiene metadatos de instalación de ficheros ejecutables (por ejemplo, hash del fichero, su editor, fecha de instalación, nombre del fichero, la versión del fichero) proveniente de 8,4 millones de usuarios de Windows. Hemos asociado estos metadatos con las vulnerabilidades en el National Vulnerability Database (NVD) y en el Opens Sourced Vulnerability Database (OSVDB) con el fin de realizar un seguimiento de la decadencia de la vulnerabilidad en el tiempo y observar la rapidez de los usuarios a remiendar sus sistemas y, por tanto, su exposición a posibles ataques. Hemos identificado 3 factores que pueden influir en la actividad de parches de ordenadores victimas: código compartido, el tipo de usuario, exploits. Presentamos 2 nuevos ataques contra el código compartido y un análisis de cómo el conocimiento usuarios y la disponibilidad de exploit influyen en la actividad de aplicación de parches. Para las 80 vulnerabilidades en nuestra base de datos que afectan código compartido entre dos aplicaciones, el tiempo entre el parche libera en las diferentes aplicaciones es hasta 118 das (con una mediana de 11 das) En la segunda parte se proponen nuevas técnicas de sondeo activos para detectar y analizar las infraestructuras de servidores maliciosos. Aprovechamos técnicas de sondaje activo, para detectar servidores maliciosos en el internet. Empezamos con el análisis y la detección de operaciones de servidores explotadores. Como una operación identificamos los servidores que son controlados por las mismas personas y, posiblemente, participan en la misma campaña de infección. Hemos analizado un total de 500 servidores explotadores durante un período de 1 año, donde 2/3 de las operaciones tenían un único servidor y 1/2 por varios servidores. Hemos desarrollado la técnica para detectar servidores explotadores a diferentes tipologías de servidores, (por ejemplo, C & C, servidores de monetización, redirectores) y hemos logrado escala de Internet de sondeo para las distintas categorías de servidores maliciosos. Estas nuevas técnicas se han incorporado en una nueva herramienta llamada CyberProbe. Para detectar estos servidores hemos desarrollado una novedosa técnica llamada Adversarial Fingerprint Generation, que es una metodología para generar un modelo único de solicitud-respuesta para identificar la familia de servidores (es decir, el tipo y la operación que el servidor apartenece). A partir de una fichero de malware y un servidor activo de una determinada familia, CyberProbe puede generar un fingerprint válido para detectar todos los servidores vivos de esa familia. Hemos realizado 11 exploraciones en todo el Internet detectando 151 servidores maliciosos, de estos 151 servidores 75% son desconocidos a bases de datos publicas de servidores maliciosos. Otra cuestión que se plantea mientras se hace la detección de servidores maliciosos es que algunos de estos servidores podrán estar ocultos detrás de un proxy inverso silente. Para identificar la prevalencia de esta configuración de red y mejorar el capacidades de CyberProbe hemos desarrollado RevProbe una nueva herramienta a través del aprovechamiento de leakages en la configuración de la Web proxies inversa puede detectar proxies inversos. RevProbe identifica que el 16% de direcciones IP maliciosas activas analizadas corresponden a proxies inversos, que el 92% de ellos son silenciosos en comparación con 55% para los proxies inversos benignos, y que son utilizado principalmente para equilibrio de carga a través de múltiples servidores. ABSTRACT In this dissertation we investigate two fundamental aspects of cybercrime: the infection of machines used to monetize the crime and the malicious server infrastructures that are used to manage the infected machines. In the first part of this dissertation, we analyze how fast software vendors apply patches to secure client applications, identifying shared code as an important factor in patch deployment. Shared code is code present in multiple programs. When a vulnerability affects shared code the usual linear vulnerability life cycle is not anymore effective to describe how the patch deployment takes place. In this work we show which are the consequences of shared code vulnerabilities and we demonstrate two novel attacks that can be used to exploit this condition. In the second part of this dissertation we analyze malicious server infrastructures, our contributions are: a technique to cluster exploit server operations, a tool named CyberProbe to perform large scale detection of different malicious servers categories, and RevProbe a tool that detects silent reverse proxies. We start by identifying exploit server operations, that are, exploit servers managed by the same people. We investigate a total of 500 exploit servers over a period of more 13 months. We have collected malware from these servers and all the metadata related to the communication with the servers. Thanks to this metadata we have extracted different features to group together servers managed by the same entity (i.e., exploit server operation), we have discovered that 2/3 of the operations have a single server while 1/3 have multiple servers. Next, we present CyberProbe a tool that detects different malicious server types through a novel technique called adversarial fingerprint generation (AFG). The idea behind CyberProbe’s AFG is to run some piece of malware and observe its network communication towards malicious servers. Then it replays this communication to the malicious server and outputs a fingerprint (i.e. a port selection function, a probe generation function and a signature generation function). Once the fingerprint is generated CyberProbe scans the Internet with the fingerprint and finds all the servers of a given family. We have performed a total of 11 Internet wide scans finding 151 new servers starting with 15 seed servers. This gives to CyberProbe a 10 times amplification factor. Moreover we have compared CyberProbe with existing blacklists on the internet finding that only 40% of the server detected by CyberProbe were listed. To enhance the capabilities of CyberProbe we have developed RevProbe, a reverse proxy detection tool that can be integrated with CyberProbe to allow precise detection of silent reverse proxies used to hide malicious servers. RevProbe leverages leakage based detection techniques to detect if a malicious server is hidden behind a silent reverse proxy and the infrastructure of servers behind it. At the core of RevProbe is the analysis of differences in the traffic by interacting with a remote server.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las casas del siglo XX construidas al borde del mar –escenario único y origen de su expresión- siguen la topografía del suelo que habitan en su descenso al agua, y organizan espacios que obtienen miradas al horizonte marino. El horizonte nos confronta a lo desconocido. La vista del mar incita al deseo de recorrerlo, al deseo de viajar. Con origen en el otium romano, la presencia del agua define un modo de vida apacible –epicúreo- que los viajeros de la arquitectura -que nos acompañan en la tesis- traducen en sus refugios más íntimos. Experimentan con los cambios en los conceptos y en las técnicas, que se trasladan fácilmente a la arquitectura de la casa al borde del agua desde los inicios del Movimiento Moderno. Sus espacios del habitar frente al mar nos permiten descubrir estrategias comunes en sus respuestas más modernas. El arquitecto ante el proyecto frente al mar llega a la ubicación elegida, mira hacia el horizonte, y desplazándose ladera arriba se coloca en un punto estratégico que elige; después, delante de su tablero, recorre el camino inverso, coloca el lugar y sobre él dibuja los elementos que configurarán los espacios de la casa buscando esa mirada al mar. Las situaciones y ubicaciones posibles son infinitas; se definen algunas consonancias espaciales comunes en los suelos que se ocupan debidas a la presencia del mar que asociamos entre sí. De la comparación entre todas las casas -emblemas del XX-, surgen múltiples variantes de la mirada y de espacios al abierto, y modos de fabricar entornos con criterios comunes para dominar la visión del mar. Interiores que se abren al panorama, espacios cuyas ventanas buscan su mirada en la extensión del horizonte, rescisiones y aperturas. Reconocemos condicionantes en el territorio a los que las villas responden, categorías arquitectónicas que dan respuesta frente al mar en la búsqueda del moderno, la topografía, la mirada y el espacio al abierto. Las casas comparten la idea del dominio del paisaje desde el punto más alto, y en algunos suelos se invierte la tipología por la topografía, confirmando así un criterio común basado en la lectura del suelo como consecuencia de la búsqueda del espacio de la mirada. Los espacios al abierto se significan en todas ellas, son espacios al -aire libre- abiertos, unos envueltos, otros porticados, puertas del horizonte que se abren al exterior, en el techo de la casa, otros cubiertos y abiertos, espacios entre interior y exterior, en plataformas con bancales o patios envolventes, recintos o habitaciones abiertas. Descubrimos un logro del XX en los espacios positivos o negativos que traducen o juegan con el entorno, que ocupan o sustraen de los contornos construidos y que obtienen espacios intermedios en la búsqueda de la relación con el mar. Las herramientas que se utilizan son los dibujos de los autores, de las casas visitadas, el elenco de viajeros y sus viajes, el conocimiento desde el estudio de los proyectos. A través de la comparación por aproximaciones parciales, los dibujos nos definen la mirada al mar, el modo de ocupación y la forma de relación con el paisaje. La arquitectura del habitar frente al mar en el XX, hecha para y por arquitectos, topografía el suelo y construye la mirada, fabricando espacios al abierto en la relación entre la casa y el entorno marítimo. ABSTRACT Houses of the 20th century built by the sea – a unique setting which gives rise to their expression – follow the topography of the land they occupy in its descent towards the sea, and they organize spaces which give views of the maritime horizon. The horizon brings us face to face with the unknown. The sea view provokes a desire to cross it, to travel. The presence of the sea defines a peaceful, epicurean way of life, with origins in the Roman otium, which architectural travellers – who accompany us through the thesis – translate into their most intimate retreats. They experiment with changes in concepts and techniques, which are easily transferred to the architecture of the seaside house since the beginnings of the Modern Movement. Their living spaces allow us to discover common strategies in the most modern responses. The architect with a seaside project arrives at the site, looks towards the horizon, then walks uphill and chooses a strategic point; then with his drawing board he retraces his steps, he sets the position and then draws in the elements that make up the house that seeks a sea view. The number of potential situations and locations is infinite; certain common spatial accordances are defined in land which is occupied due to the presence of the sea. Comparison of all the houses – 20th century emblems – throws up multiple variations of view and open spaces, and ways of creating settings with common criteria so as to command the vision of the sea. Interiors which open up to the panorama, spaces whose windows seek their view in the expanse of the horizon, openings and closures. We recognise determinant factors in the territory to which the villas respond, architectural categories which give a seaside solution to the search for the modern, the topography, the view, and the open space. The houses share the idea of dominating the landscape from the highest point, and in some areas typology and topography are inverted, thus confirming a common criteria based on the reading of the ground as a conse quence of the search for the view space. Open spaces stand out in all the villas – spaces open to the outdoor air - some are wrapped, some arcaded, doors to the horizon which open up to the exterior, on the roof of the house. There are open and covered spaces, spaces between the exterior and interior, on platforms with banks and surrounding patios, enclosures and open rooms. We discover an achievement of the 20th century in the positive and negative spaces which translate and play with the setting, which occupy or are extracted from built contours and which obtain intermediate spaces in the search for the relationship with the sea. The tools used are the author’s drawings of the houses visited, the cast of travelling companions and their travels, the knowledge gained from study of the projects. Through comparison by means of partial approaches, the drawings define the view of the sea, the occupation mode and the way of relating to the landscape. Architecture for living by the sea in the 20th century, carried out both by and for the architects, shapes the land and constructs the view, creating open spaces in the relationship between the house and the sea surroundings.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Como no pocos proyectos, el origen de esta tesis es fruto de una casualidad. Hace unos años me topé en Londres, en la librería Walden Books del 38 de Harmood St., con una primera edición de la conocida monografía de Mies a cargo de Philip Johnson. El librito, en realidad catálogo de la exposición que en 1947 el MoMA de Nueva York dedicara a la obra de Mies Van der Rohe a los diez años del desembarco del arquitecto en Estados Unidos, tiene un tamaño de 10 x 7,5 pulgadas, es decir, la mitad del formato americano Crown (20x15 pulgadas), equivalente a 508 x 381 mm. Se imprimieron, en su primera tirada, editada por The Plantin Press, 12.000 ejemplares. Ese mismo año, con edición al cuidado de Reynal y Hitchcock, se publicaría la primera traducción al inglés de Cuando las catedrales eran blancas de Le Corbusier y una selección de poemas de Lorca, siete años después de su Poeta en Nueva York. En la monografía, en la página 109, aparece el conocido croquis de Mies Sketch for a glass house on a hillside. c. 1934, escasamente unas líneas, aunque precisas y llenas de matices, de la casa en una ladera que rápidamente nos remite a aquella primera propuesta de Saarinen para una casa en el aire, primero en 1941 en Pensilvania y después, en 1945, con Charles Eames, en Los Angeles, que nunca llegarían a construirse, sino en su aliteraciones posteriores realizadas por Harry Seidler (Julian Rose House, Wahroonga, Sydney, 1949), Philip Johnson (Leonhardt house, Long Island, Nueva York, 1956) o Craig Ellwood (Smith House, Crestwood Hills, 1958; Frank & Polly Pierson House, Malibú, 1962; Chamorro House, Hollywood Hills, 1963, o la serie Weekend House, con Gerald Horn, entre 1964 y 1970, hasta el magnífico Art Center College of Design de Pasadera, su puente habitado de 1977). El relato que da origen al texto discurre en un estricto período de tiempo, desde los primeros dibujos de la Case Study House nº8, dentro del programa promovido por John Entenza y su revista Arts & Architecture en California, realizados en el estudio de Saarinen en Bloomfield Hills, Michigan, hasta que el proyecto de la casa Eames finaliza cinco años después de acabar la obra en 1955, en la versión conocida, radicalmente distinta al proyecto original, cuando la pareja Charles y Ray Eames edita el corto House After Five Years of Living. La discusión original en torno a esta casita, o mejor, a las circunstancias, casualidades controladas, que rodean su construcción, se produce estrictamente cuando rastreamos aquellos invariantes que se mantienen en las dos versiones y las reconcilian. En este corto período de tiempo se producen en el proyecto una serie de decisiones que permiten descubrir, tanto en la forma como en el mismo proceso transformador del proyecto, en su obsesivo registro, en los nuevos referentes asumidos y propuestos, la primera visibilidad del cambio del paradigma moderno. Pero este momento germinal que cristaliza el paso a la postmodernidad no es inédito en la historia de la arquitectura americana. Así, el relato abre su ámbito temporal hasta un nuevo período de cincuenta años que arranca en 1893, año de la celebración en Chicago de la Exposición Internacional Colombina. En la White City de Hunt & McKim y del traidor Burham, Louis Sullivan construye su Golden Doorway en el pabellón de los Transportes. Aquella que visitará Adolf Loos antes de volver, renovado, a Viena; la misma que admirará André Bouillet, representante de la Union Centrale des Arts Decoratifs de Paris, y que deslumbrará en los museos de toda Europa, de París a Moscú en grandes fotografías y maquetas. Hasta que en Finlandia alguien muestra una de esas fotografías a un joven estudiante de diecinueve años en el Instituto Politécnico. Eliel Saarinen queda fascinado por la poderosa novedad de la imagen. Cuelga la fotografía frente a su tablero de dibujo, consciente de que la Golden Doorway, esa puerta de la aventura y la catarsis que Sullivan acuñaría como distintivo y que resolvería como único elemento complejo sus proyectos más maduros, desprovistos de todo ornamento; la misma que repetirían más tarde, con profundo reconocimiento, Ladovsky, Wright, Scarpa o Moneo, puerta dentro de puerta, fuelle y umbral, contenía, en sus propias palabras emocionadas, todo el futuro de la arquitectura. Desde ahí, pasando por el año 1910, momento de la huida de Wright a La Toscana y el descubrimiento de su arquitectura en Europa, entre otros por un joven Mies van der Rohe, meritorio en el estudio de Peter Behrens, a través del Wasmuth Portfolio; y así como algo después, en 1914, Schindler y en 1923 Neutra, harán el camino inverso, hasta que Mies les siga en 1937, animado por un Philip Johnson que había viajado a Europa en 1930, volviendo a 1945 y el inicio del programa Case Study House en California, hasta 1949, momento de la construcción de la CSH#8, y, por fin, al año 1955, after 5 years of living, en el que Julius Shulman fotografía la casa de Ray y Charles Eames en el prado de Chautauqua sobre las Pacific Palisades de Los Angeles, lanzando sus finas líneas amarillas hasta Alison y Peter Smithson y su tardomoderno heroico, hasta el primer Foster y su poético hightech y hasta el O-riginal Ghery, deconstruyendo el espacio esencial de su casa desde el espacio mismo, abiertas ya las puertas al nuevo siglo. Y en estos cambios de paradigma, desde el rígido eclecticismo de los estilos al lirismo moderno en el gozne secular y de ahí a la frivolidad, ligereza, exhibicionismo y oportunismo cultos del hecho postmoderno, hay algo que se mantiene invariante en los bandazos de la relación del hombre contemporáneo con su entorno. Como la escultura, que según Barnett Newman no es sino aquello contra lo que uno choca cuando retrocede para mirar un cuadro, en estos prístinos lugares, comunes y corrientes, recorrido, puerta, umbral, recinto y vacío, te topas con la arquitectura antes de darte cuenta de que es arquitectura. ABSTRACT As with many other projects, the origin of this doctoral thesis is the result of a chance. A few years ago I found in a bookstore in London, 38 Harmood st., Walden Books, a first edition of the well-known monograph about Mies by Philip Johnson. The tiny book, in fact a catalog of the exhibition that the MoMA of New York devoted to the work of Mies van der Rohe in 1947, ten years after his landing in the United States, has a size of 10 x 7.5 inches, that is, half of Crown American format (20 x 15 inches), equivalent to 508 x 381 mm. In the first printing, published by The Plantin Press, 12,000 copies were released. That same year, produced by Reynal and Hitchcock, both the first English translation of When the cathedrals were white by Le Corbusier and a selection of poems by Lorca were published, seven years after his Poet in New York. Inside the book, the famous drawing from Mies Sketch for a glass house on a hillside c. 1934 appears on page 109, barely a few lines, precise and nuanced though, the house on a hillside that quickly reminds us of the proposals of Eero Saarinen for a house in the air, first in 1941, in Pennsylvania, and later, in 1945, with Charles Eames, in Los Angeles, that would never be built, but in their later alliterations made by Harry Seidler (Julian Rose House, Wahroonga, Sydney, 1949), Philip Johnson (Leonhardt house, Long Island, New York, 1956) or Craig Ellwood (Smith House, Crestwood Hills, 1958; Frank Pierson & Polly House, Malibu, 1962, Chamorro House, Hollywood Hills, 1963, or the Weekend House series, with Gerald Horn, between 1964 and 1970, to the magnificent Art Center College of Design Pasadena, the inhabited bridge, in 1977). The story that gives rise to the text flows in a short amount of time, from the first drawings of the Case Study House No. 8, within the program promoted by John Entenza and his magazine Arts & Architecture in California, made in the study of Saarinen in Bloomfield Hills, Michigan, until the project of the Eames house is completed five years after finishing the construction in 1955, in the final version we know, radically different from the initial state, when the couple, Charles and Ray, published the film House after Five Years of Living. The original discussion around this house, or better, about the circumstances, controlled coincidences, regarding its construction, appears when one takes account of those that remain, the invariants, in the two versions, drawn and built, which precisely allow the reconciliation between both projects. In this short period of time a series of decisions made in the transformation process of the project reveal, in the obsessive record made by Charles Eames and in the new proposed references, the first visibility of the changing of the modern paradigm. But this germinal moment that crystallizes the transition to postmodernism is not unprecedented in the history of American architecture. So, the story opens its temporal scope to a fifty-year period that started in 1893, date of the celebration of the Chicago World´s Columbian Exposition. In the White City by Hunt & McKim and Burnham, the traitor, Louis Sullivan builds his Golden Doorway in the Transportation Building. That visited by a renovated Adolf Loos before his coming back to Vienna; the same that André Bouillet, Head of the Union Centrale des Arts Decoratifs in Paris, admired and dazzled in museums all over Europe, from Paris to Moscow, in large photographs and models. Until someone in Finland showed one of those photos to a young nineteen-years-old student at the Polytechnic Institute. Eliel Saarinen became fascinated by the powerful new image: he hanged the picture in front of his drawing board, aware that the Golden Doorway, that door of adventure and catharsis Sullivan coined as distinctive and as a single complex element which would solve their most mature projects, devoid of all ornament; the same that would repeat later, with deep appreciation, Ladovsky, Wright, Scarpa, or Moneo, a door inside a door, a threshold, a gap that contained, in its own moving words, the whole future of architecture. From there, through 1910, when Wright's flight to Tuscany allows Europe to discover his architecture, including a young Mies van der Rohe, meritorious in the studio of Peter Behrens, via the Wasmuth Portfolio; and as a little bit later, in 1914, Schindler and Neutra in 1923, made the travel in opposite direction, until Mies follows them in 1937, led by a Philip Johnson who had traveled to Europe in 1930, we return to 1945 and the beginning of the program Case Study House in California, and from 1949, when construction of the CSH # 8 begins, and finally, to 1955, after five years of living, when Julius Shulman photographs the inside of the house with Ray and Charles Eames, and all their belongins, at the Chautauqua meadows on Pacific Palisades in Los Angeles, launching its fine yellow lines to Alison and Peter Smithson and his heroic late modern, up to the first Foster and his poetic hightech and even the O-riginal Gehry, deconstructing the essential space of his home from the space itself, opening the doors to the new century. And these paradigm shifts, from the hard eclectic styles to modern secular lyricism in the hinge and then overcoming the cultured frivolity, lightness, exhibitionism, and opportunism of the postmodern skeptical focus, something remains intense, invariant in the lurching relationship of contemporary man and his environment. As the sculpture, which according to Barnett Newman is what you bump into when you back up to see a painting, in these pristine, ordinary places, promenade, door, threshold, enclosure and emptiness, you stumble upon the architecture even before realizing that it is architecture.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o desenvolvimento deste projeto de pesquisa Religião profética e crise política: estudo da sociedade norte-israelita à luz de Oséias 9,1-9 queremos identificar que momento de crise foi essa pelo qual passou a sociedade norte-israelita no século VIII a.C., e qual seria o background oseânico que teria funcionado como um verdadeiro leitmotiv em sua vida profética. Ao invés de partirmos de uma regressão, i.é., de um estudo dedutivo (método descendente), devido à falta de material e também pela complexidade do trabalho, farei o inverso, partirei da teoria que hoje é plenamente aceita no meio acadêmico. Fundado numa metodologia que privilegia os resultados obtidos a partir dos mais rigorosos dados historiográficos métodos históricos críticos e pesquisas arqueológicas este projeto de pesquisa utilizará o método indutivo, i.é., partiremos de um processo ascendente. O desafio está em delinear a trajetória autonômica da monarquia norte-israelita, procurando estabelecer quais foram os momentos mais marcantes desta caminhada histórica, suscetíveis de forjar a manifestação de profetas como Amós, Oséias, Miquéias e tantos outros. Como objeto principal de nossa pesquisa, o foco estará sobre o profeta Oséias que soube como nenhum outro antes dele, fazer uma síntese entre religião e vida, i.é., soube desenvolver critérios éticos que serviram como parâmetro avaliativo de pureza da religião javista

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o desenvolvimento deste projeto de pesquisa Religião profética e crise política: estudo da sociedade norte-israelita à luz de Oséias 9,1-9 queremos identificar que momento de crise foi essa pelo qual passou a sociedade norte-israelita no século VIII a.C., e qual seria o background oseânico que teria funcionado como um verdadeiro leitmotiv em sua vida profética. Ao invés de partirmos de uma regressão, i.é., de um estudo dedutivo (método descendente), devido à falta de material e também pela complexidade do trabalho, farei o inverso, partirei da teoria que hoje é plenamente aceita no meio acadêmico. Fundado numa metodologia que privilegia os resultados obtidos a partir dos mais rigorosos dados historiográficos métodos históricos críticos e pesquisas arqueológicas este projeto de pesquisa utilizará o método indutivo, i.é., partiremos de um processo ascendente. O desafio está em delinear a trajetória autonômica da monarquia norte-israelita, procurando estabelecer quais foram os momentos mais marcantes desta caminhada histórica, suscetíveis de forjar a manifestação de profetas como Amós, Oséias, Miquéias e tantos outros. Como objeto principal de nossa pesquisa, o foco estará sobre o profeta Oséias que soube como nenhum outro antes dele, fazer uma síntese entre religião e vida, i.é., soube desenvolver critérios éticos que serviram como parâmetro avaliativo de pureza da religião javista

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Após escândalos em gestão como o caso da Enron, Parmalat e Xerox, as boas práticas da Governança Corporativa são consideradas uma ferramenta de auxilio na gestão, exigindo que a organização tenha mais transparência, equidade, responsabilidade corporativa e prestação de contas. Mediante a isto, este trabalho de pesquisa tem como objetivo principal verificar as práticas da governança corporativa que são praticadas em empresas de capital fechado consideradas pequenas e médias (PME`s) no segmento de portaria e limpeza e, se as boas ou algumas destas práticas trazem geração de valor para as organizações. Essa pesquisa será realizada nas cidades de Santo André, São Bernardo e São Caetano do Sul, Estado de São Paulo. A justificativa para este projeto de pesquisa se dá pelo fato de existir carência de estudos medindo diretamente as práticas de governança corporativa em empresas de serviço (PME s) e também porque a taxa de mortalidade entre as empresas prestadoras de serviços segundo dados do IBGE (2008) é considerada alta devido a vários fatores, sendo um em especial, mensurado como deficiência do gestor. A governança corporativa trata diretamente do controle interno e a gestão de risco da organização (MOTTA, SILVEIRA E BORGES 2006), portanto as falhas gerencias podem ser minimizadas com a adoção desta prática. As informações foram obtidas através de survey de questionários a partir de gestores das empresas estudadas previamente mapeados e escala com dados primários e quantitativos. Os resultados apresentaram que existe uma relação com a Governança Corporativa e Desempenho nas empresas da amostra. Os construtos responsabilidade corporativa, prestação de contas e transparência tiveram maior significância enquanto equidade apresentou sentido inverso com o desempenho.(AU)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Após escândalos em gestão como o caso da Enron, Parmalat e Xerox, as boas práticas da Governança Corporativa são consideradas uma ferramenta de auxilio na gestão, exigindo que a organização tenha mais transparência, equidade, responsabilidade corporativa e prestação de contas. Mediante a isto, este trabalho de pesquisa tem como objetivo principal verificar as práticas da governança corporativa que são praticadas em empresas de capital fechado consideradas pequenas e médias (PME`s) no segmento de portaria e limpeza e, se as boas ou algumas destas práticas trazem geração de valor para as organizações. Essa pesquisa será realizada nas cidades de Santo André, São Bernardo e São Caetano do Sul, Estado de São Paulo. A justificativa para este projeto de pesquisa se dá pelo fato de existir carência de estudos medindo diretamente as práticas de governança corporativa em empresas de serviço (PME s) e também porque a taxa de mortalidade entre as empresas prestadoras de serviços segundo dados do IBGE (2008) é considerada alta devido a vários fatores, sendo um em especial, mensurado como deficiência do gestor. A governança corporativa trata diretamente do controle interno e a gestão de risco da organização (MOTTA, SILVEIRA E BORGES 2006), portanto as falhas gerencias podem ser minimizadas com a adoção desta prática. As informações foram obtidas através de survey de questionários a partir de gestores das empresas estudadas previamente mapeados e escala com dados primários e quantitativos. Os resultados apresentaram que existe uma relação com a Governança Corporativa e Desempenho nas empresas da amostra. Os construtos responsabilidade corporativa, prestação de contas e transparência tiveram maior significância enquanto equidade apresentou sentido inverso com o desempenho.(AU)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As ações de maior liquidez do índice IBOVESPA, refletem o comportamento das ações de um modo geral, bem como a relação das variáveis macroeconômicas em seu comportamento e estão entre as mais negociadas no mercado de capitais brasileiro. Desta forma, pode-se entender que há reflexos de fatores que impactam as empresas de maior liquidez que definem o comportamento das variáveis macroeconômicas e que o inverso também é uma verdade, oscilações nos fatores macroeconômicos também afetam as ações de maior liquidez, como IPCA, PIB, SELIC e Taxa de Câmbio. O estudo propõe uma análise da relação existente entre variáveis macroeconômicas e o comportamento das ações de maior liquidez do índice IBOVESPA, corroborando com estudos que buscam entender a influência de fatores macroeconômicos sobre o preço de ações e contribuindo empiricamente com a formação de portfólios de investimento. O trabalho abrangeu o período de 2008 a 2014. Os resultados concluíram que a formação de carteiras, visando a proteção do capital investido, deve conter ativos com correlação negativa em relação às variáveis estudadas, o que torna possível a composição de uma carteira com risco reduzido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Administração Financeira surge no início do século XIX juntamente com o movimento de consolidação das grandes empresas e a formação dos mercados nacionais americano enquanto que no Brasil os primeiros estudos ocorrem a partir da segunda metade do século XX. Desde entãoo país conseguiu consolidar alguns centros de excelência em pesquisa, formar grupo significativo de pesquisadores seniores e expandir as áreas de pesquisa no campo, contudo, ainda são poucos os trabalhos que buscam retratar as características da produtividade científica em Finanças. Buscando contribuir para a melhor compreensão do comportamento produtivo dessa área a presente pesquisa estuda sua produção científica, materializada na forma de artigos digitais, publicados em 24 conceituados periódicos nacionais classificados nos estratos Qualis/CAPES A2, B1 e B2 da Área de Administração, Ciências Contábeis e Turismo. Para tanto são aplicadas a Lei de Bradford, Lei do Elitismo de Price e Lei de Lotka. Pela Lei de Bradford são identificadas três zonas de produtividade sendo o núcleo formado por três revistas, estando uma delas classificada no estrato Qualis/CAPES B2, o que evidencia a limitação de um recorte tendo como único critério a classificação Qualis/CAPES. Para a Lei do Elitismo de Price, seja pela contagem direta ou completa, não identificamos comportamento de uma elite semelhante ao apontado pela teoria e que conta com grande número de autores com apenas uma publicação.Aplicando-se o modelo do Poder Inverso Generalizado, calculado por Mínimos Quadrados Ordinários (MQO), verificamos que produtividade dos pesquisadores, quando feita pela contagem direta, se adequa àquela definida pela Lei de Lotka ao nível de α = 0,01 de significância, contudo, pela contagem completa não podemos confirmar a hipótese de homogeneidade das distribuições, além do fato de que nas duas contagens a produtividade analisada pelo parâmetro n é maior que 2 e, portanto, a produtividade do pesquisadores de finanças é menor que a defendida pela teoria.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bibliografia

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Palestra proferida na Universidade de Milão, Itália, em maio de 2002

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni, si sono diffusi nuove strategie per il trattamento delle malattie cardiovascolari, che possano supportare una terapia medica, o in alcuni casi, sostituirla. Infatti, l’abbandono delle terapie è il più importante problema di salute pubblica del mondo occidentale, soprattutto per le malattie croniche. Ciò è dovuto alla complessità delle terapie farmacologiche e ai numerosi e in alcuni casi gravi effetti collaterali dei farmaci somministrati. Di conseguenza, una riduzione di questi effetti migliorerebbe le condizioni di vita del paziente e quindi diminuirebbe il rischio di abbandono della terapia. Per ottenere ciò, è possibile affiancare al trattamento farmacologico una terapia nutraceutica, consistente nella somministrazione di complessi molecolari o microorganismi, provenienti da piante, latte o cibi funzionali. Lo scopo generale di questo studio è indagare le attività ipolipidemizzanti di un composto nutraceutico e di un ceppo batterio specifico nel modello animale che presenta elevati alti livelli plasmatici di colesterolo. Inoltre, sono stati analizzati gli effetti del trattamento nutraceutico sui meccanismi fisiologici che contrastano la creazione della placca aterosclerotica come l’efflusso di colesterolo dalle “foam cells” presenti nell’ateroma, o la riduzione dell’assorbimento intestinale di colesterolo. La presente tesi è divisa in due parti. Nella prima parte, abbiamo analizzato la capacità dei Bifidobacteria di ridurre i livelli di colesterolo nel medium di crescita. Dall’analisi, si è osservato che vari ceppi del genere Bifidobacteria presentano un’ampia capacità di assimilazione del colesterolo all’interno della cellula batterica, in particolare il Bifidobacterium bifidum PRL2010. Le analisi di trascrittomica del Bb PRL2010 incubato in presenza di colesterolo, hanno rivelato un significativo aumento dei livelli di trascrizione di geni codificanti trasportatori e riduttasi, responsabili del meccanismo di accumulo all’interno della cellula batterica e della conversione del colesterolo in coprostanolo. L’attività ipolipidemizzante del Bb PRL2010 è stata poi valutata nel modello murino, mostrando la modificazione del microbiota dei topi trattati dopo somministrazione del batterio in questione. Nella seconda parte del progetto di ricerca, abbiamo indagato sugli effetti di un composto coperto da brevetto, chiamato “Ola”, sull’efflusso di colesterolo di criceti trattati con questo composto nutraceutico. L’efflusso di colesterolo è il primo step del meccanismo fisiologico noto come Trasporto Inverso del Colesterolo, che consente l’eliminazione del colesterolo dalle placche aterosclerotiche, attraverso l’interazione fra le HDL, presenti nella circolazione sanguigna, e specifici trasportatori delle foam cells, come ABCA1/G1 e SR-BI. In seguito, le lipoproteine rilasciano il colesterolo alle cellule epatiche, dove è metabolizzato ed escreto attraverso le feci. Per valutare l’effetto dell’Ola sul profilo lipidico dei criceti, sono state condotte analisi in vitro. I risultati mostrano un aumento dell’efflusso di colesterolo in cellule che esprimono il trasportatore ABCA1, comparato con il gruppo controllo. Questi due studi mostrano come l’approccio nutraceutico può essere un importante modo per contrastare l’aterosclerosi. Come mostrato in letteratura, gli effetti dei composti nutraceutici sull’aterosclerosi e su altre malattie croniche, hanno portato a un ampio uso come supporto alle terapie farmacologiche, ed in alcuni casi hanno rimpiazzato la terapia farmacologica stessa.