837 resultados para Optimización multiobjetivo


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los incendios forestales son un problema recurrente en España que produce cada año grandes pérdidas económicas, ambientales y en ocasiones humanas. A la complejidad de los siniestros en España por múltiples factores (clima, fisiografía, propiedad), hay que sumarle la descentralización política, pues las comunidades autónomas tienen la competencia de los incendios forestales, bajo las directrices de una legislación básica del Estado. La estadística de incendios forestales es una herramienta fundamental para el análisis de este fenómeno. Gracias a ella se puede lograr un profundo conocimiento del problema que permita lograr una mejora de los resultados y una optimización de los recursos empleados en su extinción. A partir de los datos de siniestros desde 2001 a 2010 se han elaborado unos indicadores que tienen como objetivo la realización de planes de actuación y prevención para un futuro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El desarrollo económico y social, a veces excesivamente rápido, que se ha producido en las últimas décadas ha generado una serie de problemas medioambientales generalmente más acuciantes en el entorno de las grandes ciudades. Dentro de este contexto y debido a este desarrollo exponencial de las actividades humanas, la contaminación acústica se ha convertido en uno de los problemas de peor solución, tanto a nivel de reducción como de atenuación, por lo que el diseño de pantallas acústicas está siendo uno de los objetivos prioritarios en la lucha contra la contaminación sonora. La expresión más extendida para designar a las barreras acústicas es la de pantallas acústicas, entendiéndose por éstas, muros de espesor relativamente pequeño concebidos como barreras acústicas. Hasta la fecha los avances en el diseño de estas pantallas han sido notables y ya se cuentan por cientos los kilómetros de las mismas que han sido construidas e instaladas, sobre todo en la periferia de las grandes ciudades cerca de las llamadas vías de tráfico rápido. Estos avances se han centrado sobre todo en el diseño de materiales de gran poder de absorción de las ondas, como método principal de atenuación, o bien en la forma geométrica de la superficie expuesta al tráfico, formas que por medio de reflexiones son capaces de anular o mitigar parte de la energía transportada por las ondas sonoras. A la vista de estos resultados las actuales pantallas acústicas reducen el nivel sonoro por atenuación, pero no son capaces de anular la onda incidente. Por otro lado, los últimos estudios de la tecnología japonesa en estos temas es el análisis del problema de borde, ya que este fenómeno de difracción es uno de los causantes principales del nivel sonoro en el trasdós de la pantalla. Pese a que es imposible anular este efecto de borde los estudios se han encauzado a intentar obtener una forma de la sección de la pantalla en su parte superior que sea capaz de mitigar este efecto, bien por interferencia entre las ondas incidentes o bien por superposición de diversos fenómenos de difracciones. En este orden de cosas entra a escena el concepto de pantalla tubular, como una nueva pantalla perforada que anula ondas sonoras basándose en el efecto físico de los tubos de Kundt. Su funcionamiento es debido a la propiedad de las ondas sonoras de producir resonancias al transmitirse dentro de cavidades de diferentes secciones tipo. Este tipo de pantallas se olvida del concepto clásico de pantalla acústica y su forma de atenuar el sonido y pasa al cálculo de la atenuación por eliminación de frecuencias. Esta tesis ofrece una nueva visión de este tipo de pantallas tubulares, optimizando su funcionamiento en función de la longitud de las cavidades tubulares, que han de ser diseñadas no de forma rectilínea, sino según directrices de curvas conocidas. El método operativo consistirá en aplicar las propiedades morfológicas de estas curvas a la propagación de ondas dentro de cavidades curvilíneas, obteniendo una serie de funciones de onda transmitidas y otras anuladas, lo que permite evaluar el porcentaje de energía que es capaz de anular cada tipo de curva para un espesor prefijado de pantalla. Este planteamiento nos permite elaborar un método de diseño y optimización por consideraciones exclusivamente geométricas, en función de un número muy reducido de parámetros, entre los que destaca la frecuencia que se presenta con mayor asiduidad, que es la principal causante del nivel sonoro. Asimismo, el método está apoyado en gran manera en un soporte gráfico, lo que le hace de sencilla aplicación incluso entre técnicos no excesivamente acostumbrados a trabajar con ondas sonoras. Como resumen final, las aportaciones más relevantes que incorpora esta tesis son las siguientes: Desarrollo práctico de la teoría global de pantallas acústicas tubulares ; Aplicación de la geometría clásica, en el concepto de longitudes de curvas tipo, a las técnicas de ingeniería del medio ambiente lo que representa un avance cualitativo notable ya que hasta la fecha no se había planteado la interacción de dos disciplinas en apariencia tan dispares y de conceptos tan heterogéneos ; Desarrollo de un método secuencial que es capaz de engarzar el análisis acústico de un cierto flujo de tráfico vehicular con el análisis geométrico de curvas tipo y dotar así al futuro diseñador de pantallas acústicas de una poderosa herramienta que le permita variar la tipología y forma de la pantalla en función de parámetros que pueden variar de manera aleatoria.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La cristalización de sales en los paramentos (eflorescencias), y bajo ellos (subflorescencias), es una de las principales causas de deterioro de los materiales de construcción de los edificios históricos. Las formas cristalinas de las sales que permanecen sometidas a flujos de humedad, cambian estacionalmente y en función de las condiciones ambientales, aunque todavía se desconocen muchos de los mecanismos implicados en estos procesos. Por ello, los autores han iniciado un proceso de investigación cuya finalidad es desarrollar una metodología específica que permita estudiar cómo las condiciones de evaporación, y más específicamente la velocidad del aire tangente a la superficie de evaporación, determinan el proceso de cristalización de las sales y su movilidad. Primero hemos desarrollado una metodología experimental para estudiar la influencia del caudal del aire en la formación de eflorescencias, y comprender mejor la evolución temporal de las formaciones salinas. Después hemos investigado la posibilidad de utilizar un caudal de aire controlado, para favorecer determinadas formas de cristalización de sales, en función del material afectado. Hemos realizado una serie de ensayos con diversos materiales, todos ellos porosos y contaminados con cantidades controladas de sal, con un dispositivo experimental específicamente diseñado para esta investigación. El objeto de esta comunicación es presentar el dispositivo experimental, y sus resultados. Estos nos han permitido observar el movimiento de la humedad y de la sal durante el secado, lo que puede utilizarse para plantear su posible extracción, es decir la optimización de los métodos de desalación y saneamiento de paramentos basados en esta técnica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de este artículo es obtener una visión más profunda de las características, condiciones, criterios y posibilidades del proyecto residencial actual en la vivienda colectiva obsoleta de la ciudad consolidada. El fracaso del crecimiento extensivo en la periferia durante los últimos veinte años ha puesto de manifiesto la necesidad de defender la vuelta al centro. Para ello, las políticas de construcción de vivienda ex novo deben dejar paso a otras políticas que consideren el parque residencial existente como materia de proyecto para la ciudad contemporánea. El futuro inmediato de ésta se centra en la definición de operaciones estratégicas de regeneración funcional y tipológica del tejido residencial de la ciudad existente. El reto es utilizar construcciones intelectuales nuevas sobre un soporte antiguo, esto es, llevar a cabo el proyecto de la vivienda del siglo XXI sobre una "carcasa" del XIX o del XX. La solución proyectual a dicha idea no pasa por hacer un proyecto específico para cada caso, sino por definir un proyecto genérico para la ciudad heredada y que se dejará en herencia. Las medidas de actualización de lo existente a escala residencial deben encaminarse hacia la neutralización del soporte habitable, la optimización de los recursos energéticos y la consecución de una regulación alternativa. Se pretende concebir, en definitiva, el edificio o la manzana de la ciudad consolidada de tipo postindustrial como una infraestructura residencial de uso público, donde la vivienda sea entendida como un servicio y no como un producto

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En los últimos años se han desarrollado una amplia variedad de herramientas educativas para la docencia. En especial, los laboratorios virtuales y remotos, como medios de educación, se van imponiendo en varios campos de la docencia. La teoría de control no está ajena a este desarrollo y son cada día más las universidades que implementan estas herramientas con el objetivo de optimizar sus recursos. Por ello, en esta tesis, se realiza un análisis de varias de las plataformas de laboratorios virtuales y remotos actuales. Este estudio sirvió de base para la implementación del Sistema de Laboratorios a Distancia (SLD). El Sistema de Laboratorios a Distancia tiene como ventajas fundamentales la independencia entre las estaciones de trabajo y el servidor, lo que permite que se puedan compartir recursos entre lugares distantes, a través de Internet. Además, la posibilidad de tener más de una estación de trabajo, con la misma práctica, controladas por el mismo servidor, lo que le brinda un mayor paralelismo. Por último, mencionar el hecho de permitir la realización de prácticas en tiempo real. En esta tesis se detalla la implementación de las prácticas remotas para el Sistema de Laboratorios a Distancia usadas en la asignatura de Regulación Automática durante los cursos 2008-2009 al 2010-2011. Estas prácticas fueron utilizadas, además de para las actividades prácticas de laboratorio, en el desarrollo de un proyecto de control, actividad ejecutada por los alumnos con un alto valor formativo. También se describen los trabajos prácticos desarrollados en el curso mediante el uso de AulaWeb. Se propone una metodología que se nutre de los resultados de cada curso con vistas a su mejoramiento. La realización de prácticas de forma presencial y remota permite combinar las ventajas de ambos métodos. La realización presencial de prácticas en el laboratorio tiene un gran valor formativo para los alumnos, permitiéndole conocer y manipular los equipos físicos con los que trabaja. Una vez que el alumno está familiarizado con los sistemas que utiliza puede trabajar con ellos a distancia, con las ventajas que ello conlleva de puesta a punto de los equipos y optimización de los recursos. El tiempo efectivo de uso de los sistemas físicos suele ser reducido, ya que la programación y captura de datos suele requerir entre 10 y 20 minutos. La realización de trabajos a distancia ahorra tiempo para el alumno a la vez que favorece el uso compartido de recursos. Otro aspecto de interés que surge al realizar actividades remotas es que no se limita el tiempo de utilización de los equipos, los alumnos pueden manipularlos sin restricciones de tiempo hasta que consideren que han alcanzado los objetivos deseados. La metodología aplicada permite la adquisición de competencias en los alumnos, específicamente las competencias para diseñar y ejecutar experimentos de control; así como analizar críticamente sus resultados. Todo desde un punto de vista de trabajo en equipo, y de forma colaborativa haciendo uso de las herramientas educativas AulaWeb y el Sistema de Laboratorios a Distancia (SLD) para la implementación de los experimentos remotos sobre equipos reales. Esta tesis se ajusta y da respuesta a los objetivos definidos como prioritarios por la Escuela Técnica Superior de Ingenieros Industriales de la Universidad Politécnica de Madrid en sus líneas de prioritarias para la Innovación Educativa. De igual forma cumple con el modelo educativo de la Universidad Politécnica de Madrid (Plan de eficiencia educativa), así como con las recomendaciones sobre competencias del Consejo de Acreditación de Ingeniería y Tecnología (Accreditation Board for Engineering and Technology, ABET). Se analizan los datos recogidos mediante la observación participante, las encuestas y las entrevistas grupales por cada curso académico en los que se realizó la investigación, y se proponen los cambios y mejoras para el próximo período académico. De igual forma se exponen los resultados de los alumnos en los tres cursos que duró la investigación. Esta investigación se ha desarrollado en el marco de dos proyectos de Innovación Educativa financiados por la Universidad Politécnica de Madrid. Además, ha formado parte del Programa de Cooperación Universitaria Institucional (IUC) de la Universidad Central “Marta Abreu” de Las Villas (UCLV) con el Consejo de Universidades Flamencas (VLIR).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Para la mejora continua de los procesos de fabricación y con el objetivo de alcanzar niveles óptimos de productividad, calidad y coste en la producción de componentes y productos, es fundamental disponer de un modelo preciso del proceso de corte. Estos modelos constituyen la base para la simulación del proceso de mecanizado que va a permitir calcular las fuerzas de corte, potencias o tiempos de ciclo. Un primer objetivo de esta tesis se ha centrado en el desarrollo de un modelo de estimación de fuerzas en fresado periférico. Este modelo no solo realiza la estimación de las fuerzas de corte sino que también considera la geometría del proceso en cada instante con el fin de calcular los arcos de empañe en cada rotación de la herramienta. El nuevo modelo desarrollado está basado en el espesor de viruta medio que, a diferencia de los modelos basados discos elementales, no necesita cálculos repetitivos. Este modelo permite estimar las fuerzas de corte no solo en condiciones uniformes sino también en régimen variable con cambios en los valores de ancho de corte y de profundidad de corte. Se han llevado a cabo un elevado número de ensayos, con herramientas de diferentes diámetros y para distintos materiales, con el fin de analizar el comportamiento de la herramienta. Se concluye que el modelo propuesto ofrece unos resultados óptimos en situaciones variables. Un segundo objetivo ha sido la optimización del fresado a través de la definición de estrategias de mecanizado de forma que sea posible su programación en una etapa previa a la fabricación del componente. Esta fase de optimización de las trayectorias de mecanizado estaría orientada sobre todo a situaciones en las que la herramienta está sometida a variaciones importantes de las condiciones de corte. La estrategia de mecanizado seleccionada se basa en la influencia que tiene la geometría y la evolución de las fuerzas en fresado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La investigación realizada en este trabajo de tesis se ha centrado en la caracterización y optimización del sistema Fe/Gd/Fe y en el estudio de su efecto en el transporte dependiente de espín y en la transferencia de espín (STT) en dispositivos magnéticos. El fenómeno de STT, uno de los grandes descubrimientos de la espintrónica, se basa en la transferencia de momento angular de una corriente polarizada de espín a la imanación local de un material magnético. Este efecto se traduce en que una corriente polarizada de espín puede provocar variaciones en la imanación del material sin necesidad de campo magnético aplicado. Este fenómeno necesita una densidad de corriente muy alta, de manera que sus efectos solo se observan en dispositivos de tamaño nanométrico a partir de la llamada densidad de corriente crítica. El STT tiene un gran potencial tecnológico para distintas aplicaciones, como emisores de radiofrecuencia para comunicación in-chip o memorias magnéticas alternativas, en que se podría leer y escribir la información únicamente mediante corriente, sin necesidad de aplicar campo magnético ni utilizar bobinas de detección. Desde el punto de vista de este tipo de aplicaciones hay un gran interés en disminuir la densidad de corriente crítica a la que empieza a observarse el efecto. Sin embargo, hay otro tipo de dispositivos en que el STT supone un problema o factor limitante. Este es el caso de las cabezas lectoras de ordenador, en las que a partir de la densidad de corriente crítica aparece ruido e inestabilidad adicional en la señal inducidos por STT, lo que limita su sensibilidad. Para este tipo de aplicación, se desea por tanto que la corriente crítica a partir de la cual aparece ruido e inestabilidad adicional en la señal sea tan grande como sea posible. El Gd (y especialmente el sistema Fe/Gd/Fe) tiene unas características muy particulares con potencial para afectar varias propiedades relacionadas con la densidad de corriente crítica de un dispositivo de STT. Por este motivo, resulta interesante introducir la tricapa Fe/Gd/Fe en la capa libre de este tipo de dispositivos y estudiar cómo afecta a su estabilidad. Para ello, una primera parte del trabajo se ha centrado en la exhaustiva caracterización del sistema Fe/Gd/Fe y la optimización de sus propiedades de cara a su introducción en la capa libre de dispositivos de STT. Por otro lado, la intención final es alterar o controlar el efecto de transferencia de espín en un dispositivo afectando lo menos posible al resto de las propiedades intrínsecas de su funcionamiento (por ejemplo, al valor de su magnetorresistencia). Por tanto, ha sido necesario estudiar los efectos del sistema Fe/Gd/Fe en el transporte de espín y determinar la manera de introducir la tricapa en el dispositivo optimizando el resto de sus propiedades o afectándolas lo menos posible. Finalmente, hemos introducido el sistema Fe/Gd/Fe en la capa libre de nanodispositivos y hemos estudiado su efecto en la corriente crítica de inestabilidad por STT. Los resultados muestran que estas tricapas Fe/Gd/Fe pueden suponer una solución potencial para los problemas de estabilidad de algunos nanodispositivos magnéticos como las cabezas lectoras magnéticas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El tema central de investigación en esta Tesis es el estudio del comportamientodinámico de una estructura mediante modelos que describen la distribución deenergía entre los componentes de la misma y la aplicación de estos modelos parala detección de daños incipientes.Los ensayos dinámicos son un modo de extraer información sobre las propiedadesde una estructura. Si tenemos un modelo de la estructura se podría ajustar éstepara que, con determinado grado de precisión, tenga la misma respuesta que elsistema real ensayado. Después de que se produjese un daño en la estructura,la respuesta al mismo ensayo variará en cierta medida; actualizando el modelo alas nuevas condiciones podemos detectar cambios en la configuración del modeloestructural que nos condujeran a la conclusión de que en la estructura se haproducido un daño.De este modo, la detección de un daño incipiente es posible si somos capacesde distinguir una pequeña variación en los parámetros que definen el modelo. Unrégimen muy apropiado para realizar este tipo de detección es a altas frecuencias,ya que la respuesta es muy dependiente de los pequeños detalles geométricos,dado que el tamaño característico en la estructura asociado a la respuesta esdirectamente proporcional a la velocidad de propagación de las ondas acústicas enel sólido, que para una estructura dada es inalterable, e inversamente proporcionala la frecuencia de la excitación. Al mismo tiempo, esta característica de la respuestaa altas frecuencias hace que un modelo de Elementos Finitos no sea aplicable enla práctica, debido al alto coste computacional.Un modelo ampliamente utilizado en el cálculo de la respuesta de estructurasa altas frecuencias en ingeniería es el SEA (Statistical Energy Analysis). El SEAaplica el balance energético a cada componente estructural, relacionando la energíade vibración de estos con la potencia disipada por cada uno de ellos y la potenciatransmitida entre ellos, cuya suma debe ser igual a la potencia inyectada a cadacomponente estructural. Esta relación es lineal y viene caracterizada por los factoresde pérdidas. Las magnitudes que intervienen en la respuesta se consideranpromediadas en la geometría, la frecuencia y el tiempo.Actualizar el modelo SEA a datos de ensayo es, por lo tanto, calcular losfactores de pérdidas que reproduzcan la respuesta obtenida en éste. Esta actualización,si se hace de manera directa, supone la resolución de un problema inversoque tiene la característica de estar mal condicionado. En la Tesis se propone actualizarel modelo SEA, no en término de los factores de pérdidas, sino en términos deparámetros estructurales que tienen sentido físico cuando se trata de la respuestaa altas frecuencias, como son los factores de disipación de cada componente, susdensidades modales y las rigideces características de los elementos de acoplamiento.Los factores de pérdidas se calculan como función de estos parámetros. Estaformulación es desarrollada de manera original en esta Tesis y principalmente sefunda en la hipótesis de alta densidad modal, es decir, que en la respuesta participanun gran número de modos de cada componente estructural.La teoría general del método SEA, establece que el modelo es válido bajounas hipótesis sobre la naturaleza de las excitaciones externas muy restrictivas,como que éstas deben ser de tipo ruido blanco local. Este tipo de carga es difícil dereproducir en condiciones de ensayo. En la Tesis mostramos con casos prácticos queesta restricción se puede relajar y, en particular, los resultados son suficientementebuenos cuando la estructura se somete a una carga armónica en escalón.Bajo estas aproximaciones se desarrolla un algoritmo de optimización por pasosque permite actualizar un modelo SEA a un ensayo transitorio cuando la carga esde tipo armónica en escalón. Este algoritmo actualiza el modelo no solamente parauna banda de frecuencia en particular sino para diversas bandas de frecuencia demanera simultánea, con el objetivo de plantear un problema mejor condicionado.Por último, se define un índice de daño que mide el cambio en la matriz depérdidas cuando se produce un daño estructural en una localización concreta deun componente. Se simula numéricamente la respuesta de una estructura formadapor vigas donde producimos un daño en la sección de una de ellas; como se tratade un cálculo a altas frecuencias, la simulación se hace mediante el Método delos Elementos Espectrales para lo que ha sido necesario desarrollar dentro de laTesis un elemento espectral de tipo viga dañada en una sección determinada. Losresultados obtenidos permiten localizar el componente estructural en que se haproducido el daño y la sección en que éste se encuentra con determinado grado deconfianza.AbstractThe main subject under research in this Thesis is the study of the dynamic behaviourof a structure using models that describe the energy distribution betweenthe components of the structure and the applicability of these models to incipientdamage detection.Dynamic tests are a way to extract information about the properties of astructure. If we have a model of the structure, it can be updated in order toreproduce the same response as in experimental tests, within a certain degree ofaccuracy. After damage occurs, the response will change to some extent; modelupdating to the new test conditions can help to detect changes in the structuralmodel leading to the conclusión that damage has occurred.In this way incipient damage detection is possible if we are able to detect srnallvariations in the model parameters. It turns out that the high frequency regimeis highly relevant for incipient damage detection, because the response is verysensitive to small structural geometric details. The characteristic length associatedwith the response is proportional to the propagation speed of acoustic waves insidethe solid, but inversely proportional to the excitation frequency. At the same time,this fact makes the application of a Finite Element Method impractical due to thehigh computational cost.A widely used model in engineering when dealing with the high frequencyresponse is SEA (Statistical Energy Analysis). SEA applies the energy balance toeach structural component, relating their vibrational energy with the dissipatedpower and the transmitted power between the different components; their summust be equal to the input power to each of them. This relationship is linear andcharacterized by loss factors. The magnitudes considered in the response shouldbe averaged in geometry, frequency and time.SEA model updating to test data is equivalent to calculating the loss factorsthat provide a better fit to the experimental response. This is formulated as an illconditionedinverse problem. In this Thesis a new updating algorithm is proposedfor the study of the high frequency response regime in terms of parameters withphysical meaning such as the internal dissipation factors, modal densities andcharacteristic coupling stiffness. The loss factors are then calculated from theseparameters. The approach is developed entirely in this Thesis and is mainlybased on a high modal density asumption, that is to say, a large number of modescontributes to the response.General SEA theory establishes the validity of the model under the asumptionof very restrictive external excitations. These should behave as a local white noise.This kind of excitation is difficult to reproduce in an experimental environment.In this Thesis we show that in practical cases this assumption can be relaxed, inparticular, results are good enough when the structure is excited with a harmonicstep function.Under these assumptions an optimization algorithm is developed for SEAmodel updating to a transient test when external loads are harmonic step functions.This algorithm considers the response not only in a single frequency band,but also for several of them simultaneously.A damage index is defined that measures the change in the loss factor matrixwhen a damage has occurred at a certain location in the structure. The structuresconsidered in this study are built with damaged beam elements; as we are dealingwith the high frequency response, the numerical simulation is implemented witha Spectral Element Method. It has therefore been necessary to develop a spectralbeam damaged element as well. The reported results show that damage detectionis possible with this algorithm, moreover, damage location is also possible withina certain degree of accuracy.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la industria minera no siempre se realiza un adecuado estudio previo de la relación entre la mineralización existente en el yacimiento y el tratamiento y concentración de la mena, lo que impide la optimización en los procesos y conduce hacia un mal procesamiento del mineral con consecuencias nefastas para el medio ambiente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este artículo se describe una experiencia de innovación educativa realizada en el marco de la titulación de Sistemas de Telecomunicación de la EUITT de la Universidad Politécnica de Madrid, en la que se ha intentado graduar la dificultad de acceso de los alumnos al uso de ciertos laboratorios altamente tecnificados, por medio de instrumentos pedagógicos basados en el uso de tecnologías de la información y las comunicaciones. Se presenta, por tanto, un escenario propicio para la aplicación de una metodología educativa de formación combinada o blended-learning que potencie el proceso de aprendizaje de los estudiantes así como la optimización del uso de los costosos recursos materiales puestos a su disposición.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El avance de la presión antrópica sobre las márgenes de los cauces, y la creciente dificultad técnica, política y social para ejecutar nuevos proyectos de grandes presas, promueve la necesidad de utilizar más eficientemente los sistemas de control de avenidas existentes. En el presente trabajo se presenta una metodología de análisis para evaluar y comparar las estrategias de gestión de embalses, considerando su operación individual, a fin de establecer la más adecuada. En particular se comparan dos modos de gestión ante situación de avenidas: el Método de Evaluación Volumétrica (MEV) desarrollado por Girón (1988), de amplia difusión en España, y un modelo de optimización de la gestión mediante Programación Lineal Entera Mixta (PLEM). Para ello se ha implementado un entorno de cálculo con estructura modular. El primer módulo permite generar un conjunto representativo de hidrogramas de entrada a los embalses mediante simulación de Monte Carlo. Luego, dos módulos que funcionan en paralelo simulan la gestión del embalse según las dos estrategias mencionadas (MEV y PLEM). Finalmente, se evalúa el comportamiento de ambas estrategias ante el conjunto de solicitaciones hidrológicas generado. Se propone el empleo del Índice de Riesgo Global (I1), que pondera el resultado de la estrategia de gestión frente a un conjunto de hidrogramas de solicitación. Dicho indicador tiene en cuenta el daño esperado debido a los caudales máximos vertidos y el riesgo para la presa debido a los niveles máximos alcanzados en el embalse. Para ello se analiza la función de distribución de probabilidad de las dos variables (máximo caudal vertido y máximo nivel alcanzado) para la población de hidrogramas analizada. El modelo PLEM se calibra empleando el índice I1. Este mismo índice es utilizado para comparar ambas estrategias, entendiendo como la más adecuada aquella que tenga asociado el menor I1. Este sistema de análisis se aplicó a tres embalses de la cuenca del río Segura, con diferentes características en lo referente al tipo y capacidad de aliviadero, volumen de embalse y de resguardo. En los tres casos se han obtenido mejores resultados con el modelo PLEM que con el modelo MEV, tanto en lo concerniente a caudales máximos vertidos como a los niveles máximos alcanzados, para todo el rango de avenidas analizado. Sin embargo, la diferencia entre ambas estrategias no es muy significativa y el MEV presenta características que lo hacen más adecuado para su empleo en tiempo real

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El propósito principal de esta investigación es la aplicación de la Metaplasticidad Artificial en un Perceptrón Multicapa (AMMLP) como una herramienta de minería de datos para la predicción y extracción explícita de conocimiento del proceso de rehabilitación cognitiva en pacientes con daño cerebral adquirido. Los resultados obtenidos por el AMMLP junto con el posterior análisis de la base de datos ayudarían a los terapeutas a conocer las características de los pacientes que mejoran y los programas de rehabilitación que han seguido. Esto incrementaría el conocimiento del proceso de rehabilitación y facilitaría la elaboración de hipótesis terapéuticas permitiendo la optimización y personalización de las terapias. La evaluación del AMMLP se ha realizado con datos proporcionados por el Institut Guttmann. Los resultados del AMMLP fueron comparados con los obtenidos con una red neuronal de retropropagación y con árboles de decisión. La exactitud en la predicción obtenida por el AMMLP en la subfunción cognitiva memoria verbal-visual fue de 90.71 %, resultado muy superior a los obtenidos por los demás algoritmos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Identificar, cuantificar y gestionar el riesgo económico asociado a las decisiones de inversión supone un desafío para ejecutivos e inversores del sector minero. Sin embargo, en gran parte de los estudios de factibilidad de proyectos mineros, la evaluación de riesgo se basa en la modelización estocástica de la rentabilidad, que aportan poco en los aspectos de gestión del riesgo y toma de decisión. En mi presentación, les planteo un nuevo enfoque en que el riesgo se evalúa en cada etapa de la cadena de valor del proyecto, desde la exploración hasta el cierre de la mina, lo que permite la gestión de riesgo como un proceso escalonado de optimización del valor añadido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El proceso de construcción incide sobre el medio ambiente desde la obtención de los recursos que utiliza, hasta la optimización del uso de la energía y el desecho de materiales y sustancias de diversa índole. Es ingente que el sector de la construcción considere su responsabilidad al respecto y cuente con herramientas de fácil aplicación, como la que pretende ofrecer esta investigación, que le permita determinar el impacto que tendrá sobre el ambiente una determinada solución estructural. A lo largo del presente trabajo se realiza una revisión de los principales instrumentos de evaluación y de las diferentes metodologías creadas para la evaluación del impacto ambiental, en base a estas se realiza la propuesta de un índice para la evaluación de las estructuras, la cual sirve para realizar una comparación entre dos soluciones estructurales. Los objetivos de este trabajo son: hacer una aproximación cuantitativa a la evaluación del impacto ambiental ocasionado por una estructura ; motivar a los proyectistas a tomar en cuenta los factores ambientales al momento de proyectar, por medio del uso de instrumentos de fácil aplicación ; realizar una revisión bibliográfica de los diferentes sistemas que existen a nivel mundial para cuantificar el impacto ambiental, específicamente buscando los sistemas que cuantifiquen el impacto de la estructura, entendiendo como estructura el conjunto de elementos (vigas, losa o forjado, columnas o pilares y cimentación) que soportan la estructura ; desarrollar un instrumento mediante el cual se pueda evaluar de manera cuantitativa y sencilla el impacto ambiental de una estructura. Que a su vez sirva a los proyectistas de una base o instrumento para poder evaluar la eficiencia de una estructura propuesta en base al impacto ambiental de la misma.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El cálculo de relaciones binarias fue creado por De Morgan en 1860 para ser posteriormente desarrollado en gran medida por Peirce y Schröder. Tarski, Givant, Freyd y Scedrov demostraron que las álgebras relacionales son capaces de formalizar la lógica de primer orden, la lógica de orden superior así como la teoría de conjuntos. A partir de los resultados matemáticos de Tarski y Freyd, esta tesis desarrolla semánticas denotacionales y operacionales para la programación lógica con restricciones usando el álgebra relacional como base. La idea principal es la utilización del concepto de semántica ejecutable, semánticas cuya característica principal es el que la ejecución es posible utilizando el razonamiento estándar del universo semántico, este caso, razonamiento ecuacional. En el caso de este trabajo, se muestra que las álgebras relacionales distributivas con un operador de punto fijo capturan toda la teoría y metateoría estándar de la programación lógica con restricciones incluyendo los árboles utilizados en la búsqueda de demostraciones. La mayor parte de técnicas de optimización de programas, evaluación parcial e interpretación abstracta pueden ser llevadas a cabo utilizando las semánticas aquí presentadas. La demostración de la corrección de la implementación resulta extremadamente sencilla. En la primera parte de la tesis, un programa lógico con restricciones es traducido a un conjunto de términos relacionales. La interpretación estándar en la teoría de conjuntos de dichas relaciones coincide con la semántica estándar para CLP. Las consultas contra el programa traducido son llevadas a cabo mediante la reescritura de relaciones. Para concluir la primera parte, se demuestra la corrección y equivalencia operacional de esta nueva semántica, así como se define un algoritmo de unificación mediante la reescritura de relaciones. La segunda parte de la tesis desarrolla una semántica para la programación lógica con restricciones usando la teoría de alegorías—versión categórica del álgebra de relaciones—de Freyd. Para ello, se definen dos nuevos conceptos de Categoría Regular de Lawvere y _-Alegoría, en las cuales es posible interpretar un programa lógico. La ventaja fundamental que el enfoque categórico aporta es la definición de una máquina categórica que mejora e sistema de reescritura presentado en la primera parte. Gracias al uso de relaciones tabulares, la máquina modela la ejecución eficiente sin salir de un marco estrictamente formal. Utilizando la reescritura de diagramas, se define un algoritmo para el cálculo de pullbacks en Categorías Regulares de Lawvere. Los dominios de las tabulaciones aportan información sobre la utilización de memoria y variable libres, mientras que el estado compartido queda capturado por los diagramas. La especificación de la máquina induce la derivación formal de un juego de instrucciones eficiente. El marco categórico aporta otras importantes ventajas, como la posibilidad de incorporar tipos de datos algebraicos, funciones y otras extensiones a Prolog, a la vez que se conserva el carácter 100% declarativo de nuestra semántica. ABSTRACT The calculus of binary relations was introduced by De Morgan in 1860, to be greatly developed by Peirce and Schröder, as well as many others in the twentieth century. Using different formulations of relational structures, Tarski, Givant, Freyd, and Scedrov have shown how relation algebras can provide a variable-free way of formalizing first order logic, higher order logic and set theory, among other formal systems. Building on those mathematical results, we develop denotational and operational semantics for Constraint Logic Programming using relation algebra. The idea of executable semantics plays a fundamental role in this work, both as a philosophical and technical foundation. We call a semantics executable when program execution can be carried out using the regular theory and tools that define the semantic universe. Throughout this work, the use of pure algebraic reasoning is the basis of denotational and operational results, eliminating all the classical non-equational meta-theory associated to traditional semantics for Logic Programming. All algebraic reasoning, including execution, is performed in an algebraic way, to the point we could state that the denotational semantics of a CLP program is directly executable. Techniques like optimization, partial evaluation and abstract interpretation find a natural place in our algebraic models. Other properties, like correctness of the implementation or program transformation are easy to check, as they are carried out using instances of the general equational theory. In the first part of the work, we translate Constraint Logic Programs to binary relations in a modified version of the distributive relation algebras used by Tarski. Execution is carried out by a rewriting system. We prove adequacy and operational equivalence of the semantics. In the second part of the work, the relation algebraic approach is improved by using allegory theory, a categorical version of the algebra of relations developed by Freyd and Scedrov. The use of allegories lifts the semantics to typed relations, which capture the number of logical variables used by a predicate or program state in a declarative way. A logic program is interpreted in a _-allegory, which is in turn generated from a new notion of Regular Lawvere Category. As in the untyped case, program translation coincides with program interpretation. Thus, we develop a categorical machine directly from the semantics. The machine is based on relation composition, with a pullback calculation algorithm at its core. The algorithm is defined with the help of a notion of diagram rewriting. In this operational interpretation, types represent information about memory allocation and the execution mechanism is more efficient, thanks to the faithful representation of shared state by categorical projections. We finish the work by illustrating how the categorical semantics allows the incorporation into Prolog of constructs typical of Functional Programming, like abstract data types, and strict and lazy functions.