998 resultados para Problemas complejos


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Incluye Bibliografía

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente trabajo hace referencia a la importancia que adquiere en la actualidad la formación profesional de los orientadores. Hay un recorrido histórico por las diferentes etapas precientíficas y científicas de la orientación haciendo mención de los principales exponentes en Latinoamérica. Luego se muestra el estado actual de la especialidad, tomando como antecedente una investigación realizada en la Comunidad Europea de amplio espectro y profundidad en el área. Aquí se exponen las coincidencias y divergencias en cuanto a los perfiles profesionales, títulos de grado, dependencia institucional, capacitación y modalidades de intervención. Luego, nos encontramos con el estado actual de los postgrados en las universidades, analizando las diferentes propuestas de capacitación en Latinoamérica, y su dependencia del título de grado de la disciplina de origen: psicología, ciencias de la educación y/o psicopedagogía. Por último, se plantea el tema de la orientación ante la complejidad y la necesidad de dar respuestas abarcativas e integrales, que requieren una formación lo suficientemente amplia y profunda que pueda dar posibles respuestas a estos temas y problemas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente trabajo hace referencia a la importancia que adquiere en la actualidad la formación profesional de los orientadores. Hay un recorrido histórico por las diferentes etapas precientíficas y científicas de la orientación haciendo mención de los principales exponentes en Latinoamérica. Luego se muestra el estado actual de la especialidad, tomando como antecedente una investigación realizada en la Comunidad Europea de amplio espectro y profundidad en el área. Aquí se exponen las coincidencias y divergencias en cuanto a los perfiles profesionales, títulos de grado, dependencia institucional, capacitación y modalidades de intervención. Luego, nos encontramos con el estado actual de los postgrados en las universidades, analizando las diferentes propuestas de capacitación en Latinoamérica, y su dependencia del título de grado de la disciplina de origen: psicología, ciencias de la educación y/o psicopedagogía. Por último, se plantea el tema de la orientación ante la complejidad y la necesidad de dar respuestas abarcativas e integrales, que requieren una formación lo suficientemente amplia y profunda que pueda dar posibles respuestas a estos temas y problemas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente trabajo hace referencia a la importancia que adquiere en la actualidad la formación profesional de los orientadores. Hay un recorrido histórico por las diferentes etapas precientíficas y científicas de la orientación haciendo mención de los principales exponentes en Latinoamérica. Luego se muestra el estado actual de la especialidad, tomando como antecedente una investigación realizada en la Comunidad Europea de amplio espectro y profundidad en el área. Aquí se exponen las coincidencias y divergencias en cuanto a los perfiles profesionales, títulos de grado, dependencia institucional, capacitación y modalidades de intervención. Luego, nos encontramos con el estado actual de los postgrados en las universidades, analizando las diferentes propuestas de capacitación en Latinoamérica, y su dependencia del título de grado de la disciplina de origen: psicología, ciencias de la educación y/o psicopedagogía. Por último, se plantea el tema de la orientación ante la complejidad y la necesidad de dar respuestas abarcativas e integrales, que requieren una formación lo suficientemente amplia y profunda que pueda dar posibles respuestas a estos temas y problemas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La falta de información es un escenario más que habitual en la utilización de conjuntos de datos. En las aplicaciones del mundo real existen múltiples causas – errores o fallos de los sensores cuando se trabaja con equipos automáticos, desconocimiento o falta de interés por parte de los responsables de introducir la información, negativas por parte de los informantes a responder a preguntas sobre temas comprometidos en encuestas … – que pueden originarlo. Como consecuencia de ello, el procesamiento de los valores ausentes es, en la práctica, uno de los trabajos que más tiempo consumen en los proyectos de minería de datos y aprendizaje automático [109] y se estima que alrededor del 60% de los esfuerzos se destinan al mismo [23]. Aunque la ausencia puede producirse en cualquier tipo de datos, sean éstos numéricos o categóricos, nos vamos a centrar en los últimos a causa de algunas peculiaridades que merece la pena estudiar. Y hablaremos indistintamente de ausencia de información, valores ausentes, falta de respuesta, datos parcialmente observados o falta de datos, pues en cualquiera de estas formas aparece citado el problema. Las técnicas para afrontarlo se vienen desarrollando ya desde hace tiempo [135], [6] y existen numerosas referencias en la literatura, sobre todo acerca de la falta de respuesta 6 en encuestas [32], [79]. Sin embargo, en el ámbito del aprendizaje automático es en los últimos años cuando se ha convertido en un área de investigación dinámica, con frecuentes aportaciones [94]. Los dos puntos de vista, el estadístico y el del aprendizaje automático, consideran el problema en formas bien diferentes y tienen distintos objetivos, lo que origina, a su vez, discrepancias en la clasificación de las técnicas y en los criterios para su evaluación. Por un lado, el enfoque estadístico paramétrico tradicional considera el conjunto de datos como una muestra, resultado de la extracción aleatoria de una población con una distribución probabilística. Bajo este supuesto, el objetivo es obtener algunos de los parámetros que caracterizan esa distribución – la media, la moda, la correlación entre variables, etc. – calculándose los correspondientes estimadores como funciones de los datos de la muestra. La ausencia de datos es, aquí, un problema de estimación que se afronta desde diferentes perspectivas. Por su parte, en el ámbito de los procedimientos de aprendizaje automático existen múltiples técnicas que pueden utilizarse para tratar los datos ausentes mediante su sustitución por valores obtenidos a partir de los datos observados: redes neuronales, árboles de decisión, etc. Cuando los datos que faltan son categóricos, se pueden utilizar técnicas específicas como los procedimientos de clasificación: las categorías a asignar coinciden con los distintos valores posibles del atributo que tiene falta de información. Pueden utilizarse métodos supervisados y no supervisados. En el primer caso, cuando existe más de un atributo con falta de datos, el aprendizaje se realiza sucesiva y separadamente para cada uno, lo que significa que la tarea ha de repetirse tantas veces como atributos con valores ausentes hay en el conjunto de datos [72]. El inicio de los trabajos de esta tesis ha estado principalmente motivado en la necesidad de mejorar los resultados obtenidos al tratar de resolver problemas de falta de 7 información de variables categóricas en sondeos de opinión utilizando los procedimientos que la literatura considera como el estado del arte en ese ámbito. Se ha encontrado, así, que muchos de los métodos que se proponen tienen hipótesis de funcionamiento que están muy lejos de las situaciones reales que se encuentran en la práctica y, además, las soluciones existentes han avanzado frecuentemente en direcciones no adecuadas, sin replantear los fundamentos básicos. Esto ha conducido de una forma natural a probar métodos propios de otro ámbito como es el aprendizaje automático, para lo que ha sido necesario, en ocasiones, proponer modificaciones de algunos procedimientos ya existentes de modo que pudieran aceptar como entradas el tipo de datos que estos sondeos de opinión manejan. Como resultado, y en el caso concreto de un tipo específico de redes neuronales, se ha diseñado una nueva arquitectura y un nuevo algoritmo de funcionamiento que se presentan aquí como aportación más novedosa de este estudio.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este libro, Problemas de Matemáticas, junto con otros dos, Problemas de Geometría y Problemas de Geometría Analítica y Diferencial, están dedicados a la presentación y resolución de problemas que se planteaban hace unas décadas, en la preparación para ingreso en las carreras de ingeniería técnica superior. Incluye 1578 problemas, de los que 848 se refieren al Álgebra (operaciones algebraicas, divisibilidad, combinatoria, determinantes, ecuaciones e inecuaciones, fracciones continuas, números complejos, límites, sucesiones y series, y algunos sobre vectores y mecánica), 175 a la Trigonometría (plana y esférica), 282 al Cálculo diferencial (funciones de una variable, y de dos o más variables), 246 al Cálculo integral (integrales, integrales definidas, integrales en el campo de dos o más variables y ecuaciones diferenciales) y 27 a la Estadística. Esta tercera edición de Problemas de Matemáticas tiene por objeto su puesta a disposición de la Escuela de Ingenieros de Minas de la Universidad Politécnica de Madrid.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La creciente demanda de sistemas informáticos abiertos y con gran interacción entre cada una de sus partes, incluyendo también usuarios humanos, ha hecho aumentar el interés y el uso de sistemas donde múltiples agentes interactúan para alcanzar sus metas. Las interacciones pueden tener el objetivo de mejorar la eficiencia de los agentes aumentando el rendimiento del sistema, pero también pueden estar pensadas para posibilitar que nuevas metas —que un agente no sería capaz de alcanzar de forma individual— puedan ser conseguidas cuando varios de ellos trabajan en conjunto. En paralelo a este crecimiento, con el avance en el campo de investigación de los agentes software, y también por los recientes descubrimientos acerca de la importancia de determinados aspectos cognitivos en el proceso de toma de decisión y resolución de problemas, la idea de la inclusión de influencias cognitivas en el modelo de razonamiento de estos agentes se presenta como una alternativa muy atractiva para mejorar su comportamiento en general, y especialmente el social, en comparación con sistemas que no consideran estos aspectos en el diseño de soluciones para entornos complejos. Pensando en proveer una solución que pueda contribuir, de alguna manera, al avance en estas dos áreas, el presente trabajo presenta una arquitectura cognitiva para modelar agentes con habilidades sociales partiendo de una arquitectura base, que proporciona los comportamientos cognitivos reactivos y deliberativos de los agentes. La arquitectura ampliada debe aportar agentes cognitivos sociales capaces de afrontar mejor el aumento de la complejidad de los sistemas y presentar comportamientos más coherentes, explicables y más creíbles durante sus interacciones con los demás. Dos teorías sociológicas proponen los componentes y estructuras que han inspirado el desarrollo de esta arquitectura social, aportando mecanismos que permiten obtener una coordinación descentralizada en un entorno social dinámico y rico en interacciones: la Teoría de Roles y la Teoría de la Actividad. Los resultados alcanzados con el desarrollo de esta arquitectura dejan traslucir su capacidad para modelar agentes sociales cognitivos capaces de interactuar de forma personalizada entre ellos para la satisfacción de metas. Los nuevos componentes y mecanismos de la arquitectura han permitido conjugar y enriquecer los comportamientos reactivo-deliberativos de la arquitectura base con comportamientos sociales elaborados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La heterogeneidad del medio geológico introduce en el proyecto de obra subterránea un alto grado de incertidumbre que debe ser debidamente gestionado a fin de reducir los riesgos asociados, que son fundamentalmente de tipo geotécnico. Entre los principales problemas a los que se enfrenta la Mecánica de Rocas moderna en el ámbito de la construcción subterránea, se encuentran la fluencia de roca en túneles (squeezing) y la rotura de pilares de carbón. Es ampliamente conocido que su aparición causa importantes perjuicios en el coste y la seguridad de los proyectos por lo que su estudio, ha estado tradicionalmente vinculado a la predicción de su ocurrencia. Entre las soluciones existentes para la determinación de estos problemas se encuentran las que se basan en métodos analíticos y numéricos. Estas metodologías son capaces de proporcionar un alto nivel de representatividad respecto del comportamiento geotécnico real, sin embargo, su utilización solo es posible cuando se dispone de una suficiente caracterización geotécnica y por tanto de una detallada definición de los parámetros que alimentan los complejos modelos constitutivos y criterios de rotura que los fenómenos estudiados requieren. Como es lógico, este nivel de definición solo es posible cuando se alcanzan etapas avanzadas de proyecto, incluso durante la propia construcción, a fin de calibrar adecuadamente los parámetros introducidos en los modelos, lo que supone una limitación de uso en etapas iniciales, cuando su predicción tiene verdadero sentido. Por su parte, los métodos empíricos permiten proporcionar soluciones a estos complejos problemas de un modo sencillo, con una baja parametrización y, dado su eminente enfoque observacional, de gran fiabilidad cuando se implementan sobre condiciones de contorno similares a las originales. La sencillez y escasez de los parámetros utilizados permiten a estas metodologías ser utilizadas desde las fases preliminares del proyecto, ya que estos constituyen en general, información habitual de fácil y económica adquisición. Este aspecto permite por tanto incorporar la predicción desde el principio del proceso de diseño, anticipando el riesgo en origen. En esta tesis doctoral, se presenta una nueva metodología empírica que sirve para proporcionar predicciones para la ocurrencia de squeezing y el fallo de pilares de carbón basada en una extensa recopilación de información de casos reales de túneles y minas en las que ambos fenómenos fueron evaluados. Esta información, recogida de referencias bibliográficas de prestigio, ha permitido recopilar una de las más extensas bases de datos existentes hasta la fecha relativa a estos fenómenos, lo que supone en sí mismo una importante contribución sobre el estado del arte. Con toda esta información, y con la ayuda de la teoría de clasificadores estadísticos, se ha implementado sobre las bases de datos un clasificador lineal de tipo regresión logística que permite hacer predicciones sobre la ocurrencia de ambos fenómenos en términos de probabilidad, y por tanto ponderar la incertidumbre asociada a la heterogeneidad incorporada por el medio geológico. Este aspecto del desarrollo es el verdadero valor añadido proporcionado por la tesis y la principal ventaja de la solución propuesta respecto de otras metodologías empíricas. Esta capacidad de ponderación probabilística permite al clasificador constituir una solución muy interesante como metodología para la evaluación de riesgo geotécnico y la toma de decisiones. De hecho, y como ejercicio de validación práctica, se ha implementado la solución desarrollada en un modelo coste-beneficio asociado a la optimización del diseño de pilares involucrados en una de mina “virtual” explotada por tajos largos. La capacidad del clasificador para cuantificar la probabilidad de fallo del diseño, junto con una adecuada cuantificación de las consecuencias de ese fallo, ha permitido definir una ley de riesgo que se ha incorporado al balance de costes y beneficios, que es capaz, a partir del redimensionamiento iterativo del sistema de pilares y de la propia configuración de la mina, maximizar el resultado económico del proyecto minero bajo unas condiciones de seguridad aceptables, fijadas de antemano. Geological media variability introduces to the subterranean project a high grade of uncertainty that should be properly managed with the aim to reduce the associated risks, which are mainly geotechnical. Among the major problems facing the modern Rock Mechanics in the field of underground construction are both, the rock squeezing while tunneling and the failure of coal pillars. Given their harmfulness to the cost and safety of the projects, their study has been traditionally linked to the determination of its occurrence. Among the existing solutions for the determination of these problems are those that are based on analytical and numerical methods. Those methodologies allow providing a high level of reliability of the geotechnical behavior, and therefore a detailed definition of the parameters that feed the complex constitutive models and failure criteria that require the studied phenomena. Obviously, this level of definition is only possible when advanced stages of the project are achieved and even during construction in order to properly calibrate the parameters entered in the models, which suppose a limited use in early stages, when the prediction has true sense. Meanwhile, empirical methods provide solutions to these complex problems in a simple way, with low parameterization and, given his observational scope, with highly reliability when implemented on similar conditions to the original context. The simplicity and scarcity of the parameters used allow these methodologies be applied in the early stages of the project, since that information should be commonly easy and cheaply to get. This aspect can therefore incorporate the prediction from the beginning of the design process, anticipating the risk beforehand. This thesis, based on the extensive data collection of case histories of tunnels and underground mines, presents a novel empirical approach used to provide predictions for the occurrence of both, squeezing and coal pillars failures. The information has been collected from prestigious references, providing one of the largest databases to date concerning phenomena, a fact which provides an important contribution to the state of the art. With all this information, and with the aid of the theory of statistical classifiers, it has been implemented on both databases, a type linear logistic regression classifier that allows predictions about the occurrence of these phenomena in terms of probability, and therefore weighting the uncertainty associated with geological variability. This aspect of the development is the real added value provided by the thesis and the main advantage of the proposed solution over other empirical methodologies. This probabilistic weighting capacity, allows being the classifier a very interesting methodology for the evaluation of geotechnical risk and decision making. In fact, in order to provide a practical validation, we have implemented the developed solution within a cost-benefit analysis associated with the optimization of the design of coal pillar systems involved in a "virtual" longwall mine. The ability of the classifier to quantify the probability of failure of the design along with proper quantification of the consequences of that failure, has allowed defining a risk law which is introduced into the cost-benefits model, which is able, from iterative resizing of the pillar system and the configuration of the mine, maximize the economic performance of the mining project under acceptable safety conditions established beforehand.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los fundamentos de la Teoría de la Decisión Bayesiana proporcionan un marco coherente en el que se pueden resolver los problemas de toma de decisiones. La creciente disponibilidad de ordenadores potentes está llevando a tratar problemas cada vez más complejos con numerosas fuentes de incertidumbre multidimensionales; varios objetivos conflictivos; preferencias, metas y creencias cambiantes en el tiempo y distintos grupos afectados por las decisiones. Estos factores, a su vez, exigen mejores herramientas de representación de problemas; imponen fuertes restricciones cognitivas sobre los decisores y conllevan difíciles problemas computacionales. Esta tesis tratará estos tres aspectos. En el Capítulo 1, proporcionamos una revisión crítica de los principales métodos gráficos de representación y resolución de problemas, concluyendo con algunas recomendaciones fundamentales y generalizaciones. Nuestro segundo comentario nos lleva a estudiar tales métodos cuando sólo disponemos de información parcial sobre las preferencias y creencias del decisor. En el Capítulo 2, estudiamos este problema cuando empleamos diagramas de influencia (DI). Damos un algoritmo para calcular las soluciones no dominadas en un DI y analizamos varios conceptos de solución ad hoc. El último aspecto se estudia en los Capítulos 3 y 4. Motivado por una aplicación de gestión de embalses, introducimos un método heurístico para resolver problemas de decisión secuenciales. Como muestra resultados muy buenos, extendemos la idea a problemas secuenciales generales y cuantificamos su bondad. Exploramos después en varias direcciones la aplicación de métodos de simulación al Análisis de Decisiones. Introducimos primero métodos de Monte Cario para aproximar el conjunto no dominado en problemas continuos. Después, proporcionamos un método de Monte Cario basado en cadenas de Markov para problemas con información completa con estructura general: las decisiones y las variables aleatorias pueden ser continuas, y la función de utilidad puede ser arbitraria. Nuestro esquema es aplicable a muchos problemas modelizados como DI. Finalizamos con un capítulo de conclusiones y problemas abiertos.---ABSTRACT---The foundations of Bayesian Decisión Theory provide a coherent framework in which decisión making problems may be solved. With the advent of powerful computers and given the many challenging problems we face, we are gradually attempting to solve more and more complex decisión making problems with high and multidimensional uncertainty, múltiple objectives, influence of time over decisión tasks and influence over many groups. These complexity factors demand better representation tools for decisión making problems; place strong cognitive demands on the decison maker judgements; and lead to involved computational problems. This thesis will deal with these three topics. In recent years, many representation tools have been developed for decisión making problems. In Chapter 1, we provide a critical review of most of them and conclude with recommendations and generalisations. Given our second query, we could wonder how may we deal with those representation tools when there is only partial information. In Chapter 2, we find out how to deal with such a problem when it is structured as an influence diagram (ID). We give an algorithm to compute nondominated solutions in ID's and analyse several ad hoc solution concepts.- The last issue is studied in Chapters 3 and 4. In a reservoir management case study, we have introduced a heuristic method for solving sequential decisión making problems. Since it shows very good performance, we extend the idea to general problems and quantify its goodness. We explore then in several directions the application of simulation based methods to Decisión Analysis. We first introduce Monte Cario methods to approximate the nondominated set in continuous problems. Then, we provide a Monte Cario Markov Chain method for problems under total information with general structure: decisions and random variables may be continuous, and the utility function may be arbitrary. Our scheme is applicable to many problems modeled as IDs. We conclude with discussions and several open problems.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los fenómenos dinámicos pueden poner en peligro la integridad de estructuras aeroespaciales y los ingenieros han desarrollado diferentes estrategias para analizarlos. Uno de los grandes problemas que se plantean en la ingeniería es cómo atacar un problema dinámico estructural. En la presente tesis se plantean distintos fenómenos dinámicos y se proponen métodos para estimar o simular sus comportamientos mediante un análisis paramétrico determinista y aleatorio del problema. Se han propuesto desde problemas sencillos con pocos grados de libertad que sirven para analizar las diferentes estrategias y herramientas a utilizar, hasta fenómenos muy dinámicos que contienen comportamientos no lineales, daños y fallos. Los primeros ejemplos de investigación planteados cubren una amplia gama de los fenómenos dinámicos, como el análisis de vibraciones de elementos másicos, incluyendo impactos y contactos, y el análisis de una viga con carga armónica aplicada a la que también se le añaden parámetros aleatorios que pueden responder a un desconocimiento o incertidumbre de los mismos. Durante el desarrollo de la tesis se introducen conceptos y se aplican distintos métodos, como el método de elementos finitos (FEM) en el que se analiza su resolución tanto por esquemas implícitos como explícitos, y métodos de análisis paramétricos y estadísticos mediante la técnica de Monte Carlo. Más adelante, una vez ya planteadas las herramientas y estrategias de análisis, se estudian fenómenos más complejos, como el impacto a baja velocidad en materiales compuestos, en el que se busca evaluar la resistencia residual y, por lo tanto, la tolerancia al daño de la estructura. Se trata de un suceso que puede producirse por la caída de herramienta, granizo o restos en la pista de aterrizaje. Otro de los fenómenos analizados también se da en un aeropuerto y se trata de la colisión con un dispositivo frangible, el cual tiene que romperse bajo ciertas cargas y, sin embargo, soportar otras. Finalmente, se aplica toda la metodología planteada en simular y analizar un posible incidente en vuelo, el fenómeno de la pérdida de pala de un turbohélice. Se trata de un suceso muy particular en el que la estructura tiene que soportar unas cargas complejas y excepcionales con las que la aeronave debe ser capaz de completar con éxito el vuelo. El análisis incluye comportamientos no lineales, daños, y varios tipos de fallos, y en el que se trata de identificar los parámetros clave en la secuencia del fallo. El suceso se analiza mediante análisis estructurales deterministas más habituales y también mediante otras técnicas como el método de Monte Carlo con el que se logran estudiar distintas incertidumbres en los parámetros con variables aleatorias. Se estudian, entre otros, el tamaño de pala perdida, la velocidad y el momento en el que se produce la rotura, y la rigidez y resistencia de los apoyos del motor. Se tiene en cuenta incluso el amortiguamiento estructural del sistema. Las distintas estrategias de análisis permiten obtener unos resultados valiosos e interesantes que han sido objeto de distintas publicaciones. ABSTRACT Dynamic phenomena can endanger the integrity of aerospace structures and, consequently, engineers have developed different strategies to analyze them. One of the major engineering problems is how to deal with the structural dynamics. In this thesis, different dynamic phenomena are introduced and several methods are proposed to estimate or simulate their behaviors. The analysis is considered through parametric, deterministic and statistical methods. The suggested issues are from simple problems with few degrees of freedom, in order to develop different strategies and tools to solve them, to very dynamic phenomena containing nonlinear behaviors failures, damages. The first examples cover a wide variety of dynamic phenomena such as vibration analysis of mass elements, including impacts and contacts, and beam analysis with harmonic load applied, in which random parameters are included. These parameters can represent the unawareness or uncertainty of certain variables. During the development of the thesis several concepts are introduced and different methods are applied, such as the finite element method (FEM), which is solved through implicit and explicit schemes, and parametrical and statistical methods using the Monte Carlo analysis technique. Next, once the tools and strategies of analysis are set out more complex phenomena are studied. This is the case of a low-speed impact in composite materials, the residual strength of the structure is evaluated, and therefore, its damage tolerance. This incident may occur from a tool dropped, hail or debris throw on the runway. At an airport may also occur, and it is also analyzed, a collision between an airplane and a frangible device. The devise must brake under these loads, however, it must withstand others. Finally, all the considered methodology is applied to simulate and analyze a flight incident, the blade loss phenomenon of a turboprop. In this particular event the structure must support complex and exceptional loads and the aircraft must be able to successfully complete the flight. Nonlinear behavior, damage, and different types of failures are included in the analysis, in which the key parameters in the failure sequence are identified. The incident is analyzed by deterministic structural analysis and also by other techniques such as Monte Carlo method, in which it is possible to include different parametric uncertainties through random variables. Some of the evaluated parameters are, among others, the blade loss size, propeller rotational frequency, speed and angular position where the blade is lost, and the stiffness and strength of the engine mounts. The study does also research on the structural damping of the system. The different strategies of analysis obtain valuable and interesting results that have been already published.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Es bien conocido por todos el problema de la contaminación ambiental y las consecuencias que acarrea, tanto para la conservación del medio ambiente como para la salud humana. A raíz de dichos problemas dentro de la química surge una nueva corriente denominada Química Verde cuyo objetivo es hacer un uso responsable de la química tratando de mitigar o eliminar los efectos derivados de la misma relacionados con la contaminación. Dentro de los contaminantes más importantes se destacan los gases de efecto invernadero entre los cuales se encuentra el dióxido de carbono, uno de los más abundantes. Por otra parte, si se analizan los procesos de síntesis orgánica desde el punto de vista de la contaminación que puedan generar, una parte influyente son los componentes orgánicos volátiles empleados como disolventes, por lo que estudios recientes proponen como alternativa otro tipo de disolventes que sean biorenovables, como es el caso de los mezclas eutécticas de bajo punto de fusión. Dado que el CO2 tiene un papel importante en la síntesis orgánica, ya que se trata de un equivalente sintético de un carbono y al mismo tiempo es una fuente de carbono renovable, se ha planteado su uso como reactivo en transformaciones orgánicas. Concretamente, este trabajo se ha centrado en las reacciones de síntesis de carbonatos cíclicos por reacción de epóxidos con dióxido de carbono, catalizadas por complejos metálicos. Además con el fin de hacer este proceso más atractivo desde el punto de vista medioambiental se ha llevado a cabo dicha reacción utilizando disolventes eutécticos como alternativa a los disolventes orgánicos clásicos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Programa de doctorado: Ingeniería de Telecomunicación Avanzada. La fecha de publicación es la fecha de lectura

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El presente estudio de Análisis de Riesgos de Plagas fue realizado en Managua. durante los meses de Noviembre-98 a Noviembre-99 y se basó en una recopilación bibliográfica de plagas con el objeto de proporcionar elementos técnicos a Cuarentena Vegetal. para la toma de decisiones y la aplicación de medidas fitosanitarias en la importación a Nicaragua de bulbos de cebolla para consumo procedentes de Estados Unidos. La información fue obtenida de Bases de datos Internacionales de Plagas. Centros de Documentación. Organismos Internacionales. consulta a especialistas en Fitoprotección listados de plagas presentes en los cultivos de Nicaragua y búsquedas en Internet. Se obtuvo un listado de 16 plagas asociadas al cultivo de cebolla presentes en Estados Unidos (Ver listado de plagas en Anexos 1) y fueron analizadas las plagas cuarentenarias para Nicaragua. Después de revisar la información obtenida de cada una de las plagas se descartaron del análisis aquellas plagas que no presentaban posibilidades de sobrevivir a las condiciones ambientales del país debido a su biología y comportamiento y porque no se reportaban causando daños en Estados Unidos al cultivo de cebolla (Allium cepa L.). A las plagas que si se les considero como posibles plagas cuarentenarias para Nicaragua y que pueden causar grandes daños al país si llegaran a introducirse son: Dvtilenchus dipsaci. Urocystis cepulae, Botryotinia squamosa, Puccinia allii, Onoin yellow dwarf potivirus y Saccharum .spontaneum. Para desarrollar este estudio se utilizó la Norma Centroamericana para Análisis de Riesgo de Plagas del OIRSA; A las plagas seleccionadas se les evaluó el riesgo de introducción, establecimiento y dispersión; además se determinaron las medidas de manejo del Riesgo de Plagas (Medidas Fitosanitarias). De todas las plagas analizadas el nematodo Ditylenchus dipsaci es la especie que presento el mayor riesgo fitosanitario. Por lo tanto las medidas para evitar su introducción fueron entre otras: Verificación en origen para constatar la ausencia de la plaga y reconocimiento de zonas libres. Como una medida preventiva al ingresar el producto (bulbo de cebolla) aplicar un tratamiento con Bromuro de Metilo en dosis de 32 gr/m3 durante dos horas de exposición y a temperatura de 32-35ºc (Alas, 1990). El bulbo de cebolla para consumo que se importa de Estados Unidos debe de venir amparado con un Certificado Fitosanitario Internacional que lo emite el país exportador. Si se encuentran evidencias de que el nematodo viene en el cargamento proceder a aplicar las medidas fitosanitarias indicadas como es la destrucción del cargamento o regresar el cargamento al país de origen para evitar la introducción de una nueva plaga al país.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Resumen: La fundación de la ciudad de La Plata tiene por lo menos una doble significación. En primer lugar puso fin a décadas de desencuentros entre las autoridades nacionales y provinciales por la llamada “cuestión capital” que tuvo su primer hito en la federalización de la ciudad de Buenos Aires en 1880. En segundo lugar La Plata era una ciudad nueva, pensada y diseñada para superar los problemas que asolaban a las ciudades viejas. Uno de estos problemas que recibió particular atención por parte de los “fundadores” fue el suministro de agua e instalaciones sanitarias. No obstante su resolución planteaba serios problemas técnicos y un elevado coste económico. Estos primeros años de vida platense estuvieron marcados por el auge de la llamada higiene social fundada por las transformaciones producidas por la revolución pasteuriana y la resignificación ideológica de las causas sociales que originan la enfermedad. En este sentido, la higiene social retoma el viejo cuerpo programático de la higiene pública: agua, recolección de residuos, pavimentos (causas directas) pero agrega otros ligados a las "causas indirectas": salarios, alojamientos, condiciones de trabajo de los obreros. Nosotros analizaremos cómo los profesionales responsables de la administración de la ciudad de La Plata entendieron y enfrentaron el problema del suministro de agua potable en un núcleo urbano que experimentaba un formidable crecimiento demográfico.