138 resultados para incertidumbre


Relevância:

10.00% 10.00%

Publicador:

Resumo:

En los ensayos de aislamiento acústico según normas UNE EN ISO 140-4 y 140-5 el valor de L2 es un promedio espacio-temporal de los niveles de presión sonora medidos en diferentes posiciones de la sala receptora. La desviación estándar de estos valores se puede considerar como una medida de la uniformidad del campo sonoro en el recinto. Se analiza este parámetro en función de la frecuencia y se propone un cálculo teórico del mismo como una incertidumbre combinada de la desviación estándar derivada de modelos teóricos centrados en la geometría del recinto y la desviación estándar asociada a la vibración de la pared separadora

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el presente trabajo se realiza un análisis teórico – experimental de un paso superior de autopista instrumentado para medir deformaciones, desplazamientos y temperatura. Además, se realiza una descripción de los puentes integrales en general, describiendo sus particularidades, ventajas e inconvenientes y el posible ámbito de aplicación que tienen en las redes de infraestructuras. En primer lugar, se describe el puente instrumentado, tanto en cuanto a su geométria, dimensiones y materiales, como en cuanto a la instrumentación empleada para su estudio. Posteriormente se analizan de forma pormenorizada las diferentes acciones que afectan de forma relevante a los puentes en general, y muy especialmente a los puentes integrales, como son las acciones de peso propio, carga muerta y pretensado, y de forma especial la acción térmica y las acciones reológicas de retracción y fluencia. La acción de temperatura se analiza de forma pormenorizada obteniendo representaciones de las componentes uniforme de temperatura, y de los gradientes lineales y no lineales respectivamente, a partir de las temperaturas instrumentadas en los distintos puntos de varias secciones. Se comparan estos resultados con los valores normativos. Posteriormente se realiza un análisis de los fenómenos reológicos, estudiando la influencia de los diferentes parámetros que influyen en su desarrollo, tanto según las normativas vigentes como según otras formulaciones, como es la formulación de Bazant. Se realizan comprobaciones respecto a la bondad de las leyes que gobiernan el comportamiento reológico del hormigón para distintas series experimentales, tanto del grupo de Hormigón Estructural de la UPM como de la serie RILEM. Finalmente, a partir de ese estudio se trata de obtener conclusiones respecto a las leyes específicas que gobiernan el comportamiento reológico de los hormigones empleados en la obra. Procesando los resultados experimentales de deformaciones en distintos puntos de varias secciones transversales del puente se obtienen deformaciones medias y curvaturas. Por otro lado, se dispone de registros de desplazamientos y giros en distintos puntos del puente. Se contrastan las estimaciones realizadas tanto de las componentes de temperatura como de los planos de ajuste de deformación. Para ello se comparan la integración de deformaciones medias y curvaturas a lo largo del puente con los registros de desplazamientos y giros respectivamente. Finalmente, se realizan estimaciones teóricas de rangos tanto de deformaciones como de movimientos a lo largo del puente y se comparan con los valores experimentales medidos y estimados, comprobándose que puede obtenerse una predicción realista del comportamiento complejo de un puente integral mediante métodos sencillos, teniendo en cuenta factores de incertidumbre provenientes sobre todo de las acciones reológicas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La intensa relación de las infotecnologías con el ámbito educativo no es algo nuevo. Ha ido pasando por diferentes etapas marcadas por uno u otro modelo para el proceso de enseñanza-aprendizaje: tele-enseñanza o educación a distancia, Computer-Based Learning (CBL), E-Learning, Blended Learning o B-Learning son algunos de ellos. En cada caso se han incorporando diferentes tecnologías, desde las cintas magnéticas de audio y vídeo hasta los portátiles, las tabletas y las pizarras electrónicas, pasando por la vídeoconferencia o la mensajería instantánea. Hoy hablamos de E-Learning 2.0 (Downes, 2005) y Technology-Enhanced Learning (TEL). Todos esos modelos y sus metáforas asociadas han ido integrando, además de las diferentes capacidades tecnologías disponibles, distintas teorías pedagógicas, empezando por las tradicionalmente conocidas en la literatura del ámbito de la psicología educativa: el conductismo, el constructivismo o el constructivismo social. En la tabla 1 puede encontrar el lector esa asociación sintética, conjeturando con la definición de los roles de enseñante y aprendiz en cada modelo. Los cambios de “paradigma” –que habitualmente obvian la naturaleza original de este término para generalizarlo de forma poco rigurosa- anunciados y demandados en el ámbito educativo durante décadas se articulaban en (Barr y Tagg, 1995) alrededor de elementos como la misión y los objetivos de las instituciones educativas, la estructuración de los procesos educativos, su coste y productividad, los roles de los diferentes actores involucrados, la definición teórica del proceso de enseñanza-aprendizaje o las métricas de tal proceso. Downes (2005) lo resume de forma muy sintética con la siguiente afirmación (la traducción es mía): “el modelo de E-Learning que lo define en términos de unos contenidos, producidos por los editores, organizados y estructurados en cursos y consumidos por los estudiantes, se está dando la vuelta. En lo que se refiere al contenido, es mucho más probable que sea usado antes que “leído” y, en cualquier caso, es mucho más probable que sea producido por los propios estudiantes que por los autores especializados en la producción de cursos. En lo que se refiere a la estructura, es más probable que se parezca más a un idioma o una conversación que a un manual o libro de texto”. La irrupción en la escena tecnológica de la Web 2.0 como fenómeno social, sociotécnico en los términos de (Fumero, Roca y Sáez Vacas, 2007), ha hecho que se recuperen antiguas ambiciones teóricas asociadas a algunas de aquellas teorías clásicas, especialmente las que tienen que ver con el constructivismo cognitivo de J. Piaget (1964) y el constructivismo social de L. Vygotsky (1978). Esas teorías, enriquecidas con apuestas más atrevidas como el “conectivismo” (Siemens, 2004), han dado lugar al relanzamiento de modelos pedagógicos como el aprendizaje auto-gestionado o auto-dirigido, con sus matices de formulación (Self-Managed vs. Self-Directed Learning) que se han ido complementando a lo largo del tiempo con modelos de intervención asistidos, basados en un proceso de “andamiaje” o ‘scaffolding’ (véase en el capítulo 3, bajo el epígrafe “Psicología educativa para ingenieros”). Hoy podemos ver cómo, mientras se empieza a consolidar la reorganización del escenario institucional de la Educación Superior en Europa, tras el agotamiento de todos los plazos y las prórrogas contempladas por el acuerdo de Bolonia para su implementación –véase, por ejemplo, (Ortega, 2005) y su reflexión acerca de los “ingenieros creativos” en relación con esta reforma- se ha vuelto a plantear la implantación de procesos educativos basados en el aprendizaje informal (frente al formal y dando lugar a la definición del aprendizaje “no formal”), procesos que realmente se implementan como experiencias de aprendizaje mutuo (peer learning), en comunidad y ayudados por unas infotecnologías que, a pesar de su característica “cotidianeidad” (véase en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana”) siguen arrastrando el atributo de “educativas”. Evidentemente, la “tecnificación” de las instituciones de enseñanza superior ha ido consolidando algunos elementos tecnológicos que hoy son estándares de facto, como por ejemplo los sistemas integrados de gestión conocidos por sus siglas anglosajonas, LMS (Learning Management Systems). Los enormes esfuerzos, organizativos y técnicos, de integración que se han ido desarrollando en ese sentido –véase por ejemplo en (Aguirre, 2012)- han permanecido un tanto insensibles al desarrollo paralelo que, animados por la proliferación de herramientas más ricas y accesibles, llevaban a cabo los usuarios (profesores y alumnos; enseñantes y aprendices) que, manteniendo algún tipo de relación con una de esas instituciones (véase el escenario a que dan lugar en la figura 4) hacían un uso creativo de las tecnologías que la Red ponía a su alcance. En el escenario actual –aun predominando la excitación tecnológica- han acabado encontrándose ambas corrientes, generando un nuevo espacio de incertidumbre (léase de oportunidades) en el que se encuentran las soluciones establecidas, en forma de LMS, con las primeras formulaciones de esas combinaciones creativas de herramientas, metodologías y modelos, también conocidos como entornos personales de aprendizaje (Personal Learning Environments, PLE), que han revitalizado otras propuestas tecnológicas, como los e-Portfolios, o pedagógicas, como los contratos de aprendizaje (véase su aplicación en el caso de estudio del proyecto iCamp, en el capítulo 4). Es en ese escenario y desde una perspectiva interdisciplinar, híbrida, mestiza y conciliadora, donde tiene sentido plantear, como objeto de un trabajo de investigación consistente, la consolidación de un modelo que nos ayude a contextualizar la situación de cambio infotecnológico, organizativo y social a la que nos enfrentamos y que nos guíe en su instrumentalización para afrontar “situaciones de complejidad” similares que, sin duda, tendremos que abordar en el medio plazo. Esto me lleva a contemplar el problema desde una perspectiva suficientemente amplia, pero con un foco bien definido sobre los procesos educativos –de enseñanza y aprendizaje- en el ámbito de la Educación Superior y, específicamente, en lo referente a la formación de los infoprofesionales. Un escenario en el que se dan cita necesariamente la Tecnología Educativa y la Web 2.0 como fenómeno sociotécnico y que me llevan al análisis de modelos de intervención basados en lo que se conoce como “software social” –en sentido amplio, considerando herramientas, tecnologías y metodologías-, ensayados en ese ámbito extendido a la capacitación y la formación profesionales. Se establece, por tanto, como escenario del trabajo de investigación –y ámbito para el diseño de aquellas intervenciones- el de las organizaciones educativas, aplicando la definición sintética que recoge el propio Fernando Sáez Vacas (FSV) de la reingeniería de procesos (la negrita y las anotaciones, entre paréntesis, son mías), “que consiste en reinventar la forma de desarrollar las operaciones de la empresa (institución educativa, universitaria por ejemplo), partiendo de nuevos enfoques muy orientados a las necesidades de los clientes (los aprendices o estudiantes), con rotura de las tradicionales formas organizativas verticales y del desempeño humano y un uso masivo de las modernas tecnologías de la información y de la comunicación”; y que se aplicarán de acuerdo con la integración de los elementos metodológicos y conceptuales, que conformarán las bases de una SocioTecnología de la Información y Cultura (STIC) y que hunden sus raíces en la complejidad y la sistémica (véase en el Prontuario). El objetivo genérico que se planteaba en la propuesta original de tesis doctoral era ambicioso: “desarrollar y potenciar las bases de un ‘movimiento’ de I+D+i (+d) –con “d” minúscula de difusión, divulgación, diseminación-, sobre socioinfotecnocultura enfocado en el contexto de este trabajo específicamente en su difusión educativa y principalmente en el ámbito de la Educación Superior” y para la formación de los infoprofesionales. El objetivo específico del mismo era el de “diseñar un (conjunto) instrumental cognitivo básico, aunque relativamente complejo y denso en su formulación, para los infoprofesionales, considerados como agentes activos de la infotecnología con visión y aplicación social”. La tesis de partida es que existe –en palabras de FSV- la necesidad “de desarrollar educativamente los conocimientos y modelos socioinfotecnoculturales para nutrir una actitud en principio favorable a los progresos infotecnológicos, pero encauzada por una mentalidad “abierta, positiva, crítica, activa y responsable” y orientar con la mayor profundidad posible a los infoprofesionales y, en un grado razonable, a los infociudadanos hacia usos positivos desde puntos de vista humanos y sociales”. Justificar, documentar y caracterizar esa necesidad latente –y en muchos aspectos patente en el actual escenario educativo- será parte importante del trabajo; así como elaborar los elementos necesarios que ofrezcan coherencia y consistencia suficientes al marco conceptual de esa nueva “socioinfotecnocultura” que en la formulación adoptada aquí será el marco tecnocultural básico de una SocioTecnología de la Información y Cultura (STIC), debiendo integrar esos elementos en el proceso educativo de enseñanza-aprendizaje de tal manera que puedan ser objeto de diseño y experimentación, particularizándolo sobre los infoprofesionales en primera instancia, aunque dentro de un proyecto amplio para el desarrollo y promoción social de una STIC. Mi planteamiento aquí, si bien incorpora elementos y modelos considerados previamente en algunos de mis trabajos de análisis, investigación, experimentación y diseminación realizados a lo largo del periodo de formación –modelos de intervención desarrollados en el proyecto iCamp, ampliamente documentados en (Fiedler, 2006) o (Fiedler y Kieslinger, 2007) y comentados en el capítulo 4-, en gran parte, por simple coherencia, estará constituido por elementos propios y/o adaptados de FSV que constituirán el marco tecnocultural de una teoría general de la STIC, que está en la base de este planteamiento. La asimilación en términos educativos de ese marco tecnocultural supondrá un esfuerzo considerable de reingeniería y se apoyará en el circuito cognitivo individual ampliado de “información-esfuerzo-conocimiento-esfuerzo-acción” que se recoge en el Prontuario (figura 34) y que parte de (Sáez Vacas, 1991a). La mejor forma de visualizar la formulación de ese proceso educativo es ponerlo en los términos del modelo OITP (Organización, Individuos, Tecnologías y Procesos) tal y como se ilustra en el Prontuario (figura 25) y que se puede encontrar descrito brevemente por su autor en (Sáez Vacas, 1995), de la misma forma que se planteaba la experiencia INTL 2.0 en (Sáez Vacas, Fumero et al., 2007) y que es objeto de análisis en el capítulo 5. En este caso, el plano que atraviesa el Proceso (educativo) será el marco tecnocultural de nuestra STIC; la Organización será, en genérico, el ámbito institucional de la Educación Superior y, en concreto, el dedicado a la formación de los infoprofesionales –entendidos en el sentido amplio que se planteaba en (Sáez Vacas, 1983b)-, que serán los Individuos, la componente (I) del modelo OITP. Este trabajo de tesis doctoral es uno de los resultados del proyecto de investigación propuesto y comprometido con esos objetivos, que se presenta aquí como un “proyecto tecnocultural” más amplio (véase el epígrafe homónimo en el capítulo 1). Un resultado singular, por lo que representa en el proceso de formación y acreditación del investigador que lo suscribe. En este sentido, este trabajo constituye, por un lado, la base de un elemento divulgativo que se sumará a los esfuerzos de I+D+i+d (véase textículo 3), recogidos en parte como resultados de la investigación; mientras que, por el otro lado, incorpora elementos metodológicos teóricos originales que contribuyen al objetivo genérico planteado en la propuesta de tesis, además de constituir una parte importante de los procesos de instrumentalización, recogidos en parte en los objetivos específicos de la propuesta, que en este entregable formarán parte de líneas futuras de trabajo, que se presentan en el capítulo 6 de conclusiones y discusión de resultados. Dentro de esos elementos metodológicos, teóricos, resulta especialmente relevante –en términos de los objetivos planteados originalmente-, la simplificación instrumental de las aportaciones teóricas previas, que han sido fruto del esfuerzo de análisis sistemático e implementación de diferentes intervenciones en el ámbito educativo, que se centran específicamente en el proyecto iCamp (véase en el capítulo 4) y la experiencia INTL 2.0 (véase en el capítulo 5, junto a otras experiencias instrumentales en la UPM). Esa simplificación, como elaboración teórica y proceso de modelización, se realiza extrayendo elementos de la validación teórica y experimental, que de alguna forma proporcionan los casos de estudio (capítulos 4 y 5), para incorporarlos como argumentos en la consolidación de un enfoque tecnocultural que está en la base de la construcción de una SocioTecnología de la Información y Cultura (STIC) consistente, basada en el sistemismo aplicado en diferentes situaciones de complejidad y que requerirán de una inter/multidisciplinariedad que vaya más allá de la simple “yuxtaposición” de especialidades que conocemos en nuestra actual Universidad (me refiero, con mayúscula, a la institución universitaria en toda su extensión). Esa será la base para el diseño y la construcción de experiencias educativas, basadas en el generalismo sistémico, para infoprofesionales (véase en el capítulo 1) en particular e infociudadanos en general, que nos permitirán “cimentar, con suficientes garantías, un cierto nivel de humanismo en el proceso de construcción de una sociedad de la información y del conocimiento”. En el caso de iCamp pudimos experimentar, desde un enfoque (véase en el capítulo 4) basado en diseño (Design-based Research, DbR), con tres elementos que se pueden trasladar fácilmente al concepto de competencias –o incluso en su implementación funcional, como habilidades o capacidades instrumentales percibidas, léase ‘affordances’- y que introducen tres niveles de complejidad asociados (véase, en el Prontuario, el modelo de tres niveles de complejidad), a saber el aprendizaje auto-dirigido (complejidad individual), la colaboración (complejidad sistémica) y la construcción de una red de aprendizaje (complejidad sociotécnica). Esa experimentación nos llevó a evolucionar el propio concepto de entorno personal de aprendizaje (PLE, Personal Learning Environment), partiendo de su concepción originalmente tecnológica e instrumental, para llegar a una concepción más amplia y versátil desde el punto de vista de la intervención, basada en una visión “ecológica” de los sistemas abiertos de aprendizaje (véase en el capítulo 3). En el caso de las experiencias en la UPM (capítulo 5), el caso singular de INTL 2.0 nos muestra cómo el diseño basado en la sistémica aplicada a problemas (léase situaciones de complejidad específicas) no estructurados, como los procesos de enseñanza-aprendizaje, dan lugar a intervenciones coherentes con esa visión ecológica basada en la teoría de la actividad y con los elementos comunes de la psicología educativa moderna, que parte del constructivismo social de L. Vygotsky (1978). La contraposición de ese caso con otras realizaciones, centradas en la configuración instrumental de experiencias basadas en la “instrucción” o educación formal, debe llevarnos al rediseño –o al menos a la reformulación- de ciertos componentes ya consolidados en ese tipo de formación “institucionalizada” (véase en el capítulo 5), como pueden ser el propio curso, unidad académica de programación incuestionable, los procedimientos de acreditación, certificación y evaluación, ligados a esa planificación temporal de “entrega” de contenidos y la conceptualización misma del “aula” virtual como espacio para el intercambio en la Red y fuera de ella. Todas esas observaciones (empíricas) y argumentaciones (teóricas) que derivan de la situación de complejidad específica que aquí nos ocupa sirven, a la postre –tal y como requiere el objetivo declarado de este trabajo de investigación- para ir “sedimentando” unas bases sólidas de una teoría general de la SocioTecnología de la Información y Cultura (STIC) que formen parte de un marco tecnocultural más amplio que, a su vez, servirá de guía para su aplicación en otras situaciones de complejidad, en ámbitos distintos. En este sentido, aceptando como parte de ese marco tecnocultural las características de convivencialidad y cotidianeidad (véase, en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana, TVIC”) de una “infotecnología-uso” (modelo de las cinco subculturas infotecnológicas, también recogido en el Prontuario), consideraremos como aportaciones relevantes (véase capítulo 2): 1) la argumentación sociotécnica del proceso de popularización de la retórica informática del cambio de versión, de la que deriva el fenómeno de la Web 2.0; 2) el papel estelar del móvil inteligente y su capacidad para transformar las capacidades percibidas para la acción dentro del Nuevo Entorno Tecnosocial (NET), especialmente en la situación de complejidad que nos ocupa, que ya desarrollaran Rodríguez Sánchez, Sáez Vacas y García Hervás (2010) dentro del mismo marco teórico que caracterizamos aquí como enfoque STIC; 3) y la existencia de una cierta “inteligencia tecnosocial”, que ya conjeturara FSV en (Sáez Vacas, 2011d) y que cobra cada vez más relevancia por cuanto que resulta coherente con otros modelos consolidados, como el de las inteligencias múltiples de Gardner (2000), así como con las observaciones realizadas por otros autores en relación con la aparición de nuevos alfabetismos que conformarían “una nueva generación de inteligencia” (Fumero y Espiritusanto, 2011). En rigor, el método científico –entiéndase este trabajo como parte de un proceso de investigación tecnocientífica- implica el desarrollo de una componente dialéctica asociada a la presentación de resultados; aunque, evidentemente, la misma se apoya en una actitud crítica para la discusión de los resultados aportados, que debe partir, necesariamente, como condición sine qua non de un profundo escepticismo debidamente informado. Es ese el espíritu con el que se ha afrontado la redacción de este documento, que incluye, en el capítulo 6, una serie de argumentos específicamente destinados a plantear esa discusión de resultados a partir de estas aportaciones que he vertido sintéticamente en este resumen, que no persigue otra cosa que motivar al lector para adentrarse en la lectura de este texto al completo, tarea que requiere de un esfuerzo personal dirigido (véase el epígrafe “Cómo leer este texto” en el índice) que contará con elementos de apoyo, tanto hipertextuales (Fumero, 2012a y 2012b) como textuales, formando parte del contenido de este documento entregable de tesis doctoral (véase el Prontuario, o el Texticulario).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La contaminación acústica se ha convertido en uno de los principales problemas en materia medioambiental de nuestra sociedad. La creciente preocupación ha propiciado la aparición de legislación, en los distintos ámbitos de la administración, cuyo objetivo consiste en gestionar y reducir la contaminación acústica y sus efectos sobre las personas y el medio ambiente. En este sentido, en relación a las infraestructuras del transporte, y de modo muy especial en los aeropuertos, el monitorado del ruido se convierte en una herramienta de suma importancia para la gestión del ruido, la planificación del territorio y la adopción de medidas correctoras (planes de acción). Los terminales de monitorado de ruido ambiental, que se utilizan fundamentalmente en los aeropuertos, realizan una medición del nivel de ruido ambiental, y evalúan la contaminación que generan las aeronaves al ambiente sonoro general. Para ello, deben ser capaces de medir la evolución temporal del ruido y discriminar aquellos eventos sonoros que se correspondan con el paso de un avión frente al ruido de fondo. Los requisitos aplicables a las unidades de medida, así como los procedimientos de medida implicados han sido descritos recientemente en normas internacionales, como la ISO 20906 o la ARP 4721. Es precisamente en el aspecto relacionado con la discriminación del origen del ruido, donde los sistemas existentes presentan las principales carencias, ya que, un sistema básico de monitorado de ruido realiza la detección de eventos a partir de las medidas de nivel sonoro, evaluando los incrementos de nivel mediante la utilización de umbrales. Dichos umbrales relacionan nivel sonoro y tiempo, de forma que se efectúa el marcado de eventos cuando el nivel de presión sonora, Lp(t), supera un valor determinado durante, al menos, un determinado intervalo temporal. Uno de los principales objetivos de esta tesis se centra en el análisis de los sistemas que existen para la discriminación de ruido de aeronaves, y en el análisis de las contribuciones de estos sistemas sobre la incertidumbre de la medida y el reporte de resultados. Para la consecución de dicho objetivo, se ha definido un modelo de incertidumbre que permite evaluar los diferentes factores de influencia y realizar una cuantificación de la incertidumbre para diferentes escenarios. Durante este proceso se han definido y analizado los conceptos de incertidumbre de detección e incertidumbre de identificación, ambos derivados del diagrama de bloques que propone la norma ISO 20906 para la discriminación del ruido producido por los aviones y el procesado de datos. Asimismo, se pretende abordar el problema de la discriminación de aeronaves con un enfoque novedoso, que permita mejorar el rendimiento de los sistemas y reducir la incertidumbre. Mediante un sistema basado en reconocimiento de patrones uniclase, se aborda esta tarea en base al análisis de la semejanza entre la señal sonora registrada y el sonido que producen los aviones, dejando al margen la magnitud del sonido. Las técnicas de reconocimiento de patrones, y reconocimiento automático de habla, han sido aplicadas previamente al reconocimiento de fuentes de ruido ambiental. Algunos de estos proyectos se han centrado en el ruido de aviones, pero la novedad en esta tesis radica en la aplicación de clasificadores uniclase en un sistema que detecta eventos sonoros gracias a la clasificación de los fragmentos que lo componen. Actualmente los sistemas de gestión de ruido aeroportuario enlazan los datos de ruido proporcionados por las estaciones de monitorado con los datos procedentes del sistema seguimiento de los vuelos de los aviones mediante radar. Este tipo de sistemas es el que ha presentado mayor aceptación y ha sido implantado en los sistemas de monitorado de ruido de los principales aeropuertos internacionales. Sin embargo, este enfoque requiere de equipamiento que permita realizar el seguimiento de la posición de avión, y, dado que únicamente utilizan los niveles sonoros medidos para enlazarlos con el avión que los origina, no será capaz de detectar errores derivados de la presencia de una fuente sonora secundaria cuando existe un avión en la zona. El sistema que se plantea con la realización de esta tesis supone un avance debido a que permite eliminar del proceso de discriminación los umbrales de nivel sonoro, analizando única y exclusivamente la semejanza entre las señales comparadas. De esta manera se pretende mejorar las tasas de error en la identificación, e incluir umbrales de semejanza que permitan eliminar los umbrales de nivel sonoro en el proceso de detección. La implementación del sistema complementando al resto de sistemas del aeropuerto, permitirá la ampliación de las capacidades en el monitorado y la reducción de los costes en las campañas de medición desatendida. Al tiempo que se introducen las técnicas de reconocimiento de patrones en los sistemas de discriminación de los monitores de ruido, se pretende sacar partido de las posibilidades abiertas para dotar al sistema de capacidades adicionales, como es el caso de la detección del ruido de reversa, que se produce tras el aterrizaje de los aviones. La reversa se activa tras el contacto con tierra por parte de los aviones, para reducir la velocidad y acortar la distancia de frenado de los aviones. Esta práctica se usa de forma habitual en los aterrizajes, especialmente en los casos en los que la salida que debe tomar el avión rumbo al terminal se encuentra demasiado próxima al punto de aterrizaje. El empuje inverso se debe a una alteración en el flujo normal de aire que atraviesa los motores, que produce un violento choque contra la carcasa del motor, originando vibraciones y flujo turbulento que se convierte en ruido. El ruido de reversa puede alcanzar unos niveles mucho mayores que el propio aterrizaje, y sus características dinámicas y espectrales lo convierten en especialmente molesto. Por este motivo la utilización injustificada (salvo por motivos de seguridad) está prohibida o es desaconsejada en un gran número de aeropuertos, a nivel internacional (especialmente durante el período nocturno). Sin embargo, las autoridades aeroportuarias carecen de herramientas eficientes y fiables que permitan detectar la utilización de reversa, siendo este punto uno de los aspectos tratados en esta investigación.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Resumen: El camino por el que discurre la arquitectura actual, está condicionado por varios factores, entre otros: la sobre exposición económica, una marcada ambigüedad teórica y el cambio de paradigma que ha supuesto la revolución digital. En este caldo de cultivo, resulta imposible encontrar una única dirección a la que dirigirse sino más bien un amplio abanico de apuestas que de distinta forma, tratan de capear este ambiente de incertidumbre. Abstract: The current course of Architecture is conditioned by factors such as economical overexposure, deep theoretical ambiguity, or the shift of paradigm derived from the digital revolution, amongst others. In such an environment, it is no longer possible to find a single direction to follow. Instead, we find a wide range of initiatives to try to deal with this feeling of uncertainty in different ways.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En los años recientes se ha producido un rápido crecimiento del comercio internacional en productos semielaborados que son diseñados, producidos y ensamblados en diferentes localizaciones a lo largo de diferentes países, debido principalmente a los siguientes motivos: el desarrollo de las tecnologías de la información, la reducción de los costes de transporte, la liberalización de los mercados de capitales, la armonización de factores institucionales, la integración económica regional que implica la reducción y la eliminación de las barreras al comercio, el desarrollo económico de los países emergentes, el uso de economías de escala, así como una desregulación del comercio internacional. Todo ello ha incrementado la competencia a nivel mundial en los mercados y ha posibilitado a las compañías tener más facilidad de acceso a potenciales mercados, así como a la adquisición de capacidades y conocimientos en otros países y a la realización de alianzas estratégicas internacionales con terceros, creando un entorno con mayor incertidumbre y más exigente para las compañías que componen una industria, y que tiene consecuencias directas en las operaciones de las compañías y en la organización de su producción. Las compañías, para adaptarse, ser competitivas y beneficiarse de este nuevo escenario globalizado y más competitivo, han externalizado partes del proceso productivo hacia proveedores especializados, creando un nuevo mercado intermedio que divide el proceso productivo, anteriormente integrado en las compañías que conforman una industria, entre dos conjuntos de empresas especializadas en esa industria. Dicho proceso suele ocurrir conservando la industria en que tiene lugar, los mismos servicios y productos, la tecnología empleada y las compañías originales que la conformaban previamente a la desintegración vertical. Todo ello es así debido a que es beneficioso tanto para las compañías originales de la industria como para las nuevas compañías de este mercado intermedio por diversos motivos. La desintegración vertical en una industria tiene unas consecuencias que la transforman completamente, así como la forma de operar de las compañías que la integran, incluso para aquellas que permanecen verticalmente integradas. Una de las características más importantes de esta desintegración vertical en una industria es la posibilidad que tiene una compañía de adquirir a una tercera la primera parte del proceso productivo o un bien semielaborado, que posteriormente será finalizado por la compañía adquiriente con la práctica del outsourcing; así mismo, una compañía puede realizar la primera parte del proceso productivo o un bien semielaborado, que posteriormente será finalizado por una tercera compañía con la práctica de la fragmentación. El principal objetivo de la presente investigación es el estudio de los motivos, los facilitadores, los efectos, las consecuencias y los principales factores significativos, microeconómicos y macroeconómicos, que desencadenan o incrementan la práctica de la desintegración vertical en una industria; para ello, la investigación se divide en dos líneas completamente diferenciadas: el estudio de la práctica del outsourcing y, por otro lado, el estudio de la fragmentación por parte de las compañías que componen la industria del automóvil en España, puesto que se trata de una de las industrias más desintegradas verticalmente y fragmentadas, y este sector posee una gran importancia en la economía del país. En primer lugar, se hace una revisión de la literatura existente relativa a los siguientes aspectos: desintegración vertical, outsourcing, fragmentación, teoría del comercio internacional, historia de la industria del automóvil en España y el uso de las aglomeraciones geográficas y las tecnologías de la información en el sector del automóvil. La metodología empleada en cada uno de ellos ha sido diferente en función de la disponibilidad de los datos y del enfoque de investigación: los factores microeconómicos, utilizando el outsourcing, y los factores macroeconómicos, empleando la fragmentación. En el estudio del outsourcing, se usa un índice basado en las compras externas sobre el valor total de la producción. Así mismo, se estudia su correlación y significación con las variables económicas más importantes que definen a una compañía del sector del automóvil, utilizando la técnica estadística de regresión lineal. Aquellas variables relacionadas con la competencia en el mercado, la externalización de las actividades de menor valor añadido y el incremento de la modularización de las actividades de la cadena de valor, han resultado significativas con la práctica del outsourcing. En el estudio de la fragmentación se seleccionan un conjunto de factores macroeconómicos, comúnmente usados en este tipo de investigaciones, relacionados con las principales magnitudes económicas de un país, y un conjunto de factores macroeconómicos, no comúnmente usados en este tipo de investigaciones, relacionados con la libertad económica y el comercio internacional de un país. Se emplea un modelo de regresión logística para identificar qué factores son significativos en la práctica de la fragmentación. De entre todos los factores usados en el modelo, los relacionados con las economías de escala y los costes de servicio han resultado significativos. Los resultados obtenidos de los test estadísticos realizados en el modelo de regresión logística han resultado satisfactorios; por ello, el modelo propuesto de regresión logística puede ser considerado sólido, fiable y versátil; además, acorde con la realidad. De los resultados obtenidos en el estudio del outsourcing y de la fragmentación, combinados conjuntamente con el estado del arte, se concluye que el principal factor que desencadena la desintegración vertical en la industria del automóvil es la competencia en el mercado de vehículos. Cuanto mayor es la demanda de vehículos, más se reducen los beneficios y la rentabilidad para sus fabricantes. Estos, para ser competitivos, diferencian sus productos de la competencia centrándose en las actividades que mayor valor añadido aportan al producto final, externalizando las actividades de menor valor añadido a proveedores especializados, e incrementando la modularidad de las actividades de la cadena de valor. Las compañías de la industria del automóvil se especializan en alguna o varias de estas actividades modularizadas que, combinadas con el uso de factores facilitadores como las economías de escala, las tecnologías de la información, las ventajas de la globalización económica y la aglomeración geográfica de una industria, incrementan y motivan la desintegración vertical en la industria del automóvil, desencadenando la coespecialización en dos sectores claramente diferenciados: el sector de fabricantes de vehículos y el sector de proveedores especializados. Cada uno de ellos se especializa en unas actividades y en unos productos o servicios específicos de la cadena de valor, lo cual genera las siguientes consecuencias en la industria del automóvil: se reducen los costes de transacción en los productos o servicios intercambiados; se incrementan la relación de dependencia entre fabricantes de vehículos y proveedores especializados, provocando un aumento en la cooperación y la coordinación, acelerando el proceso de aprendizaje, posibilitando a ambos adquirir nuevas capacidades, conocimientos y recursos, y creando nuevas ventajas competitivas para ambos; por último, las barreras de entrada a la industria del automóvil y el número de compañías se ven alteradas cambiando su estructura. Como futura línea de investigación, los fabricantes de vehículos tenderán a centrarse en investigar, diseñar y comercializar el producto o servicio, delegando el ensamblaje en manos de nuevos especialistas en la materia, el contract manufacturer; por ello, sería conveniente investigar qué factores motivantes o facilitadores existen y qué consecuencias tendría la implantación de los contract manufacturer en la industria del automóvil. 1.1. ABSTRACT In recent years there has been a rapid growth of international trade in semi-finished products designed, produced and assembled in different locations across different countries, mainly due to the following reasons: development of information technologies, reduction of transportation costs, liberalisation of capital markets, harmonisation of institutional factors, regional economic integration, which involves the reduction and elimination of trade barriers, economic development of emerging countries, use of economies of scale and deregulation of international trade. All these factors have increased competition in markets at a global level and have allowed companies to gain easier access to potential markets and to the acquisition of skills and knowledge in other countries, as well as to the completion of international strategic alliances with third parties, thus creating a more demanding and uncertain environment for these companies constituting an industry, which has a direct impact on the companies' operations and the organization of their production. In order to adapt, be competitive and benefit from this new and more competitive global scenario, companies have outsourced some parts of their production process to specialist suppliers, generating a new intermediate market which divides the production process, previously integrated in the companies that made up the industry, into two sets of companies specialized in that industry. This process often occurs while preserving the industry where it takes place, its same services and products, the technology used and the original companies that formed it prior to vertical disintegration. This is because it is beneficial for both the industry's original companies and the companies belonging to this new intermediate market, for various reasons. Vertical disintegration has consequences which completely transform the industry where it takes place as well as the modus operandi of the companies that are part of it, even of those who remain vertically integrated. One of the most important features of vertical disintegration of an industry is the possibility for a company to acquire from a third one the first part of the production process or a semi-finished product, which will then be finished by the acquiring company through the practice of outsourcing; also, a company can perform the first part of the production process or a semi-finish product, which will then be completed by a third company through the practice of fragmentation. The main objective of this research is to study the motives, facilitators, effects, consequences and major significant microeconomic and macroeconomic factors that trigger or increase the practice of vertical disintegration in a certain industry; in order to do so, research is divided into two completely differentiated lines: on the one hand, the study of the practise of outsourcing and, on the other, the study of fragmentation by companies constituting the automotive industry in Spain, since this is one of the most vertically disintegrated and fragmented industries and this particular sector is of major significance in this country's economy. First, a review is made of the existing literature, on the following aspects: vertical disintegration, outsourcing, fragmentation, international trade theory, history of the automobile industry in Spain and the use of geographical agglomeration and information technologies in the automotive sector. The methodology used for each of these aspects has been different depending on the availability of data and the research approach: the microeconomic factors, using outsourcing, and the macroeconomic factors, using fragmentation. In the study on outsourcing, an index is used based on external purchases in relation to the total value of production. Likewise, their significance and correlation with the major economic variables that define an automotive company are studied, using the statistical technique of linear regression. Variables related to market competition, outsourcing of lowest value-added activities and increased modularisation of the activities of the value chain have turned out to be significant with the practice of outsourcing. In the study of fragmentation, a set of macroeconomic factors commonly used for this type of research, is selected, related to the main economic indicators of a country, as well as a set of macroeconomic factors, not commonly used for this type of research, which are related to economic freedom and the international trade of a certain country. A logistic regression model is used to identify which factors are significant in the practice of fragmentation. Amongst all factors used in the model, those related to economies of scale and service costs have turned out to be significant. The results obtained from the statistical tests performed on the logistic regression model have been successful; hence, the suggested logistic regression model can be considered to be solid, reliable and versatile; likewise, it is in line with reality. From the results obtained in the study of outsourcing and fragmentation, combined with the state of the art, it is concluded that the main factor that triggers vertical disintegration in the automotive industry is competition within the vehicle market. The greater the vehicle demand, the lower the earnings and profitability for manufacturers. These, in order to be competitive, differentiate their products from the competition by focusing on those activities that contribute with the highest added value to the final product, outsourcing the lower valueadded activities to specialist suppliers, and increasing the modularity of the activities of the value chain. Companies in the automotive industry specialize in one or more of these modularised activities which, combined with the use of enabling factors such as economies of scale, information technologies, the advantages of economic globalisation and the geographical agglomeration of an industry, increase and encourage vertical disintegration in the automotive industry, triggering co-specialization in two clearly distinct sectors: the sector of vehicle manufacturers and the specialist suppliers sector. Each of them specializes in certain activities and specific products or services of the value chain, generating the following consequences in the automotive industry: reduction of transaction costs of the goods or services exchanged; growth of the relationship of dependency between vehicle manufacturers and specialist suppliers, which causes an increase in cooperation and coordination, accelerates the learning process, enables both to acquire new skills, knowledge and resources, and creates new competitive advantages for both; finally, barriers to entry the automotive industry and the number of companies are altered, changing their structure. As a future line of research, vehicle manufacturers will tend to focus on researching, designing and marketing the product or service, delegating the assembly in the hands of new specialists in the field, the contract manufacturer; for this reason, it would be useful to investigate what motivating or facilitating factors exist in this respect and what consequences would the implementation of contract manufacturers have in the automotive industry.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente tesis doctoral trata sobre el contenido de dos antiguas valijas de viaje. En su interior se encontró una serie de documentos originales, pertenecientes al arquitecto Julio Agustín Vilamajó Echaniz, quien nació en Montevideo en 1894 y murió con apenas 53 años, luego de una reconocida y rica trayectoria profesional y docente. Destacado y admirado en su país, Vilamajó alcanzó prestigio internacional luego de haber sido designado para integrar el equipo consultor proyectista de la Sede de las Naciones Unidas en Nueva York. El contenido de sus valijas -legado entregado a la Facultad de Arquitectura 63 años después de su muerte- se constituye en la fuente primaria de esta investigación y en el motivo principal de la misma: la tesis intentará comprender su valor instrumental como representación de la práctica proyectual de Vilamajó, y del hombre-arquitecto mismo. Los registros encontrados en las Valijas son íntimos, y a la vez constituyen en su conjunto un patrimonio que se transmite a nuestras generaciones: ellos dan cuenta de una práctica proyectual prolífica y compleja, que nos permitirá percibir procedimientos intrínsecos a la disciplina. Indagar, buscar con ansiedad y curiosidad al interior de este ámbito cerrado y disperso de información, nos pone en condiciones inmejorables de realizar hallazgos: dibujos, cartas, fotografías o anotaciones que se destacan del resto, asoman del conjunto y reclaman ser puestos en un lugar de privilegio para la investigación. Estos hallazgos son considerados como detonantes en el sentido de su calidad de suceso sorpresivo; como tal, cada uno se convierte en desencadenante de una línea de investigación parcial dentro del marco de la tesis. La sorpresa es generada por anomalía o por novedad, y determina la duda sobre un evento conocido o sobre una creencia colectiva relativa a Vilamajó. Esa duda deberá apaciguarse a través de la observación y la indagación de elementos asociados -internos o externos a las Valijas-, buscando encontrar una posible explicación que responda a la incertidumbre generada. Las líneas de investigación desencadenadas por los detonantes refieren a proyectos, obras o eventos en la vida de Vilamajó, y su desenlace nos permitirá alcanzar nuevos conocimientos sobre el pensamiento y la práctica proyectual del arquitecto: el Almacén Anexo a la Confitería La Americana; su anteproyecto para el concurso del Palacio Legislativo de Quito; la beca de estudio a Europa por la obtención del Gran Premio y la influencia de España; las obras en Villa Serrana; su participación en el grupo consultor para el proyecto de la Sede de las Naciones Unidas en Nueva York; las influencias de Le Corbusier; la obra conjunta con el escultor Antonio Pena; su incursión en la tecnología de la prefabricación; el proyecto para su propia vivienda; los estudios urbanos para Punta del Este; las reproducciones de sus espacios imaginarios; y su afición a los dibujos animados. Luego de realizar un proceso de agrupamiento de la información en capítulos vinculados a los detonantes, y de incorporar los hallazgos al conocimiento existente de las prácticas proyectuales y la obra de Vilamajó, estaremos construyendo un nuevo contexto sintético, y procediendo a componer, desde los caminos proyectuales desarrollados, un nuevo todo: la figura renovada de Vilamajó. Este proceso permitirá comprender con mayor exactitud cuáles fueron los procedimientos que guiaron a Vilamajó en su práctica proyectual, en qué soporte ideológico y teórico se basó al momento de hacer arquitectura, y finalmente, a modo de síntesis, profundizar en la forma de operar de un arquitecto de principios del siglo XX. De cada una de las indagaciones detonadas por los documentos sorpresivos podemos alcanzar algunas explicaciones que incorporan nuevos conocimientos o nuevas lecturas a lo ya conocido, a manera de caminos que nos llevan -en primer lugar- a reconocer y resaltar aspectos parciales de la producción proyectual de Vilamajó, y -al mismo tiempo- a percibir entramados de una actividad de condición compleja. Vilamajó actuó en un momento histórico que transcurrió entre la práctica de la composición como forma de acceder a un producto unitario y el proyecto moderno como una vía hacia una realidad mucho mejor para el ser humano. El arquitecto Vilamajó nos deja su visión del proceder en la disciplina, constituyéndose en un verdadero relato de la práctica arquitectónica, donde la prefiguración de los espacios y las formas es a la vez específica y universal. Las Valijas se constituyen así en su legado, recibido en un momento de la disciplina donde todo se expande, se extiende, se hace más complejo y a la vez más atractivo e incierto, y donde las certezas parecen haberse desvanecido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los estudios realizados hasta el momento para la determinación de la calidad de medida del instrumental geodésico han estado dirigidos, fundamentalmente, a las medidas angulares y de distancias. Sin embargo, en los últimos años se ha impuesto la tendencia generalizada de utilizar equipos GNSS (Global Navigation Satellite System) en el campo de las aplicaciones geomáticas sin que se haya establecido una metodología que permita obtener la corrección de calibración y su incertidumbre para estos equipos. La finalidad de esta Tesis es establecer los requisitos que debe satisfacer una red para ser considerada Red Patrón con trazabilidad metrológica, así como la metodología para la verificación y calibración de instrumental GNSS en redes patrón. Para ello, se ha diseñado y elaborado un procedimiento técnico de calibración de equipos GNSS en el que se han definido las contribuciones a la incertidumbre de medida. El procedimiento, que se ha aplicado en diferentes redes para distintos equipos, ha permitido obtener la incertidumbre expandida de dichos equipos siguiendo las recomendaciones de la Guide to the Expression of Uncertainty in Measurement del Joint Committee for Guides in Metrology. Asimismo, se han determinado mediante técnicas de observación por satélite las coordenadas tridimensionales de las bases que conforman las redes consideradas en la investigación, y se han desarrollado simulaciones en función de diversos valores de las desviaciones típicas experimentales de los puntos fijos que se han utilizado en el ajuste mínimo cuadrático de los vectores o líneas base. Los resultados obtenidos han puesto de manifiesto la importancia que tiene el conocimiento de las desviaciones típicas experimentales en el cálculo de incertidumbres de las coordenadas tridimensionales de las bases. Basándose en estudios y observaciones de gran calidad técnica, llevados a cabo en estas redes con anterioridad, se ha realizado un exhaustivo análisis que ha permitido determinar las condiciones que debe satisfacer una red patrón. Además, se han diseñado procedimientos técnicos de calibración que permiten calcular la incertidumbre expandida de medida de los instrumentos geodésicos que proporcionan ángulos y distancias obtenidas por métodos electromagnéticos, ya que dichos instrumentos son los que van a permitir la diseminación de la trazabilidad metrológica a las redes patrón para la verificación y calibración de los equipos GNSS. De este modo, ha sido posible la determinación de las correcciones de calibración local de equipos GNSS de alta exactitud en las redes patrón. En esta Tesis se ha obtenido la incertidumbre de la corrección de calibración mediante dos metodologías diferentes; en la primera se ha aplicado la propagación de incertidumbres, mientras que en la segunda se ha aplicado el método de Monte Carlo de simulación de variables aleatorias. El análisis de los resultados obtenidos confirma la validez de ambas metodologías para la determinación de la incertidumbre de calibración de instrumental GNSS. ABSTRACT The studies carried out so far for the determination of the quality of measurement of geodetic instruments have been aimed, primarily, to measure angles and distances. However, in recent years it has been accepted to use GNSS (Global Navigation Satellite System) equipment in the field of Geomatic applications, for data capture, without establishing a methodology that allows obtaining the calibration correction and its uncertainty. The purpose of this Thesis is to establish the requirements that a network must meet to be considered a StandardNetwork with metrological traceability, as well as the methodology for the verification and calibration of GNSS instrumental in those standard networks. To do this, a technical calibration procedure has been designed, developed and defined for GNSS equipment determining the contributions to the uncertainty of measurement. The procedure, which has been applied in different networks for different equipment, has alloweddetermining the expanded uncertainty of such equipment following the recommendations of the Guide to the Expression of Uncertainty in Measurement of the Joint Committee for Guides in Metrology. In addition, the three-dimensional coordinates of the bases which constitute the networks considered in the investigationhave been determined by satellite-based techniques. There have been several developed simulations based on different values of experimental standard deviations of the fixed points that have been used in the least squares vectors or base lines calculations. The results have shown the importance that the knowledge of experimental standard deviations has in the calculation of uncertainties of the three-dimensional coordinates of the bases. Based on high technical quality studies and observations carried out in these networks previously, it has been possible to make an exhaustive analysis that has allowed determining the requirements that a standard network must meet. In addition, technical calibration procedures have been developed to allow the uncertainty estimation of measurement carried outby geodetic instruments that provide angles and distances obtained by electromagnetic methods. These instruments provide the metrological traceability to standard networks used for verification and calibration of GNSS equipment. As a result, it has been possible the estimation of local calibration corrections for high accuracy GNSS equipment in standardnetworks. In this Thesis, the uncertainty of calibration correction has been calculated using two different methodologies: the first one by applying the law of propagation of uncertainty, while the second has applied the propagation of distributions using the Monte Carlo method. The analysis of the obtained results confirms the validity of both methodologies for estimating the calibration uncertainty of GNSS equipment.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El injerto en hortalizas es uno de los temas de más actualidad en el panorama hortícola, no solo español, sino occidental, y recalcamos occidental, pues en muchos países que no corresponden a ese ámbito, sobre todo asiáticos: Japón, Corea, China, Filipinas, etc., esta es una técnica que cuenta con una gran difusión desde hace décadas, siendo, por ejemplo en Japón, la mayoría de sus cultivos de cucurbitáceas y solanáceas realizados con planta injertada. A finales de los noventa quedó claro que el empleo de bromuro de metilo tenía una fecha de caducidad y que las zonas que tenían una fuerte dependencia de este desinfectante de suelo debían de buscar alternativas a un plazo lo más corto posible, con un punto añadido sobre etapas anteriores, debían ser alternativas lo más respetuosas posible con el medio ambiente y que no incrementaran, de forma importante, los costes de producción. En la zona centro y concretamente en los invernaderos de la Comunidad de Madrid y zonas cercanas de Toledo y Guadalajara el pepino era y es el cultivo predominante, los horticultores empleaban el bromuro de metilo de forma sistemática para desinfectar sus suelos y la desaparición de este producto les planteaba una gran incertidumbre, lo que llevó a que desde diferentes instancias se buscaran diferentes alternativas. Tras analizar las posibilidades que se podían implementar y conocido el buen resultado que había dado el injerto en sandía en Almería, se decidió acometer los trabajos que conforman esta Tesis Doctoral, planteando en la zona, diferentes ensayos con la idea de conocer, si el injerto en pepino, con los cultivares empleados habitualmente, podía ser una alternativa real para los horticultores, tanto de Madrid, como los de las zonas cercanas de Toledo y Guadalajara. Se pretendía conocer sobre todo las repercusiones agronómicas y si esta técnica podría emplearse en solitario o era necesario complementarla con otras alternativas: desinfectantes químicos, solarización, biofumigación e incluso desinfección con vapor de agua. Los ensayos fueron realizados de forma secuencial entre el año 1999 y el 2011, comprobándose en primer lugar que el empleo de portainjertos híbridos de calabaza era posible con los cultivares de pepino corto tipo español, mayoritariamente empleados en los últimos años del siglo XX y primeros del XXI, fundamentalmente: Serena. Tras los primeros ensayos, Shintoza parecía el portainjerto híbrido de calabaza (Cucurbita maxima x C. moschata) con mejores perspectivas de empleo, pues presentaba la ventaja adicional de ser bien conocido por los semilleros que producen planta injertada al ser, en esos momentos, el portainjerto más empleado en sandía, lo que garantizaba por su lado, su empleo en pepino, y que los horticultores pudiesen disponer de planta injertada. Más adelante los trabajos se encaminaron hacia la determinación de la densidad y tipo de poda más adecuado para la planta injertada, realizándose múltiples ensayos en esta dirección, que culminaron con la conclusión de que el extravigor que los portainjertos conferían a las plantas permitía conducir estas a dos o más brazos (se suelen emplear dos, por mejor adaptación a los trabajos de manejo de la planta por parte de los agricultores), con lo que se podría disminuir la densidad de planta y por tanto ahorrar en este capítulo, cosa que preocupaba y preocupa a los agricultores. Se llegó a determinar que es posible reducir la densidad de plantación en alrededor de un 25%, estando la densidad de brazos más adecuada entre 3 y 3.5 br•m-2. Tras las primeras decisiones tomadas sobre el portainjerto y la densidad más adecuada, se continuó con el estudio de adaptación de estas propuestas a los nuevos cultivares que las empresas de semillas iban proponiendo y los agricultores adoptando. Estas acciones se complementaron con la introducción de nuevos portainjertos susceptibles de sustituir a Shintoza o rotar con él para cambiar de sistema radicular, lo que es conveniente cuando se emplean, como es el caso, portainjertos que no son resistentes a nematodos, principalmente de la especie Meloidogyne incognita, el mayor problema en la zona, debido al suelo. Cultivares como Trópico, en un primer momento, y Urano y Motril más recientemente, se adaptaron muy bien a esta técnica. Entre los portainjertos que mostraron buena adaptación a la técnica de injerto y suficientemente buena compatibilidad con la mayoría de los cultivares ensayados destacan: RS-841, Strongtosa y Camel. Azman también mostró un comportamiento relevante, pero este portainjerto no podrá ser empleado, al ser recientemente retirado del mercado por la empresa que lo obtuvo y comercializó Aunque no era el objetivo principal de esta Tesis Doctoral, se ha comprobado que puede ser interesante combinar el empleo del injerto con otras técnicas alternativas al bromuro de metilo para superar los problemas debidos a enfermedades del suelo o nematodos, pero debe seguirse trabajando pues este es un tema en continua evolución, tanto si se trata de desinfectantes, a la mayoría de los cuales les está siendo retirado el permiso para su comercialización, como de otros métodos como la biofumigación o el empleo de vapor de agua. Queda muy claro que el injerto puede considerarse entre los métodos respetuosos con el medio ambiente, si no el que más, en lo que alternativas al bromuro de metilo se refiere. También en otro momento, se comprobó que con plantas injertadas es posible reducir el aporte de nutrientes, sobre todo nitrógeno, lo que además de un ahorro supone una mejora más desde el punto de vista medioambiental. En definitiva, queda demostrado que es factible el empleo del injerto en pepino corto tipo español, que las selecciones de los híbridos entre Cucurbita maxima y C. moschata que habitualmente se están empleando en sandía son también de aplicación en estos pepinos y que su empleo puede llevarnos a producciones suficientemente remuneradoras, alargándose en muchos casos el ciclo y no modificando, de forma apreciable, la calidad. Queda también demostrado que aunque los portainjertos no sean resistentes a nematodos, su extravigor les hace desarrollarse, desde el punto de vista productivo, suficientemente, llegando por tanto, a “convivir” con ese problema. Al no ser resistentes los portainjertos, y permanecer e incluso agravarse el problema de nematodos es conveniente poder contar con diferentes portainjertos que nos permitan rotar entre ellos y utilizar diferentes sistemas radiculares que harán menos fácil el parasitismo de los nematodos, como recomiendan los nematólogos que se haga. ABSTRACT Vegetable grafting is one of the most current practices in horticulture, not only in Spain, but also in other Western and Asian countries, such as Japan, South Korea, China, the Philippines, etc. This is a decades-old, widespread technique: In fact, most cucurbit and solanaceous crops in Japan and Korea are grafted. At the end of the 1990s, it was clear that methyl bromide had an expiry date. Consequently, the areas strongly dependant on this soil disinfectant had to look for alternatives as quickly as possible. Besides, these had to be as environmentally friendly as possible and should not increase production costs significantly. The cucumber has been and still is the most important crop in greenhouses of the Comunidad de Madrid and in areas near Toledo and Guadalajara. Cucumber growers used methyl bromide systematically to disinfect the soil. The banning of this chemical product brought about uncertainty, which encouraged the search for different alternatives. After analyzing the different possibilities and taking into account the good results of watermelon grafting in Almería, it was decided to carry out the works that make up this doctoral thesis. Different trials were made in order to know if the cultivars used in cucumber grafting might be a real alternative for farmers, not only in Madrid, but also in the areas near Toledo and Guadalajara. The main aim was to assess the agronomic repercussions and whether that technique could be used alone, or if other complementary alternatives, such as chemical disinfectants, solarisation, biofumigation, or even steam disinfection, were necessary. Trials were carried out sequentially from 1999 to 2011. It was observed that the use of pumpkin hybrid rootstocks could be applied to cultivars of Spanish short cucumbers, mainly grown in the late 20th and early 21st centuries eg Serena. After the early trials, Shintoza (Cucurbita maxima x C. moschata), a pumpkin hybrid rootstock, seemed to be the best option, as it had the additional advantage of being well known by nurseries growing grafting plants. Bearing this in mind, Shintoza was then the hybrid rootstock to be used in cucumbers and consequently growers could have grafted plants at their disposal. Later on, research was focused on density and the most adequate type of pruning, by carrying out several trials. These experiments showed that, the extra vigour the rootstocks gave to the plants, allowed them to have two or three stems, (normally nurserymen use two, as it is easier for them to manage the plants). These findings would lead to the lessening the density of the plant and thus reduce costs, something which worried and still worries farmers. It was stated that it would be possible to reduce the density of the plants by about 25%, the optimum density of the stems ranging from 3 to 3.5 stem-m-2. Once decisions were taken both on the rootstock and the appropriate density, we went on to study how to apply these proposals to the new cultivars which the seed companies were proposing and the farmers were applying. These measures were complemented with the introduction of new rootstocks capable of replacing Shintoza, or rotating with it in order to change the root system. This is particularly necessary when rootstocks, non-resistant to nematodes, mainly of the species Meloidogyne incognita, are used. This is the main problem due to the soil of that area. Cultivars such as Trópico, at first, and Urano and Motril, more recently, adapted quite well to this technique. Among the rootstocks which adapted well to grafting and which were compatible with most tested cultivars, were, in particular, RS-841 Strongtosa and Camel. The behaviour of Azman was worth studying, but this rootstock was removed from the market by the company which had bought and commercialized it. Although not the main purpose of the research, it was observed that combining grafting with other alternatives to methyl bromide in order to overcome problems due to soil diseases or nematodes may be worthwhile. However, further research is needed, as this topic is in constant evolution, not only when we come to disinfectants, most of which are being affected by the removal of the permit for commercialization, but also when we refer to other techniques such as biofumigation or the use of steam. Results also showed that grafted plants may reduce the amount of fertilizers, particularly nitrogen, used: This means both saving money and the protection of the environment. We may conclude by saying that grafting Spanish short cucumbers is feasible, that the selections of the hybrids between Cucurbita maxima and C. moschata, habitually used in watermelon grafting, can also be applied to these cucumbers. It can also be concluded that the use of these grafting techniques may lead to profitable yields, by lengthening the growing cycle in many cases and by maintaining the quality to a large extent. Although these rootstocks are not resistant to nematodes, the results showed that their extra vigour enables them to develop in terms of production, and thus they cope with this problem. Since these rootstocks are not resistant to nematodes and the problem with these nematodes may even worsen, it is recommended that different types of rootstocks should be available to enable both the rotation and the use of different root systems, which will encourage the parasitism of nematodes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente tesis doctoral propone un conjunto de ensayos de corta duración destinados a cubrir la ausencia de estándares internacionales específicamente adaptados a la tecnología y al panorama fotovoltaico actual que indiquen como realizar los procedimientos de control de calidad para comprobar que las grandes centrales fotovoltaicas ejecutadas responden a las expectativas establecidas durante la fase de proyecto. Dichos ensayos buscan, desde el punto de vista estrictamente técnico, obtener en un corto periodo de tiempo (típicamente una semana) resultados altamente repetitivos y representativos del comportamiento de la instalación bajo análisis, a la vez que minimizar al máximo la incertidumbre global, aspectos fundamentales para los procedimientos de control general de la calidad de una central. Los ensayos propuestos comprueban tanto el comportamiento general de la central, en términos de su capacidad de producción energética, como el de sus principales componentes, generadores fotovoltaicos e inversores, en términos de potencia máxima y eficiencia, respectivamente. También se aconseja una revisión de la calidad y seguridad de la instalación y de los materiales empleados en la ejecución de la central para evitar un envejecimiento prematuro de los mismos. Todos los ensayos recogidos en el texto se apoyan en la experiencia recopilada por el “Grupo de Sistemas Fotovoltaicos del Instituto de Energía Solar de la Universidad Politécnica de Madrid”, que ha estado involucrado en procedimientos de control de calidad de unas 50 centrales fotovoltaicas, con una potencia acumulada cercana a 250 MW, la mayoría de ellas instaladas en España. ABSTRACT This PhD thesis proposes a set of short-duration tests to establish quality control procedures to ensure that large photovoltaic plants fulfil the initial expectations. The motivation for this work is the lack of international standards specifically adapted to the present photovoltaic technology and its state of the art. From a strict technical point of view, these tests seek to obtain highly repetitive and representative results about the behaviour of the installation under study in a short period of time (typically one single week); and to minimize the global uncertainty. These are the two keys aspects required in quality control procedures. The proposed tests evaluate the general behaviour of the photovoltaic plants, in terms of energy production, as well as the particular behaviour of their main devices, photovoltaic arrays and inverters, in terms of maximum power and efficiency, respectively. A review of the installation quality and safety, and the employed materials in its execution to avoid premature aging is also recommended. The tests here presented are based on the experience accumulated by the “Grupo de Sistemas Fotovoltaicos del Instituto de Energia Solar de la Universidad Politecnica de Madrid”. This group has been involved in quality control procedures of about 50 photovoltaic plants, with an accumulated power close to 250 MW, most of them installed in Spain.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This doctoral thesis focuses on the modeling of multimedia systems to create personalized recommendation services based on the analysis of users’ audiovisual consumption. Research is focused on the characterization of both users’ audiovisual consumption and content, specifically images and video. This double characterization converges into a hybrid recommendation algorithm, adapted to different application scenarios covering different specificities and constraints. Hybrid recommendation systems use both content and user information as input data, applying the knowledge from the analysis of these data as the initial step to feed the algorithms in order to generate personalized recommendations. Regarding the user information, this doctoral thesis focuses on the analysis of audiovisual consumption to infer implicitly acquired preferences. The inference process is based on a new probabilistic model proposed in the text. This model takes into account qualitative and quantitative consumption factors on the one hand, and external factors such as zapping factor or company factor on the other. As for content information, this research focuses on the modeling of descriptors and aesthetic characteristics, which influence the user and are thus useful for the recommendation system. Similarly, the automatic extraction of these descriptors from the audiovisual piece without excessive computational cost has been considered a priority, in order to ensure applicability to different real scenarios. Finally, a new content-based recommendation algorithm has been created from the previously acquired information, i.e. user preferences and content descriptors. This algorithm has been hybridized with a collaborative filtering algorithm obtained from the current state of the art, so as to compare the efficiency of this hybrid recommender with the individual techniques of recommendation (different hybridization techniques of the state of the art have been studied for suitability). The content-based recommendation focuses on the influence of the aesthetic characteristics on the users. The heterogeneity of the possible users of these kinds of systems calls for the use of different criteria and attributes to create effective recommendations. Therefore, the proposed algorithm is adaptable to different perceptions producing a dynamic representation of preferences to obtain personalized recommendations for each user of the system. The hypotheses of this doctoral thesis have been validated by conducting a set of tests with real users, or by querying a database containing user preferences - available to the scientific community. This thesis is structured based on the different research and validation methodologies of the techniques involved. In the three central chapters the state of the art is studied and the developed algorithms and models are validated via self-designed tests. It should be noted that some of these tests are incremental and confirm the validation of previously discussed techniques. Resumen Esta tesis doctoral se centra en el modelado de sistemas multimedia para la creación de servicios personalizados de recomendación a partir del análisis de la actividad de consumo audiovisual de los usuarios. La investigación se focaliza en la caracterización tanto del consumo audiovisual del usuario como de la naturaleza de los contenidos, concretamente imágenes y vídeos. Esta doble caracterización de usuarios y contenidos confluye en un algoritmo de recomendación híbrido que se adapta a distintos escenarios de aplicación, cada uno de ellos con distintas peculiaridades y restricciones. Todo sistema de recomendación híbrido toma como datos de partida tanto información del usuario como del contenido, y utiliza este conocimiento como entrada para algoritmos que permiten generar recomendaciones personalizadas. Por la parte de la información del usuario, la tesis se centra en el análisis del consumo audiovisual para inferir preferencias que, por lo tanto, se adquieren de manera implícita. Para ello, se ha propuesto un nuevo modelo probabilístico que tiene en cuenta factores de consumo tanto cuantitativos como cualitativos, así como otros factores de contorno, como el factor de zapping o el factor de compañía, que condicionan la incertidumbre de la inferencia. En cuanto a la información del contenido, la investigación se ha centrado en la definición de descriptores de carácter estético y morfológico que resultan influyentes en el usuario y que, por lo tanto, son útiles para la recomendación. Del mismo modo, se ha considerado una prioridad que estos descriptores se puedan extraer automáticamente de un contenido sin exigir grandes requisitos computacionales y, de tal forma que se garantice la posibilidad de aplicación a escenarios reales de diverso tipo. Por último, explotando la información de preferencias del usuario y de descripción de los contenidos ya obtenida, se ha creado un nuevo algoritmo de recomendación basado en contenido. Este algoritmo se cruza con un algoritmo de filtrado colaborativo de referencia en el estado del arte, de tal manera que se compara la eficiencia de este recomendador híbrido (donde se ha investigado la idoneidad de las diferentes técnicas de hibridación del estado del arte) con cada una de las técnicas individuales de recomendación. El algoritmo de recomendación basado en contenido que se ha creado se centra en las posibilidades de la influencia de factores estéticos en los usuarios, teniendo en cuenta que la heterogeneidad del conjunto de usuarios provoca que los criterios y atributos que condicionan las preferencias de cada individuo sean diferentes. Por lo tanto, el algoritmo se adapta a las diferentes percepciones y articula una metodología dinámica de representación de las preferencias que permite obtener recomendaciones personalizadas, únicas para cada usuario del sistema. Todas las hipótesis de la tesis han sido debidamente validadas mediante la realización de pruebas con usuarios reales o con bases de datos de preferencias de usuarios que están a disposición de la comunidad científica. La diferente metodología de investigación y validación de cada una de las técnicas abordadas condiciona la estructura de la tesis, de tal manera que los tres capítulos centrales se estructuran sobre su propio estudio del estado del arte y los algoritmos y modelos desarrollados se validan mediante pruebas autónomas, sin impedir que, en algún caso, las pruebas sean incrementales y ratifiquen la validación de técnicas expuestas anteriormente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se presenta la posibilidad de aplicación de la teoría de la fiabilidad estructural al cálculo de los márgenes de seguridad en túneles excavados. Tras una breve introducción a los procedimientos existentes para analizar la incertidumbre y de examinar las limitaciones de los coeficientes de seguridad tal como se definen habitualmente, se precisan los estados límites propuestos así como las variables aleatorias y la metodología aplicada. Se presenta también un ejemplo sencillo basado en un caso real y se termina con algunas conclusiones entre las que destaca la posibilidad de utilizar el método para resolver el problema inverso de identificación de propiedades.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo principal de esta Tesis es extender la utilización del “Soft- Computing” para el control de vehículos sin piloto utilizando visión. Este trabajo va más allá de los típicos sistemas de control utilizados en entornos altamente controlados, demonstrando la fuerza y versatilidad de la lógica difusa (Fuzzy Logic) para controlar vehículos aéreos y terrestres en un abanico de applicaciones diferentes. Para esta Tesis se ha realizado un gran número de pruebas reales en las cuales los controladores difusos han manejado una plataforma visual “pan-and-tilt”, un helicoptero, un coche comercial y hasta dos tipos de quadrirotores. El uso del método de optimización “Cross-Entropy” ha sido utilizado para mejorar el comportamiento de algunos de los controladores borrosos. Todos los controladores difusos presentados en ésta Tesis han sido implementados utilizando un código desarrollado por el candidato para tal efecto, llamado MOFS (Miguel Olivares’ Fuzzy Software). Diferentes algoritmos visuales han sido utilizados para adquirir la informaci´on visual del entorno, “Cmashift”, descomposición de la homografía y detección de marcas de realidad aumentada, entre otros. Dicha información visual ha sido utilizada como entrada de los controladores difusos para comandar los vehículos en las diferentes applicaciones autonomas. El volante de un vehículo comercial ha sido controlado para realizar pruebas de conducción autónoma en condiciones de tráfico similares a las de una ciudad. El sistema ha llegado a completar con éxito pruebas de más de 6 km sin ninguna interacción humana, mediante el seguimiento de una línea pintada en el suelo. El limitado campo visual del sistema no ha sido impedimento para alcanzar velocidades de hasta 48 km/h y ser guiado autonomamente en curvas de radio reducido. Objetos estáticos y móviles han sido seguidos desde un helicoptero no tripulado, mediante el control de una plataforma visual “pan-and-tilt”. ´Éste mismo helicoptero ha sido controlado completamente para su aterrizaje autonomo, mediante el control del movimiento lateral (roll), horizontal (pitch) y de altitud. El seguimiento de objetos volantes ha sido resulto mediante el control horizontal (pitch) y de orientación (heading) de un quadrirotor. Para tareas de evitación de obstáculos se ha implementado un controlador difuso para el manejo de la orientación (heading) de un quadrirotor. En el campo de la optimización de controladores se ha aportado al estado del arte una extensión del uso del método “Cross-Entropy”. Está Tesis presenta una novedosa implementación de dicho método para la optimización de las ganancias, la posición y medida de los conjuntos de las funciones de pertenecia y el peso de las reglas para mejorar el comportamiento de un controlador difuso. Dichos procesos de optimización se han realizado utilizando “ROS” y “Matlab Simulink” para obtener mejores resultados para la evitación de colisiones con vehículos aéreos no tripulados. Ésta Tesis demuestra que los controladores implementados con lógica difusa son altamente capaces de controlador sistemas sin tener en cuenta el modelo del vehículo a controlador en entornos altamente perturbables con un sensor de bajo coste como es una cámara. El ruido presentes causado por los cambios de iluminación en la adquisición de imágenes y la alta incertidumbre en la detección visual han sido manejados satisfactoriamente por ésta técnica de de “Soft-Computing” para distintas aplicaciones tanto con vehículos aéreos como terrestres.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La evaluación de la seguridad de estructuras antiguas de fábrica es un problema abierto.El material es heterogéneo y anisótropo, el estado previo de tensiones difícil de conocer y las condiciones de contorno inciertas. A comienzos de los años 50 se demostró que el análisis límite era aplicable a este tipo de estructuras, considerándose desde entonces como una herramienta adecuada. En los casos en los que no se produce deslizamiento la aplicación de los teoremas del análisis límite estándar constituye una herramienta formidable por su simplicidad y robustez. No es necesario conocer el estado real de tensiones. Basta con encontrar cualquier solución de equilibrio, y que satisfaga las condiciones de límite del material, en la seguridad de que su carga será igual o inferior a la carga real de inicio de colapso. Además esta carga de inicio de colapso es única (teorema de la unicidad) y se puede obtener como el óptimo de uno cualquiera entre un par de programas matemáticos convexos duales. Sin embargo, cuando puedan existir mecanismos de inicio de colapso que impliquen deslizamientos, cualquier solución debe satisfacer tanto las restricciones estáticas como las cinemáticas, así como un tipo especial de restricciones disyuntivas que ligan las anteriores y que pueden plantearse como de complementariedad. En este último caso no está asegurada la existencia de una solución única, por lo que es necesaria la búsqueda de otros métodos para tratar la incertidumbre asociada a su multiplicidad. En los últimos años, la investigación se ha centrado en la búsqueda de un mínimo absoluto por debajo del cual el colapso sea imposible. Este método es fácil de plantear desde el punto de vista matemático, pero intratable computacionalmente, debido a las restricciones de complementariedad 0 y z 0 que no son ni convexas ni suaves. El problema de decisión resultante es de complejidad computacional No determinista Polinomial (NP)- completo y el problema de optimización global NP-difícil. A pesar de ello, obtener una solución (sin garantía de exito) es un problema asequible. La presente tesis propone resolver el problema mediante Programación Lineal Secuencial, aprovechando las especiales características de las restricciones de complementariedad, que escritas en forma bilineal son del tipo y z = 0; y 0; z 0 , y aprovechando que el error de complementariedad (en forma bilineal) es una función de penalización exacta. Pero cuando se trata de encontrar la peor solución, el problema de optimización global equivalente es intratable (NP-difícil). Además, en tanto no se demuestre la existencia de un principio de máximo o mínimo, existe la duda de que el esfuerzo empleado en aproximar este mínimo esté justificado. En el capítulo 5, se propone hallar la distribución de frecuencias del factor de carga, para todas las soluciones de inicio de colapso posibles, sobre un sencillo ejemplo. Para ello, se realiza un muestreo de soluciones mediante el método de Monte Carlo, utilizando como contraste un método exacto de computación de politopos. El objetivo final es plantear hasta que punto está justificada la busqueda del mínimo absoluto y proponer un método alternativo de evaluación de la seguridad basado en probabilidades. Las distribuciones de frecuencias, de los factores de carga correspondientes a las soluciones de inicio de colapso obtenidas para el caso estudiado, muestran que tanto el valor máximo como el mínimo de los factores de carga son muy infrecuentes, y tanto más, cuanto más perfecto y contínuo es el contacto. Los resultados obtenidos confirman el interés de desarrollar nuevos métodos probabilistas. En el capítulo 6, se propone un método de este tipo basado en la obtención de múltiples soluciones, desde puntos de partida aleatorios y calificando los resultados mediante la Estadística de Orden. El propósito es determinar la probabilidad de inicio de colapso para cada solución.El método se aplica (de acuerdo a la reducción de expectativas propuesta por la Optimización Ordinal) para obtener una solución que se encuentre en un porcentaje determinado de las peores. Finalmente, en el capítulo 7, se proponen métodos híbridos, incorporando metaheurísticas, para los casos en que la búsqueda del mínimo global esté justificada. Abstract Safety assessment of the historic masonry structures is an open problem. The material is heterogeneous and anisotropic, the previous state of stress is hard to know and the boundary conditions are uncertain. In the early 50's it was proven that limit analysis was applicable to this kind of structures, being considered a suitable tool since then. In cases where no slip occurs, the application of the standard limit analysis theorems constitutes an excellent tool due to its simplicity and robustness. It is enough find any equilibrium solution which satisfy the limit constraints of the material. As we are certain that this load will be equal to or less than the actual load of the onset of collapse, it is not necessary to know the actual stresses state. Furthermore this load for the onset of collapse is unique (uniqueness theorem), and it can be obtained as the optimal from any of two mathematical convex duals programs However, if the mechanisms of the onset of collapse involve sliding, any solution must satisfy both static and kinematic constraints, and also a special kind of disjunctive constraints linking the previous ones, which can be formulated as complementarity constraints. In the latter case, it is not guaranted the existence of a single solution, so it is necessary to look for other ways to treat the uncertainty associated with its multiplicity. In recent years, research has been focused on finding an absolute minimum below which collapse is impossible. This method is easy to set from a mathematical point of view, but computationally intractable. This is due to the complementarity constraints 0 y z 0 , which are neither convex nor smooth. The computational complexity of the resulting decision problem is "Not-deterministic Polynomialcomplete" (NP-complete), and the corresponding global optimization problem is NP-hard. However, obtaining a solution (success is not guaranteed) is an affordable problem. This thesis proposes solve that problem through Successive Linear Programming: taking advantage of the special characteristics of complementarity constraints, which written in bilinear form are y z = 0; y 0; z 0 ; and taking advantage of the fact that the complementarity error (bilinear form) is an exact penalty function. But when it comes to finding the worst solution, the (equivalent) global optimization problem is intractable (NP-hard). Furthermore, until a minimum or maximum principle is not demonstrated, it is questionable that the effort expended in approximating this minimum is justified. XIV In chapter 5, it is proposed find the frequency distribution of the load factor, for all possible solutions of the onset of collapse, on a simple example. For this purpose, a Monte Carlo sampling of solutions is performed using a contrast method "exact computation of polytopes". The ultimate goal is to determine to which extent the search of the global minimum is justified, and to propose an alternative approach to safety assessment based on probabilities. The frequency distributions for the case study show that both the maximum and the minimum load factors are very infrequent, especially when the contact gets more perfect and more continuous. The results indicates the interest of developing new probabilistic methods. In Chapter 6, is proposed a method based on multiple solutions obtained from random starting points, and qualifying the results through Order Statistics. The purpose is to determine the probability for each solution of the onset of collapse. The method is applied (according to expectations reduction given by the Ordinal Optimization) to obtain a solution that is in a certain percentage of the worst. Finally, in Chapter 7, hybrid methods incorporating metaheuristics are proposed for cases in which the search for the global minimum is justified.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Enriquecer el conocimiento sobre la Radiación Solar (RS) a nivel del suelo es de gran interés para diferentes aplicaciones meteorológicas entre ellas el área de las energías renovables como la energía solar. La interpolación de observaciones de RS por estaciones en tierra, los sensores remotos y la ejecución de distintos modelos son algunas de las formas que existen para obtener valores de RS con continuidad espacial en el terreno. Aunque se sabe que los mejores valores de RS en la superficie son los observados por estaciones terrestres, este tipo de observaciones presentan como desventaja una baja distribución geográfica. En este trabajo se propone el uso de estaciones meteorológicas de voluntarios no oficiales (Meteoclimatic, Weather, Underground, Weather, Link, CWOP) las cuales son fuentes de Información Geográfica por Voluntarios (Volunteered Geographic Information - VGI) que proporcionan sus observaciones RS en tiempo real a través de Internet como una alternativa para densificar la disponibilidad y distribución espacial de las observaciones por RS a nivel superficial. En este trabajo se desarrolla una metodología que contempla tanto la recolección de las observaciones, como su alineación temporal para finalizar con el análisis de los datos indicando sus valores de incertidumbre a medida que se integra en una Base de Datos que integra las distintas fuentes de datos utilizadas. Los resultados indican que el error RS relativo entre las estimaciones por satélite y las observaciones en superficie no es constante a lo largo del día y por tanto debe analizarse mediante agrupaciones. También se ha observado que dicho error puede verse afectado por la localización de la estación meteorológica, en concreto se ha apreciado una relación directa entre el error relativo y la diferencia entre las longitudes de la ubicación de las estaciones superficiales en tierra y el satélite. Ésta misma comparación siguiere que es correcto considerar el uso de Meteoclimatic (la red Voluntaria tomada como piloto) como una fuente de observaciones de la RS importante al presentar un error esperado y aportar aproximadamente 10 veces más estaciones meteorológicas RS que la red oficial en España aportando un buen precedente para la integración de más redes voluntarias en la densificación de observaciones de la RS con estaciones en tierra.