993 resultados para SISTEMAS OPERACIONALES DISTRIBUIDOS
Resumo:
La creciente complejidad, heterogeneidad y dinamismo inherente a las redes de telecomunicaciones, los sistemas distribuidos y los servicios avanzados de información y comunicación emergentes, así como el incremento de su criticidad e importancia estratégica, requieren la adopción de tecnologías cada vez más sofisticadas para su gestión, su coordinación y su integración por parte de los operadores de red, los proveedores de servicio y las empresas, como usuarios finales de los mismos, con el fin de garantizar niveles adecuados de funcionalidad, rendimiento y fiabilidad. Las estrategias de gestión adoptadas tradicionalmente adolecen de seguir modelos excesivamente estáticos y centralizados, con un elevado componente de supervisión y difícilmente escalables. La acuciante necesidad por flexibilizar esta gestión y hacerla a la vez más escalable y robusta, ha provocado en los últimos años un considerable interés por desarrollar nuevos paradigmas basados en modelos jerárquicos y distribuidos, como evolución natural de los primeros modelos jerárquicos débilmente distribuidos que sucedieron al paradigma centralizado. Se crean así nuevos modelos como son los basados en Gestión por Delegación, en el paradigma de código móvil, en las tecnologías de objetos distribuidos y en los servicios web. Estas alternativas se han mostrado enormemente robustas, flexibles y escalables frente a las estrategias tradicionales de gestión, pero continúan sin resolver aún muchos problemas. Las líneas actuales de investigación parten del hecho de que muchos problemas de robustez, escalabilidad y flexibilidad continúan sin ser resueltos por el paradigma jerárquico-distribuido, y abogan por la migración hacia un paradigma cooperativo fuertemente distribuido. Estas líneas tienen su germen en la Inteligencia Artificial Distribuida (DAI) y, más concretamente, en el paradigma de agentes autónomos y en los Sistemas Multi-agente (MAS). Todas ellas se perfilan en torno a un conjunto de objetivos que pueden resumirse en alcanzar un mayor grado de autonomía en la funcionalidad de la gestión y una mayor capacidad de autoconfiguración que resuelva los problemas de escalabilidad y la necesidad de supervisión presentes en los sistemas actuales, evolucionar hacia técnicas de control fuertemente distribuido y cooperativo guiado por la meta y dotar de una mayor riqueza semántica a los modelos de información. Cada vez más investigadores están empezando a utilizar agentes para la gestión de redes y sistemas distribuidos. Sin embargo, los límites establecidos en sus trabajos entre agentes móviles (que siguen el paradigma de código móvil) y agentes autónomos (que realmente siguen el paradigma cooperativo) resultan difusos. Muchos de estos trabajos se centran en la utilización de agentes móviles, lo cual, al igual que ocurría con las técnicas de código móvil comentadas anteriormente, les permite dotar de un mayor componente dinámico al concepto tradicional de Gestión por Delegación. Con ello se consigue flexibilizar la gestión, distribuir la lógica de gestión cerca de los datos y distribuir el control. Sin embargo se permanece en el paradigma jerárquico distribuido. Si bien continúa sin definirse aún una arquitectura de gestión fiel al paradigma cooperativo fuertemente distribuido, estas líneas de investigación han puesto de manifiesto serios problemas de adecuación en los modelos de información, comunicación y organizativo de las arquitecturas de gestión existentes. En este contexto, la tesis presenta un modelo de arquitectura para gestión holónica de sistemas y servicios distribuidos mediante sociedades de agentes autónomos, cuyos objetivos fundamentales son el incremento del grado de automatización asociado a las tareas de gestión, el aumento de la escalabilidad de las soluciones de gestión, soporte para delegación tanto por dominios como por macro-tareas, y un alto grado de interoperabilidad en entornos abiertos. A partir de estos objetivos se ha desarrollado un modelo de información formal de tipo semántico, basado en lógica descriptiva que permite un mayor grado de automatización en la gestión en base a la utilización de agentes autónomos racionales, capaces de razonar, inferir e integrar de forma dinámica conocimiento y servicios conceptualizados mediante el modelo CIM y formalizados a nivel semántico mediante lógica descriptiva. El modelo de información incluye además un “mapping” a nivel de meta-modelo de CIM al lenguaje de especificación de ontologías OWL, que supone un significativo avance en el área de la representación y el intercambio basado en XML de modelos y meta-información. A nivel de interacción, el modelo aporta un lenguaje de especificación formal de conversaciones entre agentes basado en la teoría de actos ilocucionales y aporta una semántica operacional para dicho lenguaje que facilita la labor de verificación de propiedades formales asociadas al protocolo de interacción. Se ha desarrollado también un modelo de organización holónico y orientado a roles cuyas principales características están alineadas con las demandadas por los servicios distribuidos emergentes e incluyen la ausencia de control central, capacidades de reestructuración dinámica, capacidades de cooperación, y facilidades de adaptación a diferentes culturas organizativas. El modelo incluye un submodelo normativo adecuado al carácter autónomo de los holones de gestión y basado en las lógicas modales deontológica y de acción.---ABSTRACT---The growing complexity, heterogeneity and dynamism inherent in telecommunications networks, distributed systems and the emerging advanced information and communication services, as well as their increased criticality and strategic importance, calls for the adoption of increasingly more sophisticated technologies for their management, coordination and integration by network operators, service providers and end-user companies to assure adequate levels of functionality, performance and reliability. The management strategies adopted traditionally follow models that are too static and centralised, have a high supervision component and are difficult to scale. The pressing need to flexibilise management and, at the same time, make it more scalable and robust recently led to a lot of interest in developing new paradigms based on hierarchical and distributed models, as a natural evolution from the first weakly distributed hierarchical models that succeeded the centralised paradigm. Thus new models based on management by delegation, the mobile code paradigm, distributed objects and web services came into being. These alternatives have turned out to be enormously robust, flexible and scalable as compared with the traditional management strategies. However, many problems still remain to be solved. Current research lines assume that the distributed hierarchical paradigm has as yet failed to solve many of the problems related to robustness, scalability and flexibility and advocate migration towards a strongly distributed cooperative paradigm. These lines of research were spawned by Distributed Artificial Intelligence (DAI) and, specifically, the autonomous agent paradigm and Multi-Agent Systems (MAS). They all revolve around a series of objectives, which can be summarised as achieving greater management functionality autonomy and a greater self-configuration capability, which solves the problems of scalability and the need for supervision that plague current systems, evolving towards strongly distributed and goal-driven cooperative control techniques and semantically enhancing information models. More and more researchers are starting to use agents for network and distributed systems management. However, the boundaries established in their work between mobile agents (that follow the mobile code paradigm) and autonomous agents (that really follow the cooperative paradigm) are fuzzy. Many of these approximations focus on the use of mobile agents, which, as was the case with the above-mentioned mobile code techniques, means that they can inject more dynamism into the traditional concept of management by delegation. Accordingly, they are able to flexibilise management, distribute management logic about data and distribute control. However, they remain within the distributed hierarchical paradigm. While a management architecture faithful to the strongly distributed cooperative paradigm has yet to be defined, these lines of research have revealed that the information, communication and organisation models of existing management architectures are far from adequate. In this context, this dissertation presents an architectural model for the holonic management of distributed systems and services through autonomous agent societies. The main objectives of this model are to raise the level of management task automation, increase the scalability of management solutions, provide support for delegation by both domains and macro-tasks and achieve a high level of interoperability in open environments. Bearing in mind these objectives, a descriptive logic-based formal semantic information model has been developed, which increases management automation by using rational autonomous agents capable of reasoning, inferring and dynamically integrating knowledge and services conceptualised by means of the CIM model and formalised at the semantic level by means of descriptive logic. The information model also includes a mapping, at the CIM metamodel level, to the OWL ontology specification language, which amounts to a significant advance in the field of XML-based model and metainformation representation and exchange. At the interaction level, the model introduces a formal specification language (ACSL) of conversations between agents based on speech act theory and contributes an operational semantics for this language that eases the task of verifying formal properties associated with the interaction protocol. A role-oriented holonic organisational model has also been developed, whose main features meet the requirements demanded by emerging distributed services, including no centralised control, dynamic restructuring capabilities, cooperative skills and facilities for adaptation to different organisational cultures. The model includes a normative submodel adapted to management holon autonomy and based on the deontic and action modal logics.
Resumo:
El presente trabajo es el producto de una investigación socio económico práctica y metodológica ejecutada en la micro región de Río Blanco y auspiciado por el proyecto PRODERBO cuyo objetivo es fomentar el desarrollo sustentable a partir de estudios previos investigativos que conducen a proponer ejes de desarrollo de intervención. Este estudio se realiza a través de la metodología investigativa de diagnostico bajo el enfoque de análisis de sistema que cubre los aspectos sociales, históricos, culturales, técnicos y económico de la micro región. El análisis se sitúa a varios niveles: nivel de parcela, nivel de sistemas de producción o unidades productivas y nivel de zona. Los pasos metodológicos del estudio comprenden la revisión de fuentes secundarias, el sondeo, la zonificación, historia agraria, pre tipología, diseño del instrumento para el levantamiento de información primaria, la muestra que se hizo a partir de criterio cualitativo y cuantitativo para determinar 32 estudios de finca equivalente al 1% de las familias beneficiadas por el programa PERODERBO distribuidos en toda la Micro Región. El procesamiento y análisis de la información recopilada se realizó sobre la base de indicadores económicos a partir margen bruto, relacionado con el Umbral de Reproducción Simple y Racionalidad económica con estrategias productivas reforzada por antecedentes históricos. La caracterización de los sistemas de producción descansan en general en la articulación de la zonificación y tipología de zona (tomando la homogeneidad de problemática como criterio) y la encuesta. En la micro región se logró caracterizar 3 subzonas; la primera subzona corresponde a Wanawás, Auló, la segunda subzona corresponde a Río Blanco, Bocana de Paiwas, Wasayamba, Ubú norte y sur, en tanto la tercera subzona corresponde a Mulukukú y San Pedro del Norte. Con respecto a la evolución histórica del sistema agrario se logró analizar la historia en tres grandes momentos de la historia reciente de (1920-1998), conocidos como: Inmigración de campesino por el latifundio cafetalero y ganadero (1920-1950}, Inmigración del campesino ganadero (1951-1979) y Pos revolución (1980-1989). En la determinación de la tipología de productores se logró identificar 4 tipos de productores representativos en la zona de estudio. El tipo 1 es el pequeño productor asentado, sin capacidad de reproducción con un nivel de capitalización bajo de SU $1 046.59 dólar, con un área promedio de 72.85 mz donde la actividad ganadera juega un rol muy importante además de las actividades productivas de granos básicos malz (Zea mays), frijol (Phaseolus vulgaris), pequeñas parcelas de cultivos de cacao(Theobroma cacao), café (Coffea arábica), raices y tubérculos, sistema que no es suficiente para cubrir elURS ya que apenas alcanza 68% lo que implica una remuneración baja de sus ingresos agropecuarios. El tipo lA pequeno productor empobrecido sin capacidad de reproducción caracterizado por el mozo colono que le aseguran la mano de obra de los productores tipo 11 y 111 por que dispone del capital más bajo de la tipología identificada con SU $357.57 dólar, con un área promedio 35 mz concentrándose únicamente en la producción de granos básicos maíz (Zea mays), frijol (Phaseolus vulgaris) y algunas especies menores gallina (Gallus gallus) y Cerdo (Sus domesticus) y escasas parcelas de raices y tubérculos como yuca (Manihot esculenta), quequisque (Xanthosomas sagitiffolium) y musaceas (Musa spp), para completar la dieta alimenticia y lograr apenas alcanza un 23% del URS. El tipo 11 productor en equilibrio con carácter intensivo y con capacidad de reproducción, a partir de un sistema de producción diversificado y un área que 88:76 mz promedio trabajadas con cultivos de granos básicos malz (Zea mays), frijol (Phaseolus vulgaris) y cultivos perennes da cacao (Theobroma cacao), café (Coffea arábico) y ganadería extensiva de doble propósito.
Resumo:
Esta investigación se propone facilitar una arquitectura software para la construcción de un sistema capaz de localizar objetos de aprendizaje de forma universal para integrarlos en un sistema de teleformación. Estos sistemas utilizan objetos de aprendizaje que residen en repositorios, accesibles a través de una red de comunicaciones. El objetivo de un repositorio es facilitar la reutilización de dichos recursos educativos, facilitando su acceso. Para reutilizar un objeto de aprendizaje debe ajustarse a algún estándar de etiquetado de metadatos. Los sistemas de teleformación emplean Internet como medio de comunicación de contenidos, sin hacer uso de otras posibilidades. En ellos se integran contenidos almacenados en un repositorio con las herramientas que ayudan a la docencia, y suele ser habitual que no accedan a repositorios externos. La arquitectura existente dificulta la evolución de su desarrollo y accesibilidad. Es necesaria una arquitectura realmente distribuida, en la que cada elemento sea capaz de interactuar con los otros. Se debe sustentar en metadatos asociados a objetos docentes y en protocolos, para poder modificar las herramientas actuales. Se propone la definición de un marco funcional y arquitectónico para la adaptación de un sistema, implementado sobre servicios web y basado en una arquitectura orientada a servicios, que asegure la interoperabilidad entre repositorios de objetos de aprendizaje y que favorezca su reutilización.. En este trabajo, en primer lugar, se analiza el estado actual de los sistemas de teleformación. Se hace hincapié en el estudio de los repositorios que los sustentan y de los estándares que indican cómo construirlos. Se señalan las limitaciones existentes y se definen propuestas para superarlas. Se propone una arquitectura en capas que ha de satisfacer unos requisitos que deberán considerarse en cualquier sistema que se base en dicha arquitectura. Además se definen los componentes necesarios de la arquitectura para asegurar la funcionalidad requerida, el flujo de información y las relaciones entre ellos. Para validar la arquitectura propuesta, se describe un prototipo real creado a partir de los principios propuestos.. En último lugar se exponen las conclusiones y trabajos futuros relacionados con los temas abordados. Se incluyen las fuentes documentales empleadas, sin exhaustividad, dado que el contexto de este trabajo está sometido a cambios continuos..
Resumo:
Tratar de ver si existen diferencias significativas entre los alumnos fracasados y no fracasados en aquellos índices lingüísticos propuestos por Bernstein y a la vez relacionarlos con los factores de la inteligencia verbal en su doble caracterización de fluídez y comprensión. Comprobar la incidencia relacional de los índices lingüísticos con el rendimiento escolar global medio, a través de las calificaciones escolares. Conocer qué conductas de las que ocurren en el aula están más relacionadas con el rendimiento de los escolares. Mostrar que los profesores no tratan de igual modo a los niños de distinto rendimiento. Para la primera parte: 480 alumnos de primero y octavo de EGB, de 30 aulas, de colegios públicos de barrios de Zaragoza capital. 2 Parte: 23 clases pertenecientes a 8 colegios (6 públicos y 2 privados), distribuidos en 8 cursos de EGB. Se llevan a cabo dos investigaciones paralelas, aunque con temática afín: 1) sobre la relación entre lenguaje y rendimiento; 2) la relación entre interacción profesor-alumno y rendimiento. Para la primera, se hace un análisis a través de una muestra de lenguaje oral, de los siguientes índices: disponibilidad del lenguaje; complejidad global, estructura del sistema sintáctico; estructura del sistema morfológico. En la segunda, se observan dos lecciones de cada una de las clases, de las áreas de Matemáticas y Lenguaje. Para la observación se utilizó una parrilla de observación. El instrumento consta de 7 categorías: organización, estructuración, solicitación, etc. Puntuaciones medias de las 4 evaluaciones del curso. Pruebas semejantes a las utilizadas en los exámenes tradicionales. Producciones lingüísticas de los alumnos. Subtest del vocabulario de Weschler. T de Student. Correlación de Pearson. Los sistemas de modos de hablar o códigos socio-lingüísticos poseen un peso importante en la configuración del fracaso escolar. De todas las variables psico y socio-lingüísticas analizadas, las que parecen tener mayor peso son las más relacionadas con la integración verbal. Por el contrario, los índices morfo-sintácticos parecen poseer escasa relación concomitante con el rendimiento escolar. Las variables relacionadas con la participación del alumno en clase, correlacionan positivamente con el aprendizaje. El fracaso en la EGB es acumulativo y progresivo. Las áreas críticas en cuanto al fracaso son: Lenguaje de primero, Matemáticas de tercero, y Ciencias Sociales global. Existen diferencias significativas según sexo (a favor de las niñas) en el éxito y fracaso escolar. El fracaso escolar es una consecuencia directa de la escuela en tanto que institución. El fracaso escolar incide sobre los alumnos procedentes de las clases sociales más bajas, socio-culturalmente hablando. Fecha finalización tomada del código del documento.
Resumo:
Resumen basado en el de la publicación
Resumo:
A modelagem e desenvolvimento de sistemas embarcados ("embedded systems") de forma distribuída, tende a ser uma tarefa extremamente complexa, especialmente quando envolve sistemas heterogêneos e sincronização de tarefas. Com a utilização do modelo de componentes de software é possível descrever, de uma forma simplificada, todos os elementos de distribuição e de comunicação para este tipo de sistemas. Neste sentido, a especificação de uma ferramenta capaz de auxiliar na modelagem e no desenvolvimento deste tipo de aplicação, certamente irá tornar o trabalho mais simples. Esta dissertação inicia por uma análise comparativa entre as tecnologias passíveis de serem utilizadas na definição de sistemas distribuídos heterogêneos, focando-se principalmente nas metodologias de modelagem, e nos mecanismos e middlewares de comunicação. Dos conceitos formados a partir desta análise é descrita uma ferramenta, baseada em componentes de software. A ferramenta é uma extensão do projeto SIMOO-RT, onde foram adicionados os conceitos de componente de software, biblioteca de componentes e diagrama de implantação. Além disso, foram realizadas modificações no sistema de geração de código, para dar suporte aos novos conceitos da ferramenta. A dissertação termina com a descrição de alguns estudos de caso utilizados para validar a ferramenta.
Resumo:
Replicação de objetos é usada para garantir uma maior disponibilidade de recursos em um sistema distribuído. Porém, com a replicação, surgem problemas como o controle da consistência das réplicas e onde estas réplicas devem estar posicionadas. A consistência é garantida por um protocolo de consistência de réplicas. Para facilitar a implementação dos protocolos de controle de réplicas, pode-se utilizar mecanismos de comunicação de grupo como suporte para a replicação. Outro problema importante que surge com a replicação é o posicionamento das réplicas. A carga de processamento em um sistema distribuído muda continuamente e num determinado instante pode ser necessário mudar a distribuição atual das réplicas pela adição de novas réplicas, remoção de réplicas desnecessárias ou pela mudança de posicionamento das réplicas. Um sistema de gerenciamento de réplicas pode realizar esta tarefa. Este trabalho apresenta o sistema RPM – Replica Placement Manager – responsável por fornecer ao serviço de gerenciamento de réplicas uma lista ordenada de nodos potencialmente ideais, num determinado momento do processamento, para receber uma réplica de um objeto. Esta lista é criada pelo RPM, considerando um pequeno conjunto de variáveis estáticas e dinâmicas, facilmente obtidas nos nodos do sistema distribuído.
Resumo:
O desenvolvimento de protocolos distribuídos é uma tarefa complexa. Em sistemas tolerantes a falhas, a elaboração de mecanismos para detectar e mascarar defeitos representam grande parte do esforço de desenvolvimento. A técnica de simulação pode auxiliar significativamente nessa tarefa. Entretanto, existe uma carência de ferramentas de simulação para investigação de protocolos distribuídos em cenários com defeitos, particularmente com suporte a experimentos em configurações “típicas” da Internet. O objetivo deste trabalho é investigar o uso do simulador de redes NS (Network Simulator) como ambiente para simulação de sistemas distribuídos, particularmente em cenários sujeitos à ocorrência de defeitos. O NS é um simulador de redes multi-protocolos, que tem código aberto e pode ser estendido. Embora seja uma ferramenta destinada ao estudo de redes de computadores, o ajuste adequado de parâmetros e exploração de características permitiu utilizá-lo para simular defeitos em um sistema distribuído. Para isso, desenvolveu-se dois modelos de sistemas distribuídos que podem ser implementados no NS, dependendo do protocolo de transporte utilizado: um baseado em TCP e o outro baseado em UDP. Também, foram estudadas formas de modelar defeitos através do simulador. Para a simulação de defeito de colapso em um nodo, foi proposta a implementação de um método na classe de cada aplicação na qual se deseja simular defeitos. Para ilustrar como os modelos de sistemas distribuídos e de defeitos propostos podem ser utilizados, foram implementados diversos algoritmos distribuídos em sistemas síncronos e assíncronos. Algoritmos de eleição e o protocolo Primário-Backup são exemplos dessas implementações. A partir desses algoritmos, principalmente do Primário-Backup, no qual a simulação de defeitos foi realizada, foi possível constatar que o NS pode ser uma ferramenta de grande auxílio no desenvolvimento de novas técnicas de Tolerância a Falhas. Portanto, o NS pode ser estendido possibilitando que, com a utilização dos modelos apresentados nesse trabalho, simule-se defeitos em um sistema distribuído.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Programa de doctorado: Tecnologías de las telecomunicaciones.
Resumo:
[ES] El principal objetivo de este TFG fue la creación de un protocolo basado en CAN que facilitase la integración de redes de microcontroladores. Dicho protocolo tendría que ser sencillo de usar pero con funcionalidades potentes. Se eligió CAN como base puesto que se trataba de un estándar robusto y ampliamente reconocido. El resultado obtenido fue TouCAN, una librería potente pero amigable al usuario. TouCAN posee dos partes claramente diferenciadas pero estrechamente relacionadas, un lado microcontrolador y un lado supervisor. El lado microncontrolador que es sobre el que versa este TFG, está diseñado sobre Arduino, una tecnología muy en boga actualmente dada la facilidad de desarrollo y a una comunidad entusiasta. El objetivo principal de esta parte es la de interconectar los microcontroladores entre sí mediante el protocolo definido en TouCAN, proporcionando las clases y los métodos necesarios para ello. Por otra parte proporciona una serie de métodos de comunicación por el puerto serie para la interacción con un PC supervisor. El lado supervisor está basado en sistemas UNIX, por lo que es compatible con las diversas distribuciones Linux existentes además de ser fácilmente portables a otros sistemas como Mac OS X. Su principal función es la de servir como supervisor del lado microcontrolador. Conectándose a uno de los nodos maestros es capaz de interactuar con el resto de la red, permitiéndole al usuario comunicarse con sus dispositivos en todo momento. TouCAN tiene el potencial necesario para convertirse en una herramienta libre de amplio uso puesto que es sencillo pero potente, sostenida por una tecnología ampliamente conocida.
Resumo:
[ES] El presente TFG tiene por objetivo el desarrollo de una librería que permita al usuario controlar de forma sencilla una red de microcontroladores. Como protocolo de comunicación sobre el que trabajar se ha utilizado el bus CAN, que proporciona una capa para el control de errores, configuración del ancho de banda, gestión de prioridades y protocolo de mensajes. Como resultado al proyecto, se obtiene la librería TouCAN en la cual se establecen dos partes diferenciadas, el lado microcontrolador y el lado supervisor. Cada una de estas partes se desarrollará en un TFG distinto, siendo el lado supervisor el correspondiente a este TFG. El lado microcontrolador se apoyará sobre la plataforma Arduino. En esta parte, se desarrollará la capacidad de conectar diferentes dispositivos de la red de microcontroladores entre sí, definiendo para ello un protocolo de comunicación que permita la realización de comunicaciones síncronas y asíncronas entre los distintos dispositivos de la red. Para dotar al arduino de la capacidad de hacer uso del protocolo bus CAN, se utilizará un Shield destinado a tal fin. El objetivo del supervisor será la integración de la red de microcontroladores con dispositivos de propósito general, tales como un ordenador personal, que permita realizar tareas de control y monitorización de los distintos sistemas empotrados situados en la red. Como sistema operativo utilizado en la elaboración de la librería se utilizó una distribución GNU/Linux. Para la comunicación del dispositivo supervisor con la red de microcontroladores se utilizará el puerto serie disponible en la plataforma Arduino.
Simulación de maniobras de buques con sistemas de propulsión no convencional en aguas poco profundas
Resumo:
Los requisitos cada vez más exigentes en cuanto a misiones, limitaciones operacionales y ambientales así como nuevas tecnologías, imponen permanentemente retos a los arquitectos navales para generar alternativas de buques y valorar su bondad en las primeras etapas del proyecto. Este es el caso de los Buques Patrulleros de Apoyo Fluvial Pesados PAF-P, que por requerimiento de la Armada Nacional de Colombia ha diseñado y construido COTECMAR. Los PAF-P, son buques fluviales cuya relación Manga-Calado excede la mayoría de los buques existentes (B/T=9,5), debido principalmente a las restricciones en el calado a consecuencia de la escasa profundidad de los ríos. Estos buques están equipados con sistemas de propulsión acimutales tipo “Pum-Jet”. Las particularidades del buque y del ambiente operacional, caracterizado por ríos tropicales con una variabilidad de profundidad dependiente del régimen de lluvias y sequía, así como la falta de canalización y la corriente, hacen que la maniobrabilidad y controlabilidad sean fundamentales para el cumplimiento de su misión; adicionalmente, no existen modelos matemáticos validados que permitan predecir en las primeras etapas del diseño la maniobrabilidad de este tipo de buques con los efectos asociados por profundidad. La presente tesis doctoral aborda el desarrollo de un modelo matemático para simulación de maniobrabilidad en aguas poco profundas de buques con relación manga-calado alta y con propulsores acimutales tipo “Pump-Jet”, cuyo chorro además de entregar el empuje necesario para el avance del buque, genera la fuerza de gobierno en función del ángulo de orientación del mismo, eliminando la necesidad de timones. El modelo matemático ha sido validado mediante los resultados obtenidos en las pruebas de maniobrabilidad a escala real del PAF-P, a través de la comparación de trayectorias, series temporales de las variables de estado más significativas y parámetros del círculo evolutivo como son diámetro de giro, diámetro táctico, avance y transferencia. El plan de pruebas se basó en técnicas de Diseño de Experimentos “DOE” para racionalizar el número de corridas en diferentes condiciones de profundidad, velocidad y orientación del chorro (ángulo de timón). En el marco de la presente investigación y para minimizar los errores por efectos ambientales y por inexactitud en los instrumentos de medición, se desarrolló un sistema de adquisición y procesamiento de datos de acuerdo con los lineamientos de ITTC. La literatura existente describe los efectos negativos de la profundidad en los parámetros de maniobrabilidad de buques convencionales (Efecto tipo S), principalmente las trayectorias descritas en los círculos evolutivos aumentan en la medida que disminuye la profundidad; no obstante, en buques de alta relación manga-calado, B/T=7,51 (Yoshimura, y otros, 1.988) y B/T=6,38 (Yasukawa, y otros, 1.995) ha sido reportado el efecto contrario (Efecto tipo NS Non Standart). Este último efecto sin embargo, ha sido observado mediante experimentación con modelos a escala pero no ha sido validado en pruebas de buques a escala real. El efecto tipo NS en buques dotados con hélice y timones, se atribuye al mayor incremento de la fuerza del timón comparativamente con las fuerzas del casco en la medida que disminuye la profundidad; en el caso de estudio, el fenómeno está asociado a la mejor eficiencia de la bomba de agua “Pump-Jet”, debido a la resistencia añadida en el casco por efecto de la disminución de la profundidad. Los resultados de las pruebas con buque a escala real validan el excelente desempeño de esta clase de buques, cumpliendo en exceso los criterios de maniobrabilidad existentes y muestran que el diámetro de giro y otras características de maniobrabilidad mejoran con la disminución de la profundidad en buques con alta relación manga-calado. ABSTRACT The increasingly demanding requirements in terms of missions, operational and environmental constraints as well as new technologies, constantly impose challenges to naval architects to generate alternatives and asses their performance in the early stages of design. That is the case of Riverine Support Patrol Vessel (RSPV), designed and built by COTECMAR for the Colombian Navy. RSPV are riverine ships with a Beam-Draft ratio exceeding most of existing ships (B/T=9,5), mainly due to the restrictions in draft as a result of shallow water environment. The ships are equipped with azimuthal propulsion system of the “Pump-Jet” type. The peculiarities of the ship and the operational environment, characterized by tropical rivers of variable depth depending on the rain and dry seasons, as well as the lack channels and the effect of water current, make manoeuvrability and controllability fundamental to fulfill its mission; on the other hand, there are not validated mathematical models available to predict the manoeuvrability of such ships with the associated water depth effects in the early stages of design. This dissertation addresses the development of a mathematical model for shallow waters’ manoeuvrability simulation of ships with high Beam-Draft ratio and azimuthal propulsion systems type “Pump-Jet”, whose stream generates the thrust required by the ship to advance and also the steering force depending on the orientation angle, eliminating the need of rudders. The mathematical model has been validated with the results of RSPV’s full scale manoeuvring tests, through a comparison of paths, time series of state variables and other parameters taken from turning tests, such as turning diameter, tactical diameter, advance and transfer. The test plan was developed applying techniques of Design of Experiments “DOE”, in order to rationalize the number of runs in different conditions of water depth, ship speed and jet stream orientation (rudder angle). A data acquisition and processing system was developed, following the guidelines of ITTC, as part of this research effort, in order to minimize errors by environmental effects and inaccuracy in measurement instruments, The negative effects of depth on manoeuvrability parameters for conventional ships (Effect Type S: the path described by the ship during turning test increase with decrease of water depth), has been documented in the open literature; however for wide-beam ships, B/T=7,51 (Yoshimura, y otros, 1.988) and B/T=6,38 (Yasukawa, y otros, 1.995) has been reported the opposite effect (Type NS). The latter effect has been observed thru model testing but until now had not been validated with full-scale results. In ships with propellers and rudders, type NS effect is due to the fact that increment of rudder force becomes larger than hull force with decrease of water depth; in the study case, the phenomenon is associated with better efficiency of the Pump-Jet once the vessel speed becomes lower, due to hull added resistance by the effect of the decrease of water depth. The results of full scale tests validates the excellent performance of this class of ships, fulfilling the manoeuvrability criteria in excess and showing that turning diameter and other parameters in high beam-draft ratio vessels do improve with the decrease of depth.
Resumo:
El presente proyecto propone la creación de un procedimiento y metodología para el diseño de salas y sistemas electroacústicos basados en el software EASE. La sala tipo elegida para el diseño será una sala de cine bajo las premisas de DOLBY Digital. Los sistemas electroacústicos modelo serán: • Sistema distribuido tanto en malla cuadrada como hexagonal • Sistemas centralizados basados en agrupaciones, tanto lineales como circulares. Se establecerán los pasos básicos imprescindibles para el diseño de los sistemas descritos de forma que, con la ayuda de este tutorial y los medios didácticos adjuntos al mismo, se puedan acometer paso a paso las distintas fases de diseño, cálculo y análisis de los mismos. Como metodología de trabajo se acometerá el proceso de diseño de un ejemplo de cada tipo sobre el que se describirán todos los pasos, posibilidades de diseño y cálculo de los mismos. Los puntos de estudio serán: • Diseño de una sala de Cine ◦Importación de los Ficheros Autocad del cine a EASE ◦Dibujo del recinto en EASE ◦Inserción de materiales ◦Cálculo del tiempo de reverberación en función del volumen de la sala ◦Ajuste del tiempo de reverberación ◦Elección de altavoces para la sonorización ◦Comprobación de la uniformidad de campo sonoro en todos los canales ◦Comprobación de los niveles de pico y total por canal ◦Ecualización de la sala según la curva X (ISO-2969) ◦Inclusión de la Pantalla en la curva de ecualización ◦Estudios psicoacústico de la sala. Retardos ◦Inteligibilidad ◦Diagrama de bloques • Diseño de un sistema distribuido ◦Estudio de los diferentes tipos de solapamientos ▪Borde con Borde ▪Solapamiento mínimo ▪Centro con Centro ◦Estudio de los diferente tipos de mallas ▪Cuadrada ▪Hexagonal • Diseño de un sistema Centralizado ◦Sistemas centralizados tipo Linear Array ◦Sistemas centralizados tipo Circular Array Así mismo se estudiarán las diferentes posibilidades dentro de la suite EASE, incluyendo las versiones gratuitas del mismo EASE ADDRESS (sistemas distribuidos) y FOCUS II (sistemas centralizados), comparando sus posibilidades con los módulos comerciales equivalentes de EASE y las herramientas añadidas del mismo EARS (software para la auralización biaural) y AURA (utilidad de análisis extendido). ABSTRACT This project proposes the creation of a procedure and methodology for the design of rooms and electroacoustic systems based on EASE software. The room chosen as example design is a cinema under DOLBY Digital premises. Electroacoustic systems chosen as example are: • Distributed both square and hexagonal mesh • Centralized systems based on clusters, both linear and circular. It will be established the basic essential steps for the design of the systems described so, with this tutorial and attached teaching aids, could be undertaken the various stages of design, calculation and analysis. As a working methodology, the process design of an example will be described of each system on which all the steps described, design possibilities and calculation will be shown. The main points are: • Design of a cinema • Importing Autocad Files in EASE • Drawing with EASE • Materials insertion • Reverberation time based on the room volume • Adjusting reverberation time • Choosing speakers • Checking sound field uniformity in all channels • Checking peak levels and total level per each channel • Room equalization using X curve (ISO-2969) • Adding screen in the EQ • Psychoacoustic. Delays • Intelligibility • Block diagram • Design of a distributed system • Study of the different types of overlap o Edge to Edge o Minimum Overlap o Center to Center • Study of different types of mesh • Square • Hex • Centralized System Design • Centralized systems. Linear Array • Centralized systems. Circular Array It also will explore the different possibilities within the EASE suite, including the free versions of the same EASE ADDRESS (distributed systems) and FOCUS II (centralized), comparing its potential with commercial equivalents EASE modules and added tools EARS (software for biaural auralization) and AURA (utility extended analysis).
Resumo:
Las uniones estructurales mecánicas y adhesivas requieren la combinación de un número importante de parámetros para la obtención de la continuidad estructural que exigen las condiciones de diseño. Las características de las uniones presentan importantes variaciones, ligadas a las condiciones de ejecución, tanto en uniones mecánicas como especialmente en uniones adhesivas y mixtas (unión mecánica y adhesiva, también conocidas como uniones híbridas). Las propiedades mecánicas de las uniones adhesivas dependen de la naturaleza y propiedades de los adhesivos y también de muchos otros parámetros que influyen directamente en el comportamiento de estas uniones. Algunos de los parámetros más significativos son: el acabado superficial de los materiales, área y espesor de la capa adhesiva, diseño adecuado, secuencia de aplicación, propiedades químicas de la superficie y preparación de los sustratos antes de aplicar el adhesivo. Los mecanismos de adhesión son complejos. En general, cada unión adhesiva solo puede explicarse considerando la actuación conjunta de varios mecanismos de adhesión. No existen adhesivos universales para un determinado material o aplicación, por lo que cada pareja sustrato-adhesivo requiere un particular estudio y el comportamiento obtenido puede variar, significativamente, de uno a otro caso. El fallo de una junta adhesiva depende del mecanismo cohesión-adhesión, ligado a la secuencia y modo de ejecución de los parámetros operacionales utilizados en la unión. En aplicaciones estructurales existen un número muy elevado de sistemas de unión y de posibles sustratos. En este trabajo se han seleccionado cuatro adhesivos diferentes (cianoacrilato, epoxi, poliuretano y silano modificado) y dos procesos de unión mecánica (remachado y clinchado). Estas uniones se han aplicado sobre chapas de acero al carbono en diferentes estados superficiales (chapa blanca, galvanizada y prepintada). Los parámetros operacionales analizados han sido: preparación superficial, espesor del adhesivo, secuencia de aplicación y aplicación de presión durante el curado. Se han analizado tanto las uniones individuales como las uniones híbridas (unión adhesiva y unión mecánica). La combinación de procesos de unión, sustratos y parámetros operacionales ha dado lugar a la preparación y ensayo de más de mil muestras. Pues, debido a la dispersión de resultados característica de las uniones adhesivas, para cada condición analizada se han ensayado seis probetas. Los resultados obtenidos han sido: El espesor de adhesivo utilizado es una variable muy importante en los adhesivos flexibles, donde cuanto menor es el espesor del adhesivo mayor es la resistencia mecánica a cortadura de la unión. Sin embargo en los adhesivos rígidos su influencia es mucho menor. La naturaleza de la superficie es fundamental para una buena adherencia del adhesivo al substrato, que repercute en la resistencia mecánica de la unión. La superficie que mejor adherencia presenta es la prepintada, especialmente cuando existe una alta compatibilidad entre la pintura y el adhesivo. La superficie que peor adherencia tiene es la galvanizada. La secuencia de aplicación ha sido un parámetro significativo en las uniones híbridas, donde los mejores resultados se han obtenido cuando se aplicaba primero el adhesivo y la unión mecánica se realizaba antes del curado del adhesivo. La aplicación de presión durante el curado se ha mostrado un parámetro significativo en los adhesivos con poca capacidad para el relleno de la junta. En los otros casos su influencia ha sido poco relevante. El comportamiento de las uniones estructurales mecánicas y adhesivas en cuanto a la resistencia mecánica de la unión puede variar mucho en función del diseño de dicha unión. La resistencia mecánica puede ser tan grande que falle antes el substrato que la unión. Las mejores resistencias se consiguen diseñando las uniones con adhesivo cianoacrilato, eligiendo adecuadamente las condiciones superficiales y operacionales, por ejemplo chapa blanca aplicando una presión durante el curado de la unión. La utilización de uniones mixtas aumenta muy poco o nada la resistencia mecánica, pero a cambio proporciona una baja dispersión de resultados, siendo destacable para la superficie galvanizada, que es la que presenta peor reproducibilidad cuando se realizan uniones sólo con adhesivo. Las uniones mixtas conducen a un aumento de la deformación antes de la rotura. Los adhesivos dan rotura frágil y las uniones mecánicas rotura dúctil. La unión mixta proporciona ductilidad a la unión. Las uniones mixtas también pueden dar rotura frágil, esto sucede cuando la resistencia del adhesivo es tres veces superior a la resistencia de la unión mecánica. Las uniones híbridas mejoran la rigidez de la junta, sobre todo se aprecia un aumento importante en las uniones mixtas realizadas con adhesivos flexibles, pudiendo decirse que para todos los adhesivos la rigidez de la unión híbrida es superior. ABSTRACT The mechanical and adhesive structural joints require the combination of a large number of parameters to obtain the structural continuity required for the design conditions. The characteristics of the junctions have important variations, linked to performance conditions, in mechanical joints as particular in mixed adhesive joints (mechanical and adhesive joints, also known as hybrid joints). The mechanical properties of the adhesive joints depend of the nature and properties of adhesives and also of many other parameters that directly influence in the behavior of these joints. Some of the most significant parameters are: the surface finished of the material, area and thickness of the adhesive layer, suitable design, and application sequence, chemical properties of the surface and preparation of the substrate before applying the adhesive. Adhesion mechanisms are complex. In general, each adhesive joint can only be explained by considering the combined action of several adhesions mechanisms. There aren’t universal adhesives for a given material or application, so that each pair substrate-adhesive requires a particular study and the behavior obtained can vary significantly from one to another case. The failure of an adhesive joint depends on the cohesion-adhesion mechanism, linked to the sequence and manner of execution of the operational parameters used in the joint. In the structural applications, there are a very high number of joining systems and possible substrates. In this work we have selected four different adhesives (cyanoacrylate, epoxy, polyurethane and silano modified) and two mechanical joining processes (riveting and clinching). These joints were applied on carbon steel with different types of surfaces (white sheet, galvanized and pre-painted). The operational parameters analyzed were: surface preparation, thickness of adhesive, application sequence and application of pressure during curing. We have analyzed individual joints both as hybrid joints (adhesive joint and mechanical joint). The combination of joining processes, substrates and operational parameters has resulted in the preparation and testing of over a thousand specimens. Then, due to the spread of results characteristic of adhesive joints, for each condition analyzed we have tested six samples. The results have been: The thickness of adhesive used is an important variable in the flexible adhesives, where the lower the adhesive thickness greater the shear strength of the joint. However in rigid adhesives is lower influence. The nature of the surface is essential for good adherence of the adhesive to the substrate, which affects the shear strength of the joint. The surface has better adherence is preprinted, especially when there is a high compatibility between the paint and the adhesive. The surface which has poor adherence is the galvanized. The sequence of application has been a significant parameter in the hybrid junctions, where the best results are obtained when applying first the adhesive and the mechanical joint is performed before cured of the adhesive. The application of pressure during curing has shown a significant parameter in the adhesives with little capacity for filler the joint. In other cases their influence has been less relevant. The behavior of structural mechanical and adhesive joints in the shear strength of the joint can vary greatly depending on the design of such a joint. The shear strength may be so large that the substrate fails before the joint. The best shear strengths are achieved by designing the junctions with cyanoacrylate adhesive, by selecting appropriately the surface and operating conditions, for example by white sheet applying a pressure during curing of the joint. The use of hybrid joints no increase shear strength, but instead provides a low dispersion of results, being remarkable for the galvanized surface, which is the having worst reproducibility when performed bonded joints. The hybrid joints leading to increased deformation before rupture. The joints witch adhesives give brittle fracture and the mechanics joints give ductile fracture. Hybrid joint provides ductility at the joint. Hybrid joint can also give brittle fracture, this happens when the shear strength of the adhesive is three times the shear strength of the mechanical joint. The hybrid joints improve stiffness of joint, especially seen a significant increase in hybrid joints bonding with flexible adhesives, can be said that for all the adhesives, the hybrid junction stiffness is higher.