1000 resultados para LINGUÍSTICA COMPUTACIONAL


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dentro del análisis y diseño estructural surgen frecuentemente problemas de ingeniería donde se requiere el análisis dinámico de grandes modelos de elementos finitos que llegan a millones de grados de libertad y emplean volúmenes de datos de gran tamaño. La complejidad y dimensión de los análisis se dispara cuando se requiere realizar análisis paramétricos. Este problema se ha abordado tradicionalmente desde diversas perspectivas: en primer lugar, aumentando la capacidad tanto de cálculo como de memoria de los sistemas informáticos empleados en los análisis. En segundo lugar, se pueden simplificar los análisis paramétricos reduciendo su número o detalle y por último se puede recurrir a métodos complementarios a los elementos .nitos para la reducción de sus variables y la simplificación de su ejecución manteniendo los resultados obtenidos próximos al comportamiento real de la estructura. Se propone el empleo de un método de reducción que encaja en la tercera de las opciones y consiste en un análisis simplificado que proporciona una solución para la respuesta dinámica de una estructura en el subespacio modal complejo empleando un volumen de datos muy reducido. De este modo se pueden realizar análisis paramétricos variando múltiples parámetros, para obtener una solución muy aproximada al objetivo buscado. Se propone no solo la variación de propiedades locales de masa, rigidez y amortiguamiento sino la adición de grados de libertad a la estructura original para el cálculo de la respuesta tanto permanente como transitoria. Adicionalmente, su facilidad de implementación permite un control exhaustivo sobre las variables del problema y la implementación de mejoras como diferentes formas de obtención de los autovalores o la eliminación de las limitaciones de amortiguamiento en la estructura original. El objetivo del método se puede considerar similar a los que se obtienen al aplicar el método de Guyan u otras técnicas de reducción de modelos empleados en dinámica estructural. Sin embargo, aunque el método permite ser empleado en conjunción con otros para obtener las ventajas de ambos, el presente procedimiento no realiza la condensación del sistema de ecuaciones, sino que emplea la información del sistema de ecuaciones completa estudiando tan solo la respuesta en las variables apropiadas de los puntos de interés para el analista. Dicho interés puede surgir de la necesidad de obtener la respuesta de las grandes estructuras en unos puntos determinados o de la necesidad de modificar la estructura en zonas determinadas para cambiar su comportamiento (respuesta en aceleraciones, velocidades o desplazamientos) ante cargas dinámicas. Por lo tanto, el procedimiento está particularmente indicado para la selección del valor óptimo de varios parámetros en grandes estructuras (del orden de cientos de miles de modos) como pueden ser la localización de elementos introducidos, rigideces, masas o valores de amortiguamientos viscosos en estudios previos en los que diversas soluciones son planteadas y optimizadas, y que en el caso de grandes estructuras, pueden conllevar un número de simulaciones extremadamente elevado para alcanzar la solución óptima. Tras plantear las herramientas necesarias y desarrollar el procedimiento, se propone un caso de estudio para su aplicación al modelo de elementos .nitos del UAV MILANO desarrollado por el Instituto Nacional de Técnica Aeroespacial. A dicha estructura se le imponen ciertos requisitos al incorporar un equipo en aceleraciones en punta de ala izquierda y desplazamientos en punta de ala derecha en presencia de la sustentación producida por una ráfaga continua de viento de forma sinusoidal. La modificación propuesta consiste en la adición de un equipo en la punta de ala izquierda, bien mediante un anclaje rígido, bien unido mediante un sistema de reducción de la respuesta dinámica con propiedades de masa, rigidez y amortiguamiento variables. El estudio de los resultados obtenidos permite determinar la optimización de los parámetros del sistema de atenuación por medio de múltiples análisis dinámicos de forma que se cumplan de la mejor forma posible los requisitos impuestos con la modificación. Se comparan los resultados con los obtenidos mediante el uso de un programa comercial de análisis por el método de los elementos .nitos lográndose soluciones muy aproximadas entre el modelo completo y el reducido. La influencia de diversos factores como son el amortiguamiento modal de la estructura original, el número de modos retenidos en la truncatura o la precisión proporcionada por el barrido en frecuencia se analiza en detalle para, por último, señalar la eficiencia en términos de tiempo y volumen de datos de computación que ofrece el método propuesto en comparación con otras aproximaciones. Por lo tanto, puede concluirse que el método propuesto se considera una opción útil y eficiente para el análisis paramétrico de modificaciones locales en grandes estructuras. ABSTRACT When developing structural design and analysis some projects require dynamic analysis of large finite element models with millions of degrees of freedom which use large size data .les. The analysis complexity and size grow if a parametric analysis is required. This problem has been approached traditionally in several ways: one way is increasing the power and the storage capacity of computer systems involved in the analysis. Other obvious way is reducing the total amount of analyses and their details. Finally, complementary methods to finite element analysis can also be employed in order to limit the number of variables and to reduce the execution time keeping the results as close as possible to the actual behaviour of the structure. Following this third option, we propose a model reduction method that is based in a simplified analysis that supplies a solution for the dynamic response of the structure in the complex modal space using few data. Thereby, parametric analysis can be done varying multiple parameters so as to obtain a solution which complies with the desired objetive. We propose not only mass, stiffness and damping variations, but also addition of degrees of freedom to the original structure in order to calculate the transient and steady-state response. Additionally, the simple implementation of the procedure allows an in-depth control of the problem variables. Furthermore, improvements such as different ways to obtain eigenvectors or to remove damping limitations of the original structure are also possible. The purpose of the procedure is similar to that of using the Guyan or similar model order reduction techniques. However, in our method we do not perform a true model order reduction in the traditional sense. Furthermore, additional gains, which we do not explore herein, can be obtained through the combination of this method with traditional model-order reduction procedures. In our procedure we use the information of the whole system of equations is used but only those nodes of interest to the analyst are processed. That interest comes from the need to obtain the response of the structure at specific locations or from the need to modify the structure at some suitable positions in order to change its behaviour (acceleration, velocity or displacement response) under dynamic loads. Therefore, the procedure is particularly suitable for parametric optimization in large structures with >100000 normal modes such as position of new elements, stiffness, mass and viscous dampings in previous studies where different solutions are devised and optimized, and in the case of large structures, can carry an extremely high number of simulations to get the optimum solution. After the introduction of the required tools and the development of the procedure, a study case is proposed with use the finite element model (FEM) of the MILANO UAV developed by Instituto Nacional de Técnica Aeroespacial. Due to an equipment addition, certain acceleration and displacement requirements on left wing tip and right wing tip, respectively, are imposed. The structure is under a continuous sinusoidal wind gust which produces lift. The proposed modification consists of the addition of an equipment in left wing tip clamped through a rigid attachment or through a dynamic response reduction system with variable properties of mass, stiffness and damping. The analysis of the obtained results allows us to determine the optimized parametric by means of multiple dynamic analyses in a way such that the imposed requirements have been accomplished in the best possible way. The results achieved are compared with results from a commercial finite element analysis software, showing a good correlation. Influence of several factors such as the modal damping of the original structure, the number of modes kept in the modal truncation or the precission given by the frequency sweep is analyzed. Finally, the efficiency of the proposed method is addressed in tems of computational time and data size compared with other approaches. From the analyses performed, we can conclude that the proposed method is a useful and efficient option to perform parametric analysis of possible local modifications in large structures.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Debido al gran interés existente en el ahorro y recuperación de energía, y en el deseo de obtener productos que permitan usos beneficiosos del fango procedente de la depuración del agua residual, la digestión anaerobia es el proceso de estabilización de uso más extendido. El tiempo de retención de sólidos es un factor clave en el proceso de digestión anaerobia. En base al tiempo de retención de sólidos, se dimensiona el volumen de los digestores anaerobios para así obtener la reducción de materia orgánica deseada, con la correspondiente producción de biogás. La geometría del digestor y su sistema de agitación deben ser adecuados para alcanzar el tiempo de retención de sólidos de diseño. Los primeros trabajos sobre la agitación de los digestores realizaban únicamente experimentos con trazadores y otros métodos de medición. En otros casos, la mezcla era evaluada mediante la producción de biogás. Estas técnicas tenían el gran hándicap de no conocer lo que sucedía realmente dentro del digestor y sólo daban una idea aproximada de su funcionamiento. Mediante aplicación de la mecánica de fluidos computacional (CFD) es posible conocer con detalle las características del fluido objeto de estudio y, por lo tanto, simular perfectamente el movimiento del fango de un digestor anaerobio. En esta tesis se han simulado mediante CFD diferentes digestores a escala real (unos 2000 m3 de volumen) agitados con bomba/s de recirculación para alcanzar los siguientes objetivos: establecer la influencia de la relación entre el diámetro y la altura, de la pendiente de la solera, del número de bombas y del caudal de recirculación en dichos digestores, definir el campo de velocidades en la masa de fango y realizar un análisis energético y económico. Así, es posible conocer mejor cómo funciona el sistema de agitación de un digestor anaerobio a escala real equipado con bomba/s de recirculación. Los resultados obtenidos muestran que una relación diámetro/altura del digestor por encima de 1 empeora la agitación del mismo y que la pendiente en la solera del digestor favorece que la masa de fango esté mejor mezclada, siendo más determinante la esbeltez del tanque que la pendiente de su solera. No obstante, también es necesario elegir adecuadamente los parámetros de diseño del sistema de agitación, en este caso el caudal de recirculación de fango, para obtener una agitación completa sin apenas zonas muertas. En el caso de un digestor con una geometría inadecuada es posible mejorar su agitación aumentando el número de bombas de recirculación y el caudal de las mismas, pero no se llegará a alcanzar una agitación total de la masa de fango debido a su mal diseño original. Anaerobic digestion is the process for waste water treatment sludge stabilization of more widespread use due to the huge interest in saving and recovering energy and the wish to obtain products that allow beneficial uses for the sludge. The solids retention time is a key factor in the anaerobic digestion. Based on the solids retention time, volume anaerobic digester is sized to obtain the desired reduction in organic matter, with the corresponding production of biogas. The geometry of the digester and the stirring system should be adequate to achieve the design solid retention time. Early works on digesters stirring just performed tracer experiments and other measurement methods. In other cases, mixing was evaluated by biogas production. These techniques had the great handicap of not knowing what really happened inside the digester and they only gave a rough idea of its operation. By application of computational fluid dynamics (CFD), it is possible to know in detail the characteristics of the fluid under study and, therefore, simulate perfectly the sludge movement of an anaerobic digester. Different full-scale digesters (about 2000 m3 of volume) agitated with pump/s recirculation have been simulated by CFD in this thesis to achieve the following objectives: to establish the influence of the relationship between the diameter and height, the slope of the bottom, the number of pumps and the recirculation flow in such digesters, to define the velocity field in the mass of sludge and carry out an energy and economic analysis. Thus, it is possible to understand better how the agitation system of a full-scale anaerobic digester equipped with pump/s recirculation works. The results achieved show that a diameter/height ratio of the digester above 1 worsens its stirring and that the slope of the digester bottom favors that the mass of sludge is better mixed, being more decisive the tank slenderness than the slope of its bottom. However, it is also necessary to select properly the design parameters of the agitation system, in this case the sludge recirculation flow rate, for a complete agitation with little dead zones. In the case of a digester with inadequate geometry, its agitation can be improved by increasing the number of recirculation pumps and flow of them, but it will not reach a full agitation of the mass of sludge because of the poor original design.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Relatório de estágio apresentado para obtenção do grau de mestre na especialidade profissional de educação pré-escolar

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As expectativas da Organização Mundial de Saúde para o ano de 2030 são que o número de mortes por câncer seja de aproximadamente 13,2 milhões, evidenciando a elevada parcela desta doença no problema de saúde mundial. Com relação ao câncer de próstata, de acordo com o Instituto Nacional do Câncer, o número de casos diagnosticados no mundo em 2012 foi de aproximadamente 1,1 milhão, enquanto que no Brasil os dados indicam a incidência de 68 mil novos casos. O tratamento deste tipo de neoplasia pode ser realizado com cirurgia (prostatectomia) ou radioterapia. Dentre a radioterapia, podemos destacar a técnica de braquiterapia, a qual consiste na introdução (implante) de pequenas fontes radioativas (sementes) no interior da próstata, onde será entregue um valor elevado de dose no volume de tratamento e baixa dose nos tecidos ao redor. No Brasil, a classe médica estima uma demanda de aproximadamente 8000 sementes/mês, sendo o custo unitário de cada semente de pelo menos U$ 26,00. A Associação Americana de Físicos na Medicina publicou alguns documentos descrevendo quais parâmetros e análises devem ser realizadas para avaliações da distribuição de dose, como por exemplo, os parâmetros Constante de taxa de dose, Função radial e Função de anisotropia. Estes parâmetros podem ser obtidos através de medidas experimentais da distribuição de dose ou por simulações computacionais. Neste trabalho foram determinados os parâmetros dosimétricos da semente OncoSeed-6711 da empresa Oncura-GEHealthcare e da semente desenvolvida pelo Grupo de Dosimetria de Fontes de Braquiterapia do Centro de Tecnologia das Radiações (CTR IPEN-CNEN/SP) por simulação computacional da distribuição de dose utilizando o código MCNP5, baseado no Método de Monte Carlo. A semente 6711 foi modelada, assim como um sistema dosimétrico constituído por um objeto simulador cúbico de 30x30x30 cm3 preenchido com água. Os valores obtidos da semente 6711 foram comparados com alguns apresentados na literatura, onde o parâmetro Constante de taxa de dose apresentou erro relativo em relação ao valor publicado no TG- 43 de 0,1%, sendo que os outros parâmetros analisados também apresentaram boa concordância com os valores publicados na literatura. Deste modo, pode-se considerar que os parâmetros utilizados nas simulações (espectro, modelagem geométrica e avaliação de resultados) estão compatíveis com outros estudos, sendo estes parâmetros também utilizados nas simulações da semente do IPEN. Considerando as análises de incerteza estatística, os valores obtidos da semente do IPEN são semelhantes aos valores da semente 6711.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tese apresenta uma abordagem para a criação rápida de modelos em diferentes geometrias (complexas ou de alta simetria) com objetivo de calcular a correspondente intensidade espalhada, podendo esta ser utilizada na descrição de experimentos de es- palhamento à baixos ângulos. A modelagem pode ser realizada com mais de 100 geome- trias catalogadas em um Banco de Dados, além da possibilidade de construir estruturas a partir de posições aleatórias distribuídas na superfície de uma esfera. Em todos os casos os modelos são gerados por meio do método de elementos finitos compondo uma única geometria, ou ainda, compondo diferentes geometrias, combinadas entre si a partir de um número baixo de parâmetros. Para realizar essa tarefa foi desenvolvido um programa em Fortran, chamado de Polygen, que permite modelar geometrias convexas em diferentes formas, como sólidos, cascas, ou ainda com esferas ou estruturas do tipo DNA nas arestas, além de usar esses modelos para simular a curva de intensidade espalhada para sistemas orientados e aleatoriamente orientados. A curva de intensidade de espalhamento é calculada por meio da equação de Debye e os parâmetros que compõe cada um dos modelos, podem ser otimizados pelo ajuste contra dados experimentais, por meio de métodos de minimização baseados em simulated annealing, Levenberg-Marquardt e algorítmicos genéticos. A minimização permite ajustar os parâmetros do modelo (ou composição de modelos) como tamanho, densidade eletrônica, raio das subunidades, entre outros, contribuindo para fornecer uma nova ferramenta para modelagem e análise de dados de espalhamento. Em outra etapa desta tese, é apresentado o design de modelos atomísticos e a sua respectiva simulação por Dinâmica Molecular. A geometria de dois sistemas auto-organizado de DNA na forma de octaedro truncado, um com linkers de 7 Adeninas e outro com linkers de ATATATA, foram escolhidas para realizar a modelagem atomística e a simulação por Dinâmica Molecular. Para este sistema são apresentados os resultados de Root Mean Square Deviations (RMSD), Root Mean Square Fluctuations (RMSF), raio de giro, torção das hélices duplas de DNA além da avaliação das ligações de Hidrogênio, todos obtidos por meio da análise de uma trajetória de 50 ns.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No gerenciamento de recursos hídricos, a bacia hidrográfica é considerada a unidade natural de gestão. Suas características físicas definem um espaço onde a água converge para uma saída comum. O desenvolvimento integrado de uma bacia, bem como os possíveis conflitos ocasionados por demandas concorrentes do mesmo recurso, devem ser administrados respeitando esse conceito de unidade. No caso específico da bacia hidrográfica do Rio Jaguari, existe uma crescente preocupação relacionada aos usos múltiplos da água superficial. O rio Jaguari, importante afluente do Paraíba do Sul no estado de São Paulo, tem suas águas represadas para geração de energia elétrica e regularização de vazões. Nos últimos anos, tem-se constatado um crescente rebaixamento dos níveis operacionais da represa do Jaguari. Segundo estudos da sociedade civil organizada local, a tendência é de esgotamento do reservatório em poucos anos. Este trabalho aborda a questão do rebaixamento dos níveis de Jaguari através da aplicação do software DHI Mike Basin 2000. Trata-se de um simulador genérico para sistemas de recursos hídricos, de ampla aplicação. A bacia do Jaguari é representada em um modelo matemático e são simulados quatro cenários distintos de usos de água na bacia. Verifica-se que o problema é real e requer uma intervenção multi-institucional para ser solucionado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho trata do desenvolvimento de um sistema computacional, para a geração de dados e apresentação de resultados, específico para as estruturas de edifícios. As rotinas desenvolvidas devem trabalhar em conjunto com um sistema computacional para análise de estruturas com base no Método dos Elementos Finitos, contemplando tanto as estruturas de pavimentos; com a utilização de elementos de barra, placa/casca e molas; como as estruturas de contraventamento; com a utilização de elementos de barra tridimensional e recursos especiais como nó mestre e trechos rígidos. A linguagem computacional adotada para a elaboração das rotinas mencionadas é o Object Pascal do DELPHI, um ambiente de programação visual estruturado na programação orientada a objetos do Object Pascal. Essa escolha tem como objetivo, conseguir um sistema computacional onde alterações e adições de funções possam ser realizadas com facilidade, sem que todo o conjunto de programas precise ser analisado e modificado. Por fim, o programa deve servir como um verdadeiro ambiente para análise de estruturas de edifícios, controlando através de uma interface amigável com o usuário uma série de outros programas já desenvolvidos em FORTRAN, como por exemplo o dimensionamento de vigas, pilares, etc.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Na mesma proporção que fontes de água potável são reduzidas, a competição por elas tem aumentado, conseqüência imediata da expansão de áreas urbanas e de novas demandas agro-industriais. Os conflitos gerados por esta competição tendem a comprometer o desenvolvimento sustentável e o progresso de uma forma geral, uma vez que resultam em perda de eficácia para vultuosos investimentos públicos e privados e em prejuízos para os usuários menos estruturados. Considerando os fatos acima, o objeto deste trabalho é o estabelecimento de cenários de alocação das disponibilidades hídricas entre usuários de água da bacia do Sapucaí-Mirim/Grande, visando determinar a convivência harmoniosa das várias finalidades de uso provenientes do mesmo recurso hídrico. Tal meta poderá ser alcançada através da análise dos indicadores de desempenho - confiabilidade, vulnerabilidade e resiliência - do sistema os quais serão obtidos com o auxílio do modelo de simulação IRAS (Interactive River Aquifer Simulation).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Fundamental a vida e ao desenvolvimento de qualquer sociedade, a água é um bem precioso e limitado que está se esgotando e sendo motivo de preocupação mundial. O desperdício, a distribuição desigual, o aumento do consumo e a degradação da qualidade da água são motivos que a tornaram escassa e trouxeram à tona a importância do planejamento e gerenciamento dos recursos hídricos. Frente a esta situação, este trabalho buscou avaliar a disponibilidade hídrica quantitativa e qualitativa da bacia hidrográfica do rio Sapucaí-Mirim, SP. Através da aplicação do simulador hidrológico MIKE BASIN, foi analisado o desempenho do sistema de recursos hídricos, o conflito existente entre os usos múltiplos e a concentração dos parâmetros OD e DBO nas águas do rio que recebe efluentes domésticos, muitos deles sem nenhum tratamento. Apesar da quantidade de água ser suficiente para atender às demandas, o estudo mostra que a geração de energia elétrica está comprometida e a água está se esgotando qualitativamente, evidenciando a necessidade e urgência de se implantar estações de tratamento de esgoto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste projeto foi desenvolvido um método computacional para verificação da melhor combinação tela intensificadora - filme para exames mamográficos através do estudo de suas características sensitométricas. O software, desenvolvido em ambiente Delphi para windows, apresenta na tela do microcomputador a imagem a ser obtida para cada tipo de combinação tela intensificadora - filme, utilizando imagens de \"Phantoms\" e de mamas reais. Em razão da ampla quantidade de fatores que influenciam a imagem mamográfica final, tais como magnificação, característica dos filmes e telas intensificadoras e condições da processadora, o método proposto pode proporcionar uma ampla avaliação da qualidade dos sistemas de imagem mamográfica de uma forma simples, rápida e automática, através de procedimentos de simulação computacional. A simulação investigou a influência que um determinado sistema de registro exerce sobre a qualidade da imagem, possibilitando conhecer previamente a imagem final a ser obtida com diferentes equipamentos e sistemas de registro. Dentre os sistemas investigados, três filmes (Kodak Min R 2000, Fuji UM MA-HC e Fuji ADM) e duas telas intensificadoras (Kodak Min R 2000 e Fuji AD Mammo Fine), aquele que apresentou melhores resultados, com melhor qualidade de imagens e menor exposição à paciente foi o de tela Min R 2000 com filme Min R 2000 da Kodak.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Em geral, uma embarcação de planeio é projetada para atingir elevados níveis de velocidade. Esse atributo de desempenho está diretamente relacionado ao porte da embarcação e à potência instalada em sua planta propulsiva. Tradicionalmente, durante o projeto de uma embarcação, as análises de desempenho são realizadas através de resultados de embarcações já existentes, retirados de séries sistemáticas ou de embarcações já desenvolvidas pelo estaleiro e/ou projetista. Além disso, a determinação dos atributos de desempenho pode ser feita através de métodos empíricos e/ou estatísticos, onde a embarcação é representada através de seus parâmetros geométricos principais; ou a partir de testes em modelos em escala reduzida ou protótipos. No caso específico de embarcações de planeio, o custo dos testes em escala reduzida é muito elevado em relação ao custo de projeto. Isso faz com que a maioria dos projetistas não opte por ensaios experimentais das novas embarcações em desenvolvimento. Ao longo dos últimos anos, o método de Savitsky foi largamente utilizado para se realizar estimativas de potência instalada de uma embarcação de planeio. Esse método utiliza um conjunto de equações semi-empíricas para determinar os esforços atuantes na embarcação, a partir dos quais é possível determinar a posição de equilíbrio de operação e a força propulsora necessária para navegar em uma dada velocidade. O método de Savitsky é muito utilizado nas fases iniciais de projeto, onde a geometria do casco ainda não foi totalmente definida, pois utiliza apenas as características geométricas principais da embarcação para realização das estimativas de esforços. À medida que se avança nas etapas de projeto, aumenta o detalhamento necessário das estimativas de desempenho. Para a realização, por exemplo, do projeto estrutural é necessária uma estimativa do campo de pressão atuante no fundo do casco, o qual não pode ser determinado pelo método de Savitsky. O método computacional implementado nesta dissertação, tem o objetivo de determinar as características do escoamento e o campo de pressão atuante no casco de uma embarcação de planeio navegando em águas calmas. O escoamento é determinado através de um problema de valor de contorno, no qual a superfície molhada no casco é considerada um corpo esbelto. Devido ao uso da teoria de corpo esbelto o problema pode ser tratado, separadamente, em cada seção, onde as condições de contorno são forçadamente respeitadas através de uma distribuição de vórtices.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Computational Swarms (enxames computacionais), consistindo da integração de sensores e atuadores inteligentes no nosso mundo conectado, possibilitam uma extensão da info-esfera no mundo físico. Nós chamamos esta info-esfera extendida, cíber-física, de Swarm. Este trabalho propõe uma visão de Swarm onde dispositivos computacionais cooperam dinâmica e oportunisticamente, gerando redes orgânicas e heterogêneas. A tese apresenta uma arquitetura computacional do Plano de Controle do Sistema Operacional do Swarm, que é uma camada de software distribuída embarcada em todos os dispositivos que fazem parte do Swarm, responsável por gerenciar recursos, definindo atores, como descrever e utilizar serviços e recursos (como divulgá-los e descobrí-los, como realizar transações, adaptações de conteúdos e cooperação multiagentes). O projeto da arquitetura foi iniciado com uma revisão da caracterização do conceito de Swarm, revisitando a definição de termos e estabelecendo uma terminologia para ser utilizada. Requisitos e desafios foram identificados e uma visão operacional foi proposta. Esta visão operacional foi exercitada com casos de uso e os elementos arquiteturais foram extraídos dela e organizados em uma arquitetura. A arquitetura foi testada com os casos de uso, gerando revisões do sistema. Cada um dos elementos arquiteturais requereram revisões do estado da arte. Uma prova de conceito do Plano de Controle foi implementada e uma demonstração foi proposta e implementada. A demonstração selecionada foi o Smart Jukebox, que exercita os aspectos distribuídos e a dinamicidade do sistema proposto. Este trabalho apresenta a visão do Swarm computacional e apresenta uma plataforma aplicável na prática. A evolução desta arquitetura pode ser a base de uma rede global, heterogênea e orgânica de redes de dispositivos computacionais alavancando a integração de sistemas cíber-físicos na núvem permitindo a cooperação de sistemas escaláveis e flexíveis, interoperando para alcançar objetivos comuns.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Está ampliamente aceptado que es fundamental desarrollar la habilidad de resolver problemas. El pensamiento computacional se basa en resolver problemas haciendo uso de conceptos fundamentales de la informática. Nada mejor para desarrollar la habilidad de resolver problemas usando conceptos informáticos que una asignatura de introducción a la programación. Este trabajo presenta nuestras reflexiones acerca de cómo iniciar a un estudiante en el campo de la programación de computadores. El trabajo no detalla los contenidos a impartir, sino que se centra en aspectos metodológicos, con la inclusión de experiencias y ejemplos concretos, a la vez que generales, extensibles a cualquier enseñanza de programación. En general, aunque se van desarrollado lenguajes cada vez más cercanos al lenguaje humano, la programación de ordenadores utilizando lenguajes formales no es una materia intuitiva y de fácil comprensión por parte de los estudiantes. A la persona que ya sabe programar le parece una tarea sencilla, pero al neófito no. Es más, dominar el arte de la programación es complejo. Por esta razón es indispensable utilizar todas las técnicas y herramientas posibles que faciliten dicha labor.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este artículo aborda la investigación, realizada con los estudiantes del primer semestre de la titulación de Informática de la Facultad de Filosofía, Letras y Ciencias de la Educación de la Universidad Central del Ecuador, cuyo propósito ha sido analizar el uso de entornos de programación no mediados simbólicamente como herramienta didáctica para el desarrollo del pensamiento computacional. Se pretende establecer las posibles ventajas de aplicar este tipo de entorno para que los estudiantes desarrollen habilidades del pensamiento computacional tales como la creatividad, modelación y abstracción, entre otras, consideradas relevantes dentro de la programación. La metodología en que se apoyó la investigación es mixta, con investigación de campo y documental a nivel descriptivo. Se utilizó como instrumento un cuestionario para la recolección de datos entre el alumnado de la titulación. Finalmente, con la información recopilada se procedió al procesamiento de datos a partir de la estadística descriptiva para, así, obtener resultados que permitiesen alcanzar las pertinentes conclusiones y recomendaciones.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Para la supervivencia de cualquier industria en un mercado cada vez más competitivo resulta esencial mejorar la calidad del producto y reducir costos. Como parte de esa tendencia, el proceso de diseño, tanto de bienes como de procesos de manufactura, debe ser confiable e insumir el menor tiempo posible para permitir agilidad y eficacia en los cambios y las innovaciones que requiere el mercado. Es necesario abandonar los procesos de desarrollo basados en largas y costosas secuencias de prueba y error y reemplazarlos por procedimientos más cortos y eficientes. Las herramientas informáticas y los modelos computacionales han contribuido en gran medida a lograr dicho objetivo. Estos métodos son cada vez más utilizados en industrias tan importantes como la automotriz o la de maquinaria y equipamiento agrícola, ambas de relevante importancia en la actividad económica de nuestra provincia. En las mencionadas industrias, con la intención de mejorar las prestaciones del producto, de reducir costos de mantenimiento para igual prestación y, sobre todo, con el objetivo de disminuir el peso total del vehículo, factor importante en relación con el ahorro de combustible, es habitual la sustitución de algunos materiales tradicionalmente utilizados por otros con mejor relación prestación/costo y prestación/peso. Dentro de este grupo de nuevos materiales que se emplean en la industria automotriz se encuentran los compuestos, las aleaciones ligeras y la fundición dúctil, los cuales han estado substituyendo al acero o a la fundición gris en algunas piezas. La meta de esta investigación es generar modelos computacionales multiescala de: a) el proceso de tratamiento térmico de austemperizado de la fundición dúctil, b) el comportamiento mecánico de elementos de fundición dúctil y c) el comportamiento mecánico de material compuesto de matriz epoxi y fibra de vidrio con daño higrotérmico. Se usarán simulaciones acopladas de meso y macromecánica. El principal postulado es que la representación de la mesomecánica del material acoplada a la macromecánica conduce a resultados que mejoran las predicciones con respecto a modelos planteados sólo a nivel macroscópico. El dominio macroscópico se representará con elementos finitos y en ese nivel se resolverán problemas térmicos y mecánicos. En la mesoescala se emplearán leyes fenomenológicas para el aspecto metalúrgico del austemperizado y elementos finitos para el análisis del comportamiento micromecánico de la fundición dúctil y del material compuesto. Los productos resultantes de la investigación serán software y metodologías que puedan ser utilizadas en la mejora del diseño de piezas de fundición dúctil y de materiales compuestos y en el ajuste del tratamiento de austemperizado de la fundición dúctil que permita obtener la microestructura requerida. Desde un punto de vista académico y en relación con la temática planteada en el proyecto, tres integrantes llevarán a cabo sus estudios doctorales y se publicarán resultados en revistas internacionales