999 resultados para Programação paralela
Resumo:
La gestión de recursos en los procesadores multi-core ha ganado importancia con la evolución de las aplicaciones y arquitecturas. Pero esta gestión es muy compleja. Por ejemplo, una misma aplicación paralela ejecutada múltiples veces con los mismos datos de entrada, en un único nodo multi-core, puede tener tiempos de ejecución muy variables. Hay múltiples factores hardware y software que afectan al rendimiento. La forma en que los recursos hardware (cómputo y memoria) se asignan a los procesos o threads, posiblemente de varias aplicaciones que compiten entre sí, es fundamental para determinar este rendimiento. La diferencia entre hacer la asignación de recursos sin conocer la verdadera necesidad de la aplicación, frente a asignación con una meta específica es cada vez mayor. La mejor manera de realizar esta asignación és automáticamente, con una mínima intervención del programador. Es importante destacar, que la forma en que la aplicación se ejecuta en una arquitectura no necesariamente es la más adecuada, y esta situación puede mejorarse a través de la gestión adecuada de los recursos disponibles. Una apropiada gestión de recursos puede ofrecer ventajas tanto al desarrollador de las aplicaciones, como al entorno informático donde ésta se ejecuta, permitiendo un mayor número de aplicaciones en ejecución con la misma cantidad de recursos. Así mismo, esta gestión de recursos no requeriría introducir cambios a la aplicación, o a su estrategia operativa. A fin de proponer políticas para la gestión de los recursos, se analizó el comportamiento de aplicaciones intensivas de cómputo e intensivas de memoria. Este análisis se llevó a cabo a través del estudio de los parámetros de ubicación entre los cores, la necesidad de usar la memoria compartida, el tamaño de la carga de entrada, la distribución de los datos dentro del procesador y la granularidad de trabajo. Nuestro objetivo es identificar cómo estos parámetros influyen en la eficiencia de la ejecución, identificar cuellos de botella y proponer posibles mejoras. Otra propuesta es adaptar las estrategias ya utilizadas por el Scheduler con el fin de obtener mejores resultados.
Resumo:
Debido al gran número de transistores por mm2 que hoy en día podemos encontrar en las GPU convencionales, en los últimos años éstas se vienen utilizando para propósitos generales gracias a que ofrecen un mayor rendimiento para computación paralela. Este proyecto implementa el producto sparse matrix-vector sobre OpenCL. En los primeros capítulos hacemos una revisión de la base teórica necesaria para comprender el problema. Después veremos los fundamentos de OpenCL y del hardware sobre el que se ejecutarán las librerías desarrolladas. En el siguiente capítulo seguiremos con una descripción del código de los kernels y de su flujo de datos. Finalmente, el software es evaluado basándose en comparativas con la CPU.
Resumo:
Los bancos de peces es un grupo social organizado sin la presencia de un líder. Esta organización se atribuye a dos patrones de comportamiento: atracción biosocial y orientación paralela. Este sistema puede modelarse mediante la aproximación del Modelo orientado al Individuo, donde la conducta de cada individuo por separado define el comportamiento grupal de todos los individuos. El objetivo del trabajo es mejorar el rendimiento del simulador mediante una programación híbrida que aproveche las alternativas de paralelismo en el cómputo que ofrecen las recientes arquitecturas multicore en sistemas de altas prestaciones.
Resumo:
En el entorno actual, diversas ramas de las ciencias, tienen la necesidad de auxiliarse de la computación de altas prestaciones para la obtención de resultados a relativamente corto plazo. Ello es debido fundamentalmente, al alto volumen de información que necesita ser procesada y también al costo computacional que demandan dichos cálculos. El beneficio al realizar este procesamiento de manera distribuida y paralela, logra acortar los tiempos de espera en la obtención de los resultados y de esta forma posibilita una toma decisiones con mayor anticipación. Para soportar ello, existen fundamentalmente dos modelos de programación ampliamente extendidos: el modelo de paso de mensajes a través de librerías basadas en el estándar MPI, y el de memoria compartida con la utilización de OpenMP. Las aplicaciones híbridas son aquellas que combinan ambos modelos con el fin de aprovechar en cada caso, las potencialidades específicas del paralelismo en cada uno. Lamentablemente, la práctica ha demostrado que la utilización de esta combinación de modelos, no garantiza necesariamente una mejoría en el comportamiento de las aplicaciones. Por lo tanto, un análisis de los factores que influyen en el rendimiento de las mismas, nos beneficiaría a la hora de implementarlas pero también, sería un primer paso con el fin de llegar a predecir su comportamiento. Adicionalmente, supondría una vía para determinar que parámetros de la aplicación modificar con el fin de mejorar su rendimiento. En el trabajo actual nos proponemos definir una metodología para la identificación de factores de rendimiento en aplicaciones híbridas y en congruencia, la identificación de algunos factores que influyen en el rendimiento de las mismas.
Resumo:
Actualmente existen muchas aplicaciones paralelas/distribuidas en las cuales SPMD es el paradigma más usado. Obtener un buen rendimiento en una aplicación paralela de este tipo es uno de los principales desafíos dada la gran cantidad de aplicaciones existentes. Este objetivo no es fácil de resolver ya que existe una gran variedad de configuraciones de hardware, y también la naturaleza de los problemas pueden ser variados así como la forma de implementarlos. En consecuencia, si no se considera adecuadamente la combinación "software/hardware" pueden aparecer problemas inherentes a una aplicación iterativa sin una jerarquía de control definida de acuerdo a este paradigma. En SPMD todos los procesos ejecutan el mismo código pero computan una sección diferente de los datos de entrada. Una solución a un posible problema del rendimiento es proponer una estrategia de balance de carga para homogeneizar el cómputo entre los diferentes procesos. En este trabajo analizamos el benchmark CG con cargas heterogéneas con la finalidad de detectar los posibles problemas de rendimiento en una aplicación real. Un factor que determina el rendimiento en esta aplicación es la cantidad de elementos nonzero contenida en la sección de matriz asignada a cada proceso. Determinamos que es posible definir una estrategia de balance de carga que puede ser implementada de forma dinámica y demostramos experimentalmente que el rendimiento de la aplicación puede mejorarse de forma significativa con dicha estrategia.
Resumo:
Desde el inicio del proyecto del genoma humano y su éxito en el año 2001 se han secuenciado genomas de multitud de especies. La mejora en las tecnologías de secuenciación ha generado volúmenes de datos con un crecimiento exponencial. El proyecto Análisis bioinformáticos sobre la tecnología Hadoop abarca la computación paralela de datos biológicos como son las secuencias de ADN. El estudio ha sido encauzado por la naturaleza del problema a resolver. El alineamiento de secuencias genéticas con el paradigma MapReduce.
Resumo:
Performance prediction and application behavior modeling have been the subject of exten- sive research that aim to estimate applications performance with an acceptable precision. A novel approach to predict the performance of parallel applications is based in the con- cept of Parallel Application Signatures that consists in extract an application most relevant parts (phases) and the number of times they repeat (weights). Executing these phases in a target machine and multiplying its exeuction time by its weight an estimation of the application total execution time can be made. One of the problems is that the performance of an application depends on the program workload. Every type of workload affects differently how an application performs in a given system and so affects the signature execution time. Since the workloads used in most scientific parallel applications have dimensions and data ranges well known and the behavior of these applications are mostly deterministic, a model of how the programs workload affect its performance can be obtained. We create a new methodology to model how a program’s workload affect the parallel application signature. Using regression analysis we are able to generalize each phase time execution and weight function to predict an application performance in a target system for any type of workload within predefined range. We validate our methodology using a synthetic program, benchmarks applications and well known real scientific applications.
Resumo:
COMPSs és un entorn de programació paral·lela desenvolupat per BSC-CNS. Aquest projecte busca estendre aquest entorn per tal de dotar-lo de funcionalitats inicialment no suportades. Aquest conjunt d’extensions radiquen principalment en la implementació de mecanismes que permetin incrementar la flexibilitat, robustesa i polivalència del sistema.
Resumo:
S'analitzen les problemàtiques relacionades amb la presentació d'informació gràfica en temps real durant un càlcul paral·lel o col·laboratiu en un entorn distribuït, i es fa una proposta de toolkit obert que estén el llenguatge OpenGL per la seva resolució.
Resumo:
Com o descompasso existente entre o período de elaboração do orçamento, sua efetiva execução e a necessidade de ajustes na programação financeira, podem ocorrer situações que não foram previstas na elaboração da proposta orçamentária, mas que devem ser absorvidas no orçamento do exercício. Tais situações são corrigidas, segundo a legislação brasileira, por meio dos créditos adicionais. Dentre eles, vem crescendo a utilização do crédito extraordinário. Na pesquisa aqui relatada, buscou-se identificar e analisar as razões e os principais fatores que levam o Governo Federal a utilizar sistematicamente o crédito extraordinário, bem como levantar o entendimento existente quanto ao significado dos pressupostos constitucionais da imprevisibilidade e da urgência, além de avaliar a aderência dos créditos extraordinários abertos a esses pressupostos. Foram utilizadas as seguintes estratégias de pesquisa: pesquisas bibliográfica, documental e de campo, com a coleta de entrevistas não estruturadas com especialistas da área orçamentária. As análises realizadas sugerem que os créditos extraordinários abertos nos últimos 16 anos não obedecem aos pressupostos constitucionais e que há flagrante desvirtuamento do processo orçamentário em decorrência da utilização generalizada desse tipo de crédito.
Resumo:
São analisados os constructos teóricos da educação interprofissional com base em duas revisões de literatura, considerado o contexto da formação dos profissionais de saúde no Brasil. Identificam-se três tipos de formação: uniprofissional, multiprofissional e interprofissional, com predomínio da primeira, que ocorre entre estudantes de uma mesma profissão de forma isolada; a segunda, entre estudantes de duas ou mais profissões de forma paralela, sem haver interação, e na terceira há aprendizagem compartilhada, com interação entre estudantes e/ou profissionais de diferentes áreas. Destaca-se a distinção entre interprofissionalidade e interdisciplinaridade, referidas, respectivamente, como a integração das práticas profissionais e das disciplinas ou áreas de conhecimento. Mediante a análise apresentada, conclui-se que no contexto brasileiro, a educação interprofissional, base para o trabalho em equipe colaborativo, ainda está restrita a iniciativas recentes, que merecem estudo.
Resumo:
A presente dissertação teve como finalidade analisar os Problemas Ambientais em Cabo Verde, com destaque para as políticas e medidas implementadas no período que decorre de 1975 a 2010. Para tal, centrou-se no confronto de resultados de estudos que permitiram uma comparação entre os Concelhos da Praia e de São Salvador do Mundo, localizados no sul e no centro da ilha de Santiago, respectivamente. Como ponto de partida, fez-se uma caracterização climática/ambiental do país, salientando a sua fragilidade ambiental através de uma estreita ligação entre as suas características naturais e o estado de ambiente para delinear a evolução das medidas políticas e jurídicas tomadas no sentido de combater ou minimizar os problemas existentes. Todo o trabalho empírico foi realizado nos concelhos acima referidos, com base nos inquéritos efectuados junto dos moradores, escolas, técnicos e políticos que lidam com a problemática ambiental nesses Concelhos. Posteriormente, foi possível analisar profundamente as principais causas da degradação ambiental nos dois Concelhos como a pobreza, a escassez de água, o saneamento básico, o aumento da população, o êxodo rural e as construções clandestinas, estabelecendo uma correlação entre estas e o desenvolvimento económico-social e a qualidade de vida dos seus habitantes. Finalmente, expôs-se o trabalho realizado e o que se perspectiva fazer para sua mitigação, privilegiando a vertente pedagógica, destacando a importância do envolvimento de grupos comunitários para prossecução de acções diversificadas de sensibilização, de programação e da formação em paralelo com o reforço de fiscalização para melhor aplicação de normas existentes.
Resumo:
A presente dissertação pretende contribuir para a análise das temáticas relacionadas com os museus, educação e multiculturalismo. A partir de duas iniciativas promovidas pela Fundação Calouste Gulbenkian: a exposição Looking Both Ways. Das Esquinas do Olhar. Arte da Diáspora Africana Contemporânea, em 2005 e Fórum Cultural O Estado do Mundo - Plataforma 2, em 2006/2007. No que toca à última iniciativa focamo-nos no programa Transfert e no programa Jardim do Mundo. Partindo da análise deste caso prático, foi nosso objectivo compreender de que forma os museus abordam a questão do multiculturalismo. A exposição Looking Both Ways. Das Esquinas do Olhar. Arte da Diáspora Africana Contemporânea focou trabalhos de artistas africanos onde se evidenciavam as influências pessoais de cada um. O projecto ARTAFRICA desempenhou aqui um papel fundamental. O Fórum Cultural O Estado do Mundo - Plataforma 2 promoveu por um lado a fruição de objectos de arte noutros espaços que não os museus – Tranfert; por outro, desenvolveu uma iniciativa integrando elementos de grupos minoritários – Jardim do Mundo. Adicionalmente, foi nosso objectivo reflectir sobre a pertinência de um projecto educativo neste género de iniciativas centrando-nos na figura central do educador enquanto mediador. Analisamos também os termos multiculturalismo e interculturalismo dentro do contexto museológico. Por fim, concluímos que os museus do século XXI que incluem na sua programação as temáticas do multiculturalismo parecem tender para centros culturais
Resumo:
Os Novos desafios estratégicos e políticos traduzidos nos instrumentos de planificação, programação e gestão adoptados para os sectores do Ambiente, Agricultura e Pescas, designadamente o Segundo Plano de acção para o Ambiente, Estratégia e Programa da Segurança Alimentar, Plano de Desenvolvimento Agrícola e Plano de Acção, Plano de Gestão das Pescas, Programa Nacional de Investimento a médio prazo, constituem pilares essenciais para uma reforma institucional adequada e integrante das novas apostas. Orientada por princípios de boa governação e desenvolvimento sustentável, a nova orgânica do Ministério do Ambiente Agricultura e Pescas criada pelo Decreto-Lei n.º 30/2002, de 30 de Dezembro que extinguiu o Ministério da Agricultura e Pescas, a ser ora aprovada tem como principal encargo, não só reflectir as novas atribuições a cargo desse departamento governamental, bem como conferir um maior grau de eficiência e operacionalidade ao funcionamento dos seus serviços. Nesse âmbito, procede-se à criação de novos serviços e órgãos, reformula-se de outros anteriormente existentes e extingue-se outros. Assim, o presente diploma apresenta como inovações, entre outras, dignas de realce: - A extinção da Comissão Nacional de Segurança Alimentar e o aparecimento em seu lugar de um Conselho Nacional de Segurança Alimentar, órgão esse que terá necessariamente de espelhar as alterações recentes em matéria de segurança alimentar designadamente, com a criação da Agência Nacional de Segurança Alimentar e Agência de Regulação e Supervisão dos Produtos Farmacêuticos e Alimentares; - A criação da Direcção-Geral de Planeamento, Orçamento e Gestão, em consonância do decreto-lei nº 44/2004 de 8 Novembro, serviço central do MAAP responsável pelo apoio técnico-administrativo nos domínios de estudo, planeamento e gestão recursos humanos, patrimoniais e logísticos. Integra a Direcção de Estudos, Planeamento e Cooperação, a Direcção de Estatísticas e Gestão da Informação, a Direcção A Direcção de serviços de Administração e Gestão dos Recursos Humanos; - A reestruturação da Direcção Geral da Agricultura, Silvicultura e Pecuária com integração do sector da agricultura com a Pecuária e extinção da direcção de serviço de Extensão Rural; - A reestruturação da Direcção Geral do Ambiente que integra três direcções de serviços: Direcção de serviços dos Assuntos jurídicos, Inspecção e Avaliação de Impactes Ambientais; Direcção de serviços de Informação e Seguimento da Qualidade Ambiental; Direcção de serviços de Gestão dos Recursos Naturais; Por último e sem grandes reformas quanto as competências e atribuições a Direcção geral das pescas2 e as Delegações Regionais do Ministério.
Resumo:
O controlo de segurança para preservação da integridade estrutural da barragens é, durante a fase de exploração normal, uma actividade que tem essencialmente como elemento fulcral as inspecções à estrutura e os dados resultantes das observações periódicas da obra, apoiando-se em modelos de comportamento da mesma. Neste sentido, a análise de situações de emergência requer, em regra, a atenção de um especialista em segurança de barragens, o qual poderá, perante os resultados da observação disponíveis e da aplicação de modelos do comportamento da estrutura, identificar o nível de alerta adequado à situação que se está a viver na barragem. Esta abordagem tradicional de controlo de segurança é um processo eficaz mas que apresenta a desvantagem de poder decorrer um período de tempo significativo entre a identificação de um processo anómalo e a definição do respectivo nível de gravidade. O uso de novas tecnologias de apoio à decisão e o planeamento de emergência podem contribuir para minorar os efeitos desta desvantagem. O presente trabalho consiste no desenvolvimento de um modelo de aferição do comportamento de uma barragem através da aplicação de redes neuronais do tipo Perceptrão Multicamadas aos resultados da observação de uma barragem de aterro, por forma a identificar anomalias de comportamento e a quantificar o correspondente nível de alerta. A tese divide-se essencialmente em duas partes. A primeira parte aborda os aspectos que se relacionam com as barragens de aterro, nomeadamente definindo as soluções estruturais mais correntes e identificando os principais tipos de deteriorações que podem surgir nestas estruturas. São, igualmente, abordadas as questões que se relacionam com o controlo de segurança e o planeamento de emergência em barragens de aterro. A segunda parte do trabalho versa sobre o modelo de rede neuronal desenvolvido em linguagem de programação java – o modelo ALBATROZ. Este modelo permite definir o nível de alerta em função do nível de água na albufeira, da pressão registada em quatro piezómetros localizados no corpo e na fundação da barragem e do caudal percolado através da barragem e respectiva fundação. Nesta parte, o trabalho recorre, aos resultados da observação da barragem de Valtorno/Mourão e usa os resultados de um modelo de elementos finitos (desenvolvido no Laboratório Nacional de Engenharia Civil, no âmbito do plano de observação da obra) por forma a simular o comportamento da barragem e fornecer dados para o treino da rede neuronal desenvolvida.