930 resultados para Programação paralela
Resumo:
O objeto deste trabalho é a análise do aproveitamento múltiplo do reservatório de Barra Bonita, localizado na confluência entre os rios Piracicaba e Tietê, no estado de São Paulo e pertencente ao chamado sistema Tietê-Paraná. Será realizada a otimização da operação do reservatório, através de programação linear, com o objetivo de aumentar a geração de energia elétrica, através da maximização da vazão turbinada. Em seguida, a partir dos resultados da otimização da geração de energia, serão utilizadas técnicas de simulação computacional, para se obter índices de desempenho conhecidos como confiabilidade, resiliência e vulnerabilidade, além de outros fornecidos pelo próprio modelo de simulação a ser utilizado. Estes índices auxiliam a avaliação da freqüência, magnitude e duração dos possíveis conflitos existentes. Serão analisados os possíveis conflitos entre a navegação, o armazenamento no reservatório, a geração de energia e a ocorrência de enchentes na cidade de Barra Bonita, localizada a jusante da barragem.
Resumo:
A demanda crescente de usuários de implante coclear (IC) e a distribuição irregular de profissionais especializados no país, tornam necessário o deslocamento de pacientes por longas distâncias para os atendimentos, com consequente aumento dos custos diretos e indiretos do tratamento. A teleconsulta pode ser vista como uma alternativa em potencial para o acesso desta população a estes serviços. O presente ensaio clínico, randomizado, controlado, avaliou a eficácia da teleconsulta síncrona na programação dos sistemas de IC em usuários acompanhados em um Programa de Implante Coclear credenciado pelo Sistema Único de Saúde. Participaram do estudo 79 indivíduos com idades entre nove e 68 anos (média de 21,6), 41 do sexo masculino e 38 do sexo feminino, usuários de IC por um período de 0,58 a 24,75 anos. Estes indivíduos foram divididos em dois grupos, de acordo com o modo de programação do IC: controle (n=40), que realizou o procedimento face a face e experimental (n=39) que realizou a teleconsulta síncrona. Treze fonoaudiólogos sem experiência na programação do dispositivo atuaram como facilitadores das teleconsultas. Os procedimentos de programação do IC englobaram a telemetria de impedância, definição dos níveis de estimulação elétrica, varredura e balanceamento dos eletrodos e ajuste fino da programação. Como medidas de avaliação de resultados foram utilizados o tempo dispendido na consulta, a audiometria em campo livre, o percentual de reconhecimento de sentenças no silêncio e no ruído, o limiar de reconhecimento de sentenças no silêncio e ruído (HINT-Brasil), a avaliação da satisfação com a consulta (escala MISS-21) e de aspectos pertinentes à teleconsulta. Os facilitadores responderam as questões abertas referentes à suas impressões dos atendimentos. Os dados foram analisados por meio de estatística inferencial (testes t de Student, Wilcoxon, Mann-Whitney e correlação de Spearman). Os resultados mostraram que após a programação do IC, em média, os participantes apresentaram limiares audiométricos abaixo de 30 dB NA. O reconhecimento da fala pós atendimento, respectivamente para os grupos experimental e controle, foram de 81,3% e 83,8% (silêncio) e 57,9% e 58,1% (ruído). No HINT-Brasil os resultados foram, respectivamente, para os grupos experimental e controle 61,4 dB NA e 61,8 dB NA (silêncio) e relação S/R de 9,5 dB NA e 10,4 dB NA (ruído). Os participantes estiveram satisfeitos com a consulta. Não houve diferença estatisticamente significativa entre os grupos em nenhuma das medidas de resultado. Todos os participantes relataram que teleconsulta pode ser vista como uma alternativa viável ao atendimento face a face e sua aplicação clínica facilitaria a rotina de pacientes usuários de IC. Os facilitadores destacaram a sua importância para o aprendizado e como ferramenta de formação continuada. A teleconsulta síncrona foi eficaz na programação dos sistemas de IC e amplamente aceita pelos usuários e profissionais.
Resumo:
Atualmente, as linguagens de programação são usadas por pessoas com formação em domínios cada vez mais diversos e distintos do habitual, tendo já chegado ao domínio das artes. A linguagem Processing, que tem um cariz visual e que possibilita o desenvolvimento de aplicações/performances com elementos visuais e sonoros, foi mesmo projetada para ser usada por artistas. Contudo, a preparação prévia e a sensibilidade do público-alvo desta linguagem, enquanto aprendizes, é bastante distinta da preparação dos alunos comuns de linguagem de programação. Por esse motivo, é aqui proposto um conjunto de metodologias de ensino/aprendizagem adaptadas, no sentido de criar entusiasmo na aprendizagem e atingir um êxito efetivo.
Resumo:
A programação é a alma da emissora, ela dá identidade ao canal e é o verdadeiro produto da TV. A grade de programação faz parte de uma estratégia que busca atrair o máximo de audiência possível e, principalmente, mantê-la fiel. Na década de 1970, a TV Globo alcançou o primeiro lugar de audiência com um modelo de grade que, em linhas gerais, permanece até hoje, como por exemplo, o sanduíche novela-telejornal-novela. Mas como era programação televisiva antes da Globo? Quais os gêneros de programas mais comuns? O era exibido no horário nobre? Como era a programação da então líder TV Tupi? Da glamurosa TV Excelsior? Da TV Record de Paulo Machado de Carvalho? E da pequena TV Paulista que funcionava num apartamento? Nas duas primeiras décadas da TV brasileira é que surgiram as pesquisas de audiência, o videoteipe, as transmissões via satélite e o início da formação das redes. Como algumas dessas tecnologias influenciaram a programação? Por meio de uma metodologia quantitativa e qualitativa, baseada em pesquisa bibliográfica, observação de dados e em entrevistas com profissionais do setor, esta pesquisa de caráter exploratório se baseia em dois eixos estruturais: 1) Rever os principais critérios de classificação de gêneros televisivos e, com esta classificação, fazer a segunda parte do estudo: 2) Analisar as características de programação das quatro emissoras comerciais de maior audiência da TV aberta paulista, nas décadas de 1950 e 1960.
Resumo:
O trabalho aborda o empobrecimento estético-discursivo da canção popular massiva exposta na mídia televisiva brasileira, na comparação entre o contexto histórico-midiático-musical das décadas de 1960 e 1970 e o contexto da primeira metade da segunda década do século XXI. Para definir tal empobrecimento discursivo encontrou-se o conceito de desmusicalização da mídia televisiva . O trabalho, de natureza teórica, tem como objetivo apontar que a mídia televisiva tem papel preponderante e parte importante da responsabilidade pelo empobrecimento na construção do discurso da música popular brasileira. Para tanto, primeiramente, por meio da análise poético-estética dos elementos estruturais das linguagens musical e literária de uma canção popular, delimitou-se a espécie de obra musical estruturada com acuro poético, que a ela empresta um padrão estético de excelência. Tais canções tinham espaços de veiculação nas grades de programação da mídia televisiva de outrora e nos dias atuais não mais os têm. Em seguida, por meio de pesquisas bibliográfica, documental e empírica, descreve-se de modo analítico-interpretativo o período histórico em que ocorreu essa desmusicalização da mídia. Por fim, constata-se que a partir da popularização da Internet e da proliferação de diversas mídias que permitem ao ouvinte o acesso, o armazenamento, o compartilhamento de repertórios musicais e, sobretudo, a audição em movimento, a canção popular massiva pautada pelo acuro poético deixou de estar presente na mídia televisiva e passou a figurar em outras diversas mídias. Essa ampla presença da Música nas mídias digitais definiu-se pelo conceito de hipermidiatização da música, que seria um dos componentes da desmusicalização da mídia televisiva.
Resumo:
Os meios de comunicação que atuam em perspectiva regional alcançaram, inegavelmente, maior visibilidade no contexto da globalização. Em se tratando de emissoras regionais de televisão há, em grande parte dos casos, a afiliação a uma rede nacional. Este estudo é sobre uma emissora regional, a TV TEM Bauru, integrante do grupo TV TEM de afiliadas à Rede Globo de Televisão. O trabalho se fundamenta em conceitos de região, espaço, território e local, mídia local e televisão regional. Tem como objetivo compreender as configurações desta TV, no que se refere às suas origens, vínculos corporativos e as condições de ordem tecnológica, de sustentação comercial e de cobertura jornalística, especificamente, a produção e circulação da informação jornalística gerada e difundida nas cidades da região de cobertura do grupo TV TEM. Visa também caracterizar a relação entre o espaço total de programação ocupado pela cabeça-de-rede em nível nacional e aquele destinado a programas jornalísticos produzidos localmente e, dentro destes, o tempo destinado à veiculação de anúncios publicitários em escala regional. Opta-se pelo método de abordagem dialético, dada a complexidade e as contradições do fenômeno investigado. Trata-se de uma investigação qualitativa do tipo estudo de caso, mas que incorpora dados quantitativos, e se baseia em observação e estudo de conteúdo jornalístico da emissora bauruense, além de pesquisa bibliográfica e documental. A principal conclusão é que o espaço regional é limitado por constrangimentos de ordem comercial, por restrições impostas pela cabeça de rede e, ainda, por um projeto de regionalização que não contempla significativamente as nuanças regionais.(AU)
Resumo:
Digital games have been used as aiding tool for transmission of knowledge, allowing faster dissemination of content. Using this strategy of disseminating logical reasoning development for basic school children can be the motivating gear that helps in the learning process for any area. In this context, many games can be created and provided for the use of teacher and student. However, the complexity of construction of these games becomes a obstacle which can, often, prevent their construction. Thus, this paper presents a framework for creating games, which teach programming logic, presenting from their conception to their integration with the visual programming environment (Blockly) and scenarios created in HTML5.
Resumo:
The reverse time migration algorithm (RTM) has been widely used in the seismic industry to generate images of the underground and thus reduce the risk of oil and gas exploration. Its widespread use is due to its high quality in underground imaging. The RTM is also known for its high computational cost. Therefore, parallel computing techniques have been used in their implementations. In general, parallel approaches for RTM use a coarse granularity by distributing the processing of a subset of seismic shots among nodes of distributed systems. Parallel approaches with coarse granularity for RTM have been shown to be very efficient since the processing of each seismic shot can be performed independently. For this reason, RTM algorithm performance can be considerably improved by using a parallel approach with finer granularity for the processing assigned to each node. This work presents an efficient parallel algorithm for 3D reverse time migration with fine granularity using OpenMP. The propagation algorithm of 3D acoustic wave makes up much of the RTM. Different load balancing were analyzed in order to minimize possible losses parallel performance at this stage. The results served as a basis for the implementation of other phases RTM: backpropagation and imaging condition. The proposed algorithm was tested with synthetic data representing some of the possible underground structures. Metrics such as speedup and efficiency were used to analyze its parallel performance. The migrated sections show that the algorithm obtained satisfactory performance in identifying subsurface structures. As for the parallel performance, the analysis clearly demonstrate the scalability of the algorithm achieving a speedup of 22.46 for the propagation of the wave and 16.95 for the RTM, both with 24 threads.
Resumo:
This study proposes a solution responsible for scheduling data processing with variable demand in cloud environments. The system built check specific variables to the business context of a company incubated at Digital Metropole Institute of UFRN. Such a system generates an identification strategy machinery designs available in a cloud environment, focusing on processing performance, using data load balancing strategies and activities of parallelism in the software execution flow. The goal is to meet the seasonal demand within a standard time limit set by the company, controlling operating costs by using cloud services in the IaaS layer.
Resumo:
Cryptography is the main form to obtain security in any network. Even in networks with great energy consumption restrictions, processing and memory limitations, as the Wireless Sensors Networks (WSN), this is no different. Aiming to improve the cryptography performance, security and the lifetime of these networks, we propose a new cryptographic algorithm developed through the Genetic Programming (GP) techniques. For the development of the cryptographic algorithm’s fitness criteria, established by the genetic GP, nine new cryptographic algorithms were tested: AES, Blowfish, DES, RC6, Skipjack, Twofish, T-DES, XTEA and XXTEA. Starting from these tests, fitness functions was build taking into account the execution time, occupied memory space, maximum deviation, irregular deviation and correlation coefficient. After obtaining the genetic GP, the CRYSEED and CRYSEED2 was created, algorithms for the 8-bits devices, optimized for WSNs, i.e., with low complexity, few memory consumption and good security for sensing and instrumentation applications.
Resumo:
Cryptography is the main form to obtain security in any network. Even in networks with great energy consumption restrictions, processing and memory limitations, as the Wireless Sensors Networks (WSN), this is no different. Aiming to improve the cryptography performance, security and the lifetime of these networks, we propose a new cryptographic algorithm developed through the Genetic Programming (GP) techniques. For the development of the cryptographic algorithm’s fitness criteria, established by the genetic GP, nine new cryptographic algorithms were tested: AES, Blowfish, DES, RC6, Skipjack, Twofish, T-DES, XTEA and XXTEA. Starting from these tests, fitness functions was build taking into account the execution time, occupied memory space, maximum deviation, irregular deviation and correlation coefficient. After obtaining the genetic GP, the CRYSEED and CRYSEED2 was created, algorithms for the 8-bits devices, optimized for WSNs, i.e., with low complexity, few memory consumption and good security for sensing and instrumentation applications.
Resumo:
VALENTIM, R. A. M.; NOGUEIRA, I. A.;ROCHA NETO, A. F. Utilizando a porta paralela para controle remoto de um dispositivo. Revista da FARN, Natal, v. 2, p. 103-114, 2002.
Resumo:
Neste atual cenário mundial, em que as mudanças acontecem em uma velocidade espantosa, novos desafios, novas tecnologias e novos atores aparecem e participam ativamente dessas mudanças. Esta pesquisa apresenta exatamente um desses novos atores, as crianças, as quais interagem cada vez mais cedo com essa diversidade tecnológica. A participação das crianças nesse cenário passa a ser mais ativa quando as mesmas começam a aprender linguagem de programação através de ambientes computacionais. Esses ambientes são avaliados através de sua metacomunicação com aplicação de métodos da Engenharia Semiótica. Assim, a pesquisa tenta compreender e avaliar o processo de metacomunicação usuário-sistema e a contribuição do mesmo no processo de aprendizagem infantil. Com o objetivo de verificarmos essas ocorrências de rupturas entre o ambiente de programação Scratch e seu público-alvo específico, aplicamos a metodologia denominada MAC – Método de Avaliação da Comunicabilidade –, uma técnica conhecida pela Engenharia Semiótica desde 1999. Diversos resultados foram percebidos, porém um merece destaque especial, em que percebemos que as mensagens foram, em sua maioria, identificadas e interpretadas pelos usuários finais. Por outro lado, ocorreram rupturas de comunicação em todos os voluntários, mesmo para aqueles que concluíram todas as tarefas.